Waarom Girai

De tools die je team sneller maken, maken je organisatie afhankelijker.

Al bespaart je team uren per week. Maar de manier waarop de meeste organisaties AI inzetten — via ChatGPT, via Copilot, via losse tools — creëert een afhankelijkheid die elke maand groter wordt. Van één leverancier. Van één model. Van één ecosysteem waar je niet meer uit kunt.

Voorbeeld van het Girai-chatdashboard

Stel je het volgende voor.

Je organisatie heeft het afgelopen jaar alle offertekennis in ChatGPT gezet. Hoe jullie offertes opbouwen. Welke formuleringen werken bij welk type aanvraag. Welke structuur het beste scoort. Je team heeft prompts aangescherpt, werkprocessen verfijnd, een hele werkwijze opgebouwd in de tool.
Het werkt. Het bespaart tientallen uren per maand.

En dan verandert OpenAI de voorwaarden. Of de prijs verdubbelt. Of er komt een AI-model dat aantoonbaar beter is voor jullie werk. Je wilt overstappen.

Maar dat kan niet.

Je prompts werken alleen binnen ChatGPT. De Custom GPT's die je team heeft gebouwd functioneren nergens anders. Je opgebouwde logica is niet exporteerbaar. En de data die je hebt ingevoerd — offertes, beleidsstukken, interne analyses — die staat in de cloud van een Amerikaans bedrijf waarover je geen juridische controle hebt.

Je begint van voren af aan.

Dit is geen hypothetisch scenario. Dit is wat er gebeurt als je bedrijfskritische intelligentie opbouwt binnen een gesloten ecosysteem.

Het lock-in-patroon

Dit heb je eerder zien gebeuren.

Met je Microsoft-omgeving. Met je ERP-systeem. Met je CRM. De afhankelijkheid groeide geleidelijk. De contracten werden minder flexibel. En op een gegeven moment kon je niet meer weg — niet omdat het product zo goed was, maar omdat de overstapkosten te hoog waren geworden.

Met AI gebeurt precies hetzelfde. Alleen sneller. En met hogere stakes.

Want het gaat niet om een tool. Het gaat om wat je organisatie erin opbouwt. De prompts. De logica. De werkprocessen. De verfijnde vraagstellingen die je team in maanden heeft ontwikkeld. Dát is waar de echte waarde zit. Niet in het AI-model zelf.

En precies die waarde — jouw opgebouwde intelligentie — raakt opgesloten bij één leverancier. Niet exporteerbaar. Niet overdraagbaar. Weg zodra je overstapt.

Screenshot
Het verschil

Wat verandert er als je dit anders aanpakt?

  • Dit is een unique selling point
  • Dit is een unique selling point
  • Dit is een unique selling point
Hoe het nu gaat
  • Medewerkers gebruiken ChatGPT zonder centraal beleid of toezicht
  • Gevoelige data gaat naar cloud-omgevingen van Amerikaanse leveranciers
  • Opgebouwde prompts en werkprocessen zitten vast in één tool
  • Overstappen naar een ander AI-model betekent opnieuw beginnen
  • IT blokkeert AI-gebruik bij gebrek aan een veilig alternatief
  • DPIA-trajecten stranden op onduidelijkheid over dataverwerking
Hoe het kan
  • Alle medewerkers werken in één afgeschermde, centrale applicatie
  • Data staat op Europese infrastructuur, volledig geïsoleerd
  • Prompts en werkprocessen werken met elk AI-model
  • Overschakelen naar een ander model is een klik op de knop
  • IT zegt ja — want de controle ligt bij de organisatie
  • Compliance-documentatie is ingebouwd en beschikbaar

Dat is waarom Girai bestaat.

AI wordt snel bedrijfskritisch. Girai helpt je die kracht te gebruiken zonder jezelf opnieuw vast te prikken — met ruimte om te kiezen, data die van jou blijft, en een opbouw die mee verhuist tussen modellen.

Slotje: vrijheid kiezen

Vrijheid

Je kiest zelf welk AI-model je gebruikt en kunt altijd overschakelen. Zonder iets te verliezen. Geen vendor lock-in.

Schild: data veiligheid

Veiligheid

Je data is geïsoleerd en van jou. Girai kijkt niet mee en gebruikt je data niet. Kies Europese modellen en je data verlaat Europa niet.

Continuïteit tussen modellen

Continuïteit

Alles wat je opbouwt — prompts, logica, werkprocessen — is model-onafhankelijk. Je investering in AI is nooit verloren.

Ons principe

Exit-by-design

De meeste softwarebedrijven verdienen aan het moeilijk maken om weg te gaan. Girai doet het tegenovergestelde.

Je kunt altijd stoppen. Je data exporteren. Je opgebouwde intelligentie meenemen. En desgewenst zelfstandig verder draaien — op je eigen infrastructuur, met je eigen AI-modellen, zonder Girai.

Wij verdienen het vertrouwen van onze klanten elke dag opnieuw. Niet door ze vast te zetten.

GESLOTEN ECOSYSTEEM

Data eigenaarschap:

bij de leverancier

Opgebouwde logica:

vast aan één model

Bij stoppen:

data blijft achter

Zelfstandig verder:

niet mogelijk

GIRAI

Data eigenaarschap:

bij jou

Opgebouwde logica:

model-onafhankelijk

Bij stoppen:

data wordt opgeleverd

Zelfstandig verder:

technisch mogelijk

De vragen die je waarschijnlijk hebt.

Waarom niet gewoon ChatGPT?

ChatGPT is krachtig. Maar je data gaat naar OpenAI. Je logica werkt alleen binnen hun ecosysteem. En bij een verandering in hun voorwaarden of prijzen heb je geen alternatief - tenzij je opnieuw begint.

Waarom niet gewoon Copilot?

Microsoft Copilot zit al in je ecosysteem. Dat voelt logisch. Maar je verdiept daarmee de afhankelijkheid van Microsoft en OpenAI in plaats van die te verkleinen. En je opgebouwde intelligentie werkt alleen binnen hun omgeving.

Waarom niet losse licenties?

Je kunt voor iedereen apart een Claude-, GPT- en Gemini-account kopen. Maar dan beheer je meerdere tools, meerdere interfaces en heb je geen centrale controle over data, gebruik of wat er opgebouwd wordt.

Vragen die we vaak horen

Is vendor lock-in echt zo'n groot risico?

Het groeit met elke prompt die je invoert, elk werkproces dat je opbouwt en elk document dat je deelt met een AI-tool. Hoe meer je investeert in een gesloten ecosysteem, hoe hoger de overstapkosten worden. De meeste organisaties merken het pas als het te laat is. Bij Girai bestaat dat risico niet: alles wat je opbouwt is model-onafhankelijk en exporteerbaar.

Onze IT-afdeling overweegt Microsoft Copilot. Is dat niet goed genoeg?

SURF heeft in maart 2025 de risico-inschatting van Copilot verlaagd. Dat klopt. Maar veiligheid is niet het enige criterium. Copilot bindt je aan één AI-model via Microsoft, je opgebouwde intelligentie werkt alleen binnen hun ecosysteem, en je verdiept een afhankelijkheid die al groot is. De vraag is niet alleen of het veilig is — maar of het verstandig is om nog afhankelijker te worden van één leverancier.

Wat is als Girai zelf een keer niet meer bestaat?

Dan draai je door. Je data is van jou en kan worden geëxporteerd. Je opgebouwde intelligentie is model-onafhankelijk. En het is technisch mogelijk om de omgeving zelfstandig te blijven draaien, op je eigen infrastructuur. Dat is wat exit-by-design betekent: je bent nooit afhankelijk van ons.

Wij zijn een organisatie van 80 medewerkers. Is dit niet iets voor grote enterprises?

Girai is juist gebouwd voor middelgrote organisaties van 50 tot 150 medewerkers. Groot genoeg om de pijn van versnippering en ongecontroleerd AI-gebruik te voelen. Klein genoeg om zonder Europees aanbestedingstraject te kunnen starten.en een afgesproken infrastructuur en blijft volledig onder jullie controle.

Hoe overtuig ik onze IT-manager of CISO?

Door onze veiligheidspagina te delen. Daar staan de vijf veiligheidspijlers, een architectuurbeschrijving en een downloadbare DPIA-factsheet. Het is het materiaal dat een CISO nodig heeft om een oordeel te vormen. Bekijk veiligheid & compliance →

Kost dit niet meer dan het oplevert?

Reken even mee. Als tien beleidsmedewerkers gemiddeld vier uur per week kwijt zijn aan het zoeken naar de juiste informatie, is dat één voltijds medewerker. Reduceer die zoektijd met 70% en de investering is in minder dan vier maanden terugverdiend. Dan heb je de compliance-risico's van ongecontroleerd AI-gebruik nog niet meegerekend.