Waarom niet gewoon ChatGPT?
ChatGPT is krachtig. Maar je data gaat naar OpenAI. Je logica werkt alleen binnen hun ecosysteem. En bij een verandering in hun voorwaarden of prijzen heb je geen alternatief - tenzij je opnieuw begint.
Al bespaart je team uren per week. Maar de manier waarop de meeste organisaties AI inzetten — via ChatGPT, via Copilot, via losse tools — creëert een afhankelijkheid die elke maand groter wordt. Van één leverancier. Van één model. Van één ecosysteem waar je niet meer uit kunt.

Je organisatie heeft het afgelopen jaar alle offertekennis in ChatGPT gezet. Hoe jullie offertes opbouwen. Welke formuleringen werken bij welk type aanvraag. Welke structuur het beste scoort. Je team heeft prompts aangescherpt, werkprocessen verfijnd, een hele werkwijze opgebouwd in de tool.
Het werkt. Het bespaart tientallen uren per maand.
En dan verandert OpenAI de voorwaarden. Of de prijs verdubbelt. Of er komt een AI-model dat aantoonbaar beter is voor jullie werk. Je wilt overstappen.
Maar dat kan niet.
Je prompts werken alleen binnen ChatGPT. De Custom GPT's die je team heeft gebouwd functioneren nergens anders. Je opgebouwde logica is niet exporteerbaar. En de data die je hebt ingevoerd — offertes, beleidsstukken, interne analyses — die staat in de cloud van een Amerikaans bedrijf waarover je geen juridische controle hebt.
Je begint van voren af aan.
Dit is geen hypothetisch scenario. Dit is wat er gebeurt als je bedrijfskritische intelligentie opbouwt binnen een gesloten ecosysteem.
Het lock-in-patroon
Met je Microsoft-omgeving. Met je ERP-systeem. Met je CRM. De afhankelijkheid groeide geleidelijk. De contracten werden minder flexibel. En op een gegeven moment kon je niet meer weg — niet omdat het product zo goed was, maar omdat de overstapkosten te hoog waren geworden.
Met AI gebeurt precies hetzelfde. Alleen sneller. En met hogere stakes.
Want het gaat niet om een tool. Het gaat om wat je organisatie erin opbouwt. De prompts. De logica. De werkprocessen. De verfijnde vraagstellingen die je team in maanden heeft ontwikkeld. Dát is waar de echte waarde zit. Niet in het AI-model zelf.
En precies die waarde — jouw opgebouwde intelligentie — raakt opgesloten bij één leverancier. Niet exporteerbaar. Niet overdraagbaar. Weg zodra je overstapt.

AI wordt snel bedrijfskritisch. Girai helpt je die kracht te gebruiken zonder jezelf opnieuw vast te prikken — met ruimte om te kiezen, data die van jou blijft, en een opbouw die mee verhuist tussen modellen.
Je kiest zelf welk AI-model je gebruikt en kunt altijd overschakelen. Zonder iets te verliezen. Geen vendor lock-in.
Je data is geïsoleerd en van jou. Girai kijkt niet mee en gebruikt je data niet. Kies Europese modellen en je data verlaat Europa niet.
Alles wat je opbouwt — prompts, logica, werkprocessen — is model-onafhankelijk. Je investering in AI is nooit verloren.
Ons principe
De meeste softwarebedrijven verdienen aan het moeilijk maken om weg te gaan. Girai doet het tegenovergestelde.
Je kunt altijd stoppen. Je data exporteren. Je opgebouwde intelligentie meenemen. En desgewenst zelfstandig verder draaien — op je eigen infrastructuur, met je eigen AI-modellen, zonder Girai.
Wij verdienen het vertrouwen van onze klanten elke dag opnieuw. Niet door ze vast te zetten.
GESLOTEN ECOSYSTEEM
Data eigenaarschap:
bij de leverancier
Opgebouwde logica:
vast aan één model
Bij stoppen:
data blijft achter
Zelfstandig verder:
niet mogelijk
GIRAI
Data eigenaarschap:
bij jou
Opgebouwde logica:
model-onafhankelijk
Bij stoppen:
data wordt opgeleverd
Zelfstandig verder:
technisch mogelijk
ChatGPT is krachtig. Maar je data gaat naar OpenAI. Je logica werkt alleen binnen hun ecosysteem. En bij een verandering in hun voorwaarden of prijzen heb je geen alternatief - tenzij je opnieuw begint.
Microsoft Copilot zit al in je ecosysteem. Dat voelt logisch. Maar je verdiept daarmee de afhankelijkheid van Microsoft en OpenAI in plaats van die te verkleinen. En je opgebouwde intelligentie werkt alleen binnen hun omgeving.
Je kunt voor iedereen apart een Claude-, GPT- en Gemini-account kopen. Maar dan beheer je meerdere tools, meerdere interfaces en heb je geen centrale controle over data, gebruik of wat er opgebouwd wordt.
Het groeit met elke prompt die je invoert, elk werkproces dat je opbouwt en elk document dat je deelt met een AI-tool. Hoe meer je investeert in een gesloten ecosysteem, hoe hoger de overstapkosten worden. De meeste organisaties merken het pas als het te laat is. Bij Girai bestaat dat risico niet: alles wat je opbouwt is model-onafhankelijk en exporteerbaar.
SURF heeft in maart 2025 de risico-inschatting van Copilot verlaagd. Dat klopt. Maar veiligheid is niet het enige criterium. Copilot bindt je aan één AI-model via Microsoft, je opgebouwde intelligentie werkt alleen binnen hun ecosysteem, en je verdiept een afhankelijkheid die al groot is. De vraag is niet alleen of het veilig is — maar of het verstandig is om nog afhankelijker te worden van één leverancier.
Dan draai je door. Je data is van jou en kan worden geëxporteerd. Je opgebouwde intelligentie is model-onafhankelijk. En het is technisch mogelijk om de omgeving zelfstandig te blijven draaien, op je eigen infrastructuur. Dat is wat exit-by-design betekent: je bent nooit afhankelijk van ons.
Girai is juist gebouwd voor middelgrote organisaties van 50 tot 150 medewerkers. Groot genoeg om de pijn van versnippering en ongecontroleerd AI-gebruik te voelen. Klein genoeg om zonder Europees aanbestedingstraject te kunnen starten.en een afgesproken infrastructuur en blijft volledig onder jullie controle.
Door onze veiligheidspagina te delen. Daar staan de vijf veiligheidspijlers, een architectuurbeschrijving en een downloadbare DPIA-factsheet. Het is het materiaal dat een CISO nodig heeft om een oordeel te vormen. Bekijk veiligheid & compliance →
Reken even mee. Als tien beleidsmedewerkers gemiddeld vier uur per week kwijt zijn aan het zoeken naar de juiste informatie, is dat één voltijds medewerker. Reduceer die zoektijd met 70% en de investering is in minder dan vier maanden terugverdiend. Dan heb je de compliance-risico's van ongecontroleerd AI-gebruik nog niet meegerekend.