April 15, 2026
AI hallucineert, hoe herken je AI-onzin?
Author
AI schrijft in een paar seconden jouw blogtekst of social post. Handig, tot je ontdekt dat de tool een niet-bestaand onderzoek heeft geciteerd, een statistiek heeft verzonnen of een verkeerde aanname heeft gedaan. AI-hallucinaties zijn een reëel risico. In deze blog laat ik je zien waar je op moet letten hoe je ze grotendeels kunt voorkomen.
Wat is een AI-hallucinatie?
Een AI-model voorspelt op basis van patronen welk woord of welke zin het meest waarschijnlijk volgt. Het model heeft geen besef van waarheid, het checkt niets, het weet niets zeker. Het genereert tekst die klinkt alsof het klopt. Alsof dus.
Het kan zijn dat het resultaat een overtuigend geformuleerde alinea is met een statistiek die nergens bestaat of een rapport van een instituut dat dit onderzoek nooit heeft gepubliceerd.
Waarom maakt AI fouten terwijl de tekst zo overtuigend klinkt?
Dat is precies wat het gevaarlijk maakt. AI is getraind op enorme hoeveelheden tekst en heeft geleerd hoe betrouwbare, goed geschreven informatie eruitziet. De toon, de structuur, het zelfvertrouwen, het klopt allemaal. Maar de inhoud hoeft dat niet te doen.
Een AI-model dat schrijft "Uit onderzoek van de Universiteit van Amsterdam blijkt dat..." klinkt betrouwbaar. Maar het model heeft dat onderzoek niet gelezen. Het heeft geleerd dat dit soort zinnen in teksten voorkomen en produceert een variant daarvan.
Welke soorten fouten maakt AI het vaakst?
Er zijn vier patronen die je het vaakst terugziet:
- Verzonnen statistieken. AI noemt graag concrete percentages en onderzoeksresultaten. Die klinken overtuigend, maar zijn lang niet altijd traceerbaar naar een echte bron.
- Nep-bronnen en verkeerde citaten. Een taalmodel koppelt soms een bestaande organisatie aan een onderzoek dat die organisatie nooit heeft gedaan.
- Verouderde informatie. Modellen hebben een kennisgrens, maar het model geeft dat niet altijd aan. Het antwoordt op basis van wat het wel kent. Wetgeving, marktcijfers en actuele ontwikkelingen kunnen daardoor verouderd of niet meer waar zijn.
- Plausibel klinkende onzin over niche-onderwerpen. Hoe specifieker het onderwerp (een bepaalde sector, lokale regelgeving), hoe minder trainingsdata het model had. Daar gaat het sneller mis, juist omdat je het minder snel herkent.
Hoe controleer je AI-output zonder dat het uren kost?
Je hoeft niet alles na te zoeken. Werk risicogericht:
- Markeer in de output alle feiten claims. Ga door de tekst en markeer alles wat verifieerbaar is: cijfers, namen, rapporten, wetten, datums.
- Prioriteer. Wat gebruik je in een beslissing, presentatie of externe communicatie? Dat controleer je altijd. Een interne brainstormtekst is minder kritisch.
- Zoek de primaire bron. Vraag naar het originele rapport, de originele wet of het originele artikel. Als die niet bestaat of niet overeenkomt, schrap de claim.
- Gebruik AI zelf als eerste check. Vraag het model: "Geef een concrete bron voor deze bewering". Als het antwoord vaag of tegenstrijdig is, is dat een signaal om verder te zoeken.
Hoe voorkom je hallucinaties bij de bron?
Voorkomen is natuurlijk beter dan nakijken, maar hoe doe je dat?
- Geef AI zelf de informatie. Plak een rapport, artikel of document in jouw prompt. Vraag het model dan om op basis van dat materiaal te werken en niet vanuit zijn eigen geheugen. De output wordt direct betrouwbaarder.
- Vraag expliciet om bronvermelding. Voeg aan je prompt toe: "Noem alleen feiten waarvoor je een concrete bron kunt geven en vermeld die bron." Het model wordt voorzichtiger en geeft sneller aan wanneer het iets niet zeker weet.
- Vermijd open vragen over specifieke feiten. "Wat is het marktaandeel van X?" levert een gok op. "Hier is het rapport. Wat zijn de belangrijkste conclusies?" werkt beter.
Betekent dit dat je AI niet kunt vertrouwen?
Niet per sé. Het betekent dat je AI niet blindelings kunt vertrouwen voor feitelijke claims, net zoals je een eerste versie van een stagiair niet zonder eindredactie zou publiceren. AI is sterk in structureren, formuleren, samenvatten en ideeën uitwerken. De feitelijke laag (denk aan cijfers, bronnen, wetgeving, namen) vraagt altijd om menselijke verificatie. Bouw dat in als vaste stap.
Wil je leren hoe je AI effectief en verantwoord inzet in je werk? In mijn training leer je wat AI kan én waar de grenzen liggen. Neem
vrijblijvend contact met me op.





