“Dat heeft de AI toch echt letterlijk zo gezegd”
Een bekende stelde haar scriptiebegeleider per mail de vraag of ze ChatGPT mocht gebruiken voor haar literatuurlijst. ChatGPT gaf haar zeven prachtige, kloppende APA-referenties: auteur, jaartal, tijdschrift, pagina-nummers. Ze stuurde ze door. De begeleider mailde terug: “Vijf van deze zeven artikelen bestaan niet.”
Dit is een AI-hallucination. En het is geen bug — het is hoe taalmodellen werken. Dit artikel legt uit wat er gebeurt, waarom het gebeurt en hoe je jezelf beschermt.
💡 Beginner-tip: Heb je ChatGPT nog nooit gebruikt? Lees dan eerst onze tutorial ChatGPT voor beginners: je eerste AI-gesprek in 10 minuten. Als je weet hoe je met AI praat, begrijp je veel sneller wanneer het de mist in gaat.
Wat is een hallucination precies?
Een hallucination is een antwoord dat:
- Taalkundig klopt — de grammatica is goed, de toon professioneel
- Logisch oogt — er zit structuur in, het “voelt als een echt antwoord”
- Feitelijk onjuist is — de inhoud komt niet overeen met de werkelijkheid
De AI verzint met het grootste gemak een citaat, een wetenschappelijk artikel, een CEO van een niet-bestaand bedrijf of een jurisprudentie-uitspraak. Alles klinkt plausibel. Niets is waar.
Klassieke voorbeelden
| Vraag | Hallucination |
|---|---|
| ”Geef me een quote van Mark Rutte over AI uit 2018” | AI verzint een quote die Rutte nooit gezegd heeft |
| ”Welke APA-bronnen zijn er over onderwerp X?” | AI verzint auteurs, jaartallen en pagina-nummers |
| ”Wat zegt artikel 47 van de EU AI Act?” | AI verzint de inhoud (artikel 47 gaat eigenlijk over iets anders) |
| “Welke acteurs speelden in film Y?” | AI noemt kloppende acteurs plus één die er nooit in speelde |
Waarom hallucinceert AI?
Het korte antwoord: het voorspelt woorden, geen feiten
ChatGPT, Claude en Gemini zijn taalmodellen. Ze zijn getraind door miljarden teksten te lezen en te leren welk woord statistisch het meest waarschijnlijk na het vorige komt. Geef je de zin “De hoofdstad van Nederland is…”, dan weet het model dat “Amsterdam” met ~99% waarschijnlijkheid volgt. Niet omdat het snapt wat Nederland is, maar omdat die combinatie miljoenen keren in de trainingsdata stond.
💡 Beginner-tip: Stel je AI voor als een heel belezen papegaai. Hij kan patronen herhalen, combineren en nabootsen — maar hij heeft geen feiten-database die hij raadpleegt. Er is geen intern lampje dat “dit klopt” of “dit klopt niet” aangeeft.
Waarom dan zo zelfverzekerd?
Omdat zelfverzekerde taal in de trainingsdata gewoon vaker voorkomt. Als je miljoenen Wikipedia-artikelen, blogposts en wetenschappelijke papers leest, leer je een stellige toon. Twijfel (“ik weet het niet zeker, maar…”) komt minder voor — dus imiteren AI-modellen standaard de stellige versie.
Dat is gevaarlijk. Want bij mensen correleert zelfverzekerdheid vaak met kennis. Bij AI niet.
Waarom het geen bug is
Dit is een eigenschap van hoe de technologie werkt. Zelfs GPT-5 — dat volgens OpenAI ~80% minder hallucinceert dan o3 — hallucinceert nog steeds. Onderzoekers werken hard aan vermindering, maar volledig wegnemen kan niet zonder de architectuur fundamenteel te veranderen.
De belangrijkste reden dat AI ethisch lastig is, zit precies hier: het klinkt autoritair, wordt massaal ingezet, en toch is het geen betrouwbare bron. We schreven er uitgebreid over in AI en ethiek: hoe houden we AI menselijk?.
Wanneer hallucinceert AI het vaakst?
Niet elk AI-antwoord is even gevoelig. Het risico is hoog bij:
- Specifieke feiten — jaartallen, percentages, namen, adressen, wetnummers
- Citaten en bronnen — “wie zei wat”, “welk artikel heeft dit onderzocht”
- Recente gebeurtenissen — dingen na de trainingsdatum (ChatGPT’s kennis stopt op een bepaalde datum)
- Niche-onderwerpen — heel specifieke vakgebieden waar weinig trainingsdata over is
- Vertaalde eigennamen — namen van mensen, bedrijven, organisaties in een andere taal
Het risico is laag bij:
- Structuur en opbouw — “schrijf een inleiding voor een rapport over X”
- Samenvatten van tekst die je zelf meegeeft
- Vertalen van tekst naar een andere taal
- Brainstormen — er is geen “juist” antwoord nodig
- Grammatica en stijl verbeteren
⚡ Gevorderden: Let op wat onderzoekers het “context-venster-effect” noemen. Geef je de AI een PDF, tekst of data mee in je prompt, dan baseert het antwoord zich op die input — veel minder hallucination-risico. Vraag je iets uit het algemene geheugen (“wat weet je over bedrijf X?”), dan neemt het risico toe. Geef dus waar mogelijk bronmateriaal mee.
Vier praktische herkenningstips
Tip 1 — Vraag om bronnen
Vraag simpelweg: “Kun je daar een bron bij geven met een werkende link?”
Kijk wat er gebeurt:
- Geeft het een werkende link naar een echt artikel met die inhoud? Groen licht (maar check alsnog).
- Geeft het een link die dood is of naar iets anders gaat? Waarschuwingssignaal.
- Zegt het “ik kan geen bronnen verifiëren” of “ik baseerde me op algemene kennis”? Eerlijk antwoord — gebruik het dan ook zo.
Tip 2 — Stel de vraag opnieuw in een nieuw gesprek
Open een nieuw chatvenster en stel dezelfde feitelijke vraag opnieuw. Krijg je:
- Hetzelfde antwoord, met dezelfde cijfers? Meestal betrouwbaar.
- Een ander antwoord of andere cijfers? Waarschijnlijk hallucination.
Dit werkt omdat hallucinations vaak “per gesprek verzonnen” zijn — bij herhaling komt de inconsistentie aan het licht.
Tip 3 — Vertel de AI dat je het niet gelooft
Typ: “Dat klopt niet. Weet je zeker dat die bron bestaat?”
Een eerlijk model zegt dan: “Je hebt gelijk, ik kan die bron niet bevestigen.” Een zelfverzekerd hallucinerend model herhaalt zichzelf. Beide reacties zijn informatief.
💡 Beginner-tip: Dit is de ‘lakmoesproef’. Stel: je hebt een cijfer gekregen van ChatGPT en je bent niet zeker. Typ gewoon: “Bronvermelding graag?” of “Heb je dit gecheckt?”. AI buigt vaak opvallend snel bij lichte druk — precies omdat er geen overtuiging onder zit.
Tip 4 — Google het gewoon
Voor elk feit dat je belangrijk vindt (en dat je wilt gebruiken in een rapport, mail of presentatie): Google het. 30 seconden werk. Voorkomt enorm veel gêne.
Zet dit bovenaan je persoonlijke regels: AI stelt voor, jij controleert.
Wat je NIET moet doen
- Niet klakkeloos kopiëren in schoolwerk, juridische stukken of medische beslissingen
- Geen medicatie-adviezen vertrouwen zonder arts
- Geen juridische termen overnemen zonder jurist
- Geen cijfers naar klanten sturen zonder onafhankelijke check
- Geen citaten of bronnen gebruiken zonder ze letterlijk terug te vinden
Voor je sollicitatie of CV? Geen probleem — daar gebruik je AI voor structuur en woordkeus, niet voor feiten. Lees ook AI voor je sollicitatie: CV, motivatiebrief en LinkedIn in één middag voor een veilige workflow.
Hallucinations en de mythes
Hallucinations voeden de mythe dat AI “intelligent” of “bewust” is. Het bevestigt het tegenovergestelde: als het model echt wist dat het niet wist, zou het zwijgen. Lees ook Kunstmatige intelligentie — wat is het nu echt? En welke mythes moeten we doorprikken? voor meer context over wat AI wel en niet is.
Specifieker: een AI “liegt” niet. Liegen vereist dat je de waarheid kent en ervoor kiest die niet te zeggen. Een AI heeft geen model van waarheid. Het heeft alleen een model van taal.
⚡ Gevorderden: Retrieval-Augmented Generation (RAG) is de technische oplossing voor hallucinations in professionele settings. De AI krijgt eerst een zoekopdracht in een eigen documentdatabank of live op het web, en antwoordt pas daarna. Veel bedrijfsimplementaties van AI werken zo — inclusief Notion AI en Microsoft Copilot voor zorgprofessionals. Voor privégebruik blijft de gouden regel: jij bent de verifier.
Welke tools hallucinceren het minst?
Elke AI-assistent hallucinceert, maar:
- Perplexity en You.com zoeken eerst op het web en antwoorden daarna — dus minder hallucinations over actuele feiten. Diepere review: Perplexity op debesteaitools.nl.
- ChatGPT met browsing (betaalde versie) idem. Zie ook de ChatGPT-review op debesteaitools.nl.
- Claude is volgens veel gebruikers iets voorzichtiger in stellige claims — geeft vaker “ik weet het niet zeker” aan. Review: Claude op debesteaitools.nl.
- Gemini heeft directe Google-integratie en citeert vaker bronnen. Review: Gemini op debesteaitools.nl.
Welke past bij jou? Lees ChatGPT, Claude, Gemini of Copilot: welke AI past bij jou? voor een praktische keuzehulp.
Conclusie: AI is je stagiair, niet je hoogleraar
Een stagiair kan snel een concept-rapport schrijven, structuur aanbrengen en inspiratie opleveren. Een stagiair is geen autoriteit. Je leest het na, je checkt de feiten, je corrigeert.
Zo werkt AI ook. Zodra je dat kader eenmaal in je hoofd hebt, hallucinceert AI je niet meer in de vernieling. Dan wordt het een enorme versneller — zonder risico.
Drie regels om te onthouden:
- AI voorspelt taal, geen waarheid.
- Hoe specifieker de feitelijke vraag, hoe groter het risico.
- Jij bent altijd de laatste checker.
En als je dit tot het einde hebt gelezen: je bent nu al kritischer in je AI-gebruik dan 90% van de gebruikers. Daar begint AI-geletterdheid.
Bronnen:
- OpenAI: “Introducing GPT-5” — hallucination reduction (augustus 2025)
- Simon Willison: “GPT-5 Analysis” — hallucination-verbeteringen (augustus 2025)
- Stanford HAI: “Why do AI chatbots hallucinate?” (2024)
- Anthropic: “Claude’s approach to uncertainty” (2024)