Hallucinatie
Een hallucinatie in AI betekent dat een taalmodel, zoals ChatGPT, iets verzint dat niet klopt – maar dat wél klinkt alsof het waar is. Het kan gaan om een fout antwoord, een niet-bestaande bron, een gefantaseerd citaat of een compleet verzonnen feit. En het probleem? De AI vertelt het vaak met zoveel zelfvertrouwen, dat je het bijna gelooft. Anders dan mensen, liegt een AI niet expres. Een hallucinatie ontstaat simpelweg omdat het model voorspelt welk woord er logisch volgt, niet of dat woord feitelijk klopt.
Inhoudsopgave
Zeker klinken, maar toch mis zitten
Taalmodellen zijn getraind op gigantische hoeveelheden tekst. Ze herkennen patronen, verbanden en formuleringen. Maar ze hebben geen besef van “waarheid” zoals wij dat kennen. Ze denken niet na, ze voelen niets, en ze kunnen geen bron controleren.
Dus als je vraagt naar bijvoorbeeld “boeken die nooit zijn geschreven” of “citaten van personen die dat nooit zeiden”, kan de AI tóch iets produceren dat grammaticaal klopt en logisch klinkt, maar volledig verzonnen is. Het lijkt op kennis, maar het is taal.
Waarom AI liever iets zegt dan ‘ik weet het niet’
Een AI zoals ChatGPT probeert continu een zo passend mogelijk antwoord te genereren op basis van de input en zijn getrainde kennis. Maar omdat het model geen directe toegang heeft tot live feiten of bronverificatie (tenzij het expliciet is gekoppeld aan externe data), ontstaat er soms een zogenoemde hallucinatie.
Zeker bij onderwerpen met veel variatie, nuance of weinig betrouwbare data, vult het model liever in dan dat het stilvalt. En dat maakt het ingewikkeld: AI heeft geen besef van wat het niet weet.
Slim blijven in een wereld vol zelfverzekerde zinnen
Hoewel hallucinaties vervelend kunnen zijn, zijn ze niet onoverkomelijk. Als gebruiker kun je ze vaak herkennen door kritisch te blijven: klopt dit antwoord logisch? Kan ik het verifiëren? Klinkt het te goed of te specifiek om waar te zijn?
Tools zoals ChatGPT worden steeds beter in het aangeven van onzekerheid of twijfel, maar het blijft belangrijk om AI-uitvoer te controleren – zeker bij feiten, cijfers, namen of bronnen. Gebruik AI dus slim, maar blijf zelf nadenken.
Veelgestelde vragen
Nee. Een AI verzint iets niet expres. Het “weet” simpelweg niet wat waar of onwaar is, maar voorspelt alleen wat taaltechnisch logisch klinkt.
Dat hangt af van de vraag. Bij feitelijke, recente of niche-informatie komen hallucinaties vaker voor dan bij algemene kennis of simpele opdrachten.
Niet volledig, maar je kunt de kans verkleinen door heldere, specifieke prompts te gebruiken, extra context te geven of de AI te vragen om bronnen.
Ja. Nieuwe AI-modellen worden steeds beter in brongebruik, onzekerheid aangeven en live data ophalen. Maar 100% feitelijke AI? Die is er nog niet.
Gerelateerde begrippen
- AI-algoritmes
- AI-gegenereerde websites
- AI-model
- Augmented Intelligence
- Autonome AI
- Binary Search Tree (BST)
- Chatbot
- Claude
- Deep Learning
- Ethische AI
- Generatieve AI
- Generative Adversarial Network (GAN)
- Generative Pre-trained Transformer (GPT)
- Generator
- Low-code AI
- Machine Learning bias
- Natural Language Processing (NLP)
- No-code AI
- OpenAI
- Prompt
- Prompt engineering
- Robotic Process Automation (RPA)
- Sentimentanalyse
- Supervised Learning