Terug naar begrippenlijst

Hallucinatie

Een hallucinatie in AI betekent dat een taalmodel, zoals ChatGPT, iets verzint dat niet klopt – maar dat wél klinkt alsof het waar is. Het kan gaan om een fout antwoord, een niet-bestaande bron, een gefantaseerd citaat of een compleet verzonnen feit. En het probleem? De AI vertelt het vaak met zoveel zelfvertrouwen, dat je het bijna gelooft. Anders dan mensen, liegt een AI niet expres. Een hallucinatie ontstaat simpelweg omdat het model voorspelt welk woord er logisch volgt, niet of dat woord feitelijk klopt.

lachende-man-met-zwarte-achtergrond

Geschreven door Bo Pennings

Zwaaiende emoji

Bo AI specialist

Meer over Bo

Inhoudsopgave

Zeker klinken, maar toch mis zitten

Taalmodellen zijn getraind op gigantische hoeveelheden tekst. Ze herkennen patronen, verbanden en formuleringen. Maar ze hebben geen besef van “waarheid” zoals wij dat kennen. Ze denken niet na, ze voelen niets, en ze kunnen geen bron controleren.

Dus als je vraagt naar bijvoorbeeld “boeken die nooit zijn geschreven” of “citaten van personen die dat nooit zeiden”, kan de AI tóch iets produceren dat grammaticaal klopt en logisch klinkt, maar volledig verzonnen is. Het lijkt op kennis, maar het is taal.

Waarom AI liever iets zegt dan ‘ik weet het niet’

Een AI zoals ChatGPT probeert continu een zo passend mogelijk antwoord te genereren op basis van de input en zijn getrainde kennis. Maar omdat het model geen directe toegang heeft tot live feiten of bronverificatie (tenzij het expliciet is gekoppeld aan externe data), ontstaat er soms een zogenoemde hallucinatie.

Zeker bij onderwerpen met veel variatie, nuance of weinig betrouwbare data, vult het model liever in dan dat het stilvalt. En dat maakt het ingewikkeld: AI heeft geen besef van wat het niet weet.

Slim blijven in een wereld vol zelfverzekerde zinnen

Hoewel hallucinaties vervelend kunnen zijn, zijn ze niet onoverkomelijk. Als gebruiker kun je ze vaak herkennen door kritisch te blijven: klopt dit antwoord logisch? Kan ik het verifiëren? Klinkt het te goed of te specifiek om waar te zijn?

Tools zoals ChatGPT worden steeds beter in het aangeven van onzekerheid of twijfel, maar het blijft belangrijk om AI-uitvoer te controleren – zeker bij feiten, cijfers, namen of bronnen. Gebruik AI dus slim, maar blijf zelf nadenken.

Veelgestelde vragen

Nee. Een AI verzint iets niet expres. Het “weet” simpelweg niet wat waar of onwaar is, maar voorspelt alleen wat taaltechnisch logisch klinkt.

Dat hangt af van de vraag. Bij feitelijke, recente of niche-informatie komen hallucinaties vaker voor dan bij algemene kennis of simpele opdrachten.

Niet volledig, maar je kunt de kans verkleinen door heldere, specifieke prompts te gebruiken, extra context te geven of de AI te vragen om bronnen.

Ja. Nieuwe AI-modellen worden steeds beter in brongebruik, onzekerheid aangeven en live data ophalen. Maar 100% feitelijke AI? Die is er nog niet.

lachende-man-met-zwarte-achtergrond

Bo Pennings AI specialist

Meer over Bo

Ik werk al 15 jaar bij Wux als solutions architect en heb in deze periode kennis opgedaan over front-end, back-end en software ontwikkeling. De afgelopen jaren heb ik me steeds meer verdiept in kunstmatige intelligentie en hoe dit ingezet kan worden voor onze klanten. Zo help ik bedrijven in het MKB met complexe, technische vraagstukken in hun operatie en vertaal dit naar gebruiksvriendelijke applicaties.

Door mijn expertise heb ik honderden bedrijven geholpen op een transparante manier met een online groei en verbeterde online zichtbaarheid. Ik word regelmatig gevraagd voor mijn input over ontwikkelingen in het digitaal landschap en vertel hierover in andere media. Voor meer informatie kan je ons portfolio en mijn profiel bekijken.

Twee lachende collega's in overleg kijkende naar een computerscherm
Zwaaiende emoji

Remco Back-end developer

Hoe kunnen we ook jouw bedrijf laten groeien?

Het team van Wux staat voor je klaar om samen te werken aan jouw online groei. Neem vandaag nog contact op om te ontdekken hoe wij bedrijven zoals dat van jou elke dag succesvoller maken.

Kennismakingsgesprek