Generative Pre-trained Transformer (GPT)
GPT staat voor Generative Pre-trained Transformer. Het is een type AI-model dat zelf teksten kan schrijven, samenvatten, vertalen of herschrijven op basis van alles wat het eerder geleerd heeft. Het is de technologie achter tools zoals ChatGPT en vormt de ruggengraat van de huidige generatie taal-AI. GPT werkt niet met vaste regels, maar voorspelt telkens wat het meest logische volgende woord of teken is. En dat doet het op zo’n overtuigende manier, dat je al snel vergeet dat je met een algoritme praat.
Inhoudsopgave
Drie letters, drie stappen
De naam GPT zegt eigenlijk alles over hoe het werkt:
- Generative: Het model genereert tekst (geen kopieerwerk, maar iets nieuws).
- Pre-trained: Het is van tevoren getraind op enorme hoeveelheden tekst.
- Transformer: Het gebruikt een slimme AI-architectuur die razendsnel context begrijpt en verbanden legt.
Die combinatie maakt GPT krachtig, flexibel en verrassend veelzijdig – van poëzie tot programmacode en van klantenservice tot campagneslogans.
Waarom GPT zo goed werkt
Wat GPT bijzonder maakt, is de schaal. Het is getraind op miljarden woorden en zinnen, waardoor het een indrukwekkend gevoel voor taal heeft ontwikkeld. Niet omdat het snapt wat het zegt, maar omdat het weet hoe taal meestal loopt.
Het model heeft geen bewustzijn of mening, maar wel een scherp gevoel voor stijl, structuur en context. Daardoor voelt een GPT-antwoord vaak menselijker aan dan veel geautomatiseerde systemen.
GPT leest geen gedachten, maar wel patronen
GPT is geen digitale tovenaar, ook al voelt het soms zo. Het maakt gebruik van statistiek en waarschijnlijkheden. Bij elk woord dat je typt, berekent het model de kans op alle mogelijke vervolgstappen en kiest het degene met de hoogste waarschijnlijkheid (of een verrassende twist, afhankelijk van de instellingen).
Daarom kan GPT net zo makkelijk een zakelijke e-mail schrijven als een raptekst, zolang je prompt het juiste startpunt is.
Veelgestelde vragen
Niet helemaal. GPT is het onderliggende taalmodel. ChatGPT is de gebruiksvriendelijke toepassing ervan, met extra functies zoals gespreksgeschiedenis of plugins.
GPT werkt met een Transformer-architectuur, wat betekent dat het context veel beter begrijpt, zelfs over langere teksten heen.
Ja. GPT baseert zich op waarschijnlijkheid, niet op feiten. Het kan dus overtuigende onzin genereren (zogenaamde hallucinaties).
Eerdere versies, zoals GPT-2, zijn deels openbaar gemaakt. Nieuwere versies zoals GPT-4 zijn gesloten, maar er bestaan open source alternatieven die erop lijken.
Gerelateerde begrippen
- AI-algoritmes
- AI-model
- Augmented Intelligence
- Autonome AI
- Claude
- Deep Learning
- Ethische AI
- Generatieve AI
- Generative Adversarial Network (GAN)
- Generator
- Low-code AI
- Machine Learning bias
- No-code AI
- Prompt engineering
- Robotic Process Automation (RPA)
- Sentimentanalyse
- Supervised Learning
- Transformer
- Unsupervised Learning
- Validatie