Terug naar begrippenlijst

Token

Een token is een klein stukje tekst dat een AI-model gebruikt om taal te verwerken en begrijpen. Dat kan een woord, een deel van een woord, of zelfs een leesteken zijn. In plaats van volledige zinnen te analyseren zoals mensen dat doen, breekt een AI-model alles op in tokens. Dit zijn de bouwstenen waarmee het rekent, leert en voorspelt wat er volgt. Als jij een vraag stelt aan een taalmodel, dan ziet het jouw tekst niet als één geheel, maar als een reeks van misschien wel honderden tokens. Elke voorspelling, elke zin, elk antwoord: het begint en eindigt met tokens.

lachende-man-met-zwarte-achtergrond

Geschreven door Bo Pennings

Zwaaiende emoji

Bo AI specialist

Meer over Bo

Inhoudsopgave

Van tekst naar taallego

Je kunt tokens zien als de legosteentjes van taal. Sommige zijn groot (zoals hele woorden), andere zijn klein (zoals stukjes van woorden). Een model als ChatGPT voorspelt telkens wat het volgende token zou moeten zijn, op basis van de context van de voorgaande.

Die simpele eenheid van één token is alles waar het model op stuurt. Zo wordt zelfs een complexe alinea een ketting van keuzes: één token tegelijk en razendsnel verwerkt.

Hoeveel ‘taalruimte’ heb je eigenlijk?

Tokens bepalen letterlijk wat het model wel en niet “ziet”. Elk AI-model heeft een maximum aantal tokens dat het tegelijk kan verwerken (de zogenaamde context window). Stel: dat is 4.000 tokens. Dan moet het volledige gesprek – inclusief jouw prompt én het gegenereerde antwoord – binnen dat aantal passen.

Hoe slimmer je met tokens omgaat, hoe efficiënter je het model inzet. Het helpt bij promptdesign, samenvattingen, contextbeheer en outputbeheersing.

Niet verwarren met crypto-tokens

Belangrijk onderscheid: een token in AI is totaal iets anders dan een token in de cryptowereld. In AI gaat het om tekstverwerking; in crypto om digitale eigendom of toegang. Zelfde woord, compleet ander concept. Dus als iemand roept “dit kost 1.000 tokens”, weet dan of je in gesprek bent met een developer of een cryptofanaat. Dat scheelt een hele wereld aan context.

Veelgestelde vragen

Gemiddeld zijn er zo’n 3 tot 4 tokens per woord in het Engels. Een zin van 20 woorden kan dus makkelijk uit 70 tokens bestaan.

Dan moet het model oude context afkappen of verkorten. Je verliest dan mogelijk informatie uit eerdere delen van het gesprek of de prompt.

Ja. Een komma, punt of haakje telt meestal als een eigen token.

Ja. Meer tokens betekent zwaardere belasting voor het model (en hogere kosten als je werkt met een API). Korter en duidelijker schrijven loont dus.

lachende-man-met-zwarte-achtergrond

Bo Pennings AI specialist

Meer over Bo

Ik werk al 15 jaar bij Wux als solutions architect en heb in deze periode kennis opgedaan over front-end, back-end en software ontwikkeling. De afgelopen jaren heb ik me steeds meer verdiept in kunstmatige intelligentie en hoe dit ingezet kan worden voor onze klanten. Zo help ik bedrijven in het MKB met complexe, technische vraagstukken in hun operatie en vertaal dit naar gebruiksvriendelijke applicaties.

Door mijn expertise heb ik honderden bedrijven geholpen op een transparante manier met een online groei en verbeterde online zichtbaarheid. Ik word regelmatig gevraagd voor mijn input over ontwikkelingen in het digitaal landschap en vertel hierover in andere media. Voor meer informatie kan je ons portfolio en mijn profiel bekijken.

Twee lachende collega's in overleg kijkende naar een computerscherm
Zwaaiende emoji

Remco Back-end developer

Hoe kunnen we ook jouw bedrijf laten groeien?

Het team van Wux staat voor je klaar om samen te werken aan jouw online groei. Neem vandaag nog contact op om te ontdekken hoe wij bedrijven zoals dat van jou elke dag succesvoller maken.

Kennismakingsgesprek