Tokens zijn de eenheden die LLM’s gebruiken om tekst te verwerken, contextlimieten af te dwingen en kosten in rekening te brengen op basis van gebruik. Bij GEO bepaalt het aantal tokens de kosten, latentie, het risico op afkappen en of je merkfeiten daadwerkelijk in de werkende context van het model terechtkomen.
Tokens zijn de brokken die taalmodellen lezen en genereren, meestal kleiner dan volledige woorden. Ze tellen, omdat elke prompt, retrieval-brok en modelrespons wordt geprijsd en beperkt door tokens, niet door het aantal woorden.
Voor GEO-teams verandert dit de contentoperaties razendsnel. Als je bronmateriaal opgeblazen, repetitief of slecht gestructureerd is, betaal je meer en krijg je slechtere output. Zo simpel.
Het aantal tokens bepaalt vier dingen: kosten, fit binnen de context, responskwaliteit en de kans op citaties. Als jouw merkfeiten, productspecificaties of bewijs-punten niet netjes passen binnen het beschikbare contextvenster, comprimeert, laat of negeert het model ze.
Daar gaan de meeste teams de mist in. Ze zijn geobsedeerd door prompts en negeren bron-efficiëntie.
OpenAI, Anthropic en Google meten allemaal gebruik per tokens. Afhankelijk van het model is een ruwe Engelse gemiddelde schatting 1,3 tot 1,5 tokens per woord, maar die schatting valt uiteen bij code, tabellen, productcatalogi en meertalige content. Een pagina van 500 woorden is niet betrouwbaar een input van 700 tokens. Meet het.
Begin met een token-audit. Gebruik tiktoken voor OpenAI-workflows, de tokenizer van Anthropic voor Claude, of de gebruikslogs van je orchestration layer. Breng vervolgens het tokengebruik in kaart per template, paginatype en outputdoel.
Gebruik Screaming Frog-exports, GSC-querydata en Semrush- of Ahrefs-pagina sets om te bepalen waar AI-gerichte content te lang is voor het daadwerkelijke zoekintentie. Vervolgens comprimeer je de bron, niet alleen de prompt.
Goede compressie betekent: dubbele claims verwijderen, boilerplate samenknijpen en unieke feiten naar voren halen, zoals prijzen, compatibiliteit, methodologie en named entities. Surfer SEO kan helpen om overgebouwde teksten te signaleren, maar het lost tokenverspilling niet op zichzelf op.
Er is één kanttekening. Minder tokens betekenen niet automatisch betere GEO-prestaties. Als je te veel comprimeert, haal je nuance, kwalificaties en bewijs weg. Dat kan de betrouwbaarheid van citaties verlagen of ervoor zorgen dat retrieval-systemen de juiste passage volledig missen.
Een ander probleem: de grootte van het contextvenster is niet hetzelfde als bruikbare aandacht. Alleen omdat een model 128k tokens accepteert, betekent niet dat token 127.500 evenveel aandacht krijgt. Google’s John Mueller bevestigde in 2025 dat AI-zoekzichtbaarheid nog steeds afhangt van duidelijke, toegankelijke broncontent, en niet van het proppen van meer tekst in machine-leesbare formaten.
Volg tokens per antwoord, tokens per geciteerde bronblok en kosten per succesvolle output. Als je GEO op schaal draait, voeg dan faalgrenzen toe voor truncatie en hallucinaties na lange contexts.
Moz, Ahrefs en Semrush tonen token-efficiëntie niet direct, maar ze helpen wel bepalen welke pagina’s als eerste compressiewerk verdienen: pagina’s met veel vertoningen, zwakke betrokkenheid en hoge informatieve waarde. Daar levert tokendiscipline meestal het snelst resultaat op.
Bottom line: tokens zijn geen technische voetnoot. Het is voorraad. Verspil ze en je koopt tragere, duurdere en minder betrouwbare AI-zoekzichtbaarheid.
Een praktische GEO-metriek om merkvermeldingen, citaatkwaliteit en plaatsing in antwoorden …
Een praktische scoringsmethode om te controleren of AI-tekst daadwerkelijk klinkt …
Een praktisch GEO-concept om te meten of je content wordt …
De Persona Conditioning Score kwantificeert de afstemming op de doelgroep …
Een gecontroleerde manier om promptvarianten te testen voordat je ze …
Google’s BERT-update verbeterde de interpretatie van zoekopdrachten, waardoor SEO’ers werden …
Get expert SEO insights and automated optimizations with our platform.
Get Started Free