Grote taalmodellen lijken intelligent omdat ze vloeiend, zelfverzekerd en op grote schaal spreken. Maar vloeiendheid is geen begrip, en vertrouwen is geen perceptie. Om de ware grens van vandaag te vatten NAAR DE systemen, helpt bij het opnieuw bekijken van een idee dat meer dan tweeduizend jaar oud is.
In de Republiek beschrijft Plato DE allegorie van de grot: Gevangenen die in een grot zijn vastgeketend, kunnen alleen schaduwen op een muur zien. Omdat ze nog nooit de echte objecten hebben gezien die deze schaduwen werpen, verwarren ze de schijn met de werkelijkheid en wordt hen de mogelijkheid ontzegd de echte wereld te ervaren.
De grote taalpatronen leven in een zeer vergelijkbare grot.
LLM’s nemen de wereld niet waar: ze lezen hem
LLM’s zien, horen, raken de werkelijkheid niet en hebben er geen interactie mee. Ze zijn bijna volledig getraind op tekst: boeken, artikelen, posts, commentaren, transcripties en fragmenten van menselijke expressie verzameld door de geschiedenis en het internet. Die tekst is hun enige input. Hun enige “ervaring”.
LLM’s ‘zien’ alleen schaduwen: door mensen geproduceerde teksten die de wereld beschrijven. Die teksten zijn hun hele universum. Alles wat een LLM over de werkelijkheid weet, wordt gefilterd door taal, geschreven door mensen met verschillende niveaus van intelligentie, eerlijkheid, vooroordelen, kennis en bedoelingen.
De tekst is niet de werkelijkheid: het is een menselijke weergave van de werkelijkheid. Het is gemedieerd, onvolledig, gedeeltelijk en uiterst heterogeen, vaak vervormd. Menselijke taal weerspiegelt meningen, misverstanden, culturele blinde vlekken en regelrechte onwaarheden. Boeken en internet bevatten bijzondere inzichten, maar ook complottheorieën, propaganda, pornografie, misbruik en absurditeit. Wanneer we LLM’s trainen in ‘alle tekst’, geven we ze geen toegang tot de wereld. We geven ze toegang tot de schaduwen van de mensheid aan de muur.
Dit is geen kleine beperking. Het is de belangrijkste architectonische fout van de huidige kunstmatige intelligentie.
Omdat de ladder het probleem niet oplost
De heersende veronderstelling in de AI-strategie is dat schaal alles oplost: meer data, grotere modellen, meer parameters, meer berekeningen. Maar meer schaduwen op de muur staan niet gelijk aan de werkelijkheid.
Omdat LLM’s zijn getraind om het statistisch meest waarschijnlijke volgende woord te voorspellen, blinken ze uit in het produceren van plausibele taal, maar niet in het begrijpen van causaliteit, fysieke beperkingen of gevolgen in de echte wereld. Dit is het omdat hallucinaties geen bug zijn die moet worden opgelost, maar een structurele limiet.
ALS Yann LeCun heeft herhaaldelijk betoogd, taal alleen is niet voldoende basis voor intelligentie.
De verschuiving naar mondiale modellen
Daarom wordt de aandacht steeds meer hierop gericht mondiale modellen: Systemen die interne representaties opbouwen van hoe omgevingen werken, leren van interactie en resultaten simuleren voordat ze handelen.
In tegenstelling tot LLM’s zijn wereldmodellen niet beperkt tot tekst. Ze kunnen tijdreeksgegevens, sensorinvoer, feedbackloops, ERP-gegevens, spreadsheets, simulaties en gevolgen van acties bevatten. In plaats van te vragen “Wat is het meest waarschijnlijke volgende woord?”, stellen ze een veel krachtigere vraag:
“Wat zal er gebeuren als we dit doen??”
Hoe het er in de praktijk uitziet
Voor leidinggevenden is dit geen abstract onderzoeksdebat. Mondiale modellen zijn al in opkomst (vaak zonder als zodanig te worden bestempeld), op gebieden waar taal alleen onvoldoende is.
- Toeleveringsketens en logistiek: Een taalmodel kan onderbrekingen samenvatten of rapporten genereren. Een wereldmodel kan simuleren hoe een havensluiting, een stijging van de brandstofprijs of een falende leverancier door een netwerk raast en alternatieve reacties testen voordat er kapitaal wordt geïnvesteerd.
- Verzekeringen en risicobeheer: LLM’s kunnen beleid uitleggen of vragen van klanten beantwoorden. Mondiale modellen kunnen leren hoe risico’s zich in de loop van de tijd daadwerkelijk ontwikkelen, extreme gebeurtenissen simuleren en trapsgewijze verliezen inschatten onder verschillende scenario’s, iets wat geen enkel tekstsysteem op betrouwbare wijze kan doen.
- Productie en operaties: Digitale fabriekstweelingen zijn de eerste modellen ter wereld. Ze beschrijven niet alleen processen; ze simuleren de interactie tussen machines, materialen en tijd, waardoor bedrijven storingen kunnen voorspellen, de productiviteit kunnen optimaliseren en veranderingen virtueel kunnen testen voordat ze het echte systeem aanraken.
In al deze gevallen is taal nuttig, maar onvoldoende. Begrip vereist een model van hoe de wereld zich gedraagt, en niet alleen hoe mensen erover praten.
De post-LLM-architectuur
Dit betekent niet dat taalkundige modellen moeten worden opgegeven. Het betekent dat je ze op de juiste plek moet zetten.
In de volgende fase van AI:
- LLM’s worden interfaces, co-piloten en vertalers
- Wereldmodellen bieden basis, voorspelling en planning
- Taal staat boven systemen die leren van de werkelijkheid zelf
In Plato’s allegorie worden de gevangenen niet bevrijd door de schaduwen zorgvuldiger te bestuderen: ze worden bevrijd door zich om te draaien en de bron van die schaduwen onder ogen te zien, en uiteindelijk de wereld buiten de grot.
Kunstmatige intelligentie nadert zo’n moment.
Organisaties die dit al vroeg beseffen, zullen stoppen met het verwarren van vloeiende taal met begrip en zullen gaan investeren in architecturen die hun realiteit vormgeven. Deze bedrijven zullen niet alleen AI bouwen die overtuigend over de wereld spreekt: ze zullen AI bouwen die daadwerkelijk begrijpt hoe het werkt.
Begrijpt uw bedrijf dit? Zal uw bedrijf in staat zijn zijn mondiale model op te bouwen?



