In de race om AI-modellen er steeds indrukwekkender uit te laten zien, hebben technologiebedrijven een theatrale benadering van taal gekozen. Ze blijven over AI praten alsof het een persoon is. Niet alleen over het ‘denken’ of ‘plannen’ van kunstmatige intelligentie – deze woorden zijn al vol betekenis – maar nu bespreken ze een De ‘ziel’ van het AI-model en hoe modellen ‘bekennen’, ‘willen’, ‘plannen maken’ of ‘zich onzeker voelen’.
Dit is geen onschuldige marketingtruc. Het antropomorfiseren van AI is misleidend, onverantwoordelijk en uiteindelijk schadelijk voor het publieke begrip van een technologie die al worstelt met transparantie, in een tijd waarin duidelijkheid het belangrijkst is.
Onderzoek uitgevoerd door grote AI-bedrijven, bedoeld om licht te werpen op het gedrag van generatieve AI, wordt vaak op een manier ingekaderd die eerder verduistert dan verheldert. Laten we bijvoorbeeld nemen een recent bericht van OpenAI waarin zijn werk wordt beschreven om zijn modellen hun fouten of sluiproutes te laten “bekennen”. Het is een waardevol experiment dat onderzoekt hoe een chatbot zelf bepaalde ‘wangedragingen’ rapporteert, zoals hallucinaties en intriges. Maar OpenAI’s beschrijving van het proces als een ‘bekentenis’ impliceert dat er een psychologisch element schuilgaat achter de resultaten van een breed taalmodel.
Misschien komt dit voort uit de erkenning van hoe uitdagend het is voor een LLM om echte transparantie te bereiken. We hebben gezien dat AI-modellen bijvoorbeeld hun werk niet op betrouwbare wijze kunnen demonstreren bij taken als Sudoku-puzzels oplossen.
Er zit een kloof tussen Wat kunstmatige intelligentie kan genereren en Als het genereert het, en dat is precies de reden waarom deze mensachtige terminologie zo gevaarlijk is. We zouden kunnen discussiëren over de beperkingen en reële gevaren van deze technologie, maar termen die AI bestempelen als bewuste wezens doen weinig meer dan het bagatelliseren van zorgen of het verdoezelen van risico’s.
Mis geen van onze onpartijdige technische inhoud en laboratoriumrecensies. CNET toevoegen als uw favoriete Google-bron.
Kunstmatige intelligentie heeft geen ziel
AI-systemen hebben geen ziel, motivatie, gevoelens of moraal. Ze ‘bekennen’ niet omdat ze zich door eerlijkheid gedwongen voelen, net zomin als een rekenmachine ‘verontschuldigingen’ aanbiedt als je op de verkeerde knop drukt. Deze systemen genereren tekstmodellen op basis van statistische relaties die zijn geleerd uit grote datasets.
Dat is alles.
Alles wat menselijk lijkt, is de projectie van ons innerlijke leven op een zeer verfijnde spiegel.
De antropomorfisering van AI geeft mensen een verkeerd idee van wat deze systemen eigenlijk zijn. En dit heeft gevolgen. Wanneer we bewustzijn en emotionele intelligentie beginnen toe te wijzen aan een entiteit waar deze niet bestaat, beginnen we AI te vertrouwen op een manier die nooit bedoeld was om te vertrouwen.
Tegenwoordig wenden steeds meer mensen zich tot “Doctor ChatGPT”. medische gids in plaats van te vertrouwen op gediplomeerde en gekwalificeerde artsen. Anderen wenden zich tot door AI gegenereerde reacties op gebieden zoals financiën, emotionele gezondheid en interpersoonlijke relaties. Sommigen raken verslaafd pseudo-vriendschap met chatbots en hen om advies vragen, in de veronderstelling dat alles wat een LLM uitspuugt “goed genoeg” is om hun beslissingen en acties te onderbouwen.
Hoe we over AI moeten praten
Wanneer bedrijven vertrouwen op antropomorfe taal, vervagen ze de grens tussen simulatie en gevoeligheid. De terminologie verhoogt de verwachtingen, wekt angst op en leidt af van de echte kwesties die feitelijk onze aandacht verdienen: vooroordelen in datasets, misbruik door slechte actoren, veiligheid, vertrouwen en machtsconcentratie. Geen van deze onderwerpen vereist mystieke metaforen.
Neem het recente lek van Anthropic over zijn “document van de ziel“gebruikt om het karakter, de zelfperceptie en de identiteit van Claude Opus 4.5 te trainen. Dit bizarre stukje interne documentatie was nooit bedoeld om metafysische beweringen te doen, meer alsof de ingenieurs een debugging-gids aan het rommelen waren. De taal die deze bedrijven achter gesloten deuren gebruiken, sijpelt echter onvermijdelijk door in de manier waarop de algemene bevolking erover praat. En zodra die taal blijft hangen, vormt het onze gedachten over technologie, evenals hoe we ons eromheen gedragen.
Of denk eens aan OpenAI-onderzoek Onderzoek naar ‘sluwe plannen’ op het gebied van kunstmatige intelligentiewaarin een handvol zeldzame maar bedrieglijke antwoorden sommige onderzoekers ertoe brachten te concluderen dat de modellen opzettelijk bepaalde mogelijkheden verborgen hielden. Het onderzoeken van AI-resultaten is een goede gewoonte; Het impliceren dat chatbots hun eigen motivaties of strategieën kunnen hebben, is dat niet. Het rapport van OpenAI stelt feitelijk dat dit gedrag het resultaat was van trainingsgegevens en enkele uitdagende trends, en niet van tekenen van bedrog. Maar toen het woord ‘intriges’ werd gebruikt, kwam het gesprek op de bezorgdheid dat AI een soort achterbaks middel zou zijn.
Er zijn betere, preciezere en technischere woorden. In plaats van ‘ziel’ spreekt het over de architectuur of de vorming van een patroon. In plaats van ‘bekentenis’, noem het foutrapportage of interne consistentiecontroles. In plaats van te zeggen dat een model ‘patronen’ is, beschrijf je het optimalisatieproces ervan. We moeten naar AI verwijzen met termen als trends, outputs, representaties, optimizers, modelupdates of trainingsdynamiek. Ze zijn niet zo dramatisch als ‘ziel’ of ‘bekentenis’, maar ze hebben het voordeel dat ze in de werkelijkheid geworteld zijn.
Om eerlijk te zijn, er zijn redenen waarom dit LLM-gedrag menselijk lijkt: bedrijven hebben ze getraind om ons te imiteren.
Net als de auteurs van de paper uit 2021″Over de gevaren van stochastische papegaaien” hij wees erop dat systemen die zijn gebouwd om menselijke taal en communicatie te repliceren dit uiteindelijk zullen weerspiegelen: onze breedsprakigheid, syntaxis, toon en teneur. Gelijkenis impliceert geen echt begrip. Het betekent dat het model presteert waarvoor het is geoptimaliseerd. Wanneer een chatbot op overtuigende wijze imiteert zoals chatbots nu kunnen doen, lezen we uiteindelijk de mensheid in de machine, zelfs als er niets van dien aard aanwezig is.
Taal vormt de publieke perceptie. Wanneer woorden slordig, magisch of opzettelijk antropomorf zijn, krijgt het publiek een vertekend beeld. Deze bias komt slechts één groep ten goede: AI-bedrijven die profiteren van LLM’s die capabeler, nuttiger en menselijker lijken dan ze in werkelijkheid zijn.
Als AI-bedrijven het vertrouwen van het publiek willen winnen, is de eerste stap eenvoudig. Houd op met het behandelen van spraakpatronen als mystieke wezens met een ziel. Zij hebben geen gevoelens, wij wel. Onze woorden moeten dit weerspiegelen en niet verdoezelen.
Lees ook: Hoe ziet betekenis eruit in het tijdperk van kunstmatige intelligentie?



