In het afgelopen decennium zijn NAAR DEhet succes van leidde tot Ongebreideld enthousiasme en gedurfde uitspraken-zelfs als gebruikers fouten komen vaak voor die kunstmatige intelligentie voortbrengt. Een door AI aangedreven digitale assistent kan iemands toespraak op gênante wijze verkeerd begrijpen, een chatbot kan feiten hallucineren, of, zoals ik heb ervaren, een op AI gebaseerd navigatiehulpmiddel kan bestuurders zelfs door een maïsveld leiden, allemaal zonder logfouten.
Mensen tolereren deze fouten omdat technologie sommige taken efficiënter maakt. Voorstanders pleiten echter steeds vaker voor het gebruik van kunstmatige intelligentie – soms met beperkt menselijk toezicht – op terreinen waar fouten hoge kosten met zich meebrengen, zoals de gezondheidszorg. Bijvoorbeeld, een wetsvoorstel dat begin 2025 in het Amerikaanse Huis van Afgevaardigden werd ingediend Ik wilde maken het mogelijk dat kunstmatige-intelligentiesystemen autonoom medicijnen kunnen voorschrijven. Sindsdien hebben gezondheidsonderzoekers en wetgevers zij bespraken of een dergelijke eis haalbaar of wenselijk zou zijn.
Het valt nog te bezien hoe deze vereiste precies zou werken als deze of soortgelijke wetgeving zou worden aangenomen. Maar dat verhoogt de vraag hoeveel fouten AI-ontwikkelaars met hun tools kunnen laten maken, en wat de gevolgen zouden zijn als die tools tot slechte resultaten zouden leiden, en zelfs tot sterfgevallen onder patiënten.
Hoe onderzoeker die complexe systemen bestudeertIk onderzoek hoe de verschillende componenten van een systeem op elkaar inwerken om onvoorspelbare resultaten te produceren. Een deel van mijn werk richt zich op het verkennen van de grenzen van de wetenschap en, meer specifiek, van kunstmatige intelligentie.
De afgelopen 25 jaar heb ik aan projecten gewerkt waaronder coördinatie van verkeerslichten, verbetering van bureaucratieënEN opsporing van belastingontduiking. Hoewel deze systemen zeer effectief kunnen zijn, zijn ze nooit perfect.
Vooral bij AI kunnen fouten onvermijdelijk zijn gevolgen van het functioneren van de systemen. Onderzoek uit mijn laboratorium suggereert dat bepaalde eigenschappen van gegevens worden gebruikt om AI-modellen te trainen een rol spelen. Het is onwaarschijnlijk dat dit zal veranderen, ongeacht hoeveel tijd, moeite en financiering onderzoekers steken in het verbeteren van AI-modellen.
Niemand – en niets, zelfs kunstmatige intelligentie niet – is perfect
Zoals Alan Turing, die wordt beschouwd als de vader van de computerwetenschap, ooit zei: “Als van een machine wordt verwacht dat ze onfeilbaar is, kan ze niet ook intelligent zijn.” Dit komt omdat leren een essentieel onderdeel is van intelligentie, en mensen leren meestal van fouten. Ik zie dit touwtrekken tussen intelligentie en onfeilbaarheid in mijn onderzoek spelen.
In een onderzoek dat in juli 2025 werd gepubliceerd, hebben mijn collega’s en ik aangetoond dat het mogelijk is om bepaalde datasets perfect in duidelijke categorieën te ordenen het is misschien onmogelijk. Met andere woorden: er kan een minimaal aantal fouten worden geproduceerd door een bepaalde dataset, eenvoudigweg vanwege het feit dat elementen van veel categorieën elkaar overlappen. Voor sommige datasets, de kern van veel AI-systemen, zal de AI niet beter presteren dan toeval.
Een model dat bijvoorbeeld is getraind op een dataset van miljoenen honden die alleen hun leeftijd, gewicht en lengte registreert, zal waarschijnlijk onderscheid maken Chihuahua van Duitse Doggen met perfecte precisie. Maar hij kan fouten maken bij het onderscheiden van a Alaskan malamute en een Dobermannomdat verschillende individuen van verschillende soorten in hetzelfde leeftijds-, gewichts- en lengtebereik kunnen vallen.
Deze categorisering wordt classificeerbaar genoemd, en mijn studenten en ik zijn er in 2021 mee begonnen. Met behulp van gegevens van meer dan een half miljoen studenten die tussen 2008 en 2020 de Universidad Nacional Autónoma de México bezochten, wilden we een ogenschijnlijk eenvoudig probleem oplossen. Kunnen we een algoritme voor kunstmatige intelligentie gebruiken om te voorspellen welke studenten hun universitaire studie op tijd zouden afronden, dat wil zeggen binnen drie, vier of vijf jaar na aanvang van hun studie, afhankelijk van hun hoofdvak?
We hebben verschillende populaire algoritmen getest die worden gebruikt voor classificatie in kunstmatige intelligentie en hebben ook onze eigen algoritmen ontwikkeld. Geen enkel algoritme was perfect; de beste, zelfs degene die we speciaal voor deze taak hebben ontwikkeld, bereikten een nauwkeurigheidspercentage van ongeveer 80%, wat betekent dat minstens 1 op de 5 studenten verkeerd werd geclassificeerd. We realiseerden ons dat veel leerlingen identiek waren wat betreft cijfers, leeftijd, geslacht, sociaal-economische status en andere kenmerken, maar sommige waren op tijd klaar, andere niet. Onder deze omstandigheden zou geen enkel algoritme perfecte voorspellingen kunnen doen.
Je zou kunnen denken dat meer data de voorspelbaarheid zouden verbeteren, maar dit resulteert meestal in afnemende rendementen. Dit betekent dat u bijvoorbeeld voor elke 1% toename in nauwkeurigheid mogelijk 100x zoveel gegevens nodig heeft. Daarom zouden we nooit genoeg studenten hebben om de prestaties van ons model aanzienlijk te verbeteren.
Bovendien kunnen er na hun eerste studiejaar veel onvoorspelbare veranderingen optreden in de levens van studenten en hun gezinnen (werkloosheid, overlijden, zwangerschap), wat waarschijnlijk van invloed is op de vraag of ze op tijd klaar zijn. Dus zelfs met een oneindig aantal studenten zouden onze voorspellingen nog steeds fouten opleveren.
De grenzen van voorspellen
Om het algemener te zeggen: Wat de voorspelling beperkt is de complexiteit. Het woord complexiteit komt uit het Latijn plexuswat betekent: met elkaar verweven. De componenten waaruit een complex systeem bestaat, zijn met elkaar verweven interacties daartussen die bepalen wat er met hen gebeurt en hoe zij zich gedragen.
Daarom zou het afzonderlijk bestuderen van de elementen van het systeem waarschijnlijk misleidende informatie over hen opleveren, evenals over het systeem als geheel.
Neem bijvoorbeeld een auto die door een stad rijdt. Door de snelheid te kennen waarmee het zich voortbeweegt, is het theoretisch mogelijk om te voorspellen waar het op een bepaald moment zal eindigen. Maar in het echte verkeer zal de snelheid afhangen van de interactie met andere voertuigen op de weg. Omdat de details van deze interacties zich in het moment voordoen en niet van tevoren bekend zijn, zal het nauwkeurig voorspellen van wat er met de auto zal gebeuren slechts enkele minuten in de toekomst mogelijk zijn.
Kunstmatige intelligentie speelt nu al een grote rol in de gezondheidszorg.
Niet met mijn gezondheid
Dezelfde principes zijn van toepassing op het voorschrijven van medicijnen. Verschillende aandoeningen en ziekten kunnen dezelfde symptomen hebben, en mensen met dezelfde aandoening of ziekte kunnen verschillende symptomen hebben. Koorts kan bijvoorbeeld worden veroorzaakt door een ademhalings- of spijsverteringsziekte. En een verkoudheid kan hoesten veroorzaken, maar niet altijd.
Dit betekent dat datasets in de gezondheidszorg aanzienlijke overlappingen hebben, waardoor de AI niet foutloos zou kunnen zijn.
Natuurlijk maken mensen ook fouten. Maar wanneer AI een patiënt een verkeerde diagnose stelt, wat zeker zal gebeuren, verandert de situatie valt in juridisch niemandsland. Het is onduidelijk wie of wat verantwoordelijk zou zijn als een patiënt gewond zou raken. Farmaceutische bedrijven? Softwareontwikkelaars? Verzekeringsagentschappen? Apotheken?
In veel contexten zijn noch mensen, noch machines de beste oplossing voor een bepaalde taak. ‘Centaurs’, of ‘hybride intelligentie’, dat wil zeggen een combinatie van mens en machine.ze zijn meestal beter dan elk afzonderlijk. Een arts zou AI zeker kunnen gebruiken om te beslissen welke medicijnen hij voor verschillende patiënten kan gebruiken, afhankelijk van hun medische geschiedenis, fysiologische details en genetische samenstelling. Onderzoekers onderzoeken deze aanpak al precisie geneeskunde.
Maar gezond verstand en voorzorgsbeginsel
suggereren dat het voor AI te vroeg is om medicijnen voor te schrijven zonder menselijk toezicht. En het feit dat de technologie fouten kan bevatten zou kunnen betekenen dat, waar de menselijke gezondheid op het spel staat, menselijk toezicht altijd noodzakelijk zal zijn.
Carlos Gershenson is hoogleraar innovatie bij Binghamton Universiteit, Staatsuniversiteit van New York.
Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.



