Elon Musk, CEO van Tesla Inc., tijdens het US-Saudi Arabia Investment Forum in het Kennedy Center in Washington, DC, VS, woensdag 19 november 2025.
Bloomberg | Bloomberg | Getty-afbeeldingen
Elon Musk heeft opnieuw alarm geslagen over de gevaren van kunstmatige intelligentie en heeft een opsomming gegeven van wat volgens hem de drie belangrijkste ingrediënten zijn om een positieve toekomst met deze technologie te garanderen.
De miljardair-CEO van TeslaSpaceX, xAI, X en The Boring Company verschenen zondag op een podcast met de Indiase miljardair Nikhil Kamath.
“Het is niet zo dat we gegarandeerd een positieve toekomst hebben met kunstmatige intelligentie”, zei Musk in de podcast. “Als je krachtige technologie creëert, bestaat het gevaar dat krachtige technologie potentieel destructief kan zijn.”
Musk was samen met Sam Altman medeoprichter van OpenAI, maar verliet het bestuur in 2018 en publiekelijk kritiek op het bedrijf voor het opgeven van zijn non-profit missie om kunstmatige intelligentie veilig te ontwikkelen na de lancering van ChatGPT in 2022. Musk’s xAI ontwikkelde zijn eigen chatbot, Grok, in 2023.
Musk heeft eerder gewaarschuwd dat “een van de grootste risico’s voor de toekomst van de beschaving kunstmatige intelligentie is” en benadrukte dat de snelle vooruitgang ertoe leidt dat AI een groter risico voor de samenleving wordt dan auto’s, vliegtuigen of medicijnen.
In de podcast benadrukte de technologiemiljardair hoe belangrijk het is ervoor te zorgen dat AI-technologieën de waarheid nastreven in plaats van onnauwkeurigheden te herhalen. “Het kan heel gevaarlijk zijn”, zei Musk tegen Kamath, die ook mede-oprichter is van effectenmakelaar Zerodha.
“Waarheid, schoonheid en nieuwsgierigheid. Ik denk dat dit de drie belangrijkste dingen zijn voor kunstmatige intelligentie”, zei hij.
Hij zei dat de AI, zonder zich strikt aan de waarheid te houden, informatie zal leren uit online bronnen waar het “veel leugens zal absorberen en daardoor moeite zal hebben met redeneren omdat deze leugens onverenigbaar zijn met de werkelijkheid.”
Hij voegde eraan toe: “Je kunt een AI gek maken als je hem dwingt dingen te geloven die niet waar zijn, omdat dit tot conclusies zal leiden die ook slecht zijn.”
“Hallucinaties” (onjuiste of misleidende reacties) vormen een van de belangrijkste uitdagingen voor kunstmatige intelligentie. Eerder dit jaar werd een AI-functie gelanceerd door Apple op zijn iPhones gegenereerde nepnieuwswaarschuwingen.
Daaronder bevond zich een valse samenvatting van de BBC News-app met een verhaal over de halve finale van het PDC World Darts Championship, waarin ten onrechte werd beweerd dat de Britse darter Luke Littler het kampioenschap had gewonnen. Littler won de toernooifinale pas de volgende dag.
Apple vertelde destijds aan de BBC dat het bezig was met een update om het probleem aan te pakken dat duidelijkheid zou scheppen wanneer Apple Intelligence verantwoordelijk is voor de tekst die in meldingen wordt getoond.
Musk voegde eraan toe dat “enige waardering voor schoonheid belangrijk is” en dat “je het weet als je het ziet.”
Musk zei dat kunstmatige intelligentie meer zou moeten willen weten over de aard van de werkelijkheid, omdat de mensheid interessanter is dan machines.
“Het is interessanter om de voortzetting, zo niet de welvaart, van de mensheid te zien dan haar uit te roeien”, zei hij.
Geoffrey Hintoneen computerwetenschapper en voormalig vice-president van Google, bekend als de ‘Godfather of AI’, zei eerder dit jaar dat er een ‘kans van 10% tot 20%’ is dat AI ons ‘zal wegvagen’, in een aflevering van de Diary of a CEO-podcast. Enkele van de kortetermijnrisico’s die hij noemde, waren onder meer hallucinaties en de automatisering van banen op instapniveau.
“De hoop is dat als genoeg slimme mensen genoeg onderzoek doen met voldoende middelen, we een manier zullen vinden om ze op te bouwen, zodat ze ons nooit pijn willen doen”, voegde Hinton eraan toe.



