Welkom bij NAAR DE Gedecodeerd, Snel bedrijfDe wekelijkse nieuwsbrief die het belangrijkste nieuws uit de wereld analyseert NAAR DE. Je kunt tekenen totdat u deze nieuwsbrief wekelijks per e-mail ontvangt Hier.
AI ‘wapenwedloop’ kan meer een ‘wapenwedloop’ zijn
De grote NAAR DE Bedrijven vertellen ons dat AI binnenkort elk aspect van het bedrijfsleven in elke sector zal hervormen. Velen van ons vragen zich af wanneer dit daadwerkelijk zal gebeuren in de echte wereld, wanneer de zogenaamde “AI-start” zal komen. Maar omdat er zoveel variabelen zijn, zoveel verschillende soorten organisaties, banen en werknemers, is er geen bevredigend antwoord. Bij gebrek aan concreet bewijs baseren we ons op anekdotes: succesverhalen van oprichters, influencers en early adopters die publiceren op TikTok.
Economen en investeerders willen even graag de ‘wanneer’-vraag beantwoorden. Ze willen weten hoe snel de effecten van AI zich zullen manifesteren en hoeveel kostenbesparingen dat oplevert productiviteit groei die het zal genereren. Politici concentreren zich op de risico’s: hoeveel banen zullen verloren gaan en welke? Wat zullen de stroomafwaartse effecten zijn op het sociale vangnet?
Business schools en adviesbureaus hebben zich tot onderzoek gewend om deze antwoorden op deze vraag te vinden. Een van de meest opmerkelijke recente inspanningen was een MIT-studie uit 2025waaruit bleek dat, ondanks de uitgaven tussen de 30 en 40 miljard dollar aan generatieve AI, 95% van de grote bedrijven “geen meetbare impact zag in termen van winst en verlies.”
Recenter onderzoek schetst een iets rooskleuriger beeld. A recent onderzoek van de Wharton School ontdekte dat drie van de vier bedrijfsleiders “een positief rendement op AI-investeringen rapporteerden, en 88% van plan was de uitgaven het komende jaar te verhogen.”
Ik heb het gevoel dat het tijdstip waarop AI van start gaat moeilijk te begrijpen is, omdat de adoptie zeer ongelijkmatig is en sterk afhankelijk is van de toepassing van AI. Softwareontwikkelaars zien bijvoorbeeld duidelijke efficiëntiewinsten dankzij AI-aangedreven codeeragenten, terwijl retailers profiteren van slimmere chatbots voor klantenondersteuning die automatisch meer problemen kunnen oplossen.
Het hangt ook af van de cultuur van de organisatie. Bedrijven met duidelijke strategieën, goede data, enkele PhD’s en interne AI-enthousiastelingen boeken echte vooruitgang. Ik vermoed dat veel oudere, minder technologiegeoriënteerde bedrijven vast blijven zitten in de pilotmodus en moeite hebben om de ROI aan te tonen.
Ander studies hebben aangetoond dat menselijke werknemers in de vroege stadia van de implementatie veel tijd moeten investeren in het debuggen of trainen van AI-tools, wat de netto productiviteitswinst ernstig beperkt. Anderen laten zien dat werknemers in organisaties die afhankelijk zijn van kunstmatige intelligentie substantiële verbeteringen in de productiviteit zien, maar daardoor ambitieuzer worden en uiteindelijk in de problemen komen. harder werkenniet minder.
De MIT-onderzoekers voegden een interessante disclaimer toe over de resultaten van hun onderzoek. Hun ontnuchterende bevindingen, zo merkten zij op, weerspiegelen niet de beperkingen van de AI-tools zelf, maar eerder het feit dat organisaties vaak jaren nodig hebben om hun mensen en processen aan te passen aan nieuwe technologie.
Dus terwijl AI-bedrijven voortdurend de steeds toenemende intelligentie van hun modellen aanprijzen, gaat het er uiteindelijk om hoe snel grote organisaties dergelijke tools in hun dagelijkse werk kunnen integreren. De revolutie op het gebied van de kunstmatige intelligentie is in die zin eerder een keerpunt dan een wapenwedloop. De weg naar ROI loopt via mensen en cultuur. En dat menselijke knelpunt zou uiteindelijk kunnen bepalen wanneer de AI-industrie en haar financiers rendement gaan zien op hun enorme investeringen.
Uit een nieuwe benchmark blijkt dat kunstmatige intelligentie er niet in slaagt het meeste digitale werk te doen
AI-bedrijven blijven in snel tempo slimmere modellen uitbrengen. Maar de belangrijkste manier van de industrie om dergelijke vooruitgang aan te tonen – benchmarks – geeft niet volledig weer hoe AI-agenten presteren in echte projecten. Een relatief nieuwe benchmark genaamd Index voor werken op afstand (RLI) probeert deze leemte op te vullen door AI-agenten te testen op projecten die vergelijkbaar zijn met die van externe contractanten. Deze omvatten activiteiten op het gebied van game-ontwikkeling, productontwerpen video-animatie. Sommige opdrachten, gebaseerd op feitelijk contractwerk, zouden menselijke werknemers meer dan 100 uur kosten om te voltooien en zouden meer dan $10.000 aan arbeid kosten.
Op dit moment werken enkele van de beste modellen in de branche niet zo goed op de RLI. In tests die eind vorig jaar werden uitgevoerd, slaagden AI-agenten, gebaseerd op modellen van top AI-ontwikkelaars, waaronder OpenAI, Anthropic, Google en anderen, er nauwelijks in om een van de projecten te voltooien. De best presterende agent, gebaseerd op het Opus 4.5-model van Anthropic, voltooide slechts 3,5% van de banen. (Anthropic heeft sindsdien Opus 4.6 uitgebracht, maar is nog niet geëvalueerd op de RLI.)
De test plaatst de vraag naar de huidige toepasbaarheid van agenten in een ander licht en zou enkele van de meer optimistische beweringen over de effectiviteit van agenten uit de AI-sector kunnen temperen.
Lastige ‘directeuren’ uit Silicon Valley duiken opnieuw op, wat het Witte Huis en het Pentagon irriteert
Het Pentagon en het Witte Huis wel grote dwaas bij het veiligheidsbewuste AI-bedrijf Anthropic. Waarom? Omdat Anthropic niet wil dat zijn AI wordt gebruikt om mensen te targeten met autonome drones of voor massale surveillance van Amerikaanse burgers.
Anthropic heeft nu een Contract ter waarde van 200 miljoen dollar waardoor het gebruik van de chatbot en Claude-modellen door federale uitzendkrachten mogelijk wordt gemaakt. Het was een van de eerste bedrijven die toestemming kreeg om met gevoelige overheidsgegevens te werken en het eerste AI-bedrijf dat een gespecialiseerd model voor inlichtingenwerk bouwde. Maar het bedrijf hanteert al lang duidelijke regels in zijn gebruikersrichtlijnen dat zijn modellen niet voor kwaadaardige doeleinden mogen worden gebruikt.
Het Pentagon is van mening dat het, na betaling voor de technologie, deze voor elke legale toepassing moet kunnen gebruiken. Maar het acceptabele gebruik van AI is anders dan dat van traditionele software. Het potentieel van AI voor autonomie maakt het inherent gevaarlijker, en de risico’s ervan nemen toe naarmate de strijd dichterbij komt.
Als het meningsverschil niet wordt opgelost, kan het contract van Anthropic met de regering mogelijk in gevaar komen. Maar het kan nog erger. Afgelopen weekend zei het Pentagon dat het overwoog om Anthropic te classificeren als een ‘toeleveringsketenrisico’, wat zou betekenen dat de regering Anthropic even betrouwbaar acht als Huawei. Overheidscontractanten van allerlei aard zouden onder druk worden gezet om te stoppen met het gebruik van Anthropic.
De beperkingen van Anthropic op bepaalde defensiegerelateerde toepassingen worden uiteengezet in haar Grondweteen document dat de waarden en het gedrag beschrijft dat de modellen willen volgen. Er wordt gezegd dat Claude een “werkelijk goede, wijze en deugdzame agent” zou moeten zijn. “We willen dat Claude doet wat een diep en vakkundig ethisch persoon in de positie van Claude zou doen.” Voor critici van de regering-Trump vertaalt die taal zich naar een gestuurd voor de wake.
Deze hele situatie dateert uit 2018, toen Google ermee ophield Project Maven contract met de overheid nadat werknemers in opstand kwamen tegen het gebruik van technologie door Google om mensen in de strijd te richten. Google werkt nog steeds samen met de overheid en heeft in de loop der jaren haar ethische richtlijnen verzacht.
De waarheid is dat technologiebedrijven niet langer vasthouden aan de principes die ze ooit hielden. Velen hebben zich in een soort patronagerelatie met het huidige regime gevestigd, een relatief goedkope manier om MAGA-reactie te voorkomen en tegelijkertijd de aandeelhouders tevreden te houden. Anthropic lijkt op zijn eigen manier een andere weg in te slaan en kan daar financieel onder lijden. Maar op de lange termijn zou het bedrijf respect, vertrouwen en goodwill kunnen verdienen van veel consumenten en toezichthouders. Voor een bedrijf wiens product net zo krachtig en potentieel gevaarlijk is als consumenten-AI, kan dat veel uitmaken.
Verhoogde AI-dekking van Snel bedrijf:
- OpenAI, Google en Perplexity zijn bijna goedgekeurd om kunstmatige intelligentie rechtstreeks voor de Amerikaanse overheid te hosten
- Nieuwe AI-modellen verliezen vrijwel onmiddellijk hun voorsprong
- Meta patenteert kunstmatige intelligentie waarmee dode mensen vanuit het hiernamaals kunnen posten
- Deze 6 citaten van OpenClaw-maker Peter Steinberger verwijzen naar de toekomst van personal computing
Wilt u exclusieve rapporten en trendanalyses over technologie, bedrijfsinnovatie, de toekomst van werk en design? Registratie Voor Snel bedrijf Onderscheiding.



