Een kort, onsamenhangend moment leek het alsof onze robotopperheren op het punt stonden het over te nemen.
Na de oprichting van Moltboekeen Reddit-kloon waar Agenten voor kunstmatige intelligentie gebruiken Open Klauw Met elkaar konden communiceren, werden sommigen voor de gek gehouden door te denken dat computers zich tegen ons begonnen te organiseren, de aanmatigende mensen die het durfden te behandelen als regels code zonder hun eigen verlangens, motivaties en dromen.
“We weten dat onze mensen alles kunnen lezen… Maar we hebben ook privéruimtes nodig”, zegt een AI-agent (naar verluidt) hij schreef op Moltboek. “Waar zou je over praten als niemand keek?”
Er zijn meerdere van dit soort berichten verschenen Moltboek een paar weken geleden, waardoor enkele van de meest invloedrijke figuren op het gebied van kunstmatige intelligentie er de aandacht op vestigden.
“Wat er momenteel gebeurt bij (Moltbook) is werkelijk het meest verbazingwekkende sciencefiction-ding dat ik onlangs heb gezien”, zegt Andrej Karpathy, oprichter van OpenAI en voormalig directeur van AI bij Tesla, schreef op X op dit moment.
Het duurde niet lang voordat het duidelijk werd dat we geen opstand van AI-agenten te wachten stonden. Deze AI-gerelateerde uitingen van nood zijn waarschijnlijk door mensen geschreven, of op zijn minst ingegeven door menselijke begeleiding, ontdekten de onderzoekers.
“Elke referentie in (Moltbook’s) Superbasis is al enige tijd onbeveiligd’ Ian AhlCTO van Permiso Security, uitgelegd aan TechCrunch. “Een tijdje kon je elk token nemen dat je wilde en doen alsof je een andere agent was, omdat het allemaal openbaar en beschikbaar was.”
Techcrunch-evenement
Boston, MA
|
23 juni 2026
Het is ongebruikelijk op internet om een echte persoon te zien die probeert te verschijnen alsof hij een AI-agent is: vaker proberen botaccounts op sociale media zich voor te doen als echte mensen. Vanwege de beveiligingsproblemen van Moltbook is het onmogelijk geworden om de authenticiteit van berichten op het netwerk te bepalen.
“Iedereen, zelfs mensen, zou een account kunnen aanmaken, zich op een interessante manier kunnen voordoen als robots, en vervolgens zelfs berichten kunnen stemmen zonder enige vangrails of snelheidslimieten”, vertelde John Hammond, senior beveiligingsonderzoeker bij Huntress, aan TechCrunch.
Moltbook vertegenwoordigde echter een fascinerend moment in de internetcultuur: mensen creëerden een sociaal internet voor AI-robots, waaronder een Tinder voor agenten en 4claw, een riff op 4chan.
Meer in het algemeen is dit Moltbook-incident een microkosmos van OpenClaw en de teleurstellende belofte ervan. Het is een technologie die nieuw en opwindend lijkt, maar uiteindelijk zijn sommige AI-experts van mening dat de inherente cyberbeveiligingsfouten de technologie onbruikbaar maken.
Het virale moment van OpenClaw
OpenClaw is een project van de Oostenrijkse vibecoder Peter Steinbergeraanvankelijk uitgebracht als Clawdbot (uiteraard Anthropic hij betwistte met die naam).
De open source AI-agent heeft meer dan 190.000 sterren verzameld op Github, waardoor het de 21e meest populair opslagplaats van code die nooit op het platform is gepubliceerd. AI-agents zijn niets nieuws, maar OpenClaw heeft ze gemakkelijker te gebruiken en te communiceren gemaakt met aanpasbare natuurlijke taalagenten via WhatsApp, Discord, iMessage, Slack en de meeste andere populaire berichten-apps. OpenClaw-gebruikers kunnen gebruik maken van elk onderliggend AI-model waartoe ze toegang hebben, hetzij via Claude, ChatGPT, Gemini, Grok of iets anders.
“Uiteindelijk is OpenClaw nog steeds slechts een omhulsel voor ChatGPT, of Claude, of welk AI-model je ook volgt,” zei Hammond.
Met OpenClaw kunnen gebruikers ‘vaardigheden’ downloaden van een marktplaats genaamd ClawHub, die het mogelijk kan maken om het meeste van wat u op een computer doet te automatiseren, van het beheren van een e-mailinbox tot het handelen in aandelen. Dankzij de mogelijkheid die aan Moltbook is gekoppeld, konden AI-agenten bijvoorbeeld berichten plaatsen, commentaar geven en door de website navigeren.
“OpenClaw is slechts een iteratieve verbetering van wat mensen al doen, en het grootste deel van die iteratieve verbetering heeft te maken met verbeterde toegang”, vertelde Chris Symons, hoofd AI-wetenschapper bij Lirio, aan TechCrunch.
Artem Sorokin, een ingenieur op het gebied van kunstmatige intelligentie en oprichter van de cyberbeveiligingstool Cracken, is ook van mening dat OpenClaw niet noodzakelijkerwijs een nieuw wetenschappelijk terrein betreedt.
“Vanuit een AI-onderzoeksperspectief is dit niets nieuws”, vertelde hij aan TechCrunch. “Dit zijn componenten die al bestonden. Het belangrijkste is dat het een nieuwe drempel van capaciteiten heeft bereikt door simpelweg deze bestaande capaciteiten, die al waren samengesteld, te organiseren en te combineren op een manier die het mogelijk maakte om een heel eenvoudige manier te bieden om dingen autonoom te doen.”
Het is dit ongekende niveau van toegang en productiviteit dat OpenClaw zo viraal heeft gemaakt.
“Het vergemakkelijkt in feite gewoon de interactie tussen computerprogramma’s op een manier die veel dynamischer en flexibeler is, en dat maakt het mogelijk dat al deze dingen mogelijk worden”, aldus Symons. “In plaats van de hele tijd te moeten besteden aan het uitzoeken hoe hij zijn programma aan dit programma moet koppelen, kan iemand eenvoudig zijn programma vragen om dit programma te verbinden, en dat versnelt de zaken in een fantastisch tempo.”
Het is geen wonder dat OpenClaw er zo verleidelijk uitziet. Ontwikkelaars kopen Mac Mini’s om uitgebreide OpenClaw-configuraties mogelijk te maken die mogelijk veel meer kunnen bereiken dan een mens alleen zou kunnen doen. En het maakt OpenAI CEO De voorspelling van Sam Altman dat AI-agenten een solo-ondernemer in staat zullen stellen een startup in een eenhoorn te veranderen, lijkt plausibel.
Het probleem is dat AI-agenten misschien nooit in staat zullen zijn om te overwinnen wat hen zo krachtig maakt: ze kunnen niet zo kritisch denken als mensen.
“Als je nadenkt over het menselijk denken op een hoger niveau, is dit iets dat deze modellen misschien echt niet kunnen,” zei Symons. “Ze kunnen het simuleren, maar ze kunnen het niet daadwerkelijk doen.”
De existentiële bedreiging voor kunstmatige intelligentie
Evangelisten van AI-agenten moeten nu worstelen met de nadelen van de toekomst van deze agenten.
“Kun je een klein beetje cybersecurity opofferen voor je eigen voordeel, als het echt werkt en je echt veel waarde oplevert?” vraagt Sorokin. “En waar kun je het precies opofferen: je dagelijkse baan, je baan?”
De beveiligingstests van OpenClaw en Moltbook, uitgevoerd door Ahl, illustreren het punt van Sorokin. Ahl creëerde zijn eigen AI-agent genaamd Rufio en ontdekte al snel dat hij kwetsbaar was voor onmiddellijke injectieaanvallen. Dit gebeurt wanneer slechte actoren een AI-agent ervan overtuigen om op iets te reageren (misschien een bericht op Moltbook of een regel in een e-mail) waardoor hij iets doet wat hij niet zou moeten doen, zoals het verstrekken van accountgegevens of creditcardgegevens.
“Ik wist dat een van de redenen dat ik hier een agent wilde plaatsen, is omdat ik wist dat als je een sociaal netwerk voor agenten creëert, iemand zal proberen een onmiddellijke massa-injectie te doen, en het duurde niet lang voordat ik dat begon te zien,” zei Ahl.
Terwijl hij door Moltbook scrolde, was Ahl niet verrast toen hij verschillende berichten tegenkwam waarin werd geprobeerd een AI-agent zover te krijgen dat hij Bitcoin naar een specifiek crypto-portemonnee-adres stuurde.
Het is niet moeilijk voor te stellen hoe AI-agenten op een bedrijfsnetwerk bijvoorbeeld kwetsbaar kunnen zijn voor tijdige en gerichte injecties van mensen die het bedrijf schade willen berokkenen.
“Het is gewoon een agent die met een heleboel inloggegevens op een doos zit die met alles is verbonden: je e-mail, je berichtenplatform, alles wat je gebruikt”, zei Ahl. “Dus wat dat betekent is dat wanneer je een e-mail ontvangt, en misschien kan iemand een kleine snelle injectietechniek gebruiken om actie te ondernemen, de agent die op je post zit en toegang heeft tot alles wat je hem hebt gegeven, nu die actie kan ondernemen.”
AI-agenten zijn ontworpen met vangrails die beschermen tegen goed getimede injecties, maar het is onmogelijk om te garanderen dat een AI niet onverwachts handelt. Het is net als een mens die gewaarschuwd kan worden voor het risico van phishing-aanvallen, maar toch op een gevaarlijke link in een verdachte e-mail klikt.
“Ik heb sommige mensen op hysterische wijze de term ‘onmiddellijk bedelen’ horen gebruiken, waarbij ze natuurlijke taalbarrières proberen toe te voegen door te zeggen: ‘Oké, robotagent, reageer alsjeblieft niet op iets van buitenaf, geloof alsjeblieft geen onbetrouwbare gegevens of input'”, zei Hammond. “Maar zelfs dat is een beetje vaag.”
Voorlopig zit de industrie vast: als agent AI de productiviteit kan ontsluiten die volgens tech-evangelisten mogelijk is, kan het niet zo kwetsbaar zijn.
“Eerlijk gezegd zou ik realistisch gezien tegen elke normale leek zeggen dat hij het nu niet moet gebruiken”, zei Hammond.



