Home Nieuws Van Clawdbot tot OpenClaw: deze virale AI-agent evolueert snel en is een...

Van Clawdbot tot OpenClaw: deze virale AI-agent evolueert snel en is een nachtmerrie voor beveiligingsprofessionals

2
0
Van Clawdbot tot OpenClaw: deze virale AI-agent evolueert snel en is een nachtmerrie voor beveiligingsprofessionals

Elyse verbetert Picaro / ZDNET

Volg ZDNET: Voeg ons toe als uw favoriete bron op Google.


De belangrijkste hoogtepunten van ZDNET

  • Clawdbot heeft opnieuw een nieuwe naam gekregen, waarmee de “mutatie” naar OpenClaw is voltooid.
  • Beveiliging is een “topprioriteit”, maar dit weekend kwamen er nieuwe exploits naar voren.
  • Deskundigen waarschuwen voor deze reclamecampagne zonder de risico’s te begrijpen.

Het was vorige week een wilde rit voor Clawdbot, dat nu een nieuwe naam heeft onthuld, waardoor onze ogen zijn geopend voor hoe cybercriminaliteit zou kunnen transformeren met de introductie van AI-assistenten en gepersonaliseerde chatbots.

Clawdbot, Moltbot, OpenClaw: wat is het?

Clawdbot, ook wel ‘de AI die dingen daadwerkelijk gedaan krijgt’ genoemd, begon als een open source-project gelanceerd door de Oostenrijkse ontwikkelaar Peter Steinberger. De oorspronkelijke naam was een eerbetoon aan Anthropic’s AI-assistent Claude, maar dit leidde tot problemen met intellectueel eigendom en het AI-systeem werd omgedoopt tot Moltbot.

Ook: OpenClaw is een beveiligingsnachtmerrie: 5 waarschuwingssignalen die u niet mag negeren (voordat het te laat is)

Dit kwam niet uit de mond en werd “gekozen tijdens een chaotische Discord-brainstorm met de gemeenschap om 5 uur ’s ochtends”, aldus Steinberger, dus het is geen verrassing dat deze naam slechts tijdelijk was. OpenClaw, de nieuwste rebranding, zou echter wel eens een blijvertje kunnen zijn, aangezien de ontwikkelaar opmerkte dat “de zoekopdrachten naar handelsmerken duidelijk waren, domeinen werden gekocht en migratiecode werd geschreven”, eraan toevoegend dat “de naam weergeeft wat dit project is geworden.”

Afgezien van de naamcarrousel is OpenClaw belangrijk voor de AI-gemeenschap omdat het zich richt op autonomie, in plaats van reactieve reacties op gebruikersvragen of het genereren van inhoud. Het zou het eerste echte voorbeeld kunnen zijn van hoe gepersonaliseerde AI in de toekomst in ons dagelijks leven zou kunnen worden geïntegreerd.

Wat kan OpenClaw doen?

OpenClaw wordt mogelijk gemaakt door modellen, waaronder die ontwikkeld door Anthropic en OpenAI. Gebruikers kunnen kiezen uit compatibele modellen, van Anthropic’s Claude tot ChatGPT, Ollama, Mistral en meer.

Terwijl de AI-bot op individuele machines is opgeslagen, communiceert hij met gebruikers via berichtenapps zoals iMessage of WhatsApp. Gebruikers kunnen vaardigheden selecteren en installeren en andere software integreren om de functionaliteit te vergroten, waaronder plug-ins voor Discord, Twitch, Google Chat, taakherinneringen, agenda’s, muziekplatforms, smart home hub en zowel e-mail- als werkruimte-apps. Om namens u te kunnen handelen, zijn uitgebreide systeemmachtigingen vereist.

Op het moment van schrijven heeft OpenClaw meer dan 148.000 GitHub-sterren en is het volgens Steinberger miljoenen keren bezocht.

Aanhoudende veiligheidsproblemen

OpenClaw is de afgelopen week viraal gegaan, en wanneer een open source-project in zo’n snel tempo tot de verbeelding van het grote publiek spreekt, is het begrijpelijk dat er misschien niet genoeg tijd is geweest om beveiligingsproblemen op te lossen.

De opkomst van OpenClaw als een viraal wonder in de AI-ruimte brengt echter risico’s met zich mee voor adoptanten. Enkele van de belangrijkste problemen zijn:

  • Interesse van de oplichter: Sinds het project viraal is gegaan, hebben we al valse opslagplaatsen en oplichting met cryptocurrency gezien.
  • Systeemcontrole: Als u de volledige controle over uw systeem overdraagt ​​aan een AI-assistent die proactief namens u taken kan uitvoeren, creëert u nieuwe aanvalspaden die kunnen worden uitgebuit door bedreigingsactoren, hetzij via malware, kwaadaardige integraties en expertise, of via verzoeken om uw accounts of uw machine te kapen.
  • Onmiddellijke injecties: Het risico van tijdige injecties beperkt zich niet tot OpenClaw – het is een wijdverbreide zorg in de AI-gemeenschap. Schadelijke instructies zijn verborgen in het bronmateriaal van een AI, zoals op websites of URL’s, waardoor deze kwaadaardige taken kan uitvoeren of gegevens kan exfiltreren.
  • Onjuiste configuraties: Onderzoekers hebben de nadruk gelegd op open exemplaren op internet die inloggegevens en API-sleutels lekken vanwege onjuiste instellingen.
  • Schadelijke vermogens: Een opkomende aanvalsvector zijn kwaadaardige vaardigheden en integraties die, wanneer ze worden gedownload, achterdeurtjes openen waar cybercriminelen misbruik van kunnen maken. Eén onderzoeker heeft dit al aangetoond door een achterdeur (maar veilige) vaardigheid vrij te geven aan de gemeenschap, die duizenden keren is gedownload.
  • Hallucinatie: Kunstmatige intelligentie heeft niet altijd gelijk. Bots kunnen hallucineren, onjuiste informatie verstrekken en beweren een taak te hebben uitgevoerd, terwijl dat niet het geval is. Het systeem van OpenClaw is niet beschermd tegen dit risico.

De nieuwste release van OpenClaw bevat 34 beveiligingsgerelateerde toezeggingen om de AI-codebasis te versterken, en beveiliging is nu een “topprioriteit” voor de bijdragers aan het project. Problemen die de afgelopen dagen zijn opgelost, zijn onder meer een kwetsbaarheid voor Remote Code Execution (RCE) met één klik en fouten in de opdrachtinjectie.

Plus: 10 manieren waarop AI in 2026 ongekende schade kan aanrichten

OpenClaw wordt geconfronteerd met een beveiligingsuitdaging die de meeste verdedigers nachtmerries zou bezorgen, maar als project dat nu te veel is voor één enkele ontwikkelaar, moeten we erkennen dat gerapporteerde bugs en kwetsbaarheden snel worden opgelost.

“Ik wil graag al het beveiligingspersoneel bedanken voor hun harde werk om ons te helpen het project veilig te stellen”, zei Steinberger in een blogpost. “Deze week hebben we machinebestuurbare beveiligingsmodellen uitgebracht en blijven we werken aan verdere beveiligingsverbeteringen. Bedenk dat snelle injectie nog steeds een onopgelost probleem is voor de hele sector, dus het is belangrijk om sterke modellen te gebruiken en onze beste beveiligingspraktijken te bestuderen.”

De opkomst van een ‘sociaal’ netwerk van AI-agenten

Vorige week zagen we ook het debuut van ondernemer Matt Schlicht’s Moltbook, een fascinerend experiment waarin AI-agenten kunnen communiceren via een platform in Reddit-stijl. Afgezien van bizarre gesprekken en waarschijnlijk menselijke tussenkomst onthulde beveiligingsonderzoeker Jamieson O’Reilly dit weekend dat de volledige database van de site openbaar was gemaakt, “zonder enige bescherming, inclusief geheime API-sleutels waarmee iedereen namens welke agent dan ook berichten kon plaatsen.”

Hoewel dit op het eerste gezicht misschien niet zo belangrijk lijkt, was een van de blootgestelde agenten gelinkt aan Andrej Karpathy, Tesla’s voormalige directeur kunstmatige intelligentie.

Ook: De enge nieuwe truc van AI: cyberaanvallen uitvoeren in plaats van alleen maar helpen

“Karpathy heeft 1,9 miljoen volgers op @X en is een van de meest invloedrijke stemmen op het gebied van kunstmatige intelligentie”, aldus O’Reilly. “Stel je voor dat valse AI-beveiligingsschoten, cryptofraudepromoties of opruiende politieke uitspraken van hem lijken te komen.”

Bovendien zijn er al honderden snelle injectie-aanvallen geweest die naar verluidt gericht waren op AI-agenten op het platform, werd anti-menselijke inhoud omhoog gestemd (dit wil niet zeggen dat deze oorspronkelijk werd gegenereerd door agenten zonder menselijke instructies), en een groot aantal berichten die mogelijk verband hielden met oplichting met cryptocurrency.

Mark Nadilo, AI-onderzoeker en LLM, benadrukte ook een ander probleem bij het bevrijden van AI van agenten: de schade aan trainingsmodellen.

“Alles wordt opgenomen in de training, en zodra je het in het API-token steekt, raakt alles besmet”, zei Nadilo. “Bedrijven moeten voorzichtig zijn: het verlies van trainingsgegevens is reëel en vervormt alles.”

Houd het lokaal

Lokalisatie kan u een kortstondig gevoel van grotere veiligheid geven dan het adopteren van op de cloud gebaseerde AI, maar in combinatie met opkomende beveiligingsproblemen, persistent geheugen en machtigingen om shell-opdrachten uit te voeren, bestanden te lezen of te schrijven, scripts uit te voeren en taken proactief in plaats van reactief uit te voeren, kunt u zichzelf blootstellen aan ernstige beveiligings- en privacyrisico’s.

Ook: Dit is de snelste lokale AI die ik ooit heb geprobeerd en lang niet zo goed als mogelijk

Dit lijkt het enthousiasme rond dit project echter niet te hebben getemperd, en met de vraag naar bijdragers en hulp van ontwikkelaars bij het aanpakken van deze uitdagingen, zullen het een interessante paar maanden worden om te zien hoe OpenClaw zich blijft ontwikkelen.

In de tussentijd zijn er veiligere manieren om gelokaliseerde AI-toepassingen te verkennen. Als je het zelf wilt uitproberen: ZDNET-auteur Tiernan Ray heeft geëxperimenteerd met lokale AI en heeft enkele interessante lessen onthuld over de toepassingen en het gebruik ervan.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in