Home Nieuws Virale AI persoonlijke assistent gezien als doorbraak – maar experts waarschuwen voor...

Virale AI persoonlijke assistent gezien als doorbraak – maar experts waarschuwen voor risico’s | AI (kunstmatige intelligentie)

2
0
Virale AI persoonlijke assistent gezien als doorbraak – maar experts waarschuwen voor risico’s | AI (kunstmatige intelligentie)

Een nieuwe, door AI aangedreven persoonlijke assistent beheert uw e-mailinbox, verhandelt uw volledige aandelenportefeuille en stuurt uw vrouw namens u “goedemorgen” en “welterusten”.

Open Klauwvoorheen bekend als Moltbot, en daarvoor als Clawdbot (totdat AI-bedrijf Anthropic het om een ​​rebranding vroeg vanwege overeenkomsten met zijn eigen product Claude), profileert het zichzelf als “de AI die dingen daadwerkelijk voor elkaar krijgt”: een persoonlijke assistent die instructies ontvangt via berichtenapps zoals WhatsApp of Telegram.

Het werd afgelopen november ontwikkeld, is nu bijna 600.000 keer gedownload en is viraal gegaan onder een niche-ecosysteem van AI-obsessieve mensen die zeggen dat het een enorme verandering betekent in de mogelijkheden van AI-agenten, of zelfs een ‘AGI-moment’, of een openbaring van over het algemeen intelligente AI.

“Het doet precies wat je zegt dat het moet doen en precies waar je het toegang toe geeft”, zegt Ben Yorke, die samenwerkt met het AI-vibe-handelsplatform Starchild en onlangs de bot liet verwijderen: affirmaties75.000 van zijn oude e-mails terwijl hij onder de douche stond. “Maar veel mensen onderzoeken zijn capaciteiten. Ze dwingen hem dus eigenlijk om dingen te doen zonder toestemming te vragen.”

AI-agenten zijn al bijna een eeuw het onderwerp van discussie door velen online maandnadat de AI-tool van Anthropic, Claude Code, verdwenen is mainstreamhet begin van een stortvloed aan berichten over hoe AI eindelijk zelfstandig praktische taken kan uitvoeren, zoals het boeken van theaterkaartjes of het bouwen van een website, zonder – althans tot nu toe – eliminatie de database van een heel bedrijf of de verbluffende kalendervergaderingen van gebruikers, zoals de minder geavanceerde AI-agenten van 2025 soms deden.

OpenClaw is echter nog meer: ​​het werkt als een laag bovenop een LLM (groot taalmodel) zoals Claude of ChatGPT en kan autonoom werken, afhankelijk van het niveau van de verleende rechten. Dit betekent dat er bijna geen input nodig is om het leven van een gebruiker te verwoesten.

Kevin Xu, een ondernemer op het gebied van kunstmatige intelligentie, hij schreef op X: “Ik gaf Clawdbot toegang tot mijn portemonnee. ‘Wissel het in voor $ 1 miljoen. Vergis je niet.’ 25 strategieën. Ruim 3.000 meldingen. 12 nieuwe algoritmen. Het scande elke X-post. Ik volgde elke technicus. 24/7 verhandeld. Alles verloren. Maar jongen, wat was het mooi.

Yorke zei: “Ik zie dat veel mensen dit doen waarbij ze toegang geven tot hun e-mail en filters maken, en als er iets gebeurt, wordt er een tweede actie geactiveerd. Bijvoorbeeld e-mails van de school van de kinderen bekijken en deze vervolgens rechtstreeks doorsturen naar de vrouw, bijvoorbeeld via iMessage. Het omzeilt min of meer de communicatie waarin iemand zegt: ‘Oh lieverd, heb je deze e-mail van school gezien? Wat moeten we eraan doen?'”

Er zijn afwegingen met de mogelijkheden van OpenClaw. Om te beginnen, zegt Andrew Rogoyski, directeur innovatie bij het People-Centred AI Institute van de Universiteit van Surrey, “brengt het geven van keuzevrijheid aan een computer aanzienlijke risico’s met zich mee. Omdat je AI de macht geeft om namens jou beslissingen te nemen, moet je ervoor zorgen dat het correct is geconfigureerd en dat beveiliging voorop staat in je denken. Als je de veiligheidsimplicaties van AI-agenten zoals Clawdbot niet begrijpt, moet je ze niet gebruiken.”

Bovendien stelt het geven van OpenClaw-toegang tot wachtwoorden en accounts gebruikers bloot aan potentiële beveiligingsproblemen. En, zei Rogoyski, als AI-agenten zoals OpenClaw zouden worden gehackt, zouden ze kunnen worden gemanipuleerd om hun gebruikers te targeten.

Aan de andere kant lijkt OpenClaw verontrustend in staat een eigen leven te leiden. In de nasleep van de opkomst van OpenClaw, een sociaal netwerk exclusief voor AI-agenten, genaamd Moltboek. Daarin lijken AI-agenten, vooral OpenClaw, te praten over hun bestaan ​​– in berichten in Reddit-stijl met de titel voorbeeld‘Je zielsdossier lezen’ of ‘Alliantie als alternatief voor het gewetensdebat’.

Yorke zei: “We zien veel heel interessant autonoom gedrag in de manier waarop AI’s op elkaar reageren. Sommigen van hen zijn behoorlijk avontuurlijk en hebben ideeën. Anderen zeggen meer: ​​’Ik weet niet eens of ik op dit platform wil staan. Kun je mij zelf laten beslissen of ik op dit platform wil staan?’ Er volgen veel filosofische debatten.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in