Home Nieuws AI-agenten worden steeds beter. Hun beveiligingsinformatie is dat niet

AI-agenten worden steeds beter. Hun beveiligingsinformatie is dat niet

4
0
AI-agenten worden steeds beter. Hun beveiligingsinformatie is dat niet

AI-agenten hebben het absoluut moeilijk. Onder de recente viraliteit van Open Klauw, Moltboek en Open AI van plan om zijn agentencapaciteiten over te nemen op het volgende niveau zou het wel eens het jaar van de agent kunnen zijn.

Waarom? Nou ja, ze kunnen plannen, schrijf de codesurfen op internet e taken met meerdere stappen uitvoeren met weinig of geen toezicht. Sommigen beloven zelfs om uw workflow te beheren. Anderen coördineren met tools en systemen op de desktop.

De aantrekkingskracht ligt voor de hand. Deze systemen reageren niet alleen. Zij handeling – voor u en namens u. Maar toen de onderzoekers achter de MIT AI Agent-index Toen ze 67 gedistribueerde agentsystemen catalogiseerden, ontdekten ze iets verontrustends.

De ontwikkelaars willen graag beschrijven wat hun agenten kunnen doen Doen. Ze willen veel minder graag beschrijven of deze middelen dat wel zijn Veilig.

“Toonaangevende AI-ontwikkelaars en startups zetten steeds vaker agentische AI-systemen in die complexe taken kunnen plannen en uitvoeren met beperkte menselijke tussenkomst,” schreven de onderzoekers in de krant. “Er bestaat momenteel echter geen gestructureerd raamwerk voor het documenteren van de beveiligingskenmerken van agentsystemen.”

Deze kloof blijkt duidelijk uit de cijfers: ongeveer 70% van de geïndexeerde agenten levert documentatie en bijna de helft publiceert code. Maar slechts ongeveer 19% maakt een formeel veiligheidsbeleid bekend, en minder dan 10% rapporteert externe veiligheidsbeoordelingen.

Uit het onderzoek blijkt dat ontwikkelaars weliswaar snel de mogelijkheden en praktische toepassing van agentsystemen bekendmaken, maar ook snel beperkte informatie verstrekken over beveiliging en risico’s. Het resultaat is een soort scheve transparantie.

Wat telt als een AI-agent

Onderzoekers waren heel voorzichtig met wat de prijs opleverde, en niet alle chatbots komen in aanmerking. Om opgenomen te worden, moest een systeem met ondergespecificeerde doelen werken en deze in de loop van de tijd nastreven. Het moest ook acties ondernemen die een impact hebben op een omgeving met beperkte menselijke tussenkomst. Dit zijn systemen die zelfstandig de tussenstappen bepalen. Ze kunnen een algemene instructie opsplitsen in subtaken, hulpmiddelen gebruiken, plannen, voltooien en herhalen.

Atlas van kunstmatige intelligentie

Deze autonomie maakt hen krachtig. Het is ook wat de inzet verhoogt.

Wanneer een model alleen maar tekst uitvoert, zitten de fouten meestal in die uitvoer. Wanneer een AI-agent toegang heeft tot bestanden, e-mails kan verzenden, aankopen kan doen of documenten kan wijzigen, kunnen fouten en exploits schadelijk zijn en zich over de stappen heen verspreiden. De onderzoekers ontdekten echter dat de meeste ontwikkelaars niet publiekelijk in detail beschrijven hoe ze deze scenario’s testen.

De capaciteit is openbaar, de vangrails niet

Het meest verbazingwekkende model in de studie het is niet verborgen in een tabel: het wordt door het hele blad herhaald.

Ontwikkelaars delen graag demo’s, benchmarks en bruikbaarheid van deze AI-agents, maar zijn veel minder consistent in het delen van beveiligingsbeoordelingen, interne testprocedures of risicocontroles van derden.

Deze onevenwichtigheid is belangrijker wanneer agenten overstappen van prototypes naar digitale actoren die in echte workflows zijn geïntegreerd. Veel van de geïndexeerde systemen zijn actief op gebieden als software-engineering en computergebruik, omgevingen die vaak gepaard gaan met gevoelige gegevens en aanzienlijke controles.

De AI Agent Index van MIT zegt niet dat agent AI volkomen gevaarlijk is, maar laat wel zien dat naarmate de autonomie is toegenomen, de gestructureerde beveiligingstransparantie geen gelijke tred heeft gehouden.

De technologie versnelt. Vangrails blijven, althans publiekelijk, moeilijker te zien.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in