Home Nieuws Zelfs Google en Replit hebben moeite met het betrouwbaar implementeren van AI-agents...

Zelfs Google en Replit hebben moeite met het betrouwbaar implementeren van AI-agents – en dit is de reden

4
0
Zelfs Google en Replit hebben moeite met het betrouwbaar implementeren van AI-agents – en dit is de reden

2025 had toch het jaar van de AI-agent moeten zijn?

Niet echt, erken Google Cloud en Replit: twee grote spelers in de AI-agentindustrie en partners in de ‘trillingscodering” beweging – tijdens een recent VB Impact Series-evenement.

Zelfs als ze de agenttools zelf ontwikkelen, zeggen de leiders van de twee bedrijven dat de mogelijkheden nog niet zijn bereikt.

Deze beperkte realiteit vertaalt zich in uitdagingen met verouderde workflows, gefragmenteerde gegevens en onvolwassen bestuursmodellen. Bovendien begrijpen bedrijven fundamenteel verkeerd dat agenten niet zijn zoals andere technologieën: ze vereisen een fundamentele heroverweging en herwerking van workflows en processen.

Wanneer bedrijven agenten bouwen om het werk te automatiseren, “zijn de meeste speelgoedvoorbeelden”, zei Amjad Masad, CEO en oprichter van Replit, tijdens het evenement. “Ze raken er enthousiast over, maar als ze het gaan uitrollen, werkt het niet zo goed.”

Agenten bouwen op basis van Replit-fouten

Betrouwbaarheid en integratie, en niet zozeer de intelligentie zelf, zijn de twee belangrijkste obstakels voor het succes van AI-agenten, merkte Masad op. Agents falen vaak als ze langere tijd actief zijn, fouten accumuleren of geen toegang hebben tot schone, goed gestructureerde gegevens.

Het probleem met bedrijfsgegevens is dat deze rommelig zijn (gestructureerd, ongestructureerd en overal opgeslagen) en dat het scannen ervan een uitdaging is. Daarnaast zijn er veel ongeschreven dingen die mensen doen die moeilijk in agenten te codificeren zijn, zei Masad.

“Het idee dat bedrijven alleen maar agenten inhuren en dat agenten werknemers vervangen of de workflow automatiseren, is tegenwoordig niet langer het geval”, zei hij. “De hulpmiddelen zijn er niet.”

Een stap verder dan agenten zijn de tools voor computergebruik, die de controle over de werkruimte van een gebruiker kunnen overnemen voor basistaken zoals surfen op het web. Maar deze bevinden zich nog in de beginfase en kunnen ondanks de versnelde publiciteit gebrekkig, onbetrouwbaar en zelfs gevaarlijk zijn.

“Het probleem is dat de patronen in computergebruik momenteel erg slecht zijn”, zegt Masad. “Ze zijn duur, ze zijn traag, ze boeken vooruitgang, maar ze zijn pas ongeveer een jaar oud.”

Replit leert van zijn fout eerder dit jaar, toen zijn AI-programmeur werd geannuleerd de gehele codebasis van een bedrijf in een proefrit. Masad gaf toe: “De gereedschappen waren nog niet volwassen genoeg”, en merkte op dat het bedrijf sindsdien de ontwikkeling heeft geïsoleerd van de productie.

Technieken zoals in-the-loop testen, controleerbare uitvoering en ontwikkelingsisolatie zijn essentieel, merkte hij op, ook al kunnen ze veel middelen vergen. Replit heeft in-the-loop-mogelijkheden opgenomen in versie 3 van zijn agent, en Masad zei dat zijn agent van de volgende generatie 200 minuten autonoom kan werken; sommigen lieten het 20 uur draaien.

Hij erkende echter dat gebruikers hun frustratie hebben geuit over de vertragingstijden. Wanneer ze een ‘sterke terugroepactie’ indienen, moeten ze mogelijk 20 minuten of langer wachten. Idealiter spraken ze de wens uit om betrokken te zijn bij een meer creatieve cyclus waarin ze talloze suggesties kunnen doen, aan meerdere taken tegelijk kunnen werken en het project kunnen aanpassen terwijl de agent aan het werk is.

“De manier om dit probleem op te lossen is parallellisme, door meerdere agentloops te creëren en deze aan deze onafhankelijke functies te laten werken, terwijl tegelijkertijd het creatieve werk kan worden gedaan”, zei hij.

Agenten vereisen een cultuurverandering

Naast het technische perspectief is er nog een cultureel obstakel: agenten opereren probabilistisch, maar traditionele ondernemingen zijn gestructureerd rond deterministische processen, zegt Mike Clark, directeur productontwikkeling bij Google Cloud. Dit creëert een culturele en operationele mismatch omdat LLM’s met geheel nieuwe tools, orkestratiestructuren en processen komen.

‘We weten niet hoe we over officieren moeten denken,’ zei Clark. “We weten niet hoe we moeten oplossen wat agenten kunnen doen.”

Bedrijven die het goed doen, worden gedreven door bottom-up-processen, merkte hij op: no-code en low-code software en het bouwen van tools in de loopgraven die naar grotere agenten leiden. Momenteel zijn succesvolle implementaties beperkt, zorgvuldig gericht en onder zwaar toezicht.

“Als ik naar 2025 kijk en naar de belofte dat dit het jaar van de agent zal worden, was dat het jaar waarin veel mensen bezig waren met het bouwen van prototypes”, aldus Clark. “We zitten nu midden in deze grootschalige fase.”

Hoe kunnen we een wereld zonder weilanden garanderen?

Een andere uitdaging is de veiligheid van AI-agenten, waarvoor ook traditionele processen moeten worden heroverwogen, merkte Clark op.

Er zijn overal veiligheidsgrenzen getrokken, maar dat werkt niet als agenten toegang moeten hebben tot veel verschillende bronnen om de beste beslissingen te nemen, zei Clark.

“Het verandert echt onze beveiligingsmodellen, onze basislijn”, zei hij. “Wat betekent het kleinste voorrecht in een weerloze en weideloze wereld?”

Uiteindelijk is een sectorbrede heroverweging van het bestuur nodig en moeten bedrijven zich aansluiten bij een op agenten gebaseerd dreigingsmodel.

Clark wees op de ongelijkheid: “Als je naar sommige van je bestuursprocessen kijkt, zou je zeer verbaasd zijn dat de oorsprong van die processen iemand op een elektrische IBM-typemachine was die drie kopieën typte en deze aan drie mensen overhandigde. Dat is niet de wereld waarin we vandaag de dag leven.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in