Home Nieuws Samenvatting van AI-agenten 2025: wat er is gebeurd en wat u volgend...

Samenvatting van AI-agenten 2025: wat er is gebeurd en wat u volgend jaar kunt verwachten

5
0
Samenvatting van AI-agenten 2025: wat er is gebeurd en wat u volgend jaar kunt verwachten

In kunstmatige intelligentie2025 markeerde een beslissende verschuiving. Systemen die ooit beperkt waren tot onderzoekslaboratoria en prototypes begonnen als alledaagse hulpmiddelen te verschijnen. Centraal in deze transitie stond de opkomst van AI-agentenNAAR DE systemen die andere softwaretools kunnen gebruiken en zelfstandig kunnen handelen.

Hoewel onderzoekers AI al meer dan zestig jaar bestuderen en de term ‘agent’ al lang deel uitmaakt van het vocabulaire van het veld, was 2025 het jaar waarin het concept concreet werd voor zowel ontwikkelaars als consumenten.

AI-agenten zijn overgestapt van theorie naar infrastructuur, waardoor de manier waarop mensen omgaan met grote taalmodellen, de systemen die chatbots als ChatGPT aandrijven, opnieuw vorm krijgt.

In 2025 verschoof de definitie van AI-agent van de academische omlijsting van systemen die waarnemen, redeneren en handelen volgens de beschrijving van AI-bedrijf Anthropic van grote taalmodellen die softwaretools kunnen gebruiken en autonoom actie kunnen ondernemen. Hoewel grote taalmodellen lange tijd uitblinken in op tekst gebaseerde antwoorden, is de recente verandering hun groeiende vermogen om te handelen, tools te gebruiken, API’s aan te roepen, te coördineren met andere systemen en taken zelfstandig uit te voeren.

Deze verschuiving gebeurde niet van de ene op de andere dag. Een belangrijk keerpunt kwam eind 2024, toen Anthropic de Modelcontextprotocol. Het protocol stelde ontwikkelaars in staat grote taalmodellen op een gestandaardiseerde manier aan externe tools te koppelen, waardoor modellen feitelijk de mogelijkheid kregen om verder te gaan dan het genereren van tekst. Daarmee was de weg vrij voor 2025 om het jaar van AI-agenten te worden.

AI-agenten zijn een heel nieuw spel vergeleken met generatieve AI.

De mijlpalen die 2025 bepaalden

Het momentum versnelde snel. In januari verschijnt het Chinese model DeepSeek-R1 als een open gewicht Dit model verstoorde de aannames over wie goed presterende grote taalmodellen zou kunnen bouwen, waardoor de markten kortstondig in rep en roer kwamen te staan ​​en de mondiale concurrentie werd versterkt. Een open-weight-model is een AI-model waarvan de training, weerspiegeld in waarden die gewichten worden genoemd, openbaar beschikbaar is. Gedurende 2025 zullen grote Amerikaanse laboratoria zoals Open AI, Antropisch, GooglenEn xAI brachten grotere, krachtige modellen uit, terwijl Chinese technologiebedrijven, waaronder Alibaba, TencentEn Diepzoekenbreidde het open-model-ecosysteem uit tot het punt waar de Chinese modellen waren meer gedownload dan Amerikaanse modellen.

Een ander keerpunt kwam in april, toen Google het introduceerde Agent2Agent-protocol. Terwijl het Model Context Protocol van Anthropic zich richtte op de manier waarop agenten tools gebruiken, richtte Agent2Agent zich op de manier waarop agenten met elkaar communiceren. Cruciaal is dat de twee protocollen zijn ontworpen om samen te werken. Later in het jaar allebei Antropisch En Googlen schonken hun protocollen aan de Linux Foundation, een non-profitorganisatie voor open source-software, en maakten ze tot open standaarden in plaats van propriëtaire experimenten.

Deze ontwikkelingen vonden snel hun weg naar consumentenproducten. Halverwege 2025 begonnen ‘agentbrowsers’ te verschijnen. Hulpmiddelen zoals De komeet van Perplexity, Browser Company’s Dia, OpenAI’s GPT-atlas, Copiloot in Microsoft’s Edge, Fellou van ASI X Inc, Genspark van MainFunc.ai, Opera-Neon van Operaen anderen herformuleerden de browser als een actieve deelnemer in plaats van als een passieve interface. In plaats van u te helpen bij het zoeken naar vakantiegegevens, speelt het bijvoorbeeld een rol bij het boeken van de vakantie.

Tegelijkertijd houden workflowbouwers van n8n En Antizwaartekracht van Google heeft de technische barrière voor het creëren van aangepaste agentsystemen verlaagd, verder dan wat al is gebeurd met codeeragenten zoals Cursor En GitHub-copiloot.

Nieuwe macht, nieuwe risico’s

Naarmate agenten capabeler werden, werden hun risico’s moeilijker te negeren. In november maakte Anthropic bekend hoe zijn Claude Code-agent er was misbruik van gemaakt om delen van een cyberaanval te automatiseren. Het incident illustreerde een bredere zorg: door repetitief, technisch werk te automatiseren, kunnen AI-agenten ook de barrière voor kwaadwillige activiteiten verlagen.

Deze spanning bepaalde een groot deel van 2025. AI-agenten breidden uit wat individuen en organisaties konden doen, maar zij ook bestaande kwetsbaarheden versterkt. Systemen die ooit geïsoleerde tekstgeneratoren waren, raakten met elkaar verbonden, waarbij gereedschapsgebruikende actoren met weinig menselijk toezicht opereerden.

Het bedrijfsleven maakt zich op voor multi-agentsystemen.

Waar u op moet letten in 2026

Vooruitkijkend zullen waarschijnlijk verschillende open vragen de volgende fase van AI-agenten vormgeven.

Een daarvan zijn benchmarks. Traditionele benchmarks, die lijken op een gestructureerd examen met een reeks vragen en gestandaardiseerde scores, werken goed voor afzonderlijke modellen, maar agenten zijn samengestelde systemen bestaat uit modellen, tools, geheugen en beslissingslogica. Onderzoekers willen steeds vaker evalueren niet alleen resultaten, maar ook processen. Dit zou hetzelfde zijn als van leerlingen vragen om hun werk te laten zien, en niet alleen maar een antwoord te geven.

Vooruitgang hier zal van cruciaal belang zijn voor het verbeteren van de betrouwbaarheid en het vertrouwen, en om ervoor te zorgen dat een AI-agent de taak zal uitvoeren. Eén methode is het opstellen van duidelijke definities rondom AI-agenten en AI-workflows. Organisaties zullen in kaart moeten brengen waar AI precies zal komen integreren in workflows of nieuwe introduceren.

Een andere ontwikkeling om in de gaten te houden is governance. Eind 2025 kondigde de Linux Foundation de oprichting aan van de Stichting Agentic AIwat duidt op een poging om gedeelde normen en beste praktijken vast te stellen. Als het succesvol is, zou het een rol kunnen spelen zoals de World Wide Web-consortium bij het vormgeven van een open, interoperabel agent-ecosysteem.

Er is ook een groeiend debat over de modelgrootte. Hoewel grote modellen voor algemene doeleinden de krantenkoppen domineren, zijn kleinere en meer gespecialiseerde modellen dat vaak wel beter geschikt voor specifieke taken. Naarmate agents configureerbare tools voor consumenten en bedrijven worden, hetzij via browsers of software voor workflowbeheer, verschuift de macht om het juiste model te kiezen steeds meer naar gebruikers in plaats van naar laboratoria of bedrijven.

De uitdagingen die voor ons liggen

Ondanks het optimisme blijven er aanzienlijke sociaal-technische uitdagingen bestaan. Uitbreiding van de datacenterinfrastructuur energienetwerken onder druk komen te staan en beïnvloedt lokale gemeenschappen. Op de werkplek uiten agenten hun zorgen over automatisering, verplaatsing van banenen toezicht.

Vanuit een beveiligingsperspectief: het verbinden van modellen met tools en het samenstapelen van agenten meerdere risico’s die al onopgelost zijn in op zichzelf staande grote taalmodellen. Concreet richten AI-beoefenaars zich op de gevaren van indirecte snelle injectieswaar aanwijzingen worden verborgen in open webruimten die leesbaar zijn voor AI-agents en resulteren in schadelijke of onbedoelde acties.

Regelgeving is een ander onopgelost probleem. Vergeleken met Europa En Chinahebben de Verenigde Staten relatief beperkt toezicht op algoritmische systemen. Nu AI-agenten steeds meer ingebed raken in het digitale leven, blijven vragen over toegang, verantwoordelijkheid en limieten grotendeels onbeantwoord.

Om deze uitdagingen het hoofd te bieden is meer nodig dan alleen technische doorbraken. Het vereist strenge technische praktijkenzorgvuldig ontwerp en duidelijke documentatie van hoe systemen werken en falen. Alleen door AI-agenten te behandelen als sociaal-technische systemen en niet louter als softwarecomponenten, kunnen we volgens mij een AI-ecosysteem bouwen dat zowel innovatief als veilig is.

Thomas Şerban von Davier is een aangesloten faculteitslid bij het Carnegie Mellon Institute for Strategy and Technology in Carnegie Mellon-universiteit.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in