Home Nieuws AI-agenten kunnen met elkaar praten, ze kunnen alleen nog niet samen nadenken

AI-agenten kunnen met elkaar praten, ze kunnen alleen nog niet samen nadenken

6
0
AI-agenten kunnen met elkaar praten, ze kunnen alleen nog niet samen nadenken

AI-agenten kunnen nu met elkaar praten – ze kunnen alleen niet begrijpen wat de ander probeert te doen. Dat is het probleem dat Cisco’s Outshift probeert op te lossen met een nieuwe architecturale benadering genaamd Internet of Cognition.

De kloof is praktisch: protocollen zoals MCP en A2A ze stellen agenten in staat berichten uit te wisselen en hulpmiddelen te identificeren, maar delen geen intentie of context. Zonder dit doorbreken multi-agentsystemen de coördinatiecycli en kunnen ze niet combineren wat ze leren.

“Het komt erop neer dat we berichten kunnen sturen, maar de agenten begrijpen elkaar niet, dus er is geen basis, onderhandeling, coördinatie of gemeenschappelijke bedoeling”, vertelde Vijoy Pandey, algemeen directeur en senior vice-president bij Outshift, aan VentureBeat.

De praktische impact:

Laten we eens kijken naar een patiënt die een specialistbezoek plant. Alleen bij MCP geeft een symptoomtriageagent een diagnosecode door aan een planningsagent, die beschikbare afspraken zoekt. Een verzekeringsagent controleert uw dekking. Een apotheekagent controleert de beschikbaarheid van de medicijnen.

Elke agent voltooit zijn taak, maar geen van hen denkt samen na over de behoeften van de patiënt. De apothekersagent zou een medicijn kunnen aanbevelen dat in strijd is met de geschiedenis van de patiënt: informatie die het symptomatische middel wel heeft, maar niet heeft overgebracht omdat ‘potentiële geneesmiddelinteracties’ niet binnen zijn of haar bereik lagen. De planningsagent boekt de dichtstbijzijnde beschikbare afspraak zonder te weten dat de verzekeringsagent bij een andere faciliteit een betere dekking heeft gevonden.

Ze zijn met elkaar verbonden, maar ze zijn niet op één lijn met het doel: het vinden van de juiste behandeling voor de specifieke situatie van deze patiënt.

De huidige protocollen beheren de communicatiemechanismen van de agenten: MCP, A2A en AGNTCY van Outshiftdie hij aan de Linux Foundation schonk, stelt agenten in staat tools te ontdekken en berichten uit te wisselen. Maar deze opereren op wat Pandey het ‘connectiviteits- en identificatieniveau’ noemt. Ze behandelen de syntaxis, niet de semantiek.

Het ontbrekende stukje is de gedeelde context en intentie. Een agent die een taak voltooit, weet wat hij doet en waarom, maar die redenering wordt niet doorgegeven wanneer deze wordt doorgegeven aan een andere agent. Elke agent interpreteert doelen onafhankelijk, wat betekent dat coördinatie constante verduidelijking vereist en geleerde inzichten geïsoleerd blijven.

Als agenten van communicatie naar samenwerking willen overstappen, moeten ze volgens Outshift drie dingen delen: patroonherkenning tussen datasets, causale relaties tussen acties en expliciete doeltoestanden.

“Zonder gedeelde intentie en gedeelde context blijven AI-agenten semantisch geïsoleerd. Ze zijn individueel capabel, maar doelen worden anders geïnterpreteerd; coördinatie verbrandt cycli en niets komt samen. Eén agent leert iets waardevols, maar de rest van de multi-agent-menselijke organisatie begint nog steeds vanaf nul.” Outshift zei in een document. Outshift stelt dat de industrie behoefte heeft aan ‘open, interoperabele agentsystemen op bedrijfsniveau die semantisch samenwerken’ en stelt een nieuwe architectuur voor, het ‘Internet of Cognition’ genaamd, waarin omgevingen met meerdere agenten binnen een gedeeld systeem opereren.

De voorgestelde architectuur introduceert drie niveaus:

Cognitieve statusprotocollen: Een semantische laag die bovenop protocollen voor het doorgeven van berichten zit. Agenten delen niet alleen gegevens, maar ook intenties: wat ze proberen te bereiken en waarom. Hierdoor kunnen agenten doelen afstemmen voordat ze handelen, in plaats van achteraf duidelijkheid te verschaffen.

Cognitieve stof: Infrastructuur om een ​​gedeelde context op te bouwen en te onderhouden. Zie het als gedistribueerd werkgeheugen: contextgrafieken die blijven bestaan ​​tijdens interacties van agenten, met beleidscontroles over wat er wordt gedeeld en wie er toegang toe heeft. Systeemontwerpers kunnen definiëren hoe ‘gemeenschappelijk begrip’ eruit ziet voor hun gebruiksscenario.

Cognitieve motoren: Twee soorten mogelijkheden. Met Accelerators kunnen agenten informatie bundelen en leren: de ontdekking van een agent wordt beschikbaar voor anderen die gerelateerde problemen oplossen. Vangrails handhaven nalevingsgrenzen, zodat gedeelde redenering de wettelijke of beleidsbeperkingen niet schendt.

Outshift positioneerde het raamwerk als een oproep tot actie in plaats van als een eindproduct. Het bedrijf werkt aan de implementatie, maar benadrukte dat samenwerking tussen semantische agenten sectorbrede coördinatie vereist, net zoals vroege internetprotocollen consensus nodig hadden om standaarden te worden. Outshift schrijft code, publiceert specificaties en publiceert onderzoek op het Internet of Cognition. Hopelijk hebben we binnenkort een demo van de protocollen. Noah Goodman, mede-oprichter van grensverleggend AI-bedrijf Humans& en hoogleraar computerwetenschappen aan Stanford, zei op VentureBeat’s AI Impact-evenement in San Francisco dat innovatie plaatsvindt wanneer “andere mensen erachter komen op welke mensen ze moeten letten.” Dezelfde dynamiek is van toepassing op op agenten gebaseerde systemen: naarmate individuele agenten leren, vermenigvuldigt de waarde zich naarmate andere agenten die kennis kunnen identificeren en exploiteren. De praktische vraag voor teams die nu multi-agentsystemen implementeren: zijn uw agenten eenvoudigweg met elkaar verbonden of werken ze feitelijk aan hetzelfde doel?

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in