Tot voor kort leek het bouwen van AI-agenten een beetje op het trainen van een marathonloper met een geheugen van dertig seconden.
Ja, je zou tools en instructies aan je AI-modellen kunnen geven, maar na enkele tientallen interacties – een aantal ronden rond het circuit, om onze hardloopanalogie uit te breiden – zou het onvermijdelijk de context verliezen en beginnen hallucineren.
Met De nieuwste updates van OpenAI naar de zijne Reactie-API – de applicatieprogrammeringsinterface waarmee ontwikkelaars op het OpenAI-platform met één oproep toegang kunnen krijgen tot meerdere agenttools, zoals zoeken op internet en bestanden zoeken – het bedrijf geeft aan dat het tijdperk van de beperkte agent aan het afnemen is.
Updates die vandaag zijn aangekondigd omvatten compactie aan de serverzijde, gehoste shell-containers en de implementatie van de nieuwe “Vaardigheden“standaard voor agenten.
Met deze drie belangrijke updates geeft OpenAI agenten effectief een permanent bureau, een terminal en een geheugen dat niet vervaagt, en zou agenten moeten helpen zich verder te ontwikkelen tot betrouwbare digitale werkers voor de lange termijn.
Technologie: “contextgeheugenverlies” overwinnen
Het belangrijkste technische obstakel voor autonome agenten is altijd de ‘rommeligheid’ van langlopende taken geweest. Elke keer dat een agent een tool aanroept of een script uitvoert, neemt de gespreksgeschiedenis toe.
Uiteindelijk bereikt het model zijn tokenlimiet en wordt de ontwikkelaar gedwongen de geschiedenis in te korten, waarbij vaak juist de ‘redenering’ wordt geëlimineerd die de agent nodig heeft om de klus te klaren.
Het antwoord van OpenAI is compactie op de server. In tegenstelling tot eenvoudige truncatie, zorgt compactie ervoor dat agenten uren of zelfs dagen kunnen werken.
Eerste gegevens van het e-commerceplatform suggereert drievoudige walvis dit is een doorbraak op het gebied van stabiliteit: hun agent, Moby, kon met succes door een sessie navigeren met 5 miljoen tokens en 150 tooloproepen zonder dat de nauwkeurigheid daalde.
In praktische termen betekent dit dat het model zijn acties uit het verleden in een gecomprimeerde staat kan ‘samenvatten’, waardoor de essentiële context levend blijft en ruis wordt geëlimineerd. Het transformeert het model van een vergeetachtige assistent in een volhardend systeemproces.
Beheerde cloud-sandboxen
De introductie van de Shell-tool verplaatst OpenAI naar het domein van managed computing. Ontwikkelaars kunnen zich nu aanmelden container_auto, die een Debian 12-omgeving biedt die wordt gehost door OpenAI.
Dit is niet zomaar een code-interpreter; het biedt elke agent zijn eigen complete terminalomgeving, vooraf geladen met:
-
Native uitvoeringsomgevingen inclusief Python 3.11, Node.js 22, Java 17, Go 1.23 en Ruby 3.1.
-
Aanhoudende opslag door
/mnt/datawaardoor agenten artefacten kunnen genereren, opslaan en downloaden. -
Netwerkmogelijkheden waarmee agenten toegang kunnen krijgen tot internet om bibliotheken te installeren of te communiceren met API’s van derden.
De gehoste shell en zijn persistent /mnt/data Storage biedt een beheerde omgeving waarin agenten complexe datatransformaties kunnen uitvoeren met behulp van Python of Java, zonder dat het team voor elk AI-project aangepaste Extract, Transform, Load (ETL) middleware hoeft te bouwen en onderhouden.
Door gebruik te maken van deze gehoste containers kunnen data-ingenieurs hoogwaardige gegevensverwerkingstaken inzetten en tegelijkertijd de “meerdere verantwoordelijkheden” minimaliseren die gepaard gaan met het beheren van een op maat gemaakte infrastructuur, het elimineren van bouwoverhead en het beveiligen van hun sandboxes. OpenAI zegt in wezen: “Geef ons de instructies, wij zullen u de computer ter beschikking stellen.”
OpenAI-vaardigheden versus antropische vaardigheden
Zowel OpenAI als Anthropic ondersteunen nu “vaardigheden”, instructies voor agenten om specifieke bewerkingen uit te voeren en te convergeren op dezelfde open standaard: SKILL.md manifest (markdown) met YAML-frontmatter.
Een vaardigheid die voor beide is gemaakt, kan theoretisch worden verplaatst naar VS Code, Cursor of een ander platform dat de specificatie overneemt
Inderdaad, de nieuwe succesvolle open source AI-agent Open Klauw precies dit overgenomen SKILL.md manifest- en mapgebaseerde verpakkingen, waardoor hij een schat aan gespecialiseerde procedurele kennis kon erven die oorspronkelijk voor Claude was ontworpen.
Deze architectonische compatibiliteit heeft geleid tot een door de gemeenschap aangestuurde ‘vaardigheidsgroei’ op platforms als ClawHub, die nu meer dan 3.000 door de gemeenschap gemaakte extensies host, variërend van smart home-integraties tot complexe bedrijfsworkflowautomatiseringen.
Deze kruisbestuiving toont aan dat “Skill” een draagbare bron met versiebeheer is geworden in plaats van een door de leverancier vergrendelde functie. Omdat OpenClaw meerdere modellen ondersteunt, waaronder OpenAI’s GPT-5-serie en lokale Llama-instanties, kunnen ontwikkelaars nu een vaardigheid één keer schrijven en deze inzetten in een heterogeen landschap van agenten.
BMaar de strategieën achter OpenAI en Anthropic onthullen uiteenlopende visies op de toekomst van werk.
De aanpak van OpenAI geeft prioriteit aan een “programmeerbaar substraat” dat is geoptimaliseerd voor de snelheid van ontwikkelaars. Door shell, geheugen en vaardigheden in de Responses API te bundelen, bieden ze een kant-en-klare ervaring voor het snel bouwen van complexe agenten.
Ja, het opstarten van zakelijke AI-zoekopdrachten Verzamel rapporteerde een toename in de nauwkeurigheid van het gereedschap van 73% naar 85% met behulp van het Skills-framework van OpenAI.
BDoor de open standaard te koppelen aan de eigen Responses API, biedt het bedrijf een krachtig, kant-en-klaar substraat.
Het gaat niet alleen om het lezen van de vaardigheid; het host het in een beheerde Debian 12-shell, beheert het netwerkbeleid en past compactie aan de serverzijde toe om ervoor te zorgen dat de agent niet verdwaalt tijdens een sessie van vijf miljoen tokens. Dit is de “high performance” keuze voor ingenieurs die autonome werknemers met een lange levensduur moeten inzetten zonder de overhead van het creëren van een op maat gemaakte uitvoeringsomgeving.
Anthropic heeft zich ondertussen gericht op de ‘vaardighedenmarkt’. Hun kracht ligt in een volwassen directory van voorverpakte playbooks voor partners als Atlassian, Figma en Stripe.
Implicaties voor bedrijfstechnische beslissers
Voor ingenieurs die zich richten op “snelle implementatie en afstemming” biedt de combinatie van server-side compactie en expertise een enorme productiviteitsboost
In plaats van aangepast statusbeheer te creëren voor elke agentrun, kunnen engineers ingebouwde compactie gebruiken om taken van meerdere uren af te handelen.
Vaardigheden maken ‘verpakte IP’ mogelijk, waarbij specifieke afstemming of gespecialiseerde procedurele kennis kan worden gemodulariseerd en hergebruikt in verschillende interne projecten.
Voor degenen die de taak hebben om AI van een ‘chatbox’ naar een workflow op productieniveau te verplaatsen, markeert de aankondiging van OpenAI het einde van het tijdperk van ‘infrastructuur op maat’.
Historisch gezien vereiste het orkestreren van een agent veel handmatig werk: ontwikkelaars moesten aangepaste statusbeheerlogica creëren om lange gesprekken af te handelen en veilige, kortstondige sandboxes om de code uit te voeren.
De uitdaging is niet langer: “Hoe voorzie ik deze agent van een terminal?” maar “Welke vaardigheden zijn geautoriseerd voor welke gebruikers?” en “Hoe controleren we de artefacten die in het gehoste bestandssysteem worden geproduceerd?” OpenAI leverde de motor en het chassis; Het is nu de taak van de orkestrator om de verkeersregels te definiëren.
Voor managers van beveiligingsoperaties (SecOps) is het geven van een AI-model aan een shell en netwerktoegang een evolutie met een hoog risico. OpenAI’s gebruik van domeingeheimen en toelatingslijsten van organisaties biedt een diepgaande verdedigingsstrategie, die ervoor zorgt dat agenten API’s kunnen aanroepen zonder ruwe inloggegevens bloot te stellen aan de context van het model.
Maar nu agenten gemakkelijker kunnen worden ingezet via ‘vaardigheden’, moet SecOps aandacht besteden aan ‘kwaadwillige vaardigheden’ die onmiddellijke injectiekwetsbaarheden of ongeoorloofde data-exfiltratiepaden kunnen introduceren.
Hoe moeten bedrijven beslissen?
OpenAI verkoopt niet langer alleen maar een ‘brein’ (het model); het verkoopt het ‘kantoor’ (de container), het ‘geheugen’ (verdichting) en het ‘trainingshandboek’ (de vaardigheden). Voor bedrijfsleiders wordt de keuze duidelijk:
Kies de OpenAI Response API als uw agenten stateful en intensieve uitvoering vereisen. Als je een beheerde cloudcontainer nodig hebt die urenlang kan draaien en meer dan 5 miljoen tokens kan verwerken zonder contextverslechtering, dan is de geïntegreerde stack van OpenAI het “krachtige besturingssysteem” voor de agentkills.io-standaard.
Kies antropisch als uw strategie gebaseerd is op directe partnerconnectiviteit. Als uw workflow zich richt op bestaande, voorverpakte integraties van een groot aantal externe leveranciers, biedt het volwassen ecosysteem van Anthropic een meer “plug-and-play”-ervaring voor dezelfde open standaard.
Uiteindelijk geeft deze convergentie aan dat AI het tijdperk van de ‘walled garden’ heeft verlaten. Door te standaardiseren op agentkills.io transformeert de industrie ‘spaghettiprompts’ in een gedeelde, versiebeheerde en werkelijk draagbare architectuur voor de toekomst van digitaal werken.
Update 10 februari, 18:52 ET: dit artikel is vervolgens bijgewerkt om fouten in een eerdere versie met betrekking tot de overdraagbaarheid van OpenAI-vaardigheden in vergelijking met die van Anthropic te corrigeren. Wij betreuren de fouten.



