De open source-standaard van Anthropic, het Model Context Protocol (MCP), uitgebracht eind 2024stelt gebruikers in staat AI-modellen en de agenten erop te verbinden met externe tools in een gestructureerd en betrouwbaar formaat. Het is de motor van het succes van Anthropic Bedrading programmeren met AI-agenten, Code Claudewaardoor hij onmiddellijk toegang heeft tot tal van functies, zoals surfen op het web en het maken van bestanden wanneer dat nodig is.
Maar er was een probleem: Claude Code moest doorgaans de instructiehandleiding voor elk beschikbaar hulpmiddel ‘lezen’, ongeacht of het nodig was voor de onmiddellijke taak, met behulp van de beschikbare context die anders zou kunnen worden gevuld met meer informatie uit gebruikersprompts of reacties van agenten.
In ieder geval tot gisteravond. Het Claude Code-team heeft een update uitgebracht wat deze vergelijking substantieel verandert. Deze functie, genaamd MCP Tool Search, introduceert ‘lui laden’ voor AI-tools, waardoor agenten alleen dynamisch tooldefinities kunnen ophalen wanneer dat nodig is.
Dit is een verandering die AI-agenten verplaatst van een brute-force-architectuur naar iets dat lijkt op moderne software-engineering en, volgens vroege gegevens, effectief het ‘bloat’-probleem oplost dat het ecosysteem dreigde te verstikken.
De “opstartbelasting” op agenten
Om de betekenis van Tool Search te begrijpen, moet je de wrijving van het vorige systeem begrijpen. Het Model Context Protocol (MCP), in 2024 door Anthropic uitgebracht als open source-standaard, is ontworpen als een universele standaard voor het verbinden van AI-modellen met gegevensbronnen en tools, van GitHub-repository’s tot lokale bestandssystemen.
Naarmate het ecosysteem groeide, nam ook de ‘opstartvergoeding’ toe.
Thariq Shihipar, lid van de technische staf van Anthropic, benadrukte de omvang van het probleem aankondiging.
“We ontdekten dat MCP-servers tot wel 50+ tools kunnen hebben”, schreef Shihipar. “Gebruikers documenteerden opstellingen met meer dan zeven servers die meer dan 67.000 tokens verbruikten.”
In praktische termen betekende dit dat een ontwikkelaar die een robuuste toolset gebruikte 33% of meer van de beschikbare contextvensterlimiet van 200.000 tokens kon opofferen voordat hij ook maar één teken van een prompt typte, omdat AI-nieuwsbriefauteur Aakash Gupta wees erop in een bericht op X.
Het model “las” honderden pagina’s met technische documentatie voor tools die het tijdens die sessie nooit had kunnen gebruiken.
De gemeenschapsanalyse leverde nog duidelijkere voorbeelden op.
Gupta merkte ook op dat een enkele Docker MCP-server 125.000 tokens zou kunnen verbruiken, alleen al om de 135 tools te definiëren.
‘De oude beperking dwong een brutaal compromis af’, schreef hij. “Beperk je MCP-servers tot twee tot drie kerntools, of accepteer dat de helft van je contextbudget verdwijnt voordat je aan het werk gaat.”
Hoe het zoeken naar tools werkt
De oplossing gelanceerd door Anthropic, die Shihipar “een van onze meest gevraagde functies” noemde. GitHub” — is elegant in zijn moderatie. In plaats van elke definitie vooraf te laden, controleert Claude Code nu het contextgebruik.
Volgens de release notes detecteert het systeem automatisch wanneer gereedschapsbeschrijvingen meer dan 10% van de beschikbare context in beslag nemen.
Wanneer deze drempel wordt overschreden, verandert het systeem van strategie. In plaats van de onbewerkte documentatie in de prompt te dumpen, wordt een lichtgewicht zoekindex geladen.
Wanneer de gebruiker een specifieke actie vraagt, zoals “deploy this container”, scant Claude Code geen enorme vooraf geladen lijst van 200 opdrachten. In plaats daarvan doorzoekt het de index, zoekt de definitie van het relevante hulpmiddel en plaatst alleen dat specifieke hulpmiddel in de context.
“Tool Search zet de architectuur op zijn kop”, analyseerde Gupta. “De besparingen in termen van tokens zijn aanzienlijk: van ~134.000 tot ~5.000 in de interne tests van Anthropic. Dit is een reductie van 85% terwijl de volledige toegang tot de tool behouden blijft.”
Voor ontwikkelaars die MCP-servers beheren, verandert dit de optimalisatiestrategie.
Shihipar merkte op dat het veld ‘serverinstructies’ in de MCP-definitie, voorheen een ‘leuk om te hebben’, nu van cruciaal belang is. Het fungeert als metadata die Claude helpen ’te weten wanneer hij naar je tools moet zoeken, vergelijkbaar met vaardigheden’.
“Lazy Loading” en verbeteringen in precisie
Hoewel tokenbesparingen de belangrijkste maatstaf zijn (geld en geheugen besparen is altijd populair), kan het secundaire effect van deze update belangrijker zijn: concentratie.
LLM’s zijn notoir gevoelig voor ‘afleiding’. Wanneer het contextvenster van een model gevuld is met duizenden regels irrelevante gereedschapsdefinities, neemt het vermogen om te redeneren af. Het creëert een “naald in een hooiberg”-probleem waarbij het model moeite heeft om onderscheid te maken tussen vergelijkbare commando’s, zoals “melding-verzend-gebruiker” en “melding-verzend-kanaal”.
Dit werd onderstreept door Boris Cherny, hoofd van Claude Code zijn reactie op de lancering op X: “Elke Claude Code-gebruiker krijgt veel meer context, betere instructies en de mogelijkheid om nog meer tools te koppelen.”
De gegevens bevestigen het. Interne benchmarks die door de gemeenschap worden gedeeld, geven aan dat het inschakelen van Tool Search de nauwkeurigheid van het Opus 4-model op MCP-beoordelingen heeft verbeterd van 49% naar 74%.
Voor de nieuwe Opus 4.5 ging de nauwkeurigheid van 79,5% naar 88,1%.
Door de ruis van honderden ongebruikte tools te verwijderen, kan het model zijn “aandachtsmechanismen” wijden aan de feitelijke vraag van de gebruiker en zijn actieve tools.
Stapel rijping
Deze update signaleert een volwassenheid in de manier waarop we omgaan met AI-infrastructuur. In de begindagen van elk softwareparadigma was brute kracht gebruikelijk. Maar naarmate systemen groeien, wordt efficiëntie de belangrijkste technische uitdaging.
Aakash Gupta trok een parallel met de evolutie van geïntegreerde ontwikkelomgevingen (IDE’s) zoals VSCode of JetBrains. “Het knelpunt was niet ’te veel tools’.
Het laadde tooldefinities als statische import uit 2020 in plaats van lui laden uit 2024″, schreef hij. “VSCode laadt niet alle extensies bij het opstarten. JetBrains slaat niet alle plug-indocumenten in het geheugen.”
Door ‘lui laden’, een standaard best practice bij web- en softwareontwikkeling, toe te passen, erkent Anthropic dat AI-agents niet langer slechts een nieuwigheid zijn; het zijn complexe softwareplatforms die architecturale discipline vereisen.
Implicaties voor het ecosysteem
Voor de eindgebruiker is deze upgrade eenvoudig: Claude Code voelt simpelweg ‘slimmer’ aan en behoudt meer gespreksgeheugen. Maar voor het ontwikkelaarsecosysteem opent dit deuren.
Voorheen gold er een ‘minimumlimiet’ voor de capaciteiten van een agent. Ontwikkelaars moesten hun toolsets zorgvuldig samenstellen om te voorkomen dat het model met te veel context werd lobotomiseerd. Met Tool Search wordt die beperking effectief verwijderd. Een agent kan in theorie toegang hebben tot duizenden tools (databaseconnectors, scripts voor cloudimplementatie, API-wrappers, lokale bestandsmanipulatoren) zonder een boete te betalen totdat die tools daadwerkelijk worden aangeraakt.
Het transformeert de ‘contexteconomie’ van een schaarstemodel naar een toegangsmodel. Zoals Gupta samenvatte: “Ze optimaliseren niet alleen het gebruik van context. Ze veranderen wat ’toolrijke agenten’ betekenen.”
De update zal onmiddellijk beschikbaar zijn voor Claude Code-gebruikers. Voor ontwikkelaars die MCP-clients bouwen, raadt Anthropic aan om `ToolSearchTool` te implementeren om dit dynamisch laden te ondersteunen, zodat wanneer de toekomstige agent arriveert, deze niet zonder geheugen komt te zitten voordat hij zelfs maar afscheid neemt.



