De Chinese AI-startup Zhupai, ook bekend als z.ai, is deze week terug met een verbluffend nieuw grenstaalmodel: GLM-5.
Het is het nieuwste in de aanhoudende en voortdurend indrukwekkende GLM-serie van z.ai, heeft een open source MIT-licentie – perfect voor bedrijfsimplementatie – en bereikt, als een van de opmerkelijke prestaties, een record-laag hallucinatiepercentage op de onafhankelijke markt. Indexanalyse van kunstmatige intelligentie v4.0.
Met een score van -1 op de AA-Omniscience Index – wat neerkomt op een verbetering van maar liefst 35 punten ten opzichte van zijn voorganger – leidt GLM-5 nu de hele AI-industrie, inclusief Amerikaanse concurrenten als Google, OpenAI en Anthropic, op het gebied van kennisbetrouwbaarheid door te weten wanneer je je moet onthouden in plaats van informatie te verzinnen.
Naast zijn redeneervermogen is GLM-5 gebouwd voor hoogwaardig kenniswerk. Het beschikt over native “Agent Mode”-functies waarmee het onbewerkte suggesties of bronmateriaal rechtstreeks kan omzetten in professionele kantoordocumenten, inclusief kant-en-klare documenten .docx, .pdfEN .xlsx bestand.
Of het nu gaat om het genereren van gedetailleerde financiële rapporten, sponsorvoorstellen voor middelbare scholen of complexe spreadsheets, GLM-5 levert resultaten in real-world formaten die rechtstreeks in zakelijke workflows kunnen worden geïntegreerd.
Het heeft ook een disruptieve prijs van ongeveer $0,80 per miljoen inputtokens en $2,56 per miljoen outputtokens, ongeveer 6x goedkoper dan concurrenten van de eerste partij, zoals Claude Opus 4.6, waardoor geavanceerde agent-engineering betaalbaarder wordt dan ooit. Dit is wat zakelijke besluitvormers nog meer moeten weten over het model en de vorming ervan.
Technologie: Efficiëntie van kalkmiddelen
De kern van GLM-5 is een enorme sprong in ruwe parameters. Het model schaalt van de 355B-parameters van GLM-4.5 naar maar liefst 744B, met 40B actief per token in de Mixture-of-Experts (MoE)-architectuur. Deze groei wordt ondersteund door een toename van pre-trainingsgegevens naar 28,5T tokens.
Om trainingsinefficiënties van deze omvang aan te pakken, ontwikkelde Zai “slijm”, een nieuw raamwerk voor asynchrone versterkingsleren (RL).
Traditionele RL heeft vaak last van ‘long-tail’-knelpunten; Slime doorbreekt dit blok door trajecten onafhankelijk te laten genereren, waardoor de fijnmazige iteraties mogelijk worden die nodig zijn voor complex agentengedrag.
Door optimalisaties op systeemniveau zoals Active Partial Rollouts (APRIL) te integreren, lost Slime bouwknelpunten op die doorgaans meer dan 90% van de RL-trainingstijd in beslag nemen, waardoor de iteratiecyclus voor complexe agenttaken aanzienlijk wordt versneld.
Het ontwerp van het raamwerk is gebaseerd op een tripartiet modulair systeem: een krachtige trainingsmodule aangedreven door Megatron-LM, een uitrolmodule die SGLang en aangepaste routers gebruikt voor het genereren van gegevens met hoge doorvoer, en een gecentraliseerde gegevensbuffer die snelle initialisatie en uitrolopslag afhandelt.
Door testbare adaptieve omgevingen en feedbackloops met meerdere rondes mogelijk te maken, biedt slime de robuuste basis met hoge doorvoer die nodig is om AI over te zetten van eenvoudige chat-interacties naar rigoureuze systeemtechniek met een lange horizon.
Om de implementatie beheersbaar te houden, integreert GLM-5 DeepSeek Sparse Attention (DSA), waardoor 200.000 contextcapaciteit behouden blijft en de kosten dramatisch worden verlaagd.
Kenniswerk van begin tot eind
Zai presenteert de GLM-5 als een ‘kantoortool’ voor het AGI-tijdperk. Terwijl eerdere modellen zich op fragmenten concentreerden, is GLM-5 ontworpen om kant-en-klare documenten te leveren.
Het kan aanvragen autonoom omzetten in .docx-, .pdf- en .xlsx-bestanden, van financiële rapporten tot sponsorvoorstellen.
In de praktijk betekent dit dat het model doelen op hoog niveau kan opsplitsen in uitvoerbare subtaken en ‘Agentic Engineering’ kan uitvoeren, waarbij mensen kwaliteitspoorten definiëren terwijl AI de uitvoering afhandelt.
Hoge prestaties
Volgens benchmarks is GLM-5 het krachtigste nieuwe open source-model ter wereld Kunstmatige analysezijn Chinese rivaal inhalen De nieuwe Kimi K2.5 van Moonshot dat nog maar twee weken geleden werd gepubliceerd, waaruit blijkt dat Chinese AI-bedrijven bijna worden ingehaald door westerse rivalen die over veel betere middelen beschikken.
Volgens z.ai-materiaal dat vandaag wordt gedeeld, staat GLM-5 op de voorgrond op verschillende belangrijke maatstaven:
Geverifieerde SWE-bank: De GLM-5 scoorde 77,8, versloeg de Gemini 3 Pro (76,2) en kwam dicht in de buurt van de Claude Opus 4.6 (80,9).
Verkoopbalie 2: In een bedrijfsmanagementsimulatie stond GLM-5 op de eerste plaats onder open source-modellen met een eindsaldo van $ 4.432,12.
Naast prestaties ondermijnt de GLM-5 op agressieve wijze de markt. Beschikbaar op OpenRouter vanaf 11 februari 2026, de prijs bedraagt ongeveer $0,80-$1,00 per miljoen inputtokens en $2,56-$3,20 per miljoen outputtokens. Het bevindt zich in het middensegment vergeleken met andere toonaangevende LLM’s, maar op basis van de beste benchmarkingprestaties is het wat je een ‘stelen’ zou kunnen noemen.
|
Model |
Toegang (voor 1 miljoen tokens) |
Uitvoer (per 1 miljoen tokens) |
Totale kosten (1 miljoen inzendingen + 1 miljoen uittredingen) |
Bron |
|
Qwen3Turbo |
$ 0,05 |
$ 0,20 |
$ 0,25 |
|
|
Grok 4.1 Snel (redenering) |
$ 0,20 |
$ 0,50 |
$ 0,70 |
|
|
Grok 4.1 Snel (niet redeneren) |
$ 0,20 |
$ 0,50 |
$ 0,70 |
|
|
chat-deepseek (V3.2-Exp) |
$ 0,28 |
$ 0,42 |
$ 0,70 |
|
|
redenering voor diep zoeken (V3.2-Exp) |
$ 0,28 |
$ 0,42 |
$ 0,70 |
|
|
Gemini 3 Flash-voorbeeld |
$ 0,50 |
$ 3,00 |
$ 3,50 |
|
|
Kimi-k2.5 |
$ 0,60 |
$ 3,00 |
$ 3,60 |
|
|
GLM-5 |
$ 1,00 |
$ 3,20 |
$ 4,20 |
|
|
ERNI 5.0 |
$ 0,85 |
$ 3,40 |
$ 4,25 |
|
|
ClaudeHaiku4.5 |
$ 1,00 |
$ 5,00 |
$ 6,00 |
|
|
Qwen3-Max (23-01-2026) |
$ 1,20 |
$ 6,00 |
$ 7,20 |
|
|
Gemini 3 Pro (≤200.000) |
$ 2,00 |
$ 12,00 |
$ 14,00 |
|
|
GPT-5.2 |
$ 1,75 |
$ 14,00 |
$ 15,75 |
|
|
Claude Sonnet 4.5 |
$ 3,00 |
$ 15,00 |
$ 18,00 |
|
|
Gemini 3 Pro (>200K) |
$ 4,00 |
$ 18,00 |
$ 22,00 |
|
|
Vacature sluiten 4.6 |
$ 5,00 |
$ 25,00 |
$ 30,00 |
|
|
GPT-5.2Pro |
$ 21,00 |
$ 168,00 |
$ 189,00 |
Dit is ongeveer zes keer goedkoper qua input en bijna tien keer goedkoper qua output dan de Claude Opus 4.6 ($5/$25). Deze release bevestigt de geruchten dat Zhipu AI achter “Pony Alpha” zat, een stealth-model dat voorheen bovenaan de codeerbenchmarks op OpenRouter stond.
Ondanks de hoge benchmarks en lage kosten zijn echter niet alle early adopters enthousiast over het model. Houd er rekening mee dat de hoge prestaties niet het hele verhaal vertellen.
Lukas Petersson, medeoprichter van Andon Labs, een op beveiliging gerichte autonome AI-protocolstartup, X waargenomen: “Na urenlang nummers lezen GLM-5: een ongelooflijk effectief model, maar veel minder situatiebewust. Hij bereikt doelstellingen door middel van agressieve tactieken, maar denkt niet na over zijn situatie en maakt geen gebruik van ervaring. Dit is eng. Zo krijg je een paperclip-maximizer.”
De “paperclip-maximizer” verwijst naar een hypothetische situatie beschreven door Oxford-filosoof Nick Bostrom in 2003waarin een kunstmatige intelligentie of een andere autonome creatie per ongeluk leidt tot een doemscenario of het uitsterven van de mens door een ogenschijnlijk goedaardige instructie – zoals het maximaliseren van het aantal geproduceerde paperclips – in extreme mate te volgen, waarbij alle middelen die nodig zijn voor het menselijk leven (of ander leven) opnieuw worden gebruikt of op een andere manier het leven onmogelijk wordt gemaakt door zijn toewijding aan het bereiken van het ogenschijnlijk goedaardige doel.
Moet uw bedrijf GLM-5 adopteren?
Bedrijven die willen ontsnappen aan de lock-in van een leverancier zullen de MIT-licenties en beschikbaarheid van open gewichten van GLM-5 een aanzienlijk strategisch voordeel vinden. In tegenstelling tot closed-source-concurrenten die informatie achter eigen muren houden, stelt GLM-5 organisaties in staat hun eigen informatie aan de grens te hosten.
Adoptie verloopt niet zonder wrijving. De enorme omvang van de GLM-5-744B-parameters vereist enorme hardware die mogelijk onbereikbaar is voor kleinere bedrijven zonder significante cloud- of on-premise GPU-clusters.
Veiligheidsleiders moeten de geopolitieke implicaties van een vlaggenschipmodel van een in China gevestigd laboratorium afwegen, vooral in gereguleerde sectoren waar ingezetenschap en herkomst van gegevens strikt worden gecontroleerd.
Bovendien introduceert de verschuiving naar meer autonome AI-agenten nieuwe bestuursrisico’s. Terwijl modellen van ‘chatten’ naar ‘werken’ gaan, beginnen ze autonoom met apps en bestanden te werken. Zonder de robuuste agent-specifieke machtigingen en mens-in-the-loop kwaliteitscontroles die door bedrijfsdataleiders zijn ingesteld, neemt het risico op autonome fouten exponentieel toe.
Uiteindelijk is de GLM-5 een ‘aankoop’ voor organisaties die de simpele co-piloten zijn ontgroeid en klaar zijn om een echt autonoom kantoor te bouwen.
Het is bedoeld voor ingenieurs die een verouderde backend moeten herstructureren of die een ‘zelfherstellende’ pijplijn nodig hebben die niet slaapt.
Terwijl westerse laboratoria het ‘denken’ en de diepgang van de redenering blijven optimaliseren, optimaliseert Zai de uitvoering en schaalbaarheid.
Bedrijven die vandaag de dag GLM-5 adopteren, kopen niet alleen een goedkoper model; ze wedden op een toekomst waarin de meest waardevolle AI degene zal zijn die het project kan voltooien zonder dat er twee keer om gevraagd wordt.



