Home Nieuws Qwen3-Coder-Next biedt vibratiecodeerders een krachtig, uiterst spaarzaam open-sourcemodel met 10x hogere doorvoer...

Qwen3-Coder-Next biedt vibratiecodeerders een krachtig, uiterst spaarzaam open-sourcemodel met 10x hogere doorvoer voor repositorytaken

3
0
Qwen3-Coder-Next biedt vibratiecodeerders een krachtig, uiterst spaarzaam open-sourcemodel met 10x hogere doorvoer voor repositorytaken

Het Qwen-team van AI-onderzoekers bij de Chinese e-commercegigant Alibaba is het afgelopen jaar uitgegroeid tot een van de wereldleiders op het gebied van open-source AI-ontwikkeling. reeks krachtige, grote taalmodellen en gespecialiseerde multimodale modellen die de prestaties van Amerikaanse leiders zoals OpenAI, Anthropic, Google en xAI benaderen, en in sommige gevallen zelfs overtreffen.

Nu is het Qwen-team deze week terug met een meeslepende release die past bij de ‘vibe coding’-razernij die de afgelopen maanden naar voren is gekomen: Qwen3-Coder-Volgendeeen gespecialiseerd parametermodel van 80 miljard, ontworpen om de prestaties van elite-agenten te leveren in een lichtgewicht actieve voetafdruk.

Het is uitgebracht onder een tolerante Apache 2.0-licentie, die commercieel gebruik door grote bedrijven en onafhankelijke ontwikkelaars mogelijk maakt, met de Modelgewichten beschikbaar op Hugging Face in vier varianten ea technisch rapport waarin hij enkele van zijn trainingsbenaderingen en innovaties beschrijft.

De release markeert een grote escalatie in de wereldwijde wapenwedloop voor de ultieme codeerassistent, na een week waarin de ruimte explodeerde met nieuwe concurrenten. Van enorme efficiëntiewinsten van Claude Code harnas van Anthropic al Spraakmakende lancering van de OpenAI Codex-app en de snelle acceptatie door de gemeenschap van open source-frameworks zoals Open Klauwhet competitieve landschap is nog nooit zo druk geweest.

In deze risicovolle omgeving houdt Alibaba niet alleen gelijke tred: het probeert een nieuwe standaard te zetten voor open-weight intelligence.

Voor LLM-beslissers vertegenwoordigt Qwen3-Coder-Next een fundamentele verschuiving in de economie van AI-engineering. Hoewel het model in totaal 80 miljard parameters bevat, maakt het gebruik van een Ultra-sparse Mixture-of-Experts (MoE)-architectuur die slechts 3 miljard parameters per voorwaartse doorgang activeert.

Dankzij dit ontwerp kan het redeneermogelijkheden bieden die kunnen wedijveren met enorme propriëtaire systemen, terwijl de lage implementatiekosten en hoge doorvoer van een lichtgewicht lokaal model behouden blijven.

Het lange contextknelpunt oplossen

De belangrijkste technische innovatie achter Qwen3-Coder-Next is een hybride architectuur die speciaal is ontworpen om de kwadratische schaalproblemen te omzeilen die traditionele Transformers teisteren.

Naarmate de contextvensters groter worden – en dit model maar liefst 262.144 tokens ondersteunt – worden traditionele aandachtsmechanismen computationeel onbetaalbaar.

Standaardtransformatoren hebben last van een “geheugenmuur” waarbij de verwerkingscontextkosten kwadratisch toenemen met de sequentielengte. Qwen pakt dit probleem aan door Gated DeltaNet te combineren met Gated Attention.

Gated DeltaNet dient als een lineair complexiteitsalternatief voor standaard softmax-aandacht. Het stelt het model in staat de status gedurende het tokenvenster van een kwart miljoen te behouden zonder de exponentiële latentieboetes die kenmerkend zijn voor redeneren met een lange horizon.

In combinatie met ultra-spaarzame MoE is het resultaat 10x de theoretische doorvoer voor taken op repository-niveau vergeleken met compacte modellen met een vergelijkbare totale capaciteit.

Deze architectuur zorgt ervoor dat een agent een volledige Python-bibliotheek of een complex JavaScript-framework kan “lezen” en kan reageren met de snelheid van een 3B-model, maar met het structurele begrip van een 80B-systeem.

Om contextuele hallucinaties tijdens de training te voorkomen, gebruikte het team Best-Fit Packing (BFP), een strategie die de efficiëntie handhaaft zonder de afkapfouten die voorkomen bij traditionele documentaaneenschakeling.

Opgeleid tot eerste agent

De “Next” in de modelnomenclatuur verwijst naar een fundamentele hoeksteen van de trainingsmethodologie. Historisch gezien werden codeermodellen getraind op statische code-tekstparen, wat in wezen een ‘alleen-lezen’-training was. Qwen3-Coder-Next werd in plaats daarvan ontwikkeld via een enorme ‘agent training’-pijplijn.

Het technische rapport beschrijft een synthesepijplijn die 800.000 verifieerbare codeertaken opleverde. Dit waren niet slechts fragmenten; het waren real-world bugfix-scenario’s die uit GitHub-pull-verzoeken werden gehaald en gecombineerd met volledig uitvoerbare omgevingen.

De trainingsinfrastructuur, bekend als MegaFlow, is een cloud-native orkestratiesysteem gebaseerd op Alibaba Cloud Kubernetes. In MegaFlow wordt elke agenttaak uitgedrukt als een workflow in drie fasen: agentimplementatie, evaluatie en nabewerking. Tijdens de implementatie communiceert het model met een live gecontaineriseerde omgeving.

Als het code genereert die een unit-test niet doorstaat of een container laat crashen, ontvangt het onmiddellijke feedback via tussentijdse training en versterkend leren. Dankzij deze “closed-loop”-training kan het model leren van feedback uit de omgeving, waardoor het leert te herstellen van defecten en oplossingen in realtime te verfijnen.

Productspecificaties omvatten:

  • Ondersteuning voor 370 programmeertalen: Een uitbreiding van 92 in eerdere versies.

  • Tooloproep in XML-stijl: Een nieuw qwen3_coder-formaat ontworpen voor stringrijke argumenten, waardoor het model lange codefragmenten kan uitvoeren zonder de overhead van geneste aanhalingstekens en ontsnappingen die typisch zijn voor JSON.

  • Focus op repositoryniveau: De tussenliggende trainingsfase werd uitgebreid tot ongeveer 600 miljard tokens aan gegevens op repositoryniveau, wat een grotere impact bleek te hebben op de logica van bestandsafhankelijkheid dan alleen datasets op bestandsniveau.

Specialisatie door expertmodellen

Een belangrijke onderscheidende factor in de Qwen3-Coder-Next-pijplijn is het gebruik van gespecialiseerde expertmodellen. In plaats van een generalistisch model voor alle taken te vormen, ontwikkelde het team domeinspecifieke experts voor webontwikkeling en gebruikerservaring (UX).

De webontwikkelingsexpert verzorgt uitgebreide taken zoals het bouwen van de gebruikersinterface en het samenstellen van de componenten. Alle codevoorbeelden zijn weergegeven in een Chromium-omgeving die wordt beheerd door Playwright.

Voor de React-voorbeelden werd een Vite-server ingezet om ervoor te zorgen dat alle afhankelijkheden correct werden geïnitialiseerd. Een Vision-Language Model (VLM) evalueerde vervolgens de weergegeven pagina’s op lay-outintegriteit en kwaliteit van de gebruikersinterface.

De UX Expert is geoptimaliseerd om te voldoen aan het formaat van toolaanroepen op verschillende CLI/IDE-scaffolds zoals Cline en OpenCode. Het team ontdekte dat training met verschillende toolchat-modellen de robuustheid van het model aanzienlijk verbeterde tegen patronen die onzichtbaar waren op het moment van implementatie.

Zodra deze experts topprestaties bereikten, werden hun capaciteiten teruggebundeld in het enkele 80B/3B MoE-model. Dit zorgt ervoor dat de lichtgewicht distributieversie de genuanceerde kennis van veel grotere lerarenmodellen behoudt.

Het overtreffen van benchmarks en tegelijkertijd een hoge mate van beveiliging bieden

De resultaten van deze gespecialiseerde training zijn duidelijk zichtbaar in de concurrentiepositie van het model ten opzichte van industriële reuzen. In benchmarkevaluaties uitgevoerd met behulp van het SWE-Agent-scaffold, toonde Qwen3-Coder-Next uitzonderlijke efficiëntie aan met betrekking tot het actief tellen van parameters.

Op SWE-Bench Verified behaalde het model een score van 70,6%. Deze prestaties zijn bijzonder competitief in combinatie met aanzienlijk grotere modellen; het overtreft DeepSeek-V3.2, dat 70,2% scoort, en staat slechts iets achter de 74,2%-score van GLM-4.7.

Benchmark Qwen3-Coder-Next. Krediet: Alibaba Qwen

In wezen getuigt het model van een robuust intrinsiek veiligheidsbewustzijn. Op SecCodeBench, dat het vermogen van een model evalueert om kwetsbaarheden te patchen, presteerde Qwen3-Coder-Next beter dan Claude-Opus-4.5 in scenario’s voor het genereren van code (61,2% versus 52,5%).

Vergelijkingstabel van Qwen3-Coder-Next SecCodeBench benchmarkresultaten

Vergelijkingstabel van Qwen3-Coder-Next SecCodeBench benchmarkresultaten. Krediet: Alibaba Qwen

Opvallend is dat het bedrijf hoge scores behield, zelfs zonder beveiligingstips te ontvangen, wat erop wijst dat het heeft geleerd te anticiperen op veelvoorkomende beveiligingsvalkuilen tijdens de trainingsfase van agenten met 800.000 taken.

In meertalige beveiligingsevaluaties demonstreerde het model ook een competitief evenwicht tussen functionele en veilige codegeneratie, en presteerde het beter dan zowel DeepSeek-V3.2 als GLM-4.7 op de CWEval-benchmark met een func-sec@1-score van 56,32%.

Daag de gigantische eigenaren uit

De release vertegenwoordigt de grootste uitdaging voor de dominantie van closed-source codeermodellen in 2026. Door aan te tonen dat een model met slechts 3 miljard actieve parameters de complexiteit van software-engineering in de echte wereld net zo effectief kan aanpakken als een ‘gigant’, heeft Alibaba effectief agent-gebaseerde codering gedemocratiseerd.

De “aha!” Het belangrijkste moment voor de sector is het besef dat de lengte van de context en de doorvoer de twee belangrijkste hefbomen zijn voor het succes van agenten.

Een model dat de 262.000 tokens van een repository in enkele seconden kan verwerken en het werk ervan in een Docker-container kan verifiëren, is fundamenteel nuttiger dan een groter model dat te traag of te duur is om te herhalen.

Zoals het Qwen-team in hun rapport concludeert: “De omvang van de training van agenten, en niet alleen de modelgrootte, is een sleutelfactor bij het bevorderen van de vaardigheden van codeeragenten in de echte wereld.” Met Qwen3-Coder-Next loopt het tijdperk van het ‘mammoet’-coderingsmodel mogelijk ten einde en wordt het vervangen door ultrasnelle, verspreide experts die net zo diep kunnen nadenken als ze kunnen rennen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in