Home Nieuws DeepSeek heeft zojuist twee ongelooflijk krachtige AI-modellen gelanceerd die kunnen wedijveren met...

DeepSeek heeft zojuist twee ongelooflijk krachtige AI-modellen gelanceerd die kunnen wedijveren met GPT-5, en ze zijn volledig gratis

15
0
DeepSeek heeft zojuist twee ongelooflijk krachtige AI-modellen gelanceerd die kunnen wedijveren met GPT-5, en ze zijn volledig gratis

Chinese kunstmatige intelligentie-startup Diepzoeken heeft zondag twee krachtige nieuwe AI-modellen uitgebracht die volgens het bedrijf de mogelijkheden van OpenAI evenaren of overtreffen GPT-5 en die van Google Gemini-3.0-Pro – een ontwikkeling die het concurrentielandschap tussen de Amerikaanse technologiegiganten en hun Chinese uitdagers zou kunnen hervormen.

In Hangzhou gevestigd bedrijf gelanceerd DeepSeek-V3.2ontworpen als assistent voor dagelijks redeneren, samen met DeepSeek-V3.2-Speciale, een krachtige variant die gouden medaille-prestaties behaalde in vier internationale elitecompetities: de Internationale Wiskundeolympiade van 2025, de Internationale Computerwetenschappenolympiade, de ICPC Wereldfinale en de Chinese Wiskundeolympiade.

De verklaring heeft diepgaande gevolgen voor het Amerikaanse technologische leiderschap. DeepSeek heeft opnieuw aangetoond dat het in staat is grensverleggende AI-systemen te produceren, ondanks Amerikaanse exportcontroles de toegang van China tot geavanceerde Nvidia-chips beperken – en dat deed het door zijn modellen vrij beschikbaar te stellen onder een open source MIT-licentie.

“Mensen dachten dat DeepSeek een unieke doorbraak had bereikt, maar we kwamen veel groter terug”, schreef hij. Chen Fangdie zichzelf identificeerde als medewerker van het project, op X (voorheen Twitter). De verklaring leidde online tot snelle reacties, waarbij één gebruiker verklaarde: “Rust zacht, ChatGPT.”

Hoe de korte-aandachtsdoorbraak van DeepSeek de computerkosten verlaagt

In het midden van de nieuwe versie bevindt zich DeepSeek Slechte aandachto DSA: een nieuwe architecturale innovatie die de rekenlast van het uitvoeren van AI-modellen op lange documenten en complexe taken dramatisch vermindert.

Traditionele AI-aandachtsmechanismen, de kerntechnologie die taalmodellen in staat stelt de context te begrijpen, passen zich slecht aan naarmate de invoerlengte toeneemt. Het twee keer zo lang verwerken van een document vergt doorgaans vier keer zoveel rekenwerk. De aanpak van DeepSeek doorbreekt deze beperking door gebruik te maken van wat het bedrijf een ‘bliksemindexer’ noemt, die alleen de meest relevante delen van de context voor elke zoekopdracht identificeert en de rest negeert.

Seconde DeepSeek technisch rapportDSA vermindert de inferentiekosten met ongeveer de helft in vergelijking met eerdere modellen bij het verwerken van lange reeksen. De architectuur “vermindert de rekencomplexiteit substantieel terwijl de modelprestaties behouden blijven”, aldus het rapport.

Het verwerken van 128.000 tokens, ongeveer het equivalent van een boek van 300 pagina’s, kost nu ongeveer $ 0,70 per miljoen tokens om te decoderen, vergeleken met $ 2,40 onder het vorige systeem. Model V3.1-Terminus. Dit betekent een reductie van 70% in de inferentiekosten.

De 685 miljard parametermodellen ondersteunen contextvensters van 128.000 tokens, waardoor ze geschikt zijn voor het analyseren van lange documenten, codebases en onderzoekspapers. Diepzoeken technisch rapport merkt op dat onafhankelijke evaluaties van lange-contextbenchmarks aantonen dat V3.2 even goed of beter presteert dan zijn voorganger “ondanks het feit dat er een slecht aandachtsmechanisme in zit.”

Benchmarkresultaten die DeepSeek op hetzelfde niveau brengen als GPT-5

De beweringen van DeepSeek over gelijkwaardigheid met toonaangevende Amerikaanse AI-systemen zijn gebaseerd op uitgebreide tests op het gebied van wiskunde, coderen en redeneren, en de cijfers zijn verbazingwekkend.

OP AIME 2025een prestigieuze Amerikaanse wiskundige wedstrijd, DeepSeek-V3.2-speciaal behaalde een slagingspercentage van 96,0%, vergeleken met 94,6% voor GPT-5-High en 95,0% voor Gemini-3.0-Pro. Op Wiskundetoernooi van Harvard-MITde Special-variant scoorde 99,2% en versloeg de 97,5% van de Gemini.

De norm ModelV3.2geoptimaliseerd voor dagelijks gebruik, scoorde het 93,1% op AIME en 92,5% op HMMT, iets onder de grensmodellen, maar bereikt met aanzienlijk minder rekenbronnen.

Het meest opvallend zijn de resultaten van de competitie. DeepSeek-V3.2-speciaal hij scoorde 35 van de 42 punten in de Internationale Wiskundeolympiade 2025het behalen van de gouden medaille. Al Internationale Computerolympiadehij scoorde 492 van de 600 punten, ook goud, en eindigde op de 10e plaats in het algemeen klassement. Het model heeft tot nu toe 10 van de 12 problemen opgelost ICPC-wereldfinalestweede plaatsen.

Deze resultaten kwamen tijdens het testen zonder internettoegang of hulpmiddelen. Het rapport van DeepSeek stelt dat “de tests zich strikt houden aan de tijds- en pogingslimieten van de wedstrijd.”

Wat codeerbenchmarks betreft, DeepSeek-V3.2 73,1% van de echte softwarefouten opgelost SWE-geverifieerdconcurrerend met GPT-5-High met 74,9%. OP Terminalbalie 2.0Bij het meten van complexe coderingsworkflows behaalde DeepSeek een score van 46,4%, ruim boven de 35,2% van GPT-5-High.

Het bedrijf onderkent de beperkingen. “Tokenefficiëntie blijft een uitdaging”, stelt het technische rapport, waarbij wordt opgemerkt dat DeepSeek “doorgaans langere generatietrajecten vereist” om de uitvoerkwaliteit van Gemini-3.0-Pro te evenaren.

Omdat het leren van AI om te denken tijdens het gebruik van tools alles verandert

Naast een grove redenering, DeepSeek-V3.2 introduceert ’tool thinking’: het vermogen om over problemen te redeneren en tegelijkertijd code uit te voeren, op internet te zoeken en bestanden te manipuleren.

Eerdere AI-modellen hadden te maken met een frustrerende beperking: elke keer dat ze een beroep deden op een extern hulpmiddel, verloren ze hun gedachtegang en moesten ze helemaal opnieuw beginnen te redeneren. De architectuur van DeepSeek behoudt het redeneerspoor over meerdere toolaanroepen, waardoor naadloze probleemoplossing in meerdere stappen mogelijk wordt.

Om deze mogelijkheid te trainen, heeft het bedrijf een enorme synthetische datapijplijn gecreëerd die meer dan 1.800 verschillende taakomgevingen en 85.000 complexe instructies genereert. Deze omvatten uitdagingen zoals het plannen van meerdaagse reizen onder budgetbeperkingen, het oplossen van softwarefouten in acht programmeertalen en webgebaseerde zoekopdrachten waarvoor tientallen zoekopdrachten nodig waren.

Het technische rapport beschrijft een voorbeeld: het plannen van een driedaagse reis vanuit Hangzhou met beperkingen op het gebied van hotelprijzen, restaurantbeoordelingen en attractiekosten die variëren op basis van accommodatiekeuzes. Dergelijke taken zijn “moeilijk op te lossen maar gemakkelijk te verifiëren”, waardoor ze ideaal zijn voor het trainen van AI-agenten.

Diepzoeken ze gebruikten tijdens de training tools uit de echte wereld (echte webzoek-API’s, codeeromgevingen en Jupyter-notebooks) en genereerden synthetische suggesties om diversiteit te garanderen. Het resultaat is een model dat generaliseert naar onzichtbare tools en omgevingen, een mogelijkheid die cruciaal is voor implementatie in de echte wereld.

De open source-actie van DeepSeek zou het bedrijfsmodel van de AI-industrie op zijn kop kunnen zetten

In tegenstelling tot OpenAI en Anthropic, die hun krachtigste modellen als eigen middelen behouden, heeft DeepSeek beide vrijgegeven V3.2 EN V3.2-Speciaal onder de MIT-licentie, een van de meest tolerante open source-frameworks die beschikbaar zijn.

Elke ontwikkelaar, onderzoeker of bedrijf kan de 685 miljard parametermodellen zonder beperkingen downloaden, aanpassen en inzetten. Volledige modelgewichten, trainingscode en documentatie zijn aanwezig beschikbaar op Knuffelgezichthet toonaangevende platform voor het delen van AI-modellen.

De strategische implicaties zijn aanzienlijk. Door geavanceerde modellen gratis beschikbaar te stellen, ondermijnt DeepSeek concurrenten die premium API-prijzen vragen. In het Hugging Face-modelblad wordt opgemerkt dat DeepSeek Python-scripts en testcases heeft geleverd “die demonstreren hoe berichten moeten worden gecodeerd in een OpenAI-compatibel formaat”, waardoor migratie van concurrerende services eenvoudig wordt.

Voor zakelijke klanten is de waardepropositie overtuigend: geavanceerde prestaties tegen aanzienlijk lagere kosten, met flexibiliteit bij de implementatie. Maar zorgen over de locatie van gegevens en onzekerheid over de regelgeving kunnen de acceptatie in gevoelige toepassingen beperken, vooral gezien de Chinese oorsprong van DeepSeek.

Regelgevende muren rijzen tegen DeepSeek in Europa en Amerika

De mondiale expansie van DeepSeek stuit op toenemende weerstand. In juni zei de Berlijnse commissaris voor gegevensbescherming, Meike Kamp, dat de overdracht van Duitse gebruikersgegevens door DeepSeek naar China “illegaal‘ onder EU-regels, waarbij Apple en Google worden gevraagd te overwegen de app te blokkeren.

De Duitse autoriteit uitte zijn bezorgdheid over het feit dat “de Chinese autoriteiten brede toegangsrechten hebben tot persoonlijke gegevens in de invloedssfeer van Chinese bedrijven.” Italië heeft DeepSeek hiertoe opdracht gegeven blokkeert zijn app in februari. Amerikaanse wetgevers zijn verder gegaan de dienst verbieden van overheidsapparaten, daarbij verwijzend naar zorgen over de nationale veiligheid.

Er blijven ook vragen bestaan ​​over Amerikaanse exportcontroles die zijn ontworpen om de kunstmatige intelligentiemogelijkheden van China te beperken. In augustus liet DeepSeek doorschemeren dat China binnenkort “volgende generatieIn eigen land gebouwde chips ter ondersteuning van zijn modellen. Het bedrijf heeft aangegeven dat zijn systemen op Chinese chips draaien Huawei EN Cambricon zonder aanvullende configuratie.

Het originele V3-model van DeepSeek is naar verluidt getraind op ongeveer 2.000 oudere modellen Nvidia H800-chip — hardware sindsdien beperkt tot export vanuit China. Het bedrijf heeft niet onthuld wat de V3.2-reeks heeft aangewakkerd, maar de voortdurende vooruitgang suggereert dat exportcontroles alleen de vooruitgang van de Chinese AI niet kunnen stoppen.

Wat de release van DeepSeek betekent voor de toekomst van de AI-competitie

De release komt op een cruciaal moment. Na jaren van enorme investeringen vragen sommige analisten zich af of er zich een AI-zeepbel aan het vormen is. Het vermogen van DeepSeek om Amerikaanse grensmodellen te evenaren tegen een fractie van de kosten daagt de veronderstelling uit dat AI-leiderschap enorme kapitaaluitgaven vereist.

Die van het bedrijf technisch rapport laat zien dat de investeringen na de training nu meer dan 10% van de kosten vóór de training bedragen – een substantiële toewijzing die wordt gecrediteerd voor verbeteringen in de redenering. Maar DeepSeek erkent de tekortkomingen: “De breedte van de wereldkennis in DeepSeek-V3.2 blijft nog steeds achter bij toonaangevende propriëtaire modellen”, zegt het rapport. Het bedrijf is van plan dit probleem op te lossen door de pre-trainingsberekening op te schalen.

DeepSeek-V3.2-speciaal het blijft beschikbaar via een tijdelijke API tot 15 december, waarna de functies deel uitmaken van de standaardrelease. De speciale variant is uitsluitend ontworpen voor diepgaande redenering en biedt geen ondersteuning voor het aanroepen van tools, een beperking die het standaardmodel aanpakt.

Voorlopig is de AI-race tussen de Verenigde Staten en China een nieuwe fase ingegaan. De release van DeepSeek laat zien dat open source-modellen baanbrekende prestaties kunnen leveren, dat efficiëntie-innovaties de kosten dramatisch kunnen verlagen, en dat de krachtigste AI-systemen binnenkort gratis beschikbaar kunnen zijn voor iedereen met een internetverbinding.

Zoals een X-commentator opmerkte: “Het is waanzin dat Deepseek simpelweg terloops de historische parameters van Gemini overtreedt.”

De vraag is niet langer of Chinese AI kan concurreren met Silicon Valley. De vraag is of Amerikaanse bedrijven hun leiderschap kunnen behouden als hun Chinese rivaal vergelijkbare technologie gratis weggeeft.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in