Home Nieuws Anthropic beschuldigt DeepSeek, Moonshot en MiniMax van distillatieaanvallen op Claude

Anthropic beschuldigt DeepSeek, Moonshot en MiniMax van distillatieaanvallen op Claude

1
0
Anthropic beschuldigt DeepSeek, Moonshot en MiniMax van distillatieaanvallen op Claude

Het Anthropic-logo dat op het podium werd getoond tijdens de Builder Summit van het bedrijf in Bangalore, India op maandag 16 februari 2026. Fotograaf: Samyukta Lakshmi/Bloomberg via Getty Images

Bloomberg | Bloomberg | Getty-afbeeldingen

Anthropic beschuldigde maandag drie Chinese kunstmatige-intelligentiebedrijven van gecoördineerde campagnes om informatie uit zijn model te halen, waardoor het het nieuwste Amerikaanse technologiebedrijf is dat dergelijke beweringen heeft geuit nadat OpenAI soortgelijke klachten had ingediend.

Volgens verklaring van Anthropic, DeepSeek, Moonshot AI en MiniMax – de drie bedrijven in kwestie – zijn betrokken geweest bij gezamenlijke ‘distillatie-aanval’-campagnes, waarbij Claude werd overspoeld met grote hoeveelheden speciaal vervaardigde tips voor het trainen van propriëtaire modellen.

Door destillatie kunnen kleinere AI-modellen de prestaties van grotere, vooraf getrainde modellen nabootsen Haal kennis uit het best getrainde modeleen bijzonder nuttige techniek voor kleinere teams met minder middelen.

Hoewel beperkingen op de diensten van Anthropic commerciële toegang tot Claude in China verhinderen, zouden de drie bedrijven commerciële proxydiensten hebben gebruikt om de beperkingen van Anthropic te omzeilen, waardoor toegang werd verleend tot netwerken die tienduizenden Claude-accounts tegelijkertijd exploiteren.

“Zodra toegang is verleend, genereren de laboratoria grote hoeveelheden zorgvuldig opgestelde suggesties die zijn ontworpen om specifieke functionaliteit uit het model te halen”, aldus Anthropic in de verklaring.

Claude’s reacties op deze suggesties worden massaal gecultiveerd voor directe training van Chinese modellen of voor een proces dat bekend staat als versterkend leren, een data-intensieve aanpak waarin AI-modellen met vallen en opstaan ​​beslissingen leren nemen zonder menselijke begeleiding..

Anthropic schatte dat de drie Chinese bedrijven gezamenlijk meer dan 16 miljoen transacties met Claude genereerden via ongeveer 24.000 frauduleus aangemaakte accounts. Van de drie bedrijven ontdekte Anthropic dat MiniMax het meeste verkeer genereerde, met meer dan 13 miljoen transacties.

DeepSeek, Moonshot AI en MiniMax moeten nog reageren op een verzoek om commentaar van CNBC.

Niet de eerste keer

Anthropic sluit zich aan bij het groeiende koor van Amerikaanse bedrijven die hun bezorgdheid uiten over de destillatie van Chinese AI-bedrijven.

Eerder deze maand onthulde OpenAI van Sam Altman een open brief aan Amerikaanse wetgevers, die beweren activiteiten te hebben waargenomen “die wijzen op voortdurende pogingen van DeepSeek om grensmodellen uit OpenAI en andere Amerikaanse grenslaboratoria te distilleren, onder meer door middel van nieuwe en onduidelijke methoden.”

Het bedrijf rapporteert sinds begin vorig jaar proeven met distillatie door Chinese bedrijven, met de lancering van China’s eerste DeepSeek-model, dat gebruikers opvallend vergelijkbaar vonden met ChatGPT, aldus de Financial Times. gemeld in januari 2025, onder verwijzing naar insiders van OpenAI.

Distillatie is echter niet ongewoon in de industrie, zoals Anthropic maandag in zijn verklaring erkende dat AI-bedrijven “routinematig hun modellen distilleren om kleinere, goedkopere versies te creëren.”

De beschuldigingen van Anthropic gaan waarschijnlijk niet zozeer over de nalatigheid van de industrie als wel over schendingen van de servicevoorwaarden, zegt Lia Raquel Neves, oprichter van het ethisch adviesbureau EITIC.

“Als Anthropic zelf erkent dat distillatie een legitieme en veelgebruikte praktijk is… dan ligt de kern van het geschil niet alleen in de techniek zelf, maar in de vermeende frauduleuze toegang en mogelijke schending van contractuele voorwaarden en toegangsbeperkingen,” voegde Neves eraan toe.

Het bedrijf uitte echter zijn bezorgdheid over het concurrentievoordeel dat concurrerende bedrijven zouden behalen, aangezien de praktijk kan worden gebruikt ‘om krachtige capaciteiten van andere laboratoria te verwerven in een fractie van de tijd, en tegen een fractie van de kosten, die nodig zijn om deze onafhankelijk te ontwikkelen.’

In hun respectievelijke verklaringen hebben Anthropic en OpenAI de distillatie van deze Chinese bedrijven omschreven als een bedreiging voor de nationale veiligheid.

Net als OpenAI, dat de praktijken van DeepSeek omschreef als ‘vijandige distillatie’, uitte Anthropic zijn bezorgdheid over de mogelijkheid dat ‘autoritaire regeringen grens-AI zouden gebruiken voor offensieve cyberoperaties, desinformatiecampagnes en massale surveillance’.

Een oorlog van verhalen

Het is echter onduidelijk in hoeverre deze verklaringen echte veiligheidsproblemen weerspiegelen versus de wens om het concurrentieleiderschap van Amerikaanse AI-bedrijven te behouden, aldus experts.

Gezien de algemene acceptatie van distillatie als een legitieme praktijk in AI, “is de grens tussen legitiem gebruik en vijandige uitbuiting vaak vaag”, vertelde Erik Cambria, hoogleraar kunstmatige intelligentie aan de Nanyang Technological University in Singapore, aan CNBC.

Sommige onlinegebruikers waren er snel bij om dit te doen onderstrepen de overeenkomsten tussen de beweringen van Anthropic en zijn eigen gebruik van destillatie om eigen modellen te trainen.

Anthropic definieert ‘cyberleiderschap al geruime tijd consequent als een nationale veiligheidsprioriteit’ ondersteunen voor strengere controles op de export van geavanceerde AI-chips naar China, aldus Rui Ma van adviesbureau Tech Buzz China.

“Of het nu opzettelijk is of niet, het verhaal van illegale capaciteitsoverdracht versterkt de argumenten voor strengere beperkingen op chips”, voegde Ma eraan toe.

Omdat het debat over nationale veiligheid en exportcontroles plaatsvindt in een bredere context van mondiale concurrentie en grote financiële investeringen in kunstmatige intelligentie, is het belangrijk om echte veiligheidsrisico’s te scheiden van bredere strategische verhalen”, aldus Neves van EITIC.

“Dit ontkracht niet het bestaan ​​van echte (veiligheids)risico’s, maar vereist analytische voorzichtigheid om onderscheid te maken tussen … (verschillende) verhalen”, zei hij.

Dezelfde dag als de verklaring van Anthropic, aldus Reuters gemeld dat de VS bewijs hadden gevonden dat DeepSeek zijn AI-model had getraind op Nvidia’s vlaggenschip Blackwell-chip, en daarmee blijkbaar de exportcontroles had geschonden, aldus niet bij naam genoemde hoge functionarissen.

Dergelijke rapporten voeden de zorgen van een regering die zich steeds meer zorgen lijkt te maken over China snelle vooruitgang op het gebied van kunstmatige intelligentie, vooral omdat de winst van China zou voortvloeien uit het gebruik van door de Amerikanen ontwikkelde systemen.

Dat maakte het Witte Huis afgelopen vrijdag bekend de oprichting van het Vredeskorpseen initiatief binnen het Peace Corps gericht op het bevorderen van de Amerikaanse AI-belangen in het buitenland en het helpen van partnerlanden bij het adopteren van geavanceerde systemen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in