Claude, het kunstmatige intelligentiemodel ontwikkeld door Antropischwerd volgens de Wall Street Journal door het Amerikaanse leger gebruikt tijdens de operatie om Nicolás Maduro uit Venezuela te ontvoeren onthuld op zaterdag een spraakmakend voorbeeld van hoe het Amerikaanse ministerie van Defensie kunstmatige intelligentie gebruikt bij zijn operaties.
De Amerikaanse inval gaat door Venezuela Volgens het Venezolaanse ministerie van Defensie ging het om bombardementen op de hoofdstad Caracas en de dood van 83 mensen. De gebruiksvoorwaarden van Anthropic verbieden het gebruik van Claude voor gewelddadige doeleinden, voor de ontwikkeling van wapens of voor het uitvoeren van surveillance.
Anthropic was de eerste bekende AI-ontwikkelaar die werd gebruikt in een geheime operatie van het Amerikaanse ministerie van Defensie. Het is onduidelijk hoe de tool, die mogelijkheden heeft variërend van PDF-verwerking tot het besturen van autonome drones, werd geïmplementeerd.
Een woordvoerder van Anthropic weigerde commentaar te geven op de vraag of Claude bij de operatie werd gebruikt, maar zei dat elk gebruik van de AI-tool noodzakelijk was om te voldoen aan het gebruiksbeleid ervan. Het Amerikaanse ministerie van Defensie heeft geen commentaar gegeven op de beweringen.
De WSJ citeerde anonieme bronnen die zeiden dat Claude werd gebruikt via het partnerschap van Anthropic Palantir Technologies, een contractant van het Amerikaanse ministerie van Defensie en federale wetshandhaving. Palantir weigerde commentaar te geven op de beweringen.
De Verenigde Staten en andere legers maken steeds meer gebruik van kunstmatige intelligentie als onderdeel van hun arsenaal. Het Israëlische leger heeft drones met autonome capaciteiten in Gaza gebruikt en op grote schaal kunstmatige intelligentie gebruikt om zijn reeks doelen in Gaza te vullen. DE Amerikaans leger heeft de afgelopen jaren AI-targeting gebruikt voor aanvallen in Irak en Syrië.
Critici hebben gewaarschuwd voor het gebruik van kunstmatige intelligentie in wapentechnologieën en de inzet van autonome wapensystemen, waarbij ze wezen op fouten gemaakt door computers die bepalen wie wel en niet gedood mag worden.
AI-bedrijven worstelen met de manier waarop hun technologieën moeten samenwerken met de defensiesector, waarbij Dario Amodei, CEO van Anthropic, oproept tot regulering om schade door de inzet van AI te voorkomen. Amodei uitte ook zijn bezorgdheid over het gebruik van kunstmatige intelligentie bij dodelijke autonome operaties en surveillance in de Verenigde Staten.
Deze voorzichtigere houding heeft het Amerikaanse ministerie van Defensie kennelijk boos gemaakt. De minister van Oorlog, Pete Hegseth, zei in januari dat het ministerie “geen kunstmatige-intelligentiemodellen zou gebruiken die geen oorlogen zouden voeren”.
Het Pentagon maakte in januari bekend te gaan samenwerken met xAI, eigendom van Elon Musk. Het ministerie van Defensie maakt ook gebruik van een aangepaste versie van de Gemini- en OpenAI-systemen van Google om de zoektocht te ondersteunen.



