Home Nieuws Het standpunt van Anthropic ten aanzien van autonome wapens zou niet in...

Het standpunt van Anthropic ten aanzien van autonome wapens zou niet in de pas kunnen lopen met de moderne oorlogsvoering

4
0
Het standpunt van Anthropic ten aanzien van autonome wapens zou niet in de pas kunnen lopen met de moderne oorlogsvoering

Welkom bij NAAR DE Gedecodeerd, Snel bedrijfDe wekelijkse nieuwsbrief die het belangrijkste nieuws uit de wereld analyseert NAAR DE. Je kunt tekenen totdat u deze nieuwsbrief wekelijks per e-mail ontvangt Hier.

Het standpunt van Anthropic over autonome wapens zal de toekomst wellicht niet overleven

Een groot deel van de NAAR DE de wereld let zorgvuldig op als antropisch botsingen met het Pentagon over hoe de overheid Claude-modellen kan gebruiken. Anthropic heeft een contract van 200 miljoen dollar met het Pentagon, maar volgens het contract kan het leger de AI-modellen van het bedrijf niet gebruiken als brein voor autonome wapens of voor massale surveillance van Amerikanen. Minister van Defensie Pete Hegseth benadrukt achteraf dat het leger antropogene modellen voor “alle legitieme doeleinden” moet kunnen gebruiken.

Hegseth ontbood Dario Amodei, CEO van Anthropic, dinsdagochtend naar het Pentagon voor een vergadering, waar hij Anthropic vrijdag tot 17.01 uur de tijd zou geven om aan het verzoek van het Pentagon te voldoen. Als Anthropic dat niet doet, heeft Hegseth gedreigd een beroep te doen op de Defense Production Act om het AI-bedrijf te dwingen zijn modellen zonder vangrails aan te bieden. Hegseth zei ook dat de regering zal verklaren dat antropogene modellen een “toeleveringsketenrisico” vormen, wat betekent dat alle overheidsleveranciers gevraagd zullen worden om antropogene modellen te vermijden of te stoppen.

Amodei zei in een interview na een ontmoeting met Hegseth dat zijn bedrijf niet van plan is aan de eisen van Hegseth te voldoen. (Zijn redenen zijn geldig: regeringsfunctionarissen hebben immers ingestemd met de voorwaarden.) Amodei legde uit dat het leger vertrouwt op menselijk oordeel om te voorkomen dat de grondwettelijke rechten van mensen worden geschonden. Als AI de beslissingen zou nemen, zou er geen mens zijn die zich daartegen verzet.

Amodei heeft gelijk en de bereidheid van zijn bedrijf om zijn waarden te verdedigen is lovenswaardig. Het probleem is dat we snel op weg zijn naar een toekomst waarin autonome systemen de norm worden in oorlogsvoering.

Jarenlang heeft het defensie-establishment gesproken over het ‘op de hoogte houden van de mens’ in AI-wapensystemen. Vaak is die mens een overheidsjurist die kan ingaan op kwesties die verband houden met de regels voor betrokkenheid op het slagveld. Tegenwoordig heeft het Pentagon het steeds vaker over volledig autonome wapens die in staat zijn een groter deel van de ‘kill chain’ te beheren, d.w.z. de reeks communicaties en beslissingen met betrekking tot de vernietiging van een doelwit. Militaire leiders zeggen vaak dat wie technologie kan gebruiken om de moordketen te verkorten, oorlogen zal winnen.

Dingen als elektronische oorlogsvoering (cyberoorlog), hypersonische raketten en drone-zwermen maken oorlogvoering sneller en responstijden korter. Dit zou mogelijk de mogelijkheid voor menselijke beoordeling en besluitvorming kunnen uitsluiten. – Het Amerikaanse leger kan in toenemende mate gedwongen worden om mensen uit de kringloop te halen om concurrerend te blijven met zijn tegenstanders.

Het resultaat van de impasse van Anthropic met het Pentagon zou dus kunnen zijn dat een veiligheidsbewust AI-laboratorium wordt gedwongen te vertrekken en dat een over het algemeen minder nauwgezet bedrijf als xAI als alternatief wordt gekozen.

Trump kopieert het idee van Mark Kelly om nieuwe datacenters van stroom te voorzien

In zijn State of the Union-toespraak wijdde Donald Trump een paar minuten aan het onderwerp van nieuwe datacentra voor kunstmatige intelligentie, dat de afgelopen maanden een hot topic is geworden voor kiezers. Terwijl de technologie-industrie zegt dat ze honderden nieuwe datacenters nodig heeft om alle kunstmatige intelligentie die ze aan het bouwen is, te ondersteunen, begrijpt een groeiend aantal kiezers nu dat de verbeteringen aan het elektriciteitsnet die nodig zijn om de datacenters van stroom te voorzien, hun energierekening kunnen verhogen. ‘Ik heb onderhandeld over de nieuwe belofte ter bescherming van de belastingbetaler’, zong Trump. “We vertellen grote technologiebedrijven dat ze de plicht hebben om in hun eigen energiebehoeften te voorzien.”

Politici zullen deze boodschap wellicht herkennen, omdat deze nauw aansluit bij wat senator Mark Kelly, een democraat uit Arizona, nu al maanden zegt. Kelly’s”Kunstmatige intelligentie voor AmerikaHet plan zou een door de industrie gefinancierd ‘AI Horizon Fund’ creëren om te betalen voor upgrades van het energienetwerk en omscholing van personeel.

Volgens Kelly’s plan zou het Congres van datacenterontwikkelaars kunnen eisen dat ze voldoende land kopen of leasen om zowel hun faciliteiten als de infrastructuur voor hernieuwbare energie te huisvesten om ze van stroom te voorzien en te koelen. Van exploitanten van datacenters kan ook worden verlangd dat zij betalen om hernieuwbare bronnen op het lokale elektriciteitsnet aan te sluiten, als de opgewekte energie niet wordt gebruikt.

Het idee van Trump is meer een suggestie. Voorlopig is het niet bindend, het zijn slechts woorden. En er werd met geen woord gerept over de manier waarop technologiebedrijven hun eigen stroom zouden opwekken. De xAI van Elon Musk heeft bijvoorbeeld zijn kracht op de voorgrond gebracht Colossus datacenter in Memphis. Helaas waren dit vuile turbines die werden aangedreven door methaan, en de centrale werd al snel een van de grootste in de omgeving vervuilers.

Een groot aantal jonge tech-werkzoekenden heeft AI voor de gek gehouden in vaardigheidstesten

Valsspelen met de techniek aannemen De beoordelingen schoten omhoog in 2025, waarbij het aantal fraudepogingen meer dan verdubbelde, blijkt uit nieuw onderzoek van CodeSignal, dat een beoordelingsplatform voor ontwikkelaarsvaardigheden exploiteert dat wordt gebruikt om software-ingenieurs in te huren. Uit het onderzoek blijkt dat vorig jaar 35% van de begeleide beoordelingen tekenen van bedrog of fraude vertoonde, vergeleken met slechts 16% in 2024. De grootste boosdoeners? Plagiaat, iemand anders vragen om de test voor je af te leggen en het binnensluipen van niet-toegestane AI-tools.

De sprong was vooral merkbaar bij kandidaten op instapniveau. Het fraudepercentage voor juniorfuncties is jaar-op-jaar bijna verdrievoudigd, van 15% naar 40%, waardoor aanwervingen in het begin van de carrière een bijzonder kwetsbaar punt in het wervingsproces zijn geworden. In een persbericht bij het rapport gaf Tigran Sloyan, CEO en mede-oprichter van CodeSignal, gedeeltelijk de schuld aan de normalisatie van AI-tools, erop wijzend dat 80% van Generatie Z AI gebruikt in hun dagelijks leven, waardoor de grens tussen acceptabele hulp en regelrecht bedrog vervaagt. “Toegankelijkheid tot AI maakt het ook moeilijker om ongeoorloofde hulp op te sporen en verhoogt de inzet voor het handhaven van een eerlijke en betrouwbare beoordeling van vaardigheden”, merkte hij op.

De detectiesystemen van CodeSignal, die op AI gebaseerde analyse, menselijke beoordeling en digitale monitoring combineren, hebben enkele veelvoorkomende patronen onder de gemarkeerde beoordelingen geïdentificeerd. Ongeveer 35% van de testpersonen keek vaak buiten het scherm, wat suggereert dat ze tijdens de test externe bronnen raadpleegden. Nog eens 23% vertoonde ongewoon lineaire typpatronen, waarbij complexe oplossingen verschenen zonder pauzes of foutopsporing. En 15% gaf antwoorden die sterk leken op bekende oplossingen of gelekte inhoud. (Het is vermeldenswaard dat deze cijfers betrekking hebben op pogingen die daadwerkelijk zijn gepakt, en niet op gevallen waarin iemand wist te ontsnappen.)

Uit de gegevens kwamen ook enkele geografische en procedurele lacunes naar voren. Het aantal pogingen tot fraude bedroeg 48% in de regio Azië-Pacific, vergeleken met 27% in Noord-Amerika. De testomstandigheden maakten ook een groot verschil: testpersonen in omgevingen zonder toezicht vertoonden scoresprongen die meer dan vier keer groter waren dan die van degenen die actief werden gecontroleerd, wat duidelijk aantoont dat toezicht een afschrikwekkende werking heeft.

Wat betreft de manier waarop CodeSignal dit allemaal detecteert: het bedrijf zegt dat het tien jaar heeft besteed aan het bouwen van zijn infrastructuur voor fraudepreventie, die nu wordt toegepast op miljoenen beoordelingen. Het maakt gebruik van een gepatenteerde ‘verdachtheidsscore’ en een lekbestendig testontwerp om zaken als plagiaat, proxytesten, ongeoorloofd gebruik van AI en identiteitsfraude te signaleren.

Verhoogde AI-dekking van Snel bedrijf:

Wilt u exclusieve rapporten en trendanalyses over technologie, bedrijfsinnovatie, de toekomst van werk en design? Registratie Voor Snel bedrijf Onderscheiding.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in