De regering-Trump zou kunnen denken dat regelgeving dat wel is verlammend DE Sector kunstmatige intelligentiemaar een van de grootste spelers in de sector is het daar niet mee eens.
Tijdens het Big Interview-evenement van WIRED op donderdag, Antropisch President en mede-oprichter Daniela Amodei vertelde WIRED hoofdredacteur Steven Levy dat, hoewel Trumps AI en cryptocurrency tsaar, David Sacks, zou kunnen hebben getweet dat haar bedrijf “een geavanceerde regelgevende acquisitiestrategie hanteert, gebaseerd op alarmisme”, gelooft ze dat de inzet van haar bedrijf om de potentiële gevaren van AI bloot te leggen de industrie versterkt.
“Vanaf dag één hebben we heel duidelijk gezegd dat we voelden dat er een ongelooflijk potentieel was” voor kunstmatige intelligentie, zei Amodei. “We willen echt dat de hele wereld zich bewust wordt van het potentieel en de positieve voordelen die AI kan opleveren, en om dat te doen moeten we de moeilijke dingen op de juiste manier benaderen. We moeten de risico’s beheersbaar maken. En daarom praten we er zo veel over.”
Meer dan 300.000 startups, ontwikkelaars en ondernemingen gebruiken een versie van het Claude-model van Anthropolic, en Amodei zei dat het bedrijf door de relaties met deze merken heeft geleerd dat klanten weliswaar willen dat hun AI geweldige dingen kan doen, maar dat ze ook willen dat deze betrouwbaar en veilig is.
“Niemand zegt: ‘We willen een minder veilig product'”, zei Amodei, terwijl hij de rapportage van Anthropic over de beperkingen en jailbreaks van zijn model vergeleek met die van een autobedrijf dat crashteststudies publiceert om te laten zien hoe het veiligheidsproblemen aanpakt. Het lijkt misschien schokkend om een crashtestpop in een video door een autoraam te zien vliegen, maar als hij hoort dat een autofabrikant na die test de veiligheidsvoorzieningen van zijn voertuig heeft bijgewerkt, kan een koper ervan worden overtuigd een auto te kopen. Amodei zei dat hetzelfde geldt voor bedrijven die de AI-producten van Anthropic gebruiken, waardoor een enigszins zelfregulerende markt ontstaat.
“We bepalen wat je bijna als minimale veiligheidsnormen kunt beschouwen, simpelweg door wat we in de economie stoppen”, zei hij. Bedrijven “bouwen veel workflows en dagelijkse tools rond AI, en ze zeggen: ‘We weten dat dit product niet zoveel mensen hallucineert, dat het geen schadelijke inhoud produceert, en dat het niet al deze slechte dingen doet.’ Waarom zou je een concurrent kiezen die op dit vlak lager scoort?
Fotografie: Annie Noelker



