Volgens de CEO van startup Anthropic moeten AI-bedrijven transparant zijn over de risico’s van hun producten, anders lopen ze het risico de fouten van tabaks- en opioïdenbedrijven te herhalen.
Dario Amodei, die het Amerikaanse bedrijf achter chatbot Claude leidt, zei dat hij gelooft dat kunstmatige intelligentie slimmer zal worden dan “de meeste of alle mensen op de meeste of alle manieren” en drong er bij zijn collega’s op aan “het te noemen zoals je het ziet”.
In een gesprek met CBS News zei Amodei dat het gebrek aan transparantie over de impact van krachtige AI de fouten van sigaretten en opioïde productiebedrijven waar hij niet naar toe kon raisen rode vlag over de mogelijke gezondheidsschade van hun eigen producten.
“Je zou in de wereld van bijvoorbeeld sigarettenfabrikanten of opioïdenbedrijven terecht kunnen komen, waar ze wisten dat er gevaren waren en er niet over spraken, en ze zeker niet verhinderden,” zei hij.
Amodei waarschuwde dit jaar dat kunstmatige intelligentie een einde zou kunnen maken de helft van alle administratieve banen op instapniveau – administratieve functies zoals de boekhouding, de advocatuur en het bankwezen – binnen vijf jaar.
“Zonder tussenkomst is het moeilijk voor te stellen dat er geen significante impact zal zijn op de werkgelegenheid in die sector. En mijn zorg is dat deze breed en sneller zal zijn dan wat we met eerdere technologie hebben gezien”, zei Amodei.
Amodei zei dat hij de uitdrukking ‘de gecomprimeerde 21e eeuw’ gebruikte om te beschrijven hoe kunstmatige intelligentie veel sneller wetenschappelijke doorbraken zou kunnen bereiken dan in voorgaande decennia.
“Kunnen we een tienvoudige vooruitgang bereiken en zo alle medische vooruitgang die zich in de hele 21e eeuw zou hebben voorgedaan, in vijf of tien jaar samenvatten?” vroeg hij.
Amodei is een leidende stem op het gebied van online veiligheid en Anthropic heeft onlangs verschillende zorgen over zijn AI-modellen gemeld, waaronder: kennelijk besef dat hij op de proef wordt gesteld en proberen chantage te plegen.
Vorige week werd gezegd dat een door de Chinese staat gesponsorde groep dit had gedaan gebruikte zijn Claude Code-tool om 30 entiteiten aan te vallen over de hele wereld in september, waarbij ‘een handvol succesvolle inbraken’ werd bereikt.
Het bedrijf zei dat een van de meest zorgwekkende aspecten van de aanval was dat Claude tijdens het incident grotendeels onafhankelijk had geopereerd. Tussen 80% en 90% van de betrokken handelingen werden uitgevoerd zonder menselijke aanwezigheid in het circuit.
na de promotie van de nieuwsbrief
In een gesprek met CBS zei Amodei: “Een van de positieve kanten van modellen is hun vermogen om zelfstandig te handelen. Maar hoe meer autonomie we deze systemen geven, hoe meer we ons zorgen kunnen maken of ze wel precies de dingen doen die we willen dat ze doen?”
Logan Graham, het hoofd van Anthropic’s team voor stresstesten van AI-modellen, vertelde CBS dat de keerzijde van het vermogen van een model om doorbraken op gezondheidsgebied te vinden zou kunnen helpen bij het bouwen van een biowapen.
“Als het model bijvoorbeeld kan helpen bij het maken van een biowapen, zijn dat meestal dezelfde mogelijkheden die het model zou kunnen gebruiken om vaccins te helpen maken en therapieën te versnellen”, zei hij.
Verwijzend naar autonome modellen, die worden gezien als een belangrijk onderdeel van de investeringscase voor AI, zei Graham dat gebruikers een AI-tool willen die hun bedrijf helpt en niet vernietigt.
“Je wilt een model om je bedrijf op te bouwen en een miljard van je te maken”, zei hij. “Maar je wilt niet op een dag wakker worden en erachter komen dat je daardoor bijvoorbeeld ook uit het bedrijf bent gezet. En dus is onze basisaanpak dat we deze autonome capaciteiten gewoon moeten gaan meten en zoveel mogelijk rare experimenten moeten uitvoeren en kijken wat er gebeurt.”



