Home Nieuws ‘De grootste beslissing tot nu toe’: Jared Kaplan over het zichzelf laten...

‘De grootste beslissing tot nu toe’: Jared Kaplan over het zichzelf laten trainen van AI | Technologie

14
0
‘De grootste beslissing tot nu toe’: Jared Kaplan over het zichzelf laten trainen van AI | Technologie

“,”alt <


iframeMessenger.enableAutoResize();“>

De mensheid zal tegen 2030 moeten beslissen of ze het ‘laatste risico’ wil nemen door kunstmatige-intelligentiesystemen te laten trainen om krachtiger te worden, heeft een van ‘s werelds toonaangevende wetenschappers op het gebied van kunstmatige intelligentie gezegd.

Jared Kaplan, hoofdwetenschapper en mede-eigenaar van de Amerikaanse startup Anthropic, ter waarde van $180 miljard (£135 miljard), zei dat er een keuze opdoemt over hoeveel autonomiesystemen moeten worden gegeven om te evolueren.

Deze stap zou een gunstige ‘intelligentie-explosie’ kunnen veroorzaken – of het moment kunnen zijn waarop mensen eindelijk de controle verliezen.

In een interview over de intens competitieve race om kunstmatige algemene intelligentie (AGI) te bereiken – ook wel superintelligentie genoemd – drong Kaplan er bij regeringen en de internationale samenleving op aan zich te engageren voor wat hij ‘de grootste beslissing’ noemde.

Anthropic behoort tot een groep vooraanstaande AI-bedrijven, waaronder OpenAI, Google DeepMind, xAI, Meta en Chinese rivalen onder leiding van DeepSeek, die strijden om AI-dominantie. De veelgebruikte AI-assistent, Claude, is vooral populair geworden onder zakelijke klanten.

Het besluit om de teugels van AI ‘los te laten’ zal waarschijnlijk tussen 2027 en 2030 komen, zegt Kaplan. Foto: Bloomberg/Getty Images

Kaplan zei dat hoewel pogingen om de snel voortschrijdende technologie op één lijn te brengen met menselijke belangen tot nu toe succesvol zijn geweest, het vrijlaten van de vrijheid om zichzelf recursief te verbeteren “in sommige opzichten het ultieme risico is, omdat het een beetje lijkt op het loslaten van kunstmatige intelligentie.” De beslissing zou tussen 2027 en 2030 kunnen vallen, zei hij.

Foto: Cayce Clifford/The Guardian

“Als je je voorstelt dit proces te creëren waarbij je een AI hebt die slimmer is dan jij, of net zo slim als jij, dan creëer je een veel slimmere AI.”

Foto: Cayce Clifford/The Guardian

“Het lijkt een beetje een eng proces. Je weet niet waar je terechtkomt.”

Kaplan groeide van een theoretisch natuurkundige uit tot een AI-miljardair in zeven jaar werk in het veld. In een uitgebreid interview zei hij ook:

  • AI-systemen zullen binnen twee tot drie jaar “het meeste witteboordenwerk” kunnen doen.

  • Dat zijn zesjarige zoon nooit beter zal zijn dan een kunstmatige intelligentie in academische taken zoals het schrijven van een essay of het afleggen van een wiskundetoets.

  • Dat het terecht was om bang te zijn dat mensen de controle over de technologie zouden verliezen als AI zich zou verbeteren.

  • De inzet in de AGI-race lijkt ‘ontmoedigend’.

  • In het beste geval zou AI het biomedisch onderzoek kunnen versnellen, de gezondheid en cyberveiligheid kunnen verbeteren, de productiviteit kunnen verhogen, mensen meer vrije tijd kunnen geven en mensen kunnen helpen bloeien.

Kaplan had een ontmoeting met The Guardian op het hoofdkantoor van Anthropic in San Francisco, waar een interieur van gebreide tapijten en vrolijke jazzmuziek existentiële zorgen over de zich ontwikkelende technologie logenstraft.

San Francisco is het epicentrum geworden van AI-startups en -investeringen. Foto: The Washington Post/Getty Images

Kaplan is een door Stanford en Harvard opgeleide natuurkundeprofessor die onderzoek deed aan de Johns Hopkins University en Cern in Zwitserland voordat hij in 2019 bij OpenAI kwam en in 2021 medeoprichter was van Anthropic.

Hij is niet de enige bij Anthropic die zijn zorgen uit. Een van de medeoprichters, Jack Clark, zei in oktober ja zowel een optimist als een ‘diep bang’ over het traject van kunstmatige intelligentie, dat hij definieerde als ‘een echt en mysterieus wezen, niet als een eenvoudige en voorspelbare machine’.

Kaplan zei dat hij erg optimistisch is over AI-systemen die aansluiten bij de belangen van de mensheid, tot op het niveau van de menselijke intelligentie, maar hij maakt zich zorgen over de gevolgen als en wanneer ze die drempel overschrijden.

Hij zei: “Als je je voorstelt dit proces te creëren waarbij je een AI hebt die slimmer is dan jij, of net zo slim als jij, dan zal het een veel slimmere AI creëren. Er zal de hulp van AI nodig zijn om een ​​AI slimmer te maken dan dat. Het lijkt een beetje een eng proces. Je weet niet waar je terechtkomt.”

Er zijn twijfels geuit over de voordelen van de implementatie van kunstmatige intelligentie in de economie. Buiten het hoofdkantoor van Anthropic werd op een reclamebord van een ander technologiebedrijf expliciet gevraagd: “Al die AI en geen ROI?”, Verwijzend naar het rendement op de investering. Dit blijkt uit een onderzoek van de Harvard Business Review uit september AI “werkplaats”. – ondermaats AI-ondersteund werk dat mensen moeten oplossen – verminderde de productiviteit.

Enkele van de meest voor de hand liggende voordelen zijn voortgekomen uit het gebruik van kunstmatige intelligentie om computercode te schrijven. In september onthulde Anthropic zijn geavanceerde AI, Claude Sonnet 4.5, een model voor het coderen van computers die AI-agents kunnen bouwen en computers autonoom kunnen besturen.

Aanvallers gebruikten de Claude Code-tool om verschillende organisaties aan te vallen. Fotografie: antropisch

Hij bleef zich dertig uur lang concentreren op complexe, uit meerdere stappen bestaande codeertaken, en Kaplan zei dat het gebruik van kunstmatige intelligentie in sommige gevallen de snelheid verdubbelde waarmee de programmeurs van zijn bedrijf konden werken.

Maar Anthropic zei in november dat het geloofde dat een door de Chinese staat gesponsorde groep dit had gedaan hij manipuleerde zijn instrument Claude Code – niet alleen om mensen te helpen een cyberaanval uit te voeren, maar ook om ongeveer dertig aanvallen uit te voeren, waarvan sommige succesvol waren. Kaplan zei dat het toestaan ​​van AI’s om volgende AI’s te trainen ‘een beslissing met een extreem hoge inzet’ was.

“Dit beschouwen wij misschien wel als de belangrijkste beslissing of het engste om te doen… als er niemand bij het proces betrokken is, weet je het niet meer. Je kunt een proces starten en zeggen: ‘Oh, dit gaat heel goed. Het is precies wat we verwacht hadden. Het is heel veilig.’ Maar weet je niet: het is een dynamisch proces. Waar leidt dit toe?

Hij zei dat als recursieve zelfverbetering, zoals dit proces soms wordt genoemd, ongecontroleerd zou worden toegestaan, er twee risico’s zouden bestaan.

“De eerste is: ga je de controle erover verliezen? Weet je wat AI’s doen? De grote vraag is: zijn AI’s goed voor de mensheid? Zijn ze nuttig? Zullen ze onschadelijk zijn? Begrijpen ze mensen? Zullen ze toestaan ​​dat mensen vrije wil blijven hebben over hun leven en de wereld?”

Foto: Cayce Clifford/The Guardian

“Ik denk dat het voorkomen van machtsgreep en misbruik van technologie ook heel belangrijk is.”

Foto: Cayce Clifford/The Guardian

“Het lijkt erg gevaarlijk als het in verkeerde handen valt”

Het tweede veiligheidsrisico komt voort uit autodidactische AI’s die de menselijke capaciteiten op het gebied van wetenschappelijk onderzoek en technologische ontwikkeling overstijgen.

“Het lijkt erg gevaarlijk als het in de verkeerde handen valt”, zei hij. “Je kunt je een persoon voorstellen (die besluit): ‘Ik wil dat deze AI gewoon mijn slaaf is. Ik wil dat hij mijn wil uitvoert.’ Ik denk dat het voorkomen van overnames – het voorkomen van misbruik van technologie – ook heel belangrijk is.”

Onafhankelijk onderzoek naar grensverleggende AI-modellen, waaronder ChatGPT, toont aan dat de duur van de taken die AI’s kunnen uitvoeren, lang is geweest elke zeven maanden verdubbelt.

De toekomst van kunstmatige intelligentie

Rivalen racen om een ​​superintelligentie te creëren. Deze is tot stand gekomen in samenwerking met de Redactionele planning ploeg. Lees meer uit de serie.

Woorden

Nick Hopkins, Rob Booth, Amy Hawkins, Dara Kerr, Dan Milmo

Ontwerp en ontwikkeling

Rijke neven, Harry Fischer, Pip Lev, Alessia Amitrano

Afbeeldingseditor

Fiona Shields, Jim Hedge, Gail Fletcher

Kaplan zei dat hij bezorgd was dat de snelheid van de vooruitgang betekende dat de mensheid in het algemeen niet aan de technologie had kunnen wennen voordat zij een nieuwe sprong voorwaarts had gemaakt.

“Ik maak me hier zorgen over… mensen zoals ik zouden allemaal gek kunnen zijn, en alles zou zich kunnen stabiliseren,” zei hij. “Misschien is de beste AI ooit degene die we nu hebben. Maar we denken niet echt dat dat het geval is. We denken dat het steeds beter zal worden.”

Hij voegde eraan toe: “Het is iets dat heel snel beweegt en mensen hebben niet per se de tijd om het in zich op te nemen of uit te zoeken wat ze moeten doen.”

Anthropic concurreert met OpenAI, Google DeepMind en xAI om steeds geavanceerdere AI-systemen te ontwikkelen in de transitie naar AGI. Kaplan beschreef de sfeer in de Bay Area als “absoluut zeer intens, zowel vanuit een AI-perspectief als vanuit een perspectief van concurrentievermogen.”

“De manier waarop wij erover nadenken is dat alles deze exponentiële trend volgt in termen van investeringen, inkomsten, de mogelijkheden van AI, hoe complex de taken zijn die AI kan doen”, zei hij.

Door de snelheid van voortgang is de kans groot dat één van de lopers uitglijdt en achterop raakt. “De inzet is hoog als je op de grens blijft, in die zin dat je buiten de exponentiële (curve) valt en heel snel ver achterop kunt raken, tenminste wat betreft de middelen.”

Er wordt verwacht dat datacenters in 2030 wereldwijd 6,7 biljoen dollar nodig zullen hebben blijf op de hoogte van de vraag voor rekenkracht, schat McKinsey. Beleggers willen bedrijven steunen die dichter bij de top van het peloton staan.

Enkele van de grootste voordelen zijn behaald door het gebruik van kunstmatige intelligentie om computercode te schrijven. Foto: Cheng Xin/Getty Images

Tegelijkertijd staat Anthropic bekend om het aanmoedigen van de regulering van kunstmatige intelligentie. Zijn intentieverklaring bevat een sectie met de titel: “Laten we veiligere systemen bouwen.”

“We willen echt niet dat het een Spoetnik-achtige situatie wordt, waarin de regering plotseling wakker wordt en zegt: ‘Oh, wauw, AI is een groot probleem’… We willen dat politici langs het traject zo goed mogelijk geïnformeerd zijn, zodat ze daar rekening mee kunnen houden.”

In oktober leidde het standpunt van Anthropic tot een standpunt van het Witte Huis van Donald Trump. David Sacks, de adviseur voor kunstmatige intelligentie van de Amerikaanse president, beschuldigde Anthropic van ‘bangmakerij’ om regelgeving per staat aan te moedigen die zijn positie ten goede zou komen en startups zou schaden.

Nadat Sacks zei dat ze zichzelf had gepositioneerd als een ‘vijand’ van de Trump-regering, reageerde Dario Amodei, medeoprichter van Kaplan en CEO van Anthropic, door te zeggen dat het bedrijf publiekelijk had geprezen Het AI-actieplan van Trumphij werkte samen met de Republikeinen en wilde, net als het Witte Huis, het Amerikaanse leiderschap op het gebied van kunstmatige intelligentie behouden.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in