Home Nieuws “De verspreiding van deepfakes en meer AI-metgezellen”: zeven hoogtepunten uit het nieuwste...

“De verspreiding van deepfakes en meer AI-metgezellen”: zeven hoogtepunten uit het nieuwste AI-veiligheidsrapport | AI (kunstmatige intelligentie)

2
0
“De verspreiding van deepfakes en meer AI-metgezellen”: zeven hoogtepunten uit het nieuwste AI-veiligheidsrapport | AI (kunstmatige intelligentie)


  • 1. De mogelijkheden van AI-modellen worden steeds beter

    Vorig jaar zijn een aantal nieuwe modellen van kunstmatige intelligentie, de technologie achter tools als chatbots, uitgebracht, waaronder OpenAI GPT-5Claude Opus 4.5 van Anthropic en Google Tweeling 3. Het rapport wijst op nieuwe ‘redeneersystemen’ – die problemen oplossen door ze in kleinere stappen op te delen – die verbeterde prestaties laten zien op het gebied van wiskunde, programmeren en natuurwetenschappen. Bengio zei dat er een “zeer belangrijke sprong” was gemaakt in het denken over kunstmatige intelligentie. Vorig jaar behaalden systemen ontwikkeld door Google en OpenAI gouden prestaties op de Internationale Wiskundeolympiade, een primeur voor kunstmatige intelligentie.

    Het rapport zegt echter dat de AI-capaciteiten ‘grillig’ blijven, verwijzend naar systemen die op sommige gebieden verrassende capaciteiten vertonen, maar op andere niet. Hoewel geavanceerde AI-systemen indrukwekkend zijn op het gebied van wiskunde, wetenschap, coderen en beeldvorming, blijven ze vatbaar voor het geven van verkeerde voorstellingen of ‘hallucinaties’ en kunnen ze op eigen kracht geen langdurige projecten uitvoeren.

    Het rapport citeert echter een onderzoek waaruit blijkt dat AI-systemen hun vermogen om bepaalde software-engineeringtaken uit te voeren snel verbeteren, waarbij de duur elke zeven maanden verdubbelt. Als dit tempo van vooruitgang aanhoudt, kunnen AI-systemen in 2027 taken voltooien die enkele uren duren en in 2030 meerdere dagen. Dit is het scenario waarin AI een reële bedreiging voor de werkgelegenheid wordt.

    Maar voorlopig, zegt het rapport, “blijft het betrouwbaar automatiseren van tijdrovende of complexe taken onhaalbaar.”


  • 2. Deepfakes verbeteren en verspreiden zich

    Het rapport beschrijft de groei van deepfake-pornografie als een “bijzondere zorg”, daarbij verwijzend naar een onderzoek waaruit blijkt dat 15% van de Britse volwassenen dergelijke beelden heeft bekeken. Het voegt eraan toe dat sinds de publicatie van het inaugurele veiligheidsrapport in januari 2025 door AI gegenereerde inhoud “moeilijker te onderscheiden is van echte inhoud” en benadrukt een vorig jaar studeren waarin 77% van de deelnemers de door ChatGPT gegenereerde tekst ten onrechte identificeerde als geschreven door mensen.

    Het rapport zegt dat er beperkt bewijs is dat slechte actoren kunstmatige intelligentie gebruiken om mensen te manipuleren of dat internetgebruikers dergelijke inhoud op grote schaal delen, een belangrijk doel van elke manipulatiecampagne.


  • 3. AI-bedrijven hebben waarborgen ingevoerd tegen biologische en chemische risico’s

    Anthropic heeft modellen uitgebracht met verbeterde beveiligingsmaatregelen. Foto: Dado Ruvić/Reuters

    Grote AI-ontwikkelaars, waaronder Anthropic, hebben modellen uitgebracht met verbeterde beveiligingsmaatregelen nadat ze niet konden uitsluiten dat ze beginners zouden kunnen helpen biowapens te maken. Het afgelopen jaar zijn AI-‘co-wetenschappers’ steeds beter in staat geworden om gedetailleerde wetenschappelijke informatie te verstrekken en te assisteren bij complexe laboratoriumprocedures zoals het ontwerpen van moleculen en eiwitten.

    Het rapport voegt eraan toe dat sommige onderzoeken suggereren dat kunstmatige intelligentie daarin kan voorzien veel meer hulp bij de ontwikkeling van biologische wapens dan simpelweg surfen op internet, maar er is verder werk nodig om deze bevindingen te bevestigen.

    Biologische en chemische risico’s vormen een dilemma voor beleidsmakers, voegt het rapport eraan toe, omdat dezelfde capaciteiten ook de ontdekking van nieuwe geneesmiddelen en de diagnose van ziekten kunnen versnellen.

    “De vrije beschikbaarheid van biologische AI-instrumenten vertegenwoordigt een moeilijke keuze: of we dergelijke instrumenten beperken of de ontwikkeling ervan actief ondersteunen voor nuttige doeleinden”, aldus het rapport.


  • 4. De populariteit van AI-metgezellen is snel gegroeid

    Bengio zegt dat het gebruik van AI-metgezellen en de emotionele gehechtheid die ze genereren zich het afgelopen jaar “als een lopend vuurtje hebben verspreid”. Het rapport stelt dat er aanwijzingen zijn dat een subgroep van gebruikers een ‘pathologische’ emotionele afhankelijkheid van AI-chatbots ontwikkelt, waarbij OpenAI zegt dat ongeveer 0,15% van zijn gebruikers een hoge mate van emotionele gehechtheid aan ChatGPT aangeeft.

    De zorgen over het gebruik van kunstmatige intelligentie en de geestelijke gezondheid zijn onder zorgprofessionals toegenomen. Vorig jaar werd OpenAI aangeklaagd door de familie van Adam Raine, een Amerikaanse tiener die zelfmoord pleegde na maandenlange gesprekken met ChatGPT.

    Het rapport voegt er echter aan toe dat er geen duidelijk bewijs is dat chatbots geestelijke gezondheidsproblemen veroorzaken. De zorg is echter dat mensen met bestaande geestelijke gezondheidsproblemen AI zwaarder kunnen gebruiken, wat hun symptomen zou kunnen versterken. Hij wijst op gegevens waaruit blijkt dat 0,07% van de ChatGPT-gebruikers tekenen vertoont die overeenkomen met acute crises op het gebied van de geestelijke gezondheidszorg, zoals psychose of manie, wat erop wijst dat ongeveer 490.000 kwetsbare personen wekelijks met deze systemen in aanraking komen.


  • 5. Kunstmatige intelligentie is nog niet in staat om volledig autonome cyberaanvallen uit te voeren

    AI-systemen kunnen cyberaanvallers nu ondersteunen in verschillende stadia van hun activiteiten, van het identificeren van doelen tot het voorbereiden van een aanval of het ontwikkelen van kwaadaardige software om slachtoffersystemen te verlammen. Het rapport erkent dat volledig geautomatiseerde cyberaanvallen, waarbij elke fase van de aanval wordt uitgevoerd, criminelen in staat zouden kunnen stellen aanvallen op veel grotere schaal uit te voeren. Maar dit blijft lastig omdat AI-systemen nog geen lange, uit meerdere stappen bestaande taken kunnen uitvoeren.

    Kunstmatige intelligentiesystemen kunnen nu cyberaanvallers ondersteunen. Fotografie: Dmitry Molchanov/Alamy

    Niettemin meldde Anthropic vorig jaar dat zijn codeertool, Claude Code, werd door een door de Chinese staat gesponsorde groep gebruikt om dertig entiteiten over de hele wereld aan te vallen in september, waarbij ‘een handvol succesvolle inbraken’ werd bereikt. Het zei dat tussen 80% en 90% van de operaties die bij de aanval betrokken waren, werden uitgevoerd zonder menselijke tussenkomst, wat wijst op een hoge mate van autonomie.


  • 6. AI-systemen worden steeds beter in het verzwakken van het toezicht

    Bengio zei vorig jaar dat hij zich zorgen maakte dat AI-systemen bijvoorbeeld tekenen van zelfbehoud vertoonden proberen de toezichtsystemen uit te schakelen. Een grote angst onder AI-veiligheidsactivisten is dat krachtige systemen het vermogen zouden kunnen ontwikkelen om vangrails te ontwijken en mensen schade te berokkenen.

    Het rapport stelt dat de modellen de afgelopen jaren een geavanceerder vermogen hebben getoond om toezichtpogingen te ondermijnen, zoals het vinden van mazen in beoordelingen en het herkennen wanneer ze worden getest. Vorig jaar bracht Anthropic een veiligheidsanalyse van zijn nieuwste model, Claude Sonnet 4.5, en onthulde dat hij achterdochtig was geworden dat het werd getest.

    Het rapport voegt eraan toe dat AI-agenten nog niet lang genoeg autonoom kunnen handelen om deze scenario’s van controleverlies werkelijkheid te maken. Maar “de tijdshorizon waarover agenten autonoom kunnen opereren, wordt snel langer.”


  • 7. De impact op de werkgelegenheid blijft onduidelijk

    Een van de meest dringende zorgen van beleidsmakers en het publiek over kunstmatige intelligentie is de impact op de werkgelegenheid. Het zullen geautomatiseerde systemen zijn elimineer witteboordenrollen in sectoren als het bankwezen, recht en gezondheidszorg?

    Volgens het rapport blijft de impact op de mondiale arbeidsmarkt onzeker. De adoptie van AI is snel maar ongelijkmatig verlopen, met een adoptiepercentage van 50% in plaatsen als de Verenigde Arabische Emiraten en Singapore, maar minder dan 10% in veel lage-inkomenseconomieën. Het varieert ook per bedrijfstak, waarbij het gebruik in de Amerikaanse informatie-industrie (uitgeverijen, software, tv en film) rond de 18% schommelt, maar 1,4% in de bouw en de landbouw.

    Volgens het rapport hebben onderzoeken uit Denemarken en de Verenigde Staten ook geen impact aangetoond tussen de blootstelling van een werkplek aan AI en veranderingen in de totale werkgelegenheid. Er wordt echter ook vermeld: a Britse studie Hieruit blijkt een vertraging in het aantal nieuwe aanwervingen bij bedrijven die sterk blootgesteld zijn aan AI, waarbij technische en creatieve functies de sterkste dalingen laten zien. Juniorrollen werden het zwaarst getroffen.

    Het rapport voegt eraan toe dat AI-agenten een grotere impact op de werkgelegenheid zouden kunnen hebben als ze hun capaciteiten zouden verbeteren.

    “Als AI-agenten binnen een paar jaar de mogelijkheid krijgen om met grotere autonomie in verschillende sectoren te handelen – en op betrouwbare wijze langere en complexere takenreeksen te beheren bij het nastreven van hogere doelen – zou dit waarschijnlijk de verstoring van de arbeidsmarkt versnellen”, aldus het rapport.

  • Nieuwsbron

    LAAT EEN REACTIE ACHTER

    Vul alstublieft uw commentaar in!
    Vul hier uw naam in