Deepfake-fraude is ‘industrieel’ geworden, zegt een analyse gepubliceerd door experts op het gebied van kunstmatige intelligentie.
Tools om op maat gemaakte oplichting te creëren, zelfs gepersonaliseerde, waarbij bijvoorbeeld deepfakes worden misbruikt video van Zweedse journalisten of de president van Cyprus – zijn niet langer een nichemarkt, maar goedkoop en gemakkelijk op grote schaal te implementeren, aldus de analyse de AI-incidentendatabase.
Het catalogiseerde meer dan een dozijn recente voorbeelden van ‘nabootsing van identiteit met winstoogmerk’, waaronder een deepfake-video van de West-Australische premier Robert Cook waarin een investeringsplan en deepfake-artsen worden aangeprezen. bevorderen huid crèmes.
Deze voorbeelden maken deel uit van een trend waarin oplichters algemeen beschikbare kunstmatige intelligentie-instrumenten gebruiken om steeds doelgerichtere overvallen te bestendigen. Vorig jaar betaalde een financiële functionaris bij een multinational in Singapore bijna $500.000 aan oplichters tijdens wat hij had gedaan. geloofde het was een videogesprek met de leiding van het bedrijf. Er wordt geschat dat Britse consumenten dat deden kwijt £9,4 miljard aan fraude in de negen maanden tot november 2025.
“De mogelijkheden hebben plotseling dat niveau bereikt waarop vrijwel iedereen nep-inhoud kan produceren”, zegt Simon Mylius, een MIT-onderzoeker die werkt aan een project dat is gekoppeld aan de AI Incident Database.
Hij berekent dat “fraude, oplichting en gerichte manipulatie” het grootste deel uitmaken van de incidenten die in elf van de afgelopen twaalf maanden aan de database zijn gemeld. Hij zei: “Het is zeer toegankelijk geworden tot een punt waarop er echt geen toegangsbarrière meer is.”
“De schaal is aan het veranderen”, zegt Fred Heiding, een Harvard-onderzoeker die AI-gebaseerde oplichting bestudeert. “Het wordt zo goedkoop dat bijna iedereen het nu kan gebruiken. De modellen worden echt goed: ze worden een stuk sneller dan de meeste experts denken.”
Begin januari plaatste Jason Rebholz, CEO van Evoke, een AI-beveiligingsbedrijf, een vacature op LinkedIn en werd onmiddellijk gecontacteerd door een vreemdeling in zijn netwerk, die een kandidaat aanbeveelde.
Binnen een paar dagen begon hij e-mails uit te wisselen met iemand die op papier een getalenteerde ingenieur leek.
“Ik bekeek het cv en dacht: dit is eigenlijk een heel goed cv. En dus dacht ik, ook al waren er enkele waarschuwingssignalen: laat ik eens een gesprek voeren.”
Toen werden de dingen raar. De e-mails van de kandidaat kwamen rechtstreeks in de spam terecht. Zijn cv vertoonde wat eigenaardigheden. Maar Rebholz had al met ongebruikelijke kandidaten te maken gehad en besloot door te gaan met het interview.
Toen Rebholz de oproep beantwoordde, duurde het bijna een minuut voordat de video van de kandidaat verscheen.
“Het behang was extreem nep”, zei hij. “Het zag er gewoon super, super nep uit. En het was heel moeilijk om (het gebied) rond de randen van het individu te beheersen. Alsof een deel van zijn lichaam naar binnen en naar buiten ging… En als ik dan naar zijn gezicht kijk, is het gewoon heel zacht aan de randen.”
Rebholz zette het gesprek voort en wilde niet in verlegenheid worden gebracht door de kandidaat rechtstreeks te vragen of dit inderdaad een uitgebreide oplichterij was. Vervolgens stuurde hij een opname naar een contactpersoon bij een deepfake-detectiebedrijf, die hem vertelde dat het videobeeld van de kandidaat door kunstmatige intelligentie was gegenereerd. Hij heeft de kandidaat afgewezen.
Rebholz weet nog steeds niet wat de oplichter wilde: het salaris van een ingenieur of bedrijfsgeheimen. Terwijl ze daar waren relaties van de Noord-Koreaanse hackers die een baan bij Amazon proberen te bemachtigen, is Evoke een startup en geen grote speler.
“Het is alsof als wij het doelwit zouden zijn, iedereen het doelwit zou zijn”, zei Rebholz.
Heiding zei dat het ergste nog moest komen. Momenteel is de deepfake-technologie voor het klonen van stemmen uitstekend en stelt oplichters in staat zich via de telefoon gemakkelijk voor te doen als bijvoorbeeld een kleinkind in nood. Deepfake-video’s hebben daarentegen nog steeds ruimte voor verbetering.
Dit zou extreme gevolgen kunnen hebben: voor de aanwerving, voor de verkiezingen en voor de samenleving als geheel. Heiding voegde eraan toe: “Dat wordt hier het grote pijnpunt, het totale gebrek aan vertrouwen in digitale instellingen, en instellingen en materiaal in het algemeen.”
Als u de Guardian-app nog niet heeft, download deze dan (iOS/Android) en ga naar het menu. Selecteer ‘Beveiligde berichten’.
“,”displayOnSensitive”:true,”mainTextHeading”: Veilig berichten versturen in de Guardian-app”, elementId”:ee237a4a-f8d7-4046-8f70-f2a0b3335a53″, title”Neem contact met ons op”, “endNote”
Onze gids op theguardian.com/tips somt verschillende manieren op om veilig contact met ons op te nemen en bespreekt de voor- en nadelen van elk.
“,”subtitle <
“,”securedropContact ‘Als u veilig gebruik kunt maken van het Tor-netwerk zonder te worden geobserveerd of gecontroleerd, kunt u via ons berichten en documenten naar de Guardian sturen SecureDrop-platform.“}}”>



