Home Nieuws Deepfakes zijn in 2025 dramatisch verbeterd. Ze staan ​​op het punt nog...

Deepfakes zijn in 2025 dramatisch verbeterd. Ze staan ​​op het punt nog moeilijker te detecteren

5
0
Deepfakes zijn in 2025 dramatisch verbeterd. Ze staan ​​op het punt nog moeilijker te detecteren

In 2025 diep nep aanzienlijk verbeterd. NAAR DE-gegenereerde gezichten, stemmen en volledige lichaamsuitvoeringen die echte mensen nabootsen, zijn in kwaliteit veel beter geworden dan wat zelfs veel experts een paar jaar geleden hadden verwacht. Ze werden ook steeds vaker gebruikt om mensen te misleiden.

Voor veel alledaagse scenario’s, vooral videogesprekken met een lage resolutie en media die worden gedeeld op sociale-mediaplatforms, is het realisme nu hoog genoeg om niet-deskundige kijkers op betrouwbare wijze voor de gek te houden. In praktische termen zijn synthetische media voor gewone mensen en, in sommige gevallen, zelfs voor instellingen, niet meer te onderscheiden van authentieke opnames.

En deze stijging beperkt zich niet tot de kwaliteit. Het aantal deepfakes is explosief gegroeid: cyberbeveiligingsbedrijf Diepe aanval schat een stijging in van ongeveer 500.000 deepfakes online in 2023 naar ongeveer 8 miljoen in 2025, met een jaarlijkse groei van bijna 900%.

Ik ben een computerwetenschapper die onderzoek naar deepfakes en andere synthetische media. Vanuit mijn gezichtspunt zie ik dat de situatie als volgt is het zal waarschijnlijk nog erger worden in 2026 zullen deepfakes synthetische kunstenaars worden die in realtime op mensen kunnen reageren.

Bijna iedereen kan tegenwoordig een deepfake-video maken.

Dramatische verbeteringen

Aan de basis van deze dramatische escalatie liggen verschillende technische veranderingen. Ten eerste heeft het videorealisme een aanzienlijke sprong voorwaarts gemaakt, dankzij modellen voor het genereren van video’s die speciaal voor dit doel zijn ontworpen behoud van de temporele samenhang. Deze modellen produceren video’s met consistente bewegingen, consistente identiteiten van de geportretteerde mensen en inhoud die van frame tot frame zinvol is. De modellen ontwarren informatie over de identiteitsrepresentatie van een persoon van bewegingsinformatie, zodat dezelfde beweging kan plaatsvinden gekoppeld aan verschillende identiteitenof dezelfde identiteit kan meerdere soorten bewegingen hebben.

Deze modellen produceren stabiele, consistente gezichten zonder de flikkerende, kromgetrokken of structurele vervormingen rond de ogen en kaak die ooit dienden als betrouwbaar forensisch bewijs van deepfakes.

Ten tweede heeft het klonen van stemmen de zogenaamde ‘ononderscheidbaarheidsdrempel’ overschreden. Nu kost het slechts een paar seconden audio om een ​​bestand te genereren overtuigende kloon– compleet met natuurlijke intonatie, ritme, nadruk, emotie, pauzes en ademgeluid. Deze mogelijkheid werkt nu al grootschalige fraude in de hand. Sommige grote retailers melden ontvangst meer dan 1.000 oplichtingsoproepen gegenereerd door kunstmatige intelligentie per dag. Perceptie leert ons dat synthetische geruchten, zodra ze populair werden, grotendeels verdwenen zijn.

Ten derde hebben de door consumenten gebruikte instrumenten de technische barrière tot bijna nul teruggebracht. Updates van OpenAI Soera 2 en die van Google Ik zie er 3 en een golf van startups betekent dat iedereen een idee kan beschrijven, een groot taalmodel zoals OpenAI’s ChatGPT of Google’s Gemini een script kan laten schrijven, en Genereer binnen enkele minuten gepolijste audiovisuele media. AI-agenten kunnen het hele proces automatiseren. Het vermogen om op grote schaal coherente, verhaalgestuurde deepfakes te genereren is effectief gedemocratiseerd.

Deze combinatie van toenemende hoeveelheden en karakters die bijna niet te onderscheiden zijn van echte mensen, creëert gravitas uitdagingen voor deepfake-detectievooral in een mediaomgeving waar de aandacht van mensen gefragmenteerd is en de inhoud sneller beweegt dan kan worden geverifieerd. Sindsdien is er al schade aangericht in de echte wereld verkeerde informatie NAAR gerichte intimidatie EN financiële oplichting– mogelijk gemaakt door deepfakes die zich verspreiden voordat mensen de kans hebben om te beseffen wat er gebeurt.

Kunstmatige intelligentie-onderzoeker Hany Farid legt uit hoe deepfakes werken en hoe effectief ze worden.

De toekomst is realtime

Vooruitkijkend is het traject voor het komende jaar duidelijk: deepfakes evolueren in de richting van realtime synthese die video’s kan produceren die sterk lijken op nuances van het menselijk uiterlijk, waardoor het voor hen gemakkelijker wordt om detectiesystemen te omzeilen. De grens verschuift van statisch visueel realisme naar temporele en gedragsmatige samenhang: modellen die dat doen live of bijna-live inhoud genereren in plaats van vooraf gerenderde clips.

Identiteitsmodellering convergeert naar uniforme systemen die niet alleen vastleggen hoe een persoon eruit ziet, maar ook hoe hij of zij is bewegen, spelen en spreken in verschillende contexten. Het resultaat gaat verder dan ‘dit lijkt op persoon X’, maar ‘dit gedraagt ​​zich in de loop van de tijd als persoon X’. Ik verwacht dat alle deelnemers aan het videogesprek in realtime worden samengevat; AI-gestuurde interactieve acteurs wier gezichten, stemmen en maniertjes zich onmiddellijk aanpassen aan een suggestie; en oplichters die responsieve avatars gebruiken in plaats van stilstaande video’s.

Naarmate deze mogelijkheden volwassener worden, zal de perceptiekloof tussen synthetische en authentieke menselijke media steeds kleiner worden. De belangrijke verdedigingslinie zal zich verwijderen van het menselijk oordeel. In plaats daarvan zal het afhangen van bescherming op infrastructuurniveau. Deze omvatten veilige herkomst, zoals cryptografisch ondertekende media, en AI-inhoudstools die het bestand gebruiken Coalitie voor herkomst en authenticiteit van inhoud specificaties. Het zal ook afhangen van multimodale forensische hulpmiddelen zoals die in mijn laboratorium Deepfake-o-Meter.

Gewoon naar pixels kijken is niet langer voldoende.

Siwei Lyu is hoogleraar computerwetenschappen en techniek en directeur van het UB Media Forensic Lab aan de UCLA Universiteit van Buffalo.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in