Het informeren van mensen over politieke deepfakes door middel van op tekst gebaseerde informatie en interactieve games verbetert het vermogen van mensen om deze te herkennen NAAR DE-gegenereerde video’s en audio waarin politici valselijk worden afgebeeld, ten tweede een studie mijn collega’s en ik leidden.
Hoewel onderzoekers zich primair hebben gericht op het bevorderen van technologieën voor de detectie van deepfakes, zijn er ook benaderingen nodig die zich richten op het potentiële publiek van politieke deepfakes. Deepfakes worden steeds moeilijker te identificeren, verifiëren en bestrijden naarmate de technologie voor kunstmatige intelligentie verbetert.
Is het mogelijk om het publiek te vaccineren om deepfakes op te sporen, waardoor het bewustzijn vóór blootstelling wordt vergroot? Mijn recent onderzoek met je partner mediastudies onderzoekers Zong Jung Kim EN Alex Scott al Laboratorium voor visuele media van de Universiteit van Iowa ontdekte dat vaccinatieboodschappen mensen kunnen helpen deepfakes te herkennen en mensen zelfs meer bereid kunnen maken deze te ontkrachten.
De inentingstheorie stelt dat psychologische inenting – analoog aan medische vaccinatie – mensen kan immuniseren tegen overredingsaanvallen. Het idee is dat door mensen uit te leggen hoe deepfakes werken, ze bereid zullen zijn deze te herkennen als ze ermee in aanraking komen.
In ons experimentwe hebben een derde van de deelnemers blootgesteld aan passieve vaccinatie: traditionele, op tekst gebaseerde waarschuwingsberichten over de dreiging en kenmerken van deepfakes. Nog een derde hebben we blootgesteld aan actieve inenting: een interactief spel dat deelnemers uitdaagde om deepfakes te identificeren. Het resterende derde deel kreeg geen vaccinaties.
Deelnemers kregen vervolgens willekeurig een deepfake-video te zien met Joe Biden verklaringen afleggen ten gunste van het recht op abortus of een deepfake-video met Donald Trump verklaringen afleggen tegen abortusrechten. We ontdekten dat beide soorten vaccinaties effectief waren in het verminderen van de geloofwaardigheid die deelnemers aan deepfakes gaven, terwijl ze tegelijkertijd het bewustzijn en de intentie van mensen vergrootten om er meer over te leren.
Waarom het ertoe doet
Deepfakes zijn dat wel een ernstige bedreiging voor de democratie omdat ze kunstmatige intelligentie gebruiken om zeer realistische nep-audio en video te creëren. Deze deepfakes kunnen ervoor zorgen dat politici dingen zeggen die ze nooit hebben gezegd, wat het vertrouwen van het publiek kan schaden en mensen ertoe kan brengen valse informatie te geloven. Sommige kiezers in New Hampshire kregen bijvoorbeeld een beoordeling van telefoontje dat klonk als Joe Bidenhen te vertellen niet te stemmen bij voorverkiezingen in de staat.
Deze deepfake-video van president Donald Trump, afkomstig uit een dataset van deepfake-video’s verzameld door het MIT Media Lab, werd in dit onderzoek gebruikt om mensen te helpen dergelijke door AI gegenereerde vervalsingen op te sporen.
Nu kunstmatige intelligentietechnologie steeds gebruikelijker wordt, is het vooral belangrijk om manieren te vinden om de schadelijke effecten van deepfakes te verminderen. Uit recent onderzoek blijkt dat het vaak gebruikelijk is om deepfakes te labelen met feitencheckende verklaringen niet erg effectiefvooral in politieke contexten. Mensen hebben de neiging om factchecks te accepteren of af te wijzen op basis van hun bestaande politieke overtuigingen. Verder, valse informatie verspreidt zich vaak sneller nauwkeurige informatie, waardoor het controleren van feiten te traag wordt om de impact van valse informatie volledig te stoppen.
Als gevolg daarvan roepen onderzoekers steeds vaker op tot nieuwe manieren om mensen hierop voor te bereiden bij voorbaat weerstand bieden aan desinformatie. Ons onderzoek helpt bij het ontwikkelen van effectievere strategieën om mensen te helpen weerstand te bieden aan door AI gegenereerde desinformatie.
Welk ander onderzoek loopt er?
Het meeste onderzoek naar vaccinatie tegen desinformatie is hierop gebaseerd passieve mediageletterdheid benaderingen die voornamelijk sms-berichten bevatten. Recentere onderzoeken tonen dit echter aan actieve inenting kan effectiever zijn. Het is bijvoorbeeld aangetoond dat online games waarbij actieve deelname betrokken is, mensen helpen weerstaan aan gewelddadige extremistische boodschappen.
Bovendien heeft het meeste eerdere onderzoek zich gericht op het beschermen van mensen tegen op tekst gebaseerde verkeerde informatie. Onze studie onderzoekt in plaats daarvan de inenting tegen multimodale desinformatie, zoals deepfakes die video, audio en afbeeldingen combineren. Hoewel we verwachtten dat actieve vaccinatie beter zou werken tegen dit soort desinformatie, laten onze resultaten zien dat zowel passieve als actieve vaccinatie mensen kunnen helpen het hoofd te bieden aan de dreiging van deepfakes.
Wat is de volgende stap?
Uit ons onderzoek blijkt dat vaccinatieboodschappen mensen kunnen helpen deepfakes te herkennen en te weerstaan, maar het is nog niet duidelijk of deze effecten langdurig zijn. In toekomstige studies zijn we van plan het langetermijneffect van inentingsberichten te onderzoeken.
We willen ook onderzoeken of inenting werkt op andere gebieden dan de politiek, inclusief de gezondheidszorg. Hoe zouden mensen bijvoorbeeld reageren als uit een deepfake blijkt dat een neparts verkeerde gezondheidsinformatie verspreidt? Zouden eerdere vaccinatieberichten mensen hebben geholpen dergelijke inhoud in twijfel te trekken en zich ertegen te verzetten?
DE Kort onderzoek is een korte interpretatie van een interessant academisch werk.
Bingbing Zhang is assistent-professor journalistiek en massacommunicatie aan de universiteit Universiteit van Iowa.
Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.


