De regering-Trump hield zich niet in deel afbeeldingen gegenereerd door kunstmatige intelligentie onlineknuffelen cartoonachtige afbeeldingen en memes en deze promoten op officiële kanalen van het Witte Huis.
Maar een aangepast – en realistisch – beeld van de burgerrechtenadvocaat Levy Armstrong voor sommigen in tranen na zijn arrestatie leidt tot nieuwe alarmsignalen over de manier waarop de regering de grenzen tussen wat echt en nep is vervaagt.
Het account van minister van Binnenlandse Veiligheid Kristi Noem plaatste het bericht originele afbeelding sinds de arrestatie van Levy Armstrong voordat het officiële Witte Huis-account een gewijzigde afbeelding plaatste waarop ze huilde. De geretoucheerde afbeelding maakt deel uit van een stortvloed aan NAAR DE-bewerkte beelden die sindsdien door het hele politieke spectrum zijn gedeeld fatale schietpartijen van Renee Good en Alex Pretti door agenten van de Amerikaanse grenspolitie in Minneapolis
Het gebruik van kunstmatige intelligentie door het Witte Huis heeft desinformatie-experts echter verontrust. Zij vrezen dat de verspreiding van door AI gegenereerde of gewijzigde beelden de publieke perceptie van de waarheid zou kunnen uithollen en wantrouwen zou kunnen zaaien.
Als reactie op de kritiek op het veranderde imago van Levy Armstrong hebben functionarissen van het Witte Huis de functie verdubbeld, met adjunct-communicatiedirecteur Kaelan Dorr schrijft over X dat de “memes zullen doorgaan”. Abigail Jackson, plaatsvervangend persvoorlichter van het Witte Huis, heeft ook een bericht gedeeld het spotten met de kritiek.
David Rand, hoogleraar informatica aan de Cornell University, zegt dat het gewijzigde beeld een meme noemt “het lijkt zeker een poging om het als een grap of een humoristische post te presenteren, net als hun eerdere cartoons. Dit is vermoedelijk bedoeld om hen te beschermen tegen kritiek op het publiceren van gemanipuleerde media.” Hij zei dat het doel van het delen van het gewijzigde beeld van de arrestatie “veel dubbelzinniger” lijkt dan dat cartoonafbeeldingen de administratie heeft in het verleden gedeeld.
Memes hebben altijd gelaagde boodschappen met zich meegebracht die grappig of informatief zijn voor mensen die ze begrijpen, maar die voor buitenstaanders niet te ontcijferen zijn. Met AI verbeterde of aangepaste afbeeldingen zijn slechts het nieuwste instrument dat het Witte Huis gebruikt om het segment van de achterban van Trump te bereiken dat veel tijd online doorbrengt, zegt Zach Henry, een Republikeinse communicatieadviseur die Total Virality heeft opgericht, een influencer. marketing bedrijf.
“Mensen die definitief online zijn, zullen het zien en onmiddellijk herkennen als een meme”, zei hij. “Je grootouders zien het misschien en begrijpen de meme niet, maar omdat het echt lijkt, leidt het ertoe dat ze hun kinderen of kleinkinderen ernaar vragen.”
Des te beter als het een felle reactie uitlokt, waardoor het viraal gaat, zei Henry, die over het algemeen het werk van het socialemediateam van het Witte Huis prees.
De creatie en verspreiding van gewijzigde beelden, vooral wanneer ze door geloofwaardige bronnen worden gedeeld, “kristalliseert een idee van wat er gebeurt, in plaats van te laten zien wat er feitelijk gebeurt”, zegt Michael A. Spikes, professor aan de Northwestern University en onderzoeker op het gebied van mediageletterdheid.
“De overheid moet een plaats zijn waar je informatie kunt vertrouwen, waar je kunt zeggen dat deze juist is, omdat zij de verantwoordelijkheid hebben om dat te doen”, zei hij. “Door dit soort inhoud te delen en dit soort inhoud te creëren… erodeert het vertrouwen – hoewel ik altijd een beetje sceptisch ben over de term vertrouwen – maar ook het vertrouwen dat we zouden moeten hebben in onze federale overheid om ons te voorzien van nauwkeurige, geverifieerde informatie. Het is een echt verlies en het baart me echt zorgen.”
Spikes zei dat hij al ‘institutionele crises’ ziet die verband houden met wantrouwen in nieuwsorganisaties en het hoger onderwijs, en gelooft dat dit gedrag van officiële kanalen deze problemen aanwakkert.
Ramesh Srinivasan, professor aan de UCLA en gastheer van de Utopias-podcast, zei dat veel mensen zich nu afvragen waar ze terecht kunnen voor ‘betrouwbare informatie’. “AI-systemen zullen deze problemen van gebrek aan vertrouwen, van gebrek aan zelfs maar begrip van wat als realiteit, waarheid of bewijs kan worden beschouwd, alleen maar verergeren, versterken en versnellen”, zei hij.
Srinivasan zei dat hij gelooft dat het Witte Huis en andere functionarissen die door AI gegenereerde inhoud delen, niet alleen gewone mensen uitnodigen om soortgelijke inhoud te blijven posten, maar ook toestemming verlenen aan anderen in geloofwaardige en machtsposities, zoals politici, om synthetische inhoud zonder labels te delen. Hij voegde eraan toe dat, omdat sociale-mediaplatforms de neiging hebben om “algoritmisch de voorkeur te geven aan” extreme en samenzweerderige inhoud – die AI-generatietools met gemak kunnen creëren – “we voor een groot aantal uitdagingen staan.”
Een toevloed van door AI gegenereerde video’s over immigratie- en douanehandhavingsacties, protesten en interacties met burgers heeft zich al verspreid via sociale media. Na Renée Buono werd neergeschoten door een ICE-agent terwijl ze in haar auto zat, begonnen verschillende door AI gegenereerde video’s te circuleren van vrouwen die wegliepen van ICE-agenten die hen zeiden te stoppen. Er circuleren ook veel verzonnen video’s van immigratie-invallen en van mensen die ICE-agenten confronteren, vaak tegen hen schreeuwend of voedsel in hun gezicht gooien.
Jeremy Carrasco, een maker van inhoud die gespecialiseerd is in mediageletterdheid en het ontmaskeren van virale AI-video’s, zei dat de meerderheid van deze video’s waarschijnlijk afkomstig is van accounts die “betrokkenheid cultiveren” of proberen te profiteren van klikken door inhoud te genereren met populaire trefwoorden en zoektermen zoals ICE. Maar hij zei ook dat de video’s veel aandacht krijgen van mensen die tegen ICE en DHS zijn en ze misschien als ‘fanfictie’ beschouwen of zich bezighouden met ‘wishful thinking’, in de hoop dat ze echte reacties tegen de organisaties en hun functionarissen zien.
Carrasco is echter ook van mening dat de meeste kijkers niet kunnen zeggen of wat ze kijken nep is, en vraagt zich af of ze zouden weten “wat echt is of niet als het er echt toe doet, bijvoorbeeld als de inzet veel hoger is.”
Zelfs als er duidelijke tekenen zijn van AI-generatie, zoals verkeersborden met wartaal of andere voor de hand liggende fouten, zou een kijker alleen in het “best case scenario” voldoende kennis hebben of voldoende aandacht besteden om het gebruik van AI te registreren.
Deze kwestie beperkt zich uiteraard niet tot nieuws over immigratiehandhaving en protesten. Beelden verzonnen en verkeerd voorgesteld na de arrestatie van de afgezette Venezolaanse leider Nicola Maduro ontplofte eerder deze maand online. Deskundigen, waaronder Carrasco, zijn van mening dat de verspreiding van door AI gegenereerde politieke inhoud steeds gebruikelijker zal worden.
Carrasco is van mening dat de wijdverbreide implementatie van een watermerksysteem dat informatie over de oorsprong van een media-item opneemt in de metadatalaag een stap in de richting van een oplossing zou kunnen zijn. De Coalition for Content Provenance and Authenticity heeft een dergelijk systeem ontwikkeld, maar Carrasco denkt niet dat het nog minstens een jaar breed zal worden toegepast.
‘Het zal voor altijd een probleem blijven’, zei hij. Ik denk niet dat mensen begrijpen hoe ernstig deze situatie is.”
—Kaitlyn Huamani, AP-technologieschrijver
Associated Press-schrijvers Jonathan J. Cooper en Barbara Ortutay hebben bijgedragen aan dit rapport.



