“We betreden een nieuwe fase van informatieoorlog op sociale mediaplatforms, waar technologische vooruitgang de klassieke botbenadering overbodig heeft gemaakt”, zegt Jonas Kunst, hoogleraar communicatie aan de BI Norwegian Business School en een van de co-auteurs van het rapport.
Voor experts die jarenlang desinformatiecampagnes hebben gevolgd en bestreden, biedt het document een angstaanjagende toekomst.
“Wat als AI niet alleen enge informatie was, maar duizenden AI-chatbots die samenwerkten om een schijn van basissteun te geven waar die er niet was? Dat is de toekomst die dit artikel voorstelt: Russische trollenboerderijen op steroïden”, zegt Nina Jankowicz, de voormalige desinformatie-tsaar van de regering-Biden en nu CEO van het American Sunlight Project.
De onderzoekers zeggen dat het onduidelijk is of deze tactiek al wordt gebruikt, omdat de huidige systemen voor het volgen en identificeren van gecoördineerd niet-authentiek gedrag dit niet kunnen detecteren.
“Vanwege hun ongrijpbare eigenschap om mensen na te bootsen, is het erg moeilijk om ze daadwerkelijk te detecteren en te beoordelen in welke mate ze aanwezig zijn”, zegt Kunst. “We hebben geen toegang tot de meeste (sociale media) platforms omdat ze steeds restrictiever zijn geworden, dus het is moeilijk om gedetailleerde informatie te krijgen. Technisch gezien is het zeker mogelijk. We zijn er vrij zeker van dat het zich in de testfase bevindt.”
Kunst voegde eraan toe dat deze systemen waarschijnlijk nog steeds enig menselijk toezicht zullen hebben naarmate ze worden ontwikkeld, en voorspelt dat ze weliswaar geen enorme impact zullen hebben op de Amerikaanse tussentijdse verkiezingen van 2026 in november, maar dat ze hoogstwaarschijnlijk zullen worden ingezet om de presidentsverkiezingen van 2028 te verstoren.
Accounts die niet van mensen te onderscheiden zijn op sociale mediaplatforms zijn slechts een van de problemen. Het vermogen om sociale netwerken op grote schaal in kaart te brengen zal degenen die desinformatiecampagnes coördineren in staat stellen om agenten naar specifieke gemeenschappen te sturen, waardoor de grootste impact wordt gegarandeerd, aldus de onderzoekers.
“Uitgerust met dergelijke mogelijkheden kunnen zwermen zichzelf positioneren voor maximale impact en hun berichten afstemmen op de culturele overtuigingen en signalen van elke gemeenschap, waardoor een nauwkeurigere targeting mogelijk wordt dan eerdere botnets”, schrijven ze.
Dergelijke systemen zouden zichzelf in wezen kunnen verbeteren, door reacties op hun berichten te gebruiken als feedback om de redenering te verbeteren en een boodschap beter over te brengen. “Met voldoende signalen zouden ze miljoenen microA/B-tests kunnen uitvoeren, winnende varianten op machinesnelheid kunnen verspreiden en veel sneller kunnen itereren dan mensen”, schrijven de onderzoekers.
Om de dreiging van AI-zwermen te bestrijden, stellen de onderzoekers de oprichting voor van een ‘AI Influence Observatory’, bemand door mensen uit academische groepen en niet-gouvernementele organisaties die werken aan ‘het standaardiseren van bewijsmateriaal, het verbeteren van het situationeel bewustzijn en het mogelijk maken van een snellere collectieve reactie in plaats van het opleggen van reputatiesancties van bovenaf’.
Eén groep die niet is opgenomen zijn de leidinggevenden van de sociale-mediaplatforms zelf, vooral omdat onderzoekers geloven dat hun bedrijven betrokkenheid boven al het andere stimuleren, en dus weinig prikkels hebben om deze zwermen te identificeren.
“Stel dat AI-zwermen zo frequent voorkomen dat je niemand meer kunt vertrouwen en dat mensen het platform verlaten”, zegt Kunst. “Natuurlijk brengt dat het model in gevaar. Als ze de betrokkenheid alleen maar vergroten, is het voor een platform beter om dit niet openbaar te maken, omdat het lijkt alsof er meer betrokkenheid is en er meer advertenties worden gezien, wat goed zou zijn voor de waardering van een bepaald bedrijf.”
Naast het gebrek aan actie van platforms zijn experts van mening dat er weinig prikkels zijn voor overheden om betrokken te raken. “Het huidige geopolitieke landschap is misschien niet bevorderlijk voor ‘waarnemers’ die in wezen online discussies monitoren”, zegt Olejnik, iets waar Jankowicz het mee eens is: “Het meest angstaanjagende aan deze toekomst is dat er heel weinig politieke wil is om de schade aan te pakken die door AI wordt veroorzaakt, wat betekent dat (AI-zwermen) binnenkort werkelijkheid kunnen worden.”



