Home Nieuws AI kan nu de video’s vervalsen die we het meest vertrouwen. Hoe...

AI kan nu de video’s vervalsen die we het meest vertrouwen. Hoe u het verschil kunt ontdekken en hoe redacties kunnen reageren

2
0
AI kan nu de video’s vervalsen die we het meest vertrouwen. Hoe u het verschil kunt ontdekken en hoe redacties kunnen reageren

De beelden waren echt, geverifieerd en prachtig: beveiligingscamerabeelden van een coyote die stuiterde op een trampoline in de achtertuin in Los Angeles. Een paar dagen nadat de video viraal ging, kwamen bijna identieke kangoeroes, beren en konijnen voorbij NAAR DE. Miljoenen mensen deelden ze, in de overtuiging dat ze weer een glimp hadden opgevangen van dieren die zich hilarisch gedroegen.

Het was een grappig misverstand, maar het was ook een waarschuwing.

Door AI gegenereerde videotools zijn veel verder gegaan dan het produceren van surrealistische of duidelijk gemanipuleerde clips. Ze bootsen nu op overtuigende wijze de formaten na die we instinctief het meest vertrouwen: CCTV, dashcams, bodycams van de politie, natuurcamera’s en ooggetuigenbeelden uit de hand. Dit zijn de clips die vorm geven aan het publieke begrip tijdens protesten, rampen, geweld en noodsituaties. En de neppe exemplaren zijn niet meer van echt te onderscheiden.

Door AI gegenereerd realisme is al in de nieuwscyclus terechtgekomen

Bij Storyful beoordelen we duizenden video’s uit de echte wereld voor redactiekamers en merken over de hele wereld. Dit jaar hebben we een test uitgevoerd: we hebben echte laatste nieuwskoppen van ons platform ingevoegd in een van de nieuwste AI-videomodellen.

Binnen enkele seconden hadden we clips die de plot en het perspectief van ooggetuigenverslagen nabootsten. Geen glanzende AI-experimenten, nieuwsachtige beelden die tijdens een actueel verhaal in de inbox van de redactiekamer zouden kunnen belanden.

Naast de originele bronfragmenten moesten zelfs doorgewinterde journalisten het rustiger aan doen en de details onderzoeken.

Neem dit voorbeeld, geïnspireerd door een gecontroleerde authentiek video gepost op sociale media na zware moessonregens in India:

Brandweerlieden redden een man die zich vastklampt aan een paal tijdens hevige overstromingen in India

Een man werd dinsdag (16 september) gered in de Indiase deelstaat Uttarakhand nadat hij zich meer dan vier uur aan een elektriciteitspaal had vastgeklampt terwijl dodelijke wateren om hem heen raasden, meldden lokale media.

Echt:

En dit volledig synthetische video, gemaakt door de OpenAI Sora videogeneratie-app te vragen naar de titel van de eerste video.

Bedrieger:

Dit is niet langer een theoretische toekomst. Het gebeurt nu.

De vangrails glijden al weg. Tutorials circuleren openlijk op Reddit waarin wordt uitgelegd hoe je het watermerk kunt verwijderen van video’s die zijn gemaakt door een van de populairste AI-videogeneratoren, OpenAI’s Sora. Beperkingen op bepaalde AI-prompts kunnen worden omzeild, als deze bestaan, of modellen kunnen lokaal worden uitgevoerd zonder beperkingen op zeer realistische inhoud. En aangezien deze tools op verzoek nepbeelden van cameratoezicht of rampen kunnen maken, is het niet de vraag of AI overtuigende video’s kan maken van dingen die nooit zijn gebeurd. Zijn Hoe ver zal een overtuigende nep zich verspreiden voordat iemand deze controleert?

Omdat door AI gegenereerde video’s er geloofwaardig uitzien

De belangrijkste verandering in door AI gegenereerde video’s is niet alleen hoe ze eruit zien, maar ook hoe ze zich gedragen.

Echte ooggetuigenbeelden bevatten de ruwe kantjes die bij het echte leven horen: een trillende hand, de camera op de grond gericht voordat de actie begint, lange stukken waarin niets gebeurt, imperfecte hoeken en gemiste details.

AI repliceert deze momenten nog niet. Het gaat rechtstreeks naar de actie, in het midden ingekaderd, helder en met tempo belicht als een scène die is gebouwd voor maximale impact. Het levert het moment dat we verwachten te zien, zonder de rommelige menselijke voorbereiding die er gewoonlijk omheen hangt.

De reden is simpel. De meeste modellen zijn nog steeds zwaar getraind op filmisch materiaal in plaats van op chaotische, door gebruikers gegenereerde inhoud. Ze begrijpen drama beter dan dat ze de werkelijkheid begrijpen. Deze kloof zorgt ervoor dat testteams voorlopig het verschil kunnen ontdekken.

Naarmate modellen evolueren en het schrijven van signalen verbetert, zullen deze gedragssignalen vervagen. De trainingsgegevens voor deze videobasislijnmodellen omvatten zowel schokkerige video’s als video’s van omstanders verfijnde documentaireswaardoor ze vakkundig hun stijl en gevoel voor realisme kunnen imiteren.

Het vertrouwen van het publiek is al aan het eroderen

Het digitale nieuwsrapport van Reuters vondsten dat 58% van het mondiale publiek vreest dat ze online niet langer echt van nep zullen kunnen onderscheiden. Die angst gold vooral de politiek en propaganda. Geldt nu voor ongevaarlijke video’s in de achtertuin.

Dit markeert een diepere psychologische verandering. Zodra een kijker aan alledaagse video’s begint te twijfelen, wordt de scepsis niet meer aan- of uitgezet. Als ze een hondenredding in twijfel trekken, zullen ze ook een protest in twijfel trekken. Als ze een grap in twijfel trekken, zullen ze een oorlogsgebied in twijfel trekken.

Vertrouwen stort niet in één dramatisch moment in. Het erodeert druppel voor druppel, door duizenden kleine onzekerheden. En naarmate er meer AI-gegenereerde video’s beschikbaar komen, wordt authentiek beeldmateriaal schaars.

Hoe weet je wanneer een video wordt gegenereerd door kunstmatige intelligentie?

AI-detectietools kunnen een nuttig onderdeel zijn van uw workflow, maar zijn geen vervanging voor menselijke verificatie. Volgens de analyse van Storyful bereiken de huidige tools onder ideale omstandigheden een nauwkeurigheid van 65-75%, maar daalt die nauwkeurigheid binnen een paar weken na de release van een nieuw AI-model onder de 50%. Dit zijn de signalen die de testteams van Storyful dagelijks gebruiken, signalen die het publiek snel kan leren herkennen.

  1. De AI begint op de top.
    Echt fotograferen omvat bijna altijd downtime of sleutelen vóór de actie.
  2. De onderwerpen zitten perfect in het midden van het beeld.
    Ooggetuigen leggen zelden de chaos van het laatste nieuws vast zoals cinematografen.
  3. De beweging is te soepel
    Echte, door gebruikers gegenereerde inhoud stottert, schudt, herfocust en glijdt weg.
  4. Tijdstempels, borden en kentekenplaten breken bij nauwkeurig onderzoek
    AI benadert deze details vaak in plaats van ze nauwkeurig weer te geven.
  5. Clips over rampen en wilde dieren lijken ‘te beheerst’.
    Het echte leven is onzeker. Kunstmatige intelligentie lijkt vaak in scène gezet.

Deze signalen zullen niet eeuwig duren, maar bieden op dit moment cruciale bescherming.

Authenticiteit is nu een hulpmiddel

Technologieplatforms kunnen meer vangrails toevoegen aan hun tools voor het genereren van video’s, toezichthouders kunnen raamwerken bijwerken, detectietools kunnen verbeteren en dat geldt ook voor onze kritische vermogens. En hoewel redactiekamers het publiek helpen door de modder van onwaarheden te navigeren, is transparantie de meest effectieve manier om het vertrouwen te herstellen.

Het publiek vertrouwt niet langer wat de bronnen zeggen. Ze willen zien hoe een journalist of redactie weet dat iets echt is.

Steeds meer nieuwsorganisaties gebruiken formaten voor voorafgaande verificatie, waaronder BBC-verificatie EN CBS News bevestigddie forensische en open source-controles integreren in rapporten, waarbij waar relevant de herkomst, afbeeldingen, metadatamodellen en geolocatie worden onderzocht. Historisch Nieuwsdraad biedt al onze partners deze fundamentele maar essentiële details over elke video op ons platform.

Deze transparantie wordt de belangrijkste onderscheidende factor in een omgeving waarin door AI gegenereerde video goedkoop, snel en overal is. Hoe meer door AI gegenereerde beelden het ecosysteem overspoelen, hoe groter de geloofwaardigheid van organisaties die de screening van hun werk tot een belangrijk onderdeel van het verhaal maken.

De meest onvergetelijke video’s op internet zijn nooit perfect geweest. Ze waren onvoorspelbaar, onvolmaakt en menselijk, het soort momenten dat kunstmatige intelligentie zich nog steeds moeilijk kan voorstellen. Door AI gegenereerde beelden kunnen nu de beeldtaal van de waarheid nabootsen. Maar het kan de willekeur van het echte leven nog steeds niet reproduceren. Wat er op het spel staat als dit gebeurt, is niet alleen maar desinformatie. Het is het vermogen van het publiek om te vertrouwen op wat ze zien op de momenten die er het meest toe doen.


James Law is hoofdredacteur van Historischeen persbureau dat wordt gebruikt door 70% van de twintig grootste redactiekamers ter wereld, gespecialiseerd in het controleren van feiten en virale video’s.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in