Home Nieuws Deepfake-video’s zijn realistischer dan ooit. Hier leest u hoe u kunt zien...

Deepfake-video’s zijn realistischer dan ooit. Hier leest u hoe u kunt zien of een video echt of AI is

6
0
Deepfake-video’s zijn realistischer dan ooit. Hier leest u hoe u kunt zien of een video echt of AI is

Weet je nog dat ‘nep’ op internet een slecht gephotoshopte afbeelding betekende? Ach, eenvoudiger tijden. Nu zwemmen we allemaal in een zee van… Video’s gegenereerd door kunstmatige intelligentie en deepfakes, van nepvideo’s van beroemdheden tot valse rampenuitzendingenen het wordt bijna onmogelijk om te weten wat echt is.

En het staat op het punt nog erger te worden. Sora, de video-AI-tool van OpenAI, vertroebelt nu al de wateren. Maar nu is de nieuwe, virale ‘social media-app’, Sora 2, het populairste ticket op internet. Het interessante is: het is een TikTok-achtige feed die alleen op uitnodiging toegankelijk is, waarbij alles 100% nep is.

De auteur heeft het al gedefinieerd als een “Deepfake koortsdroom“, en dat is precies wat het is. Het is een platform dat elke dag beter wordt in het laten voelen van fictie als feit, en de risico’s zijn enorm. Als je moeite hebt om de werkelijkheid van de AI te scheiden, ben je niet de enige.

Hier zijn enkele nuttige tips die u kunnen helpen de geruchten te doorbreken en de waarheid over elke door AI geïnspireerde situatie te achterhalen.


Mis geen van onze onpartijdige technische inhoud en laboratoriumrecensies. CNET toevoegen als uw favoriete Google-bron.


Vanuit technisch oogpunt zijn de video’s van Sora indrukwekkend vergeleken met die van concurrenten Halverwege de reis V1 EN Google ik zie er 3. Ze hebben een hoge resolutie, gesynchroniseerde audio en verbazingwekkende creativiteit. Met Sora’s populairste functie, genaamd ‘cameo’, kun je de gelijkenissen van anderen gebruiken en deze in vrijwel elke door AI gegenereerde scène invoegen. Het is een indrukwekkend hulpmiddel dat angstaanjagend realistische video’s produceert.

Daarom maken zoveel experts zich zorgen over Sora. De app maakt het voor iedereen gemakkelijker om gevaarlijke deepfakes te creëren, desinformatie te verspreiden en de grens tussen wat echt is en wat niet te vervagen. Vooral publieke figuren en beroemdheden zijn kwetsbaar voor deze deepfakes en syndicaten SAG-AFTRA heeft OpenAI ertoe aangezet zijn vangrails te versterken.

Het identificeren van AI-inhoud is een voortdurende uitdaging voor technologiebedrijven, sociale-mediaplatforms en alle anderen. Maar het is niet geheel hopeloos. Hier zijn enkele dingen waar je op moet letten om te bepalen of een video met Sora is gemaakt.

Zoek naar het Sora-watermerk

Elke video die met de Sora-app voor iOS wordt gemaakt, bevat een watermerk wanneer u deze downloadt. Het is het witte logo van Sora, een wolkvormig pictogram dat langs de randen van de video stuitert. Dit is vergelijkbaar met de manier waarop TikTok-video’s een watermerk krijgen.

Watermerken van inhoud is een van de meest effectieve manieren waarop AI-bedrijven ons kunnen helpen door AI gegenereerde inhoud visueel te lokaliseren. Google Tweelingen “nanobanaan”-model.pas bijvoorbeeld automatisch een watermerk toe op afbeeldingen. Watermerken zijn geweldig omdat ze een duidelijk teken zijn dat de inhoud met behulp van kunstmatige intelligentie is gemaakt.

Atlas van kunstmatige intelligentie

Maar watermerken zijn niet perfect. Ten eerste: als het watermerk statisch is (niet beweegt), kan het gemakkelijk worden bijgesneden. Zelfs voor het verplaatsen van watermerken zoals die van Sora zijn er apps die speciaal zijn ontworpen om ze te verwijderen, dus watermerken alleen zijn niet volledig te vertrouwen. Toen Sam Altman, CEO van OpenAI, werd gevraagd, antwoordde hij zei hij de samenleving zal zich moeten aanpassen aan een wereld waarin iedereen nepvideo’s van iedereen kan maken. Vóór Sora van OpenAI was er natuurlijk geen populaire, gemakkelijk toegankelijke, vaardigheidsvrije manier om die video’s te maken. Maar zijn argument werpt een geldig punt op over de noodzaak om op andere methoden te vertrouwen om de authenticiteit te verifiëren.

Controleer de metagegevens

Ik weet het, je denkt waarschijnlijk dat er geen manier is om de metadata van een video te controleren om te bepalen of deze echt is. Ik begrijp waar je vandaan komt; het is een extra stap en je weet misschien niet waar je moet beginnen. Maar het is een geweldige manier om te bepalen of een video met Sora is gemaakt, en het is gemakkelijker dan je denkt.

Metadata is een verzameling informatie die automatisch aan inhoud wordt toegevoegd wanneer deze wordt gemaakt. Het geeft u meer informatie over hoe een afbeelding of video is gemaakt. Het kan gaan om het type camera dat is gebruikt om een ​​foto te maken, de locatie, de datum en tijd waarop de video is gemaakt en de bestandsnaam. Elke foto en video bevat metadata, ongeacht of deze door mensen of door kunstmatige intelligentie is gemaakt. En veel door AI gemaakte inhoud zal inhoudsreferenties hebben die ook de AI-oorsprong ervan aangeven.

OpenAI maakt deel uit van de Coalition for Content Provenance and Authenticity, wat voor u betekent dat Sora-video’s erbij betrekken C2PA-metadata. U kunt gebruik maken van de Verificatietool voor Content Authenticity Initiative om de metadata van een video, afbeelding of document te controleren. Hier is hoe. (Het Content Authenticity Initiative is onderdeel van C2PA.)

Zo controleer je de metadata van een foto, video of document:

1. Ga naar deze URL: https://verify.contentauthenticity.org/
2. Upload het bestand dat u wilt controleren.
3. Klik op Openen.
4. Controleer de informatie in het rechterpaneel. Als het door AI is gegenereerd, moet u het opnemen in het gedeelte met de inhoudssamenvatting.

Wanneer je een Sora-video via deze tool laat zien, wordt aangegeven dat de video “gepubliceerd door OpenAI” is en dat deze is gegenereerd door kunstmatige intelligentie. Alle Sora-video’s moeten deze inloggegevens bevatten waarmee u kunt bevestigen dat de video met Sora is gemaakt.

Deze tool is, zoals alle AI-detectoren, niet perfect. Er zijn veel manieren waarop AI-video detectie kan voorkomen. Als je andere niet-Sora-video’s hebt, bevatten deze mogelijk niet de noodzakelijke signalen in de metadata zodat de tool kan bepalen of ze al dan niet door AI zijn gemaakt. AI-video’s gemaakt met Midjourney worden bijvoorbeeld niet gemarkeerd, zoals ik tijdens mijn tests heb bevestigd. Zelfs als de video door Sora is gemaakt, maar vervolgens via een app van derden (zoals een app voor het verwijderen van watermerken) wordt uitgevoerd en opnieuw wordt gedownload, is de kans kleiner dat de tool deze als AI zal markeren.

Screenshot van een Sora-video die wordt afgespeeld via de tool van het Content Authenticity Initiative

De verificatietool van het Content Authenticity Initiative meldde correct dat een video die ik met Sora maakte, door AI was gegenereerd, samen met de datum en tijd waarop ik deze had gemaakt.

Schermafbeelding door Katelyn Chedraoui/CNET

Zoek naar andere AI-labels en voeg de jouwe toe

Als je een van de sociale mediaplatforms van Meta gebruikt, zoals Instagram of Facebook, krijg je misschien wat hulp om te bepalen of iets AI is. Meta heeft het gedaan interne systemen aanwezig om AI-inhoud te helpen markeren en als zodanig te labelen. Deze systemen zijn niet perfect, maar je kunt duidelijk het label zien van berichten die zijn gemarkeerd. TikTok EN YouTube hebben een soortgelijk beleid voor het labelen van AI-inhoud.

De enige echt betrouwbare manier om te weten of iets door AI is gegenereerd, is als de maker het openbaar maakt. Veel sociale-mediaplatforms bieden nu instellingen waarmee gebruikers hun berichten kunnen labelen als door AI gegenereerd. Zelfs een simpele erkenning of stukje informatie in het onderschrift kan iedereen helpen begrijpen hoe iets tot stand is gekomen.

Terwijl je door Sora bladert, weet je dat niets echt is. Maar zodra u de app verlaat en door AI gegenereerde video’s deelt, is het onze collectieve verantwoordelijkheid om bekend te maken hoe een video is gemaakt. Terwijl AI-modellen zoals Sora de grens tussen realiteit en AI blijven vervagen, is het aan ons allemaal om zo duidelijk mogelijk te maken wanneer iets echt is of AI.

Het belangrijkste is om waakzaam te blijven

Er bestaat geen waterdichte methode om in één oogopslag nauwkeurig te kunnen bepalen of een video echt is of AI. Het beste wat u kunt doen om te voorkomen dat u wordt misleid, is door niet automatisch en onvoorwaardelijk alles te geloven wat u online ziet. Volg je instinct: als iets onwerkelijk lijkt, is het dat waarschijnlijk ook. In deze ongekende tijden vol AI-problemen is je beste verdediging het nauwkeuriger bekijken van de video’s die je bekijkt. Kijk niet even snel en scroll gedachteloos weg. Controleer op vervormde tekst, verdwijnende objecten en bewegingen die de natuurkunde tarten. En geef jezelf niet de schuld als je van tijd tot tijd wordt misleid; zelfs experts maken fouten.

(Openbaarmaking: Ziff Davis, het moederbedrijf van CNET, heeft in april een rechtszaak aangespannen tegen OpenAI, omdat het beweerde inbreuk te hebben gemaakt op de auteursrechten van Ziff Davis op het gebied van de training en werking van zijn kunstmatige-intelligentiesystemen.)



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in