Voorbij zijn de dagen dat het gemakkelijk was om een ”nep” op internet te vinden, vaak gewoon een slecht gephotoshopte afbeelding. Nu zwemmen we in een zee van Video’s gegenereerd door kunstmatige intelligentie en deepfakes, van nep-aanbevelingen van beroemdheden tot valse rampenuitzendingen. Nieuwere technologie is ongelooflijk slim geworden in het vervagen van de grenzen tussen realiteit en fictie, waardoor het bijna onmogelijk wordt om te onderscheiden wat echt is.
En de situatie verslechtert snel. OpenAI’s Sora vertroebelt de wateren al, maar nu is zijn ‘social media-app’ viraal gegaan Soera 2het is het meest interessante en bedrieglijke ticket op internet. Het is een feed in TikTok-stijl waarin alles 100% nep is. Deze auteur noemde het een “Deepfake koortsdroom“en met goede reden. Het platform verbetert voortdurend als het gaat om het realistisch maken van verhalen, met aanzienlijke risico’s in de echte wereld.
Als je moeite hebt om de werkelijkheid van de kunstmatige intelligentie te scheiden, ben je niet de enige. Hier zijn enkele nuttige tips die u kunnen helpen de geruchten te doorbreken en de waarheid achter elke door AI geïnspireerde creatie te achterhalen.
Mis geen van onze onpartijdige technische inhoud en laboratoriumrecensies. CNET toevoegen als uw favoriete Google-bron.
Mijn AI-expert zorgt voor Sora’s video’s
Vanuit technisch oogpunt zijn de video’s van Sora indrukwekkend vergeleken met die van concurrenten Halve reis V1 EN Google ik zie er 3. Ze hebben een hoge resolutie, gesynchroniseerde audio en verbazingwekkende creativiteit. Met Sora’s populairste functie, genaamd ‘cameo’, kun je de gelijkenissen van anderen gebruiken en deze in vrijwel elke door AI gegenereerde scène invoegen. Het is een indrukwekkend hulpmiddel dat angstaanjagend realistische video’s produceert.
Daarom maken zoveel experts zich zorgen over Sora. De app maakt het voor iedereen gemakkelijker om gevaarlijke deepfakes te creëren, desinformatie te verspreiden en de grens tussen wat echt is en wat niet te vervagen. Publieke figuren en beroemdheden zijn bijzonder kwetsbaar voor deze deepfakes, en syndicaten zoals SAG-AFTRA hebben OpenAI daartoe gedwongen zijn vangrails versterken.
Het identificeren van AI-inhoud is een voortdurende uitdaging voor technologiebedrijven, sociale-mediaplatforms en alle anderen. Maar het is niet geheel hopeloos. Hier zijn enkele dingen waar je op moet letten om te bepalen of een video met Sora is gemaakt.
Zoek naar het Sora-watermerk
Elke video die met de Sora-app voor iOS wordt gemaakt, bevat een watermerk wanneer u deze downloadt. Het is het witte logo van Sora, een wolkvormig pictogram dat langs de randen van de video stuitert. Dit is vergelijkbaar met de manier waarop TikTok-video’s een watermerk krijgen. Watermerken van inhoud is een van de meest effectieve manieren waarop AI-bedrijven ons kunnen helpen door AI gegenereerde inhoud visueel te lokaliseren. Google Tweelingen “nanobanaan”-model. automatisch een watermerk aan uw afbeeldingen. Watermerken zijn geweldig omdat ze een duidelijk teken zijn dat de inhoud met behulp van kunstmatige intelligentie is gemaakt.
Maar watermerken zijn niet perfect. Ten eerste: als het watermerk statisch is (niet beweegt), kan het gemakkelijk worden bijgesneden. Zelfs voor het verplaatsen van watermerken zoals die van Sora zijn er apps die speciaal zijn ontworpen om ze te verwijderen, dus watermerken alleen zijn niet volledig te vertrouwen. Toen OpenAI-CEO Sam Altman werd ernaar gevraagdhij zei dat de samenleving zich zal moeten aanpassen aan een wereld waarin iedereen nepvideo’s van iedereen kan maken. Vóór Sora was er natuurlijk geen populaire, gemakkelijk toegankelijke en vaardighedenloze manier om die video’s te maken. Maar zijn argument werpt een geldig punt op over de noodzaak om op andere methoden te vertrouwen om de authenticiteit te verifiëren.
Controleer de metagegevens
Ik weet dat je waarschijnlijk denkt dat er geen manier is om de metadata van een video te controleren om te bepalen of deze echt is. Ik begrijp waar je vandaan komt. Het is een extra stap en je weet misschien niet waar je moet beginnen. Maar het is een geweldige manier om te bepalen of een video met Sora is gemaakt, en het is gemakkelijker dan je denkt.
Metadata is een verzameling informatie die automatisch aan inhoud wordt toegevoegd wanneer deze wordt gemaakt. Het geeft u meer informatie over hoe een afbeelding of video is gemaakt. Het kan gaan om het type camera dat is gebruikt om een foto te maken, de locatie, de datum en tijd waarop de video is gemaakt en de bestandsnaam. Elke foto en video bevat metadata, ongeacht of deze door mensen of door kunstmatige intelligentie is gemaakt. En veel door AI gemaakte inhoud zal inhoudsreferenties hebben die ook de AI-oorsprong ervan aangeven.
OpenAI is onderdeel van de Coalition for Content Provenance and Authenticity, wat staat voor Sora video’s omvatten C2PA-metagegevens. U kunt gebruik maken van de verificatie hulpmiddel door het Content Authenticity Initiative om de metadata van een video, afbeelding of document te verifiëren. Hier is hoe. (Het Content Authenticity Initiative is onderdeel van C2PA.)
Zo controleer je de metadata van een foto, video of document
1. Ga naar deze URL: https://verify.contentauthenticity.org/
2. Upload het bestand dat u wilt controleren.
3. Klik op Openen.
4. Controleer de informatie in het rechterpaneel. Als het door AI is gegenereerd, moet u het opnemen in het gedeelte met de inhoudssamenvatting.
Wanneer je een Sora-video via deze tool laat zien, wordt aangegeven dat de video “gepubliceerd door OpenAI” is en dat deze is gegenereerd door kunstmatige intelligentie. Alle Sora-video’s moeten deze inloggegevens bevatten waarmee u kunt bevestigen dat de video met Sora is gemaakt.
Deze tool is, zoals alle AI-detectoren, niet perfect. Er zijn veel manieren waarop AI-video detectie kan voorkomen. Als je niet-Sora-video’s hebt, bevatten deze mogelijk niet de noodzakelijke signalen in de metadata zodat de tool kan bepalen of ze al dan niet door AI zijn gemaakt. AI-video’s gemaakt met Midjourney worden bijvoorbeeld niet gemarkeerd, zoals ik tijdens mijn tests heb bevestigd. Zelfs als de video door Sora is gemaakt, maar vervolgens via een app van derden (zoals een app voor het verwijderen van watermerken) wordt uitgevoerd en opnieuw wordt gedownload, is de kans kleiner dat de tool deze als AI zal markeren.
De verificatietool van het Content Authenticity Initiative meldde correct dat een video die ik met Sora maakte, door AI was gegenereerd, samen met de datum en tijd waarop ik deze had gemaakt.
Zoek naar andere AI-labels en voeg de jouwe toe
Als je een van de sociale mediaplatforms van Meta gebruikt, zoals Instagram of Facebook, krijg je misschien wat hulp om te bepalen of iets AI is. Meta heeft het gedaan interne systemen om AI-inhoud te helpen markeren en als zodanig te labelen. Deze systemen zijn niet perfect, maar je kunt duidelijk het label zien van berichten die zijn gemarkeerd. TikTok EN YouTube hebben een soortgelijk beleid voor het labelen van AI-inhoud.
De enige echt betrouwbare manier om te weten of iets door AI is gegenereerd, is als de maker het openbaar maakt. Veel sociale-mediaplatforms bieden nu instellingen waarmee gebruikers hun berichten kunnen labelen als door AI gegenereerd. Zelfs een simpele erkenning of stukje informatie in het onderschrift kan iedereen helpen begrijpen hoe iets tot stand is gekomen.
Terwijl je door Sora bladert, weet je dat niets echt is. Zodra u echter de app verlaat en door AI gegenereerde video’s deelt, wordt het onze collectieve verantwoordelijkheid om bekend te maken hoe een video is gemaakt. Terwijl AI-modellen zoals Sora de grens tussen realiteit en AI blijven vervagen, is het aan ons allemaal om zo duidelijk mogelijk te maken wanneer iets echt is of AI.
Het belangrijkste is om waakzaam te blijven
Er bestaat geen waterdichte methode om in één oogopslag nauwkeurig te kunnen bepalen of een video echt is of AI. Het beste wat u kunt doen om te voorkomen dat u wordt misleid, is door niet automatisch en onvoorwaardelijk alles te geloven wat u online ziet. Volg je instinct en als iets onwerkelijk lijkt, is het dat waarschijnlijk ook. In deze ongekende tijden vol AI-problemen is je beste verdediging het nauwkeuriger bekijken van de video’s die je bekijkt. Kijk niet even snel en scroll gedachteloos weg. Controleer op vervormde tekst, verdwijnende objecten en bewegingen die de natuurkunde tarten. En wees niet ontmoedigd als u af en toe wordt misleid. Zelfs de experts maken fouten.
(Openbaarmaking: Ziff Davis, het moederbedrijf van CNET, heeft in april een rechtszaak aangespannen tegen OpenAI, omdat het bedrijf inbreuk maakte op de auteursrechten van Ziff Davis op het gebied van de training en werking van zijn kunstmatige-intelligentiesystemen.)



