Home Nieuws Desinformatie verspreidt zich. We moeten beter worden in het bestrijden ervan

Desinformatie verspreidt zich. We moeten beter worden in het bestrijden ervan

2
0
Desinformatie verspreidt zich. We moeten beter worden in het bestrijden ervan

Bijna elke dag arriveert er een e-mail in mijn inbox met de belofte mijn groei te vergroten: mijn nieuwsbriefabonnees, het bereik van mijn podcasts, het aantal klantcontacten, enz. Ik ben eraan gewend geraakt dat willekeurige mensen mij hun diensten pitchen, en sommige berichten maken slim gebruik van mijn onzekerheden als ondernemer (“je laat zoveel op tafel liggen”, et al.). Ik reageer nooit op een van deze, maar soms vraag ik me af welke wel legitiem zijn.

Een paar maanden geleden opende ik de Assistent-zijbalk in mijn AI-aangedreven browser terwijl ik door een van deze e-mails bladerde en me afvroeg of het er verdacht uitzag (ik denk dat de eigenlijke boodschap was “ziet dit er sus uit?”). Hij antwoordde dat het bericht, waarin werd voorgesteld om financiering te zoeken voor The Media Copilot, belangrijke informatie miste die een gevestigde organisatie zou bevatten, en dat het bericht was verzonden door iemand met een e-mailadres van een niet-bestaand domein en geen LinkedIn-profiel.

Terwijl ik las, dacht ik aan mijn ervaring Tijd over hoe een team werkt bij MIT onderhoudt een online portaal die vertelt hoe kwaadaardige AI-incidenten zijn de afgelopen jaren toegenomen. De TL;DR is dat de gebruik van kunstmatige intelligentie om schade te veroorzakenopzettelijk of per ongeluk, is de afgelopen jaren aanzienlijk toegenomen. Ongevallen omvatten alles, van eenvoudige fouten tot opzettelijke overtredingenen de brede categorieën die het meest zijn toegenomen, hebben te maken met desinformatie en kwaadwillende actoren. Dit is helaas logisch: degenen die openlijk proberen mensen te misleiden, verkeerd te informeren of te bedriegen, hebben nooit betere middelen gehad om dat te doen.

{“blockType “creator-network-promo”, data”:{“mediaUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/mediacopilot-logo-ss.png”, “headline” “Media CoPilot”, “description”: Wilt u meer weten over hoe kunstmatige intelligentie de media verandert? update from Pete Pachal door zich te abonneren op Media CoPilot Ga voor meer informatie naar mediacopilot.substack.com”, “substackDomain”:https://mediacopilot.substack.com/”, “colorTheme”:zalm”, “redirectUrl””}}

Een van de taken van de nieuwsmedia is het verschaffen van grip op desinformatie en de meeste spraakmakende incidenten die hiermee verband houden NAAR DE-zoals wanneer die Biden doet een robocall doen de ronde en worden vrij snel ontkracht. Maar incidenten die dat niveau bereiken, zijn de uitzondering en niet de regel. Deepfakes kunnen nooit genoeg mensen voor de gek houden de verkiezingen omgooienmaar de cijfers suggereren dat het aantal incidenten laag is zich snel op. Tegelijkertijd neemt het aantal banen in de journalistiek toe krimpenen de overige journalisten hebben slechts een beperkte bandbreedte.

Scepsis is geen strategie

De opkomst van desinformatie als gevolg van kunstmatige intelligentie creëert een wereld waarin iedereen steeds sceptischer wordt over wat ze lezen, zien en horen. Vorig jaar werd een papier van het National Bureau of Economic Research ontdekte dat blootstelling aan door AI aangestuurde desinformatie leidde tot een lager vertrouwen in de media in het algemeen. Maar scepticisme alleen is dat niet productief. Waar journalisten het meest kunnen helpen, is niet door te proberen elke deepfake of oplichting te ontkrachten (duidelijk een verloren strijd), maar door hun publiek te leren hoe ze dat scepticisme op de juiste manier kunnen kanaliseren.

Net als bij mijn e-mailassistent zijn verificatietools, die zeer snel bronnen kunnen verifiëren, claims kunnen analyseren en ondersteunend bewijsmateriaal kunnen ontdekken, nu voor iedereen gemakkelijk beschikbaar. Dit wil niet zeggen dat iedereen onmiddellijk moet vertrouwen op wat een AI-chatbot over een bepaald verhaal zegt. Maar AI is een hulpmiddel en als het als journalistieke lens wordt gebruikt, kan het krachtig zijn.

De sleutel is om AI te behandelen als een assistent van scepticisme, en niet als een autoriteit. Om terug te keren naar het e-mailvoorbeeld: mijn heen en weer zoeken met de browser vond binnen enkele seconden wat mij minuten zou hebben gekost, het zoeken naar onderwerpen, het signaleren van inconsistenties en het voorstellen van nieuwe vragen om op te volgen. Dit is in lijn met de principes van goede journalistiek, en door praktische richtlijnen hierover te geven, zullen lezers in staat worden gesteld om niet alleen negatieve informatie op te merken, maar potentieel niet onmiddellijk de positieve informatie die beschikbaar is te negeren.

Hoe de cynische valkuil te vermijden

Dus hoe ziet een goed “niveau van AI-verificatie” eruit? Het begint met het inzicht dat scepticisme een startpunt is, en niet het doel. Als u het effectief gebruikt, betekent dit dat u AI moet inzetten om informatie te ondervragen en te voorkomen dat uw vermoedens op een onproductieve manier worden versterkt. Hier zijn drie gewoonten, gebaseerd op journalistieke principes, die op elk AI-instrument kunnen worden toegepast.

  1. Stel twee keer dezelfde vraag: Veel incidenten waarbij AI schade heeft veroorzaakt, zijn onschuldig genoeg begonnen, maar uiteindelijk is de gebruiker in een soort konijnenhol terechtgekomen, soms tragisch eindigend. Een nuttige gewoonte die dit in sommige gevallen zou kunnen vermijden, is dezelfde vraag een tweede keer te stellen, eenvoudigweg opnieuw geformuleerd of met een andere formulering. Controleer hoe de antwoorden zich verhouden en volg eventuele significante inconsistenties op.
  1. Krachtspecificiteit: Alle goede interviewers passen het doelbewust toe. Wanneer een persoon een brede uitspraak of uitspraak doet, vraag dan AI om deze specifieker te maken. Wat ondersteunt deze verklaring? Wie waren erbij betrokken, wat was het onderliggende bewijs, wanneer gebeurde het? Elke vage reactie moet worden behandeld als een waarschuwingssignaal.
  1. Bronnen van willekeurige controles: Als een klacht gebaseerd is op een link op internet, duurt de verificatie niet lang. Als je iets niet binnen een minuut of twee kunt verifiëren, moet je er twee keer over nadenken, maar houd er rekening mee dat er redenen kunnen zijn waarom sommige ware beweringen moeilijk te verifiëren zijn (anonieme bronnen bijvoorbeeld).

De wereld raakt steeds meer in verwarring. Tussen AI-gerelateerde hallucinaties, opzettelijke desinformatie en de wijdverbreide memecultuur is het begrijpelijk dat iedereen veel sceptischer is geworden over wat ze zien. Zonder principes en gewoonten die u naar goede informatie leiden, zal scepticisme echter maar al te vaak afglijden naar cynisme. Journalisten zijn misschien niet in staat om alles te verifiëren wat we willen, maar hun principes kunnen een nieuwe generatie nieuwsconsumenten helpen op grote schaal onderscheid te maken tussen goed en kwaad.

{“blockType “creator-network-promo”, data”:{“mediaUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/mediacopilot-logo-ss.png”, “headline” “Media CoPilot”, “description”: Wilt u meer weten over hoe kunstmatige intelligentie de media verandert? update from Pete Pachal door zich te abonneren op Media CoPilot Ga voor meer informatie naar mediacopilot.substack.com”, “substackDomain”:https://mediacopilot.substack.com/”, “colorTheme”:zalm”, “redirectUrl””}}

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in