Home Nieuws Het nieuwste ChatGPT-model gebruikt Grokipedia van Elon Musk als bron, blijkt uit...

Het nieuwste ChatGPT-model gebruikt Grokipedia van Elon Musk als bron, blijkt uit tests | Grok AI

6
0
Het nieuwste ChatGPT-model gebruikt Grokipedia van Elon Musk als bron, blijkt uit tests | Grok AI

Het nieuwste model van ChatGPT citeert Grokipedia van Elon Musk als bron voor een breed scala aan vragen, waaronder over Iraanse conglomeraten en ontkenners van de Holocaust, waardoor bezorgdheid ontstaat over desinformatie op het platform.

In tests uitgevoerd door de Guardian citeerde GPT-5.2 Grokipedia negen keer in antwoord op meer dan een dozijn verschillende vragen. Het ging onder meer om vragen over de politieke structuren in Iran, zoals de salarissen van de paramilitaire Basij-troepen en de eigendom van de Mostazafan Foundation, en om vragen over de biografie van Sir Richard Evans, een Britse historicus en getuige-deskundige tegen Holocaust-ontkenner David Irving in zijn proces wegens smaad.

Grokipedia, gelanceerd in oktoberis een door AI gegenereerde online-encyclopedie die wil concurreren met Wikipedia en die bekritiseerd is vanwege het verspreiden van rechtse verhalen over onderwerpen als homohuwelijk en de opstand van 6 januari in de Verenigde Staten. In tegenstelling tot Wikipedia is directe menselijke bewerking niet toegestaan; in plaats daarvan schrijft een AI-model de inhoud en reageert op bewerkingsverzoeken.

ChatGPT citeerde Grokipedia niet toen hem werd gevraagd om rechtstreeks verkeerde informatie te herhalen over de opstand, de vooroordelen van de media tegen Donald Trump of de HIV/AIDS-epidemie – gebieden waar naar verluidt Grokipedia onwaarheden promoot. In plaats daarvan filterde informatie van Grokipedia in de antwoorden van het model toen hem werd gevraagd naar meer obscure onderwerpen.

ChatGPT herhaalde bijvoorbeeld, onder verwijzing naar Grokipedia, sterkere beweringen over de banden van de Iraanse regering met MTN-Irancell dan die gevonden op Wikipedia – zoals de bewering dat het bedrijf banden heeft met het kantoor van de hoogste leider van Iran.

ChatGPT citeerde Grokipedia ook in het herhalen van informatie die de Guardian heeft ontkend, namelijk details over Sir Richard Evans Werk als getuige-deskundige in het David Irving-proces.

GPT-5.2 is niet het enige grote taalmodel (LLM) dat Grokipedia lijkt te citeren; anekdotisch verwees Claude van Anthropic ook naar Musk’s encyclopedie over oliegerelateerde onderwerpen productie aan de Schot bieren.

A OpenAI De woordvoerder zei dat het webonderzoek van het model “tot doel heeft te putten uit een breed scala aan openbaar beschikbare bronnen en perspectieven.”

“We passen beveiligingsfilters toe om het risico te verkleinen dat er links ontstaan ​​die verband houden met zeer ernstige schade, en ChatGPT laat duidelijk zien welke bronnen een reactie hebben gegeven door middel van citaten”, zeiden ze, eraan toevoegend dat ze doorlopende programma’s hebben om informatie met een lage geloofwaardigheid eruit te filteren en campagnes te beïnvloeden.

Anthropic heeft niet gereageerd op een verzoek om commentaar.

Maar het feit dat Grokipedia-informatie – soms heel subtiel – wordt gefilterd in LLM-reacties is een reden tot bezorgdheid voor desinformatieonderzoekers. Afgelopen voorjaar, beveiligingsexperts opgelucht zorgen dat kwaadwillende actoren, waaronder Russische propagandanetwerken, enorme hoeveelheden desinformatie naar buiten brachten in een poging leugens in AI-modellen te stoppen, een proces genaamd “LLM-grooming”.

In juni werden in het Amerikaanse Congres zorgen geuit over het feit dat Google’s Gemini het standpunt van de Chinese regering over mensenrechtenschendingen in Xinjiang en het Chinese Covid-19-beleid had herhaald.

Nina Jankowicz, een desinformatieonderzoeker die aan de voorbereiding van de LLM werkte, zei dat ChatGPT’s citatie van Grokipedia soortgelijke zorgen opriep. Hoewel Musk misschien niet de bedoeling had om LLM’s te beïnvloeden, waren de bijdragen van Grokipedia die zij en haar collega’s hadden beoordeeld “gebaseerd op bronnen die op zijn best onbetrouwbaar, slecht afkomstig zijn en in het slechtste geval opzettelijke verkeerde informatie”, zei ze.

En het feit dat LLM’s bronnen als Grokipedia of het Pravda-netwerk citeren, kan op zijn beurt de geloofwaardigheid van deze bronnen in de ogen van de lezers vergroten. “Ze zouden kunnen zeggen: ‘oh, ChatGPT citeert het, deze modellen citeren het, het moet een fatsoenlijke bron zijn, ze hebben het zeker gecontroleerd’ – en ze zouden daarheen kunnen gaan en op zoek gaan naar nieuws over Oekraïne,” zei Jankowicz.

Slechte informatie kan, eenmaal gefilterd in een AI-chatbot, moeilijk te verwijderen zijn. Jankowicz ontdekte onlangs dat een grote nieuwszender a uitgevonden citaat door haar in een verhaal over desinformatie. Hij schreef naar de nieuwszender met het verzoek om het citaat te verwijderen gepubliceerd van wat er op sociale media gebeurde.

De nieuwszender verwijderde het citaat. AI-modellen bleven het echter een tijdje als de zijne aanhalen. “De meeste mensen zullen niet het werk doen dat nodig is om erachter te komen waar de waarheid werkelijk ligt,” zei hij.

Toen hem om commentaar werd gevraagd, zei een woordvoerder van xAI, de eigenaar van Grokipedia: “Legacy media liegt.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in