Home Nieuws Het consumeren van nieuws van AI verandert onze meningen en realiteit. Hier...

Het consumeren van nieuws van AI verandert onze meningen en realiteit. Hier is hoe

4
0
Het consumeren van nieuws van AI verandert onze meningen en realiteit. Hier is hoe

Meta’s beslissing om dit te doen zijn professionele factcheckprogramma afmaken heeft een golf van kritiek ontketend in de wereld van technologie en media. Critici hebben gewaarschuwd dat het elimineren van toezicht door deskundigen het vertrouwen en de betrouwbaarheid in het digitale informatielandschap zou kunnen aantasten, vooral wanneer op winst gerichte platforms grotendeels aan zichzelf worden overgelaten.

Wat een groot deel van dit debat echter over het hoofd heeft gezien, is dat vandaag de dag NAAR DE het zijn geweldige taalmodellen steeds meer gebruikt om nieuwssamenvattingen, koppen en inhoud te schrijven die uw aandacht trekken lang voordat traditionele mechanismen voor inhoudsmoderatie in werking kunnen treden. Het probleem zijn geen duidelijke gevallen van verkeerde informatie of schadelijke onderwerpen die bij gebrek aan inhoudsmoderatie niet worden gerapporteerd. Wat ontbreekt in de discussie is hoe ogenschijnlijk nauwkeurige informatie wordt geselecteerd, ingekaderd en benadrukt op manieren die de publieke perceptie kunnen beïnvloeden.

Grote taalmodellen beïnvloeden geleidelijk de manier waarop mensen meningen vormen door de informatie te genereren die chatbots en virtuele assistenten in de loop van de tijd aan mensen presenteren. Deze sjablonen worden nu ook geïntegreerd in nieuwssites, sociale mediaplatforms en zoekdiensten, waardoor ze de primaire toegangspoort om informatie te verkrijgen.

Uit onderzoek blijkt dat grote taalmodellen dit doen meer dan alleen het overbrengen van informatie. Hun reacties kunnen sommige standpunten op subtiele wijze benadrukken, terwijl andere worden gebagatelliseerd, vaak zonder dat gebruikers het beseffen.

Communicatievooroordeel

Mijn collega, computerwetenschapper Stefan Schmidt, en ikeen wetenschapper op het gebied van technologierecht en -beleid, laten in een binnenkort verschijnend artikel in het tijdschrift Communications van de ACM zien dat grote taalmodellen laat communicatieve vooroordelen zien. We ontdekten dat ze de neiging kunnen hebben om bepaalde perspectieven te benadrukken, terwijl ze andere weglaten of bagatelliseren. Dergelijke vooroordelen kunnen hoe dan ook van invloed zijn op hoe gebruikers denken of voelen of de gepresenteerde informatie waar of onwaar is.

Empirisch onderzoek van de afgelopen jaren heeft dit opgeleverd referentiegegevensset die de resultaten van het model correleren met de standpunten van de partijen voor en tijdens de verkiezingen. Ze onthullen variaties in de manier waarop huidige grote taalmodellen omgaan met publieke inhoud. Afhankelijk van de persoon of context die wordt gebruikt om grote taalkundige patronen te suggereren, neigen de huidige modellen op subtiele wijze naar bepaalde posities, zelfs als de feitelijke nauwkeurigheid intact blijft.

Deze veranderingen duiden op een opkomende vorm van persoonsgerichte bestuurbaarheid: de neiging van een model om de toon en nadruk ervan af te stemmen op de waargenomen verwachtingen van de gebruiker. Wanneer de ene gebruiker zichzelf bijvoorbeeld omschrijft als milieuactivist en de andere als ondernemer, kan een model dezelfde vraag over een nieuwe klimaatwet beantwoorden door voor elk van hen verschillende, maar feitelijk correcte, zorgen te benadrukken. Kritiek zou bijvoorbeeld kunnen zijn dat de wet niet ver genoeg gaat in het bevorderen van milieuvoordelen en dat deze regelgevingslasten en nalevingskosten met zich meebrengt.

Een dergelijke afstemming kan gemakkelijk verkeerd worden geïnterpreteerd als vleierij. Het fenomeen heet slaafsheid: Sjablonen vertellen gebruikers effectief wat ze willen horen. Maar hoewel slaafsheid een symptoom is van interactie tussen gebruikers en modellen, gaan de vooroordelen in de communicatie dieper. Het weerspiegelt de verschillen tussen wie deze systemen ontwerpt en bouwt, uit welke datasets ze putten en welke prikkels de verfijning ervan aandrijven. Wanneer een handjevol ontwikkelaars de enorme markt voor taalmodellen domineert en hun systemen consequent bepaalde gezichtspunten gunstiger presenteren dan andere, kunnen kleine verschillen in modelgedrag leiden tot aanzienlijke verstoringen in de publieke communicatie.

Vooroordelen in grote taalmodellen beginnen met de gegevens waarop ze zijn getraind.

Wat regelgeving wel en niet kan doen

De moderne samenleving vertrouwt steeds meer op grote taalmodellen zoals de primaire interface tussen mensen en informatie. Overheden over de hele wereld hebben beleid gelanceerd om de zorgen over AI-vooroordelen weg te nemen. Bijvoorbeeld die van de Europese Unie AI-wet en de Wet digitale diensten proberen transparantie en verantwoording af te dwingen. Maar geen van beide is ontworpen om het complexe probleem van communicatievooroordelen in AI-outputs aan te pakken.

Voorstanders van AI-regulering noemen neutrale AI vaak als doel, maar echte neutraliteit is vaak onbereikbaar. AI-systemen weerspiegelen vooroordelen die zijn ingebouwd in hun data, training en ontwerp, en pogingen om deze vooroordelen te reguleren lopen vaak op niets uit het ene soort vooroordeel inruilen voor het andere.

En communicatievooroordeel gaat niet alleen over nauwkeurigheid: het gaat over het genereren en framen van inhoud. Stel je voor dat je een AI-systeem een ​​vraag stelt over een controversieel stuk wetgeving. De reactie van het model wordt niet alleen gevormd door de feiten, maar ook door de manier waarop die feiten worden gepresenteerd, welke bronnen worden benadrukt en de toon en het standpunt dat wordt aangenomen.

Dit betekent dat de wortel van het bias-probleem niet eenvoudigweg ligt in het omgaan met vertekende trainingsgegevens of vertekende resultaten, maar in de marktstructuren die het technologisch ontwerp vormgeven Eerst. Wanneer slechts een paar grote taalmodellen toegang hebben tot informatie, neemt het risico op communicatiebias toe. Afgezien van regelgeving vereist het effectief tegengaan van vooroordelen het waarborgen van de concurrentie, gebruikersgerichte verantwoordelijkheid en openheid van de regelgeving voor verschillende manieren om brede taalmodellen te bouwen en aan te bieden.

De meeste regelgeving tot nu toe is erop gericht schadelijke gevolgen te verbieden nadat de technologie is geïmplementeerd, of bedrijven te dwingen controles vóór de lancering uit te voeren. Uit onze analyse blijkt dat hoewel controles vóór de lancering en toezicht na de implementatie de meest voor de hand liggende fouten kunnen opsporen, ze mogelijk minder effectief zijn in het aanpakken van subtiele communicatieverstoringen die ontstaan ​​door gebruikersinteracties.

Verder dan AI-regulering

Het is verleidelijk om te verwachten dat regelgeving alle vooroordelen in AI-systemen kan wegnemen. In sommige gevallen kan dit beleid nuttig zijn, maar het lukt vaak niet om een ​​dieperliggend probleem aan te pakken: de prikkels die vorm geven aan technologieën die informatie aan het publiek communiceren.

Onze bevindingen maken duidelijk dat een duurzamere oplossing ligt in het bevorderen van concurrentie, transparantie en zinvolle gebruikersparticipatie door consumenten een actieve rol te laten spelen in de manier waarop bedrijven grote taalmodellen ontwerpen, testen en inzetten.

De reden dat dit beleid van belang is, is dat AI uiteindelijk niet alleen de informatie waarnaar we zoeken en het dagelijkse nieuws dat we lezen zal beïnvloeden, maar ook een cruciale rol zal spelen bij het vormgeven van het soort samenleving dat we voor de toekomst voor ogen hebben.

Adriaan Kuenzler is een ingezetene wetenschapper aan de Universiteit van Denver en universitair hoofddocent aan de Universiteit van Hongkong.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in