Home Nieuws Uit onderzoek blijkt dat polariserende content op sociale media emoties kan kalmeren

Uit onderzoek blijkt dat polariserende content op sociale media emoties kan kalmeren

12
0
Uit onderzoek blijkt dat polariserende content op sociale media emoties kan kalmeren

Het verminderen van de zichtbaarheid van polariserende inhoud in feeds van sociale media kan de partijdige vijandigheid meetbaar verminderen. Om tot deze ontdekking te komen hebben mijn collega’s en ik een methode ontwikkeld die ons dat mogelijk maakt verander de rangschikking van de feeds van mensenvoorheen iets dat alleen sociale-mediabedrijven konden doen.

De herclassificatie van sociale media-feeds om de blootstelling aan berichten die antidemocratische attitudes en partijdige vijandigheid uiten te verminderen, heeft de emoties van mensen en hun meningen van mensen met tegengestelde politieke opvattingen beïnvloed.

Ik ben een HET degenen die sociaal computergebruik bestuderen, kunstmatige intelligentieen het web. Waarom alleen sociale mediaplatforms hun algoritmen kunnen veranderen, hebben we een open source webtool ontwikkeld en uitgebracht waarmee we de feeds van instemmende deelnemers op X, voorheen Twitter, in realtime opnieuw konden rangschikken.

Op basis van de sociaalwetenschappelijke theorie hebben we een breed taalkundig model gebruikt om berichten te identificeren die mensen zouden kunnen polariseren, zoals berichten die politiek geweld bepleiten of oproepen tot de gevangenneming van leden van de tegenpartij. Deze berichten zijn niet verwijderd; ze stonden simpelweg lager gerangschikt, waardoor gebruikers verder moesten scrollen om ze te zien. Dit verminderde het aantal berichten dat gebruikers zagen.

We hebben dit experiment tien dagen lang uitgevoerd in de weken voorafgaand aan de Amerikaanse presidentsverkiezingen van 2024. We ontdekten dat het verminderen van de blootstelling aan polariserende inhoud de gevoelens van deelnemers jegens mensen van de tegenpartij meetbaar verbeterde en hun negatieve emoties verminderde terwijl ze door hun feed scrolden. Belangrijk is dat deze effecten vergelijkbaar waren bij alle politieke voorkeuren, wat erop wijst dat de interventie ten goede komt aan gebruikers, ongeacht hun politieke partij.

Dit 60 minuten In dit segment wordt beschreven hoe verdeeldheid zaaiende berichten op sociale media meer grip krijgen dan neutrale berichten.

Waarom het ertoe doet

Een veel voorkomende misvatting is dat mensen moeten kiezen tussen twee uitersten: op betrokkenheid gebaseerde algoritmen of puur chronologische feeds. In werkelijkheid is er een breed spectrum aan tussenliggende benaderingen, afhankelijk van waarvoor ze zijn geoptimaliseerd.

Feedalgoritmen zijn doorgaans geoptimaliseerd om uw aandacht te trekken en hebben daardoor een aanzienlijke impact uw houding, stemming en perceptie van anderen. Om deze reden is er dringend behoefte aan faciliteiten die onafhankelijke onderzoekers in staat stellen nieuwe benaderingen onder realistische omstandigheden te testen.

Ons werk biedt een weg voorwaarts en laat zien hoe onderzoekers alternatieve algoritmen op grote schaal kunnen bestuderen en prototypen, en toont aan dat platforms dankzij grote taalmodellen eindelijk de technische middelen hebben om polariserende inhoud te detecteren die de democratische houding van hun gebruikers kan beïnvloeden.

Welk ander onderzoek wordt er op dit gebied gedaan?

Het testen van de impact van alternatieve feedalgoritmen op live platforms is moeilijk, en dergelijke onderzoeken zijn de laatste tijd alleen maar in aantal toegenomen.

Bijvoorbeeld, een recente samenwerking onder academici en Meta ontdekten dat het veranderen van de algoritmische feed naar een chronologische feed niet voldoende was om een ​​impact op de polarisatie aan te tonen. Een verwante inspanning, de Prosociale classificatie-uitdaging uitgevoerd door onderzoekers van de University of California, Berkeley, onderzoekt platformonafhankelijke rangschikkingsalternatieven om gunstige sociale resultaten te bevorderen.

Tegelijkertijd maken de vorderingen bij de ontwikkeling van grote taalmodellen rijkere manieren mogelijk om te modelleren hoe mensen denken, voelen en met anderen omgaan. We zien een groeiende belangstelling om gebruikers meer controle te geven, waardoor mensen kunnen beslissen welke principes bepalend moeten zijn voor wat ze in hun feeds zien. Alexandrijnse bibliotheek van pluralistische waarden en de Herclassificatiesysteem voor bonsaivoedsel. Sociale mediaplatforms, inbegrepen Blauwe lucht EN Xze gaan deze kant op.

Wat is de volgende stap?

Deze studie vertegenwoordigt onze eerste stap in de richting van het ontwerpen van algoritmen die zich bewust zijn van hun potentiële sociale impact. Er blijven veel vragen open.

We zijn van plan de langetermijneffecten van deze interventies te bestuderen en nieuwe classificatiedoelen te testen om andere risico’s voor het online welzijn aan te pakken, zoals geestelijke gezondheid en levenstevredenheid. Toekomstig werk zal onderzoeken hoe meerdere lenzen, zoals culturele context, persoonlijke waarden en gebruikerscontrole, in balans kunnen worden gebracht om online ruimtes te creëren die gezonde sociale en maatschappelijke interactie beter ondersteunen.

DE Kort onderzoek is een korte interpretatie van een interessant academisch werk.

Tiziano Piccardi is assistent-professor informatica bij Johns Hopkins Universiteit.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in