Home Nieuws Kunnen AI-relaties eigenlijk goed voor ons zijn? | Kunstmatige intelligentie (AI)

Kunnen AI-relaties eigenlijk goed voor ons zijn? | Kunstmatige intelligentie (AI)

5
0
Kunnen AI-relaties eigenlijk goed voor ons zijn? | Kunstmatige intelligentie (AI)

TEr bestaat tegenwoordig veel bezorgdheid over de gevaren van relaties tussen mens en AI. Meldingen van zelfmoord en zelfbeschadiging als gevolg van interacties met chatbots heeft begrijpelijkerwijs de krantenkoppen gehaald. De zinsnede “AI-psychose” werd gebruikt om het lot van te beschrijven mensen die waanvoorstellingen ervarenparanoia of dissociatie na het spreken met grote taalmodellen (LLM’s). Onze collectieve angst is nog verergerd door onderzoeken die aantonen dat jongeren steeds meer het idee van door AI aangedreven relaties omarmen; De helft van de tieners chat minstens een paar keer per maand met een AI-partner, en één op de drie vindt gesprekken met AI.”net zo of zelfs bevredigender zijn dan degenen met echte vrienden”.

Maar we moeten de paniek stoppen. De gevaren Ik ben reëel, maar dat geldt ook voor de potentiële voordelen. Er kan zelfs worden betoogd dat, afhankelijk van wat toekomstig wetenschappelijk onderzoek onthult, relaties met kunstmatige intelligentie daadwerkelijk een zegen voor de mensheid zouden kunnen zijn.

Bedenk hoe alomtegenwoordig niet-menselijke relaties altijd zijn geweest voor onze soort. We hebben een lange geschiedenis van gezonde interacties met niet-mensen, of het nu huisdieren, knuffels of geliefde voorwerpen of machines zijn: denk eens aan de persoon in je leven die volledig geobsedeerd is door zijn auto, tot op het punt dat hij er een naam aan geeft. In het geval van huisdieren zijn dit WAAR relaties in de mate dat onze honden en katten begrijpen dat ze een relatie met ons hebben. Maar de eenzijdige parasociale relaties die we hebben met knuffels of auto’s gebeuren zonder dat die dingen weten dat we bestaan. Slechts in de zeldzaamste gevallen veranderen deze relaties in iets pathologisch. Parasocialiteit is voor het grootste deel normaal en gezond.

Toch is er iets verontrustends aan AI-relaties. Omdat ze de taal vloeiend beheersen, wekken LLM’s het vreemde gevoel op dat ze mensachtige gedachten, gevoelens en bedoelingen hebben. Ze genereren ook slaafse reacties die onze standpunten versterken en zelden onze manier van denken uitdagen. Deze combinatie kan mensen gemakkelijk op een pad van illusie leiden. Dit is het Niet iets dat gebeurt als we omgaan met katten, honden of levenloze voorwerpen. Maar de vraag blijft: zelfs in gevallen waarin mensen niet verder kunnen kijken dan de illusie dat AI’s echte mensen zijn die daadwerkelijk om ons geven, is het dan nog steeds een probleem?

Denk aan eenzaamheid: één op de zes mensen op deze planeet ervaart dit het, en wordt geassocieerd met aa 26% toename van vroegtijdige sterfgevallen; het equivalent van het roken van 15 sigaretten per dag. Het onderzoek komt naar voren dit suggereert dat AI-metgezellen effectief zijn in het verminderen van gevoelens van eenzaamheid – b.v functioneert niet alleen als een vorm van afleidingmaar als resultaat van dezelfde parasociale relatie. Voor veel mensen is een AI-chatbot de enige beschikbare vriendschapsoptie, hoe hol het ook mag lijken. Zoals journalist Sangita Lal zegt onlangs uitgelegd in een rapport over degenen die zich tot AI wenden voor gezelschap, moeten we niet zo snel oordelen. “Als je niet begrijpt waarom abonnees deze verbinding willen, zoeken en nodig hebben,” zei Lal, “heb je het geluk dat je geen eenzaamheid hebt ervaren.”

Om eerlijk te zijn, kan er een argument worden aangevoerd dat de opkomst van nieuwe technologieën en sociale media zelf een rol hebben gespeeld bij het aandrijven van de eenzaamheidsepidemie. Daarom Mark Zuckerberg hij had problemen vanwege zijn briljante pleidooi voor kunstmatige intelligentie als oplossing voor een probleem waarvoor hij mogelijk gedeeltelijk verantwoordelijk is. Maar als de realiteit is dat het helpt, kan dit niet op voorhand worden genegeerd.

Er is ook onderzoek dat aantoont dat AI kan worden gebruikt als een effectief psychotherapeutisch hulpmiddel. In een atelierPatiënten die chatten met een op AI gebaseerde therapeutische chatbot vertoonden een vermindering van 30% in angstsymptomen. Niet zo effectief als menselijke therapeuten, die een reductie van 45% bereikten, maar nog steeds beter dan niets. Het is de moeite waard om dit utilitaire argument te overwegen; er zijn miljoenen mensen die, om welke reden dan ook, geen toegang hebben tot een therapeut. En in deze gevallen heeft het waarschijnlijk de voorkeur om een ​​AI in te schakelen boven helemaal geen hulp te zoeken.

Maar één onderzoek bewijst niets. En hier ligt het probleem. We bevinden ons in de beginfase van onderzoek naar de potentiële voordelen of nadelen van AI-bedrijven. Het is gemakkelijk om ons te concentreren op de weinige onderzoeken die onze vooroordelen over de gevaren en voordelen van deze technologie ondersteunen.

Het is in deze onderzoeksleemte dat de ware gevaren van kunstmatige intelligentie worden onthuld. De meeste entiteiten die AI-metgezellen distribueren, zijn bedrijven met winstoogmerk. En als er één ding is dat we weten over bedrijven met winstoogmerk, dan is het dat ze graag regelgeving willen vermijden en zich terugtrekken voor bewijsmateriaal dat hun winsten zou kunnen beïnvloeden. Ze worden gestimuleerd om de risico’s te bagatelliseren, het bewijsmateriaal te selecteren en alleen de voordelen te adverteren.

De opkomst van kunstmatige intelligentie lijkt op de ontdekking van de pijnstillende eigenschappen van opium; Wanneer AI en opioïden worden uitgebuit door verantwoordelijke actoren met als doel pijn en lijden te verlichten, kunnen ze een legitiem hulpmiddel voor genezing zijn. Maar als slechte acteurs hun verslavende eigenschappen exploiteren om zichzelf te verrijken, is het resultaat verslaving of de dood.

Ik blijf ervan overtuigd dat er plaats is voor AI-gezelschap. Maar alleen als het wordt ondersteund door solide wetenschap en wordt geïmplementeerd door organisaties die bestaan ​​voor het algemeen belang. AI’s moeten het probleem van slaafsheid vermijden dat kwetsbare mensen tot waanideeën leidt. Dit kan alleen worden bereikt als ze daar expliciet in worden opgeleid, zelfs als dit hen minder aantrekkelijk maakt als potentiële partner; een concept dat een gruwel is voor bedrijven die je een maandelijks abonnement willen laten betalen, zonder welk je de toegang tot je “vriend” verliest. Ze moeten ook ontworpen zijn om de gebruiker te helpen de sociale vaardigheden te ontwikkelen die hij nodig heeft om met echte mensen in de echte wereld om te gaan.

Het uiteindelijke doel van AI-metgezellen zou moeten zijn om zichzelf overbodig te maken. Hoe behulpzaam ze ook mogen zijn bij het opvullen van gaten in de toegang tot therapie of het verlichten van eenzaamheid, het zal altijd beter zijn om met een echt mens te praten.

Justin Gregg is bioloog en auteur van Humanish (Oneworld).

Verder lezen

Verslaafd aan code: leven in de schaduw van kunstmatige intelligentie door Madhumita Murgia (Picador, £20)

De komende golf: kunstmatige intelligentie, macht en onze toekomst door Mustafa Suleyman (vintage, £ 10,99)

Supremacy: AI, ChatGPT en de race die de wereld zal veranderen door Parmy Olson (Macmillan, £ 10,99)

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in