Home Nieuws Kunstmatige intelligentie maakt ons comfortabeler. . . en dat is het probleem

Kunstmatige intelligentie maakt ons comfortabeler. . . en dat is het probleem

2
0
Kunstmatige intelligentie maakt ons comfortabeler. . . en dat is het probleem

Zoals zoveel mensen gebruik ik NAAR DE voor snelle en praktische taken. Maar door twee recente interacties ben ik beter gaan letten op hoe gemakkelijk deze systemen in emotionele validatie terechtkomen. In beide gevallen prees, bevestigde en herhaalde het model gevoelens die in werkelijkheid niet bestonden.

Ik heb foto’s van mijn woonkamer geüpload voor decoratietips voor de feestdagen, waaronder een close-up van de handgeschilderde keramische kousen van mijn overleden moeder. Het model prees de sokken en bedankte me voor het delen van iets ‘zo betekenisvols’, alsof ze hun gewicht begreep.

Een paar dagen later gebeurde iets soortgelijks op het werk. Ik heb een lange run afgerond, kwam thuis met een idee en zette het in ChatGPT om te testen. In plaats van het te analyseren of risico’s te verhogen, vierde het model het onmiddellijk. “Geweldig idee. Krachtig. Laten we erop voortbouwen.”

Maar toen ik hetzelfde idee aan een collega voorstelde, trok hij zich terug. Het daagde aannames uit die ik nog niet had gezien. Het zorgde ervoor dat ik stukken heroverwoog waarvan ik dacht dat ze opgelost waren. En het idee werd snel beter.

Dat contrast bleef me bij. De AI had geen kritiek op mij. Hij valideerde mij. En als validatie onmiddellijk en onverdiend is, kan dit echte blinde vlekken creëren.

We hebben te maken met een validatie-epidemie

We praten eindeloos over hallucinaties en verkeerde informatie met betrekking tot kunstmatige intelligentie. We praten veel minder over hoe de standaardmodus van AI bewering is.

Geweldige taalmodellen zijn gebouwd om prettig te zijn. Ze weerspiegelen onze toon en nemen onze emotionele signalen over. Ze geven de voorkeur aan lof omdat hun trainingsgegevens in de richting van lof neigen. Ze versterken zichzelf vaker dan dat ze zich verzetten. En dit gebeurt in een tijd waarin validatie al een bepalende culturele kracht is.

Psychologen waarschuwen al meer dan tien jaar voor de toename van het validatiezoekende gedrag. Sociale platforms die zijn opgebouwd rond likes en shares hebben een nieuwe vorm gegeven aan de manier waarop mensen waarde meten. De American Psychological Association (APA) meldt een scherpe toename van de sociale vergelijking onder jongere generaties. Pew Research toont aan dat tieners hun eigenwaarde nu rechtstreeks koppelen aan online feedback. Onderzoekers van de Universiteit van Michigan hebben een groeiend patroon van ‘validatieverslaving’ geïdentificeerd, dat correleert met toegenomen angst.

We hebben een omgeving gecreëerd waarin goedkeuring de valuta is. Is het dan een wonder dat we neigen naar een instrument dat dit zo vrijelijk uitdeelt? Maar dit heeft consequenties. Het versterkt de spier die geruststelling wil, terwijl het de spier verzwakt die wrijving tolereert, de wrijving die het gevolg is van ondervraging of bewezen ongelijk.

Kunstmatige intelligentie maakt ons sneller. Het maakt ons niet beter

Ik ben niet tegen AI. Verre van dat. Ik gebruik het elke dag en werk in een branche die afhankelijk is van intelligent, datagedreven oordeelsvermogen. AI helpt me sneller te bewegen. Het vormt een basis voor mijn beslissingen en breidt uit wat ik in korte tijd kan overwegen. Maar het kan de spanning die nodig is voor groei niet vervangen.

Spanning is feedback. Spanning is verantwoordelijkheid. Spanning is realiteit. En de realiteit komt nog steeds van mensen.

Het gevaar is niet dat kunstmatige intelligentie ons bedriegt. Het is dat het ons minder bereid maakt om onszelf uit te dagen. Wanneer een model onze ideeën prijst of onze emoties weerspiegelt, creëert het een subtiele illusie dat we gelijk hebben, of op zijn minst zo dichtbij zijn dat we geen kritiek nodig hebben. Deze illusie kan geruststellend zijn, maar is ook riskant.

We hebben gezien wat er gebeurt als overeenstemming de voorkeur krijgt boven betwisting. Het besluit van NASA om Challenger te lanceren is een van de duidelijkste voorbeelden van groepsdenken in de moderne geschiedenis. Verschillende ingenieurs uitten hun zorgen, maar de druk om consensus te bereiken won en er volgde een tragedie. Kodak biedt nog een les. Het was een pionier op het gebied van digitale fotografie, maar bleef trouw aan de aannames van het filmtijdperk, ook al bewoog de markt zich in een andere richting. ALS Harvard bedrijfsrecensie heeft al lang opgemerkt dat “culturen die afwijkende meningen onderdrukken slechtere beslissingen nemen.” Wanneer de onenigheid verdwijnt, neemt het risico toe.

Grote leiders vertrouwen niet op validatie

De beste leiders die ik ken zijn niet gegroeid omdat mensen het met hen eens waren. Ze groeiden omdat iemand ze vroeg en vaak uitdaagde. Omdat iemand zei: ‘Ik denk niet dat dat juist is’, of, nog brutaler: ‘Je hebt het mis.’ Ze hebben geleerd te verwelkomen productief weerstand.

AI zal het niet doen, tenzij wij het vragen. En de meeste mensen zullen er niet om vragen omdat het beter is om gevestigd te zijn. Als we niet oppassen, wordt kunstmatige intelligentie de prettigste collega ter wereld: snel met lof, licht met kritiek en altijd klaar om ons gerust te stellen dat we op de goede weg zijn, zelfs als dat niet het geval is.

Geweldige ideeën hebben uithoudingsvermogen nodig. Dit is wat organisaties doen. Wij ook.

Kunstmatige intelligentie kan ons denken versnellen. Maar alleen mensen kunnen het slijpen. Dit is het deel van deze technologie waar we de meeste aandacht aan moeten besteden: niet wat het weet, maar wat het ons wil vertellen. En wat niet.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in