Home Nieuws “Ik werd er een beetje aardiger van”: hoe managers kunstmatige intelligentie gebruiken...

“Ik werd er een beetje aardiger van”: hoe managers kunstmatige intelligentie gebruiken om beslissingen te nemen

3
0
“Ik werd er een beetje aardiger van”: hoe managers kunstmatige intelligentie gebruiken om beslissingen te nemen

NAAR DE het beweegt zich snel voorbij mechanische taken en begeeft zich naar het rijk van bredere beslissingen die ooit alleen op menselijk oordeel berustten. Omdat bedrijven AI als een denkende partner behandelen, introduceert de technologie ook nieuwe risico’s. Maar de efficiëntiewinst is moeilijk te negeren, en bedrijven zijn hals over kop bezig met de adoptie ervan.

“Het lijkt erg op een stafchef of een senior consultant”, zegt Stacy Spikes, CEO van filmabonnementsservice MoviePass. Voor Spikes vertegenwoordigen AI-platforms een tweede of derde paar ogen, die hem helpen verkopers te benaderen of moeilijke situaties tussen mensen aan te pakken. Hij zegt dat hij AI als klankbord ziet, en niet als beslisser.

“Ik laat het niet voor mij beslissen, of vooraf bepalen wat ik ga doen, maar ik laat het mij een beter begrip geven”, zegt hij.

De ervaring van Spikes laat de spanningen zien waarmee bedrijven worden geconfronteerd bij het lanceren van hun eerste use cases. AI kan werknemers helpen sneller en nauwkeuriger te handelen, maar organisaties evalueren nog steeds wat werkt en wat niet, waar de vangrails moeten zijn en hoe ze kunnen voorkomen dat hun oordeel in de automatische piloot terechtkomt.

In alle sectoren testen leiders nu de interactie tussen AI en menselijk oordeel en ontwikkelen ze processen waarmee deze twee kunnen samenwerken.

Kunstmatige intelligentie als strategische partner

Spikes integreert AI in zijn uitvoerende workflow. Hij vergelijkt het met de manier waarop grote bedrijven managementconsultants inzetten om scenario’s en risico’s in kaart te brengen en als klankbord te fungeren. Het maakt gebruik van AI om te helpen bij complexe beslissingen met betrekking tot de dynamiek van mensen, situationele grijze gebieden en de selectie van externe partners of serviceteams: het kan bijvoorbeeld advies geven over het omgaan met meningsverschillen tussen collega’s of partners, of alternatieve perspectieven bieden die iemands oorspronkelijke standpunt uitdagen.

“Ik praat voortdurend” tegen verschillende AI-tools, zegt Spikes. “Ik zal ze informatie geven en openhartige gesprekken met ze voeren, bijna als een heel onderzoeksteam, zoals je zou doen met McKinsey- of PwC-consultants.” Het zegt dat het “op een kruispunt op de weg van beslissingen” zal komen en kunstmatige intelligentie zal gebruiken “om dit of dat pad te beslissen.”

Hij zal dubbelzinnige beoordelingsscenario’s uitvoeren over meerdere modellen om perspectieven te vergelijken, voordat hij zelf ingrijpt. Er staat dat er geen gevoelige gegevens worden gedeeld met LLM’s; Wanneer hij met zijn team of leveranciers werkt, vraagt ​​hij vaak om ideeën over het beheren van ‘uitdagende mijlpalen’, zelfs als het bedrijf doelen of KPI’s heeft gesteld en deze mist. AI vervangt uw besluitvorming niet; het geeft hem eerder eenvoudigweg meer informatie op basis waarvan hij een beslissing kan nemen.

Hij wijst op een recente zaak met een aannemer die losliet. Het werk was in de eerste week van de maand klaar, maar de aannemer stond erop de hele maand betaald te krijgen. Spikes liet het scenario door twee verschillende AI-modellen lopen. Eén van hen gaf een krachtig, zwart-witantwoord: verdeel het werk en ga verder. Een ander hulpmiddel formuleerde de vraag subtieler en benadrukte de bijdragen uit het verleden van de persoon. Hoewel Spikes uiteindelijk bij zijn eerdere beslissing bleef – om de betaling naar rato te verdelen – zegt hij dat gesprekken met de AI zijn toon beïnvloedden, waardoor hij de discussie met meer empathie benadert.

Hij bedankte de leverancier voor hun eerdere werk, maar legde uit dat prorating noodzakelijk was om de eerlijkheid binnen het team te behouden, vooral omdat ‘mensen praten’, benadrukte hij. Maar als hij de AI niet had geraadpleegd, zou hij misschien niet in de richting van dat evenwicht zijn geduwd. Op de vraag of de AI de onderliggende beslissing heeft gewijzigd, zegt Spikes nee, maar het heeft zijn toon beïnvloed.

“Het maakte me een beetje aardiger dan ik zou zijn geweest.”

Ondersteun dagelijkse beslissingen

Elders integreren bedrijven AI in operationele beslissingen om werknemers een duidelijker inzicht te geven en de besluitvorming te versnellen.

Dave Glick, senior vice-president van corporate business services bij Walmart, zegt dat bedrijfsteams een interne AI-tool gebruiken die de ‘associate super agent’ wordt genoemd. Het werkt als één enkele voordeur: medewerkers stellen een vraag en het systeem geeft deze in stilte door aan kleine taakspecifieke tools op de achtergrond.

Eén use case is wanneer medewerkers willen begrijpen wat er mis is gegaan met een zending of bezorging. Het kan voorkomen dat een zending aankomt zonder bijbehorende inkooporder of in het verkeerde pand terechtkomt; het kunstmatige-intelligentiesysteem verzamelt gegevens uit meerdere bronnen om te reconstrueren wat er waarschijnlijk is gebeurd.

“Veel van deze taken zijn een soort detectivewerk”, zegt Glick. “Deze inkooporder is bij het verkeerde gebouw aangekomen, of deze zending is aangekomen en we hebben er geen inkooporder voor.” Vervolgens zet de AI alles bij elkaar en laat zien wat er waarschijnlijk is gebeurd.

Glick benadrukte dat de mens de controle behoudt en eventuele conclusies van de kunstmatige intelligentie kan negeren. Wat ooit het verkennen van meerdere databases vereiste, wordt nu gecomprimeerd tot een veel snellere voorlopige beoordeling, waarbij AI de gegevens verzamelt voordat de medewerker belt.

Uiteindelijk hangt de waarde van AI af van het vermogen om de juiste gegevens te vinden en te verzamelen; als de gegevens niet schoon zijn, kan AI een beslissing niet zinvol ondersteunen.

Marne Martin, CEO van softwarebedrijf Emburse voor onkostenbeheer, merkte op dat AI het beste werkt als de beslissing herhaalbaar is en de gegevens die deze aansturen schoon zijn. “Als je meer dan 3,5% onnauwkeurige of zeer scheve gegevens in je model hebt, bereik je niet de nauwkeurigheid die nodig is om de AI te vertrouwen”, zegt hij.

Op dezelfde manier zegt Rafee Tarafdar, CTO van Infosys, dat het IT-dienstenbedrijf de afhankelijkheid van AI koppelt aan risico’s: hoe hoger de inzet en hoe zwakker het vertrouwen in het model voor een bepaalde use case, hoe meer een mens moet ingrijpen.

Is het riskant om te veel te vertrouwen op kunstmatige intelligentie?

Efficiëntieverbeteringen als gevolg van het gebruik van AI zijn vroege overwinningen, maar onderzoekers waarschuwen dat blootstelling aan AI de manier waarop mensen handelen kan veranderen, waardoor ze zich te veel aan het oordeel van de AI onderwerpen of hun toevlucht nemen tot meer controlegerichte reacties.

José-Mauricio Galli Geleilate, universitair hoofddocent management aan de Universiteit van Massachusetts Lowell, doet zijn zegje in een interview onderzoek laat zien dat AI-consulting “uw visie op het probleem verandert en de manier waarop u het ziet, waardoor leiders “meer in de richting van controle” worden geduwd, zoals punitieve of op surveillance gerichte oplossingen.

Zijn co-auteur Beth Humberd, tevens universitair hoofddocent management aan UMass Lowell, beschrijft het effect als een soort psychologische afstandelijkheid: wanneer managers een machine aanspreken in plaats van een collega, “heb je niet de menselijke signalen die je zou hebben als je iemand anders naar zijn gedachten zou vragen, zegt ze, waardoor je” zou stoppen en de persoon aan de andere kant in overweging zou nemen.

Léonard Boussioux, assistent-professor informatiesystemen aan de Foster School of Business van de Universiteit van Washington, zegt dat zijn onderzoek toont mensen kunnen zich snel aansluiten bij AI omdat modellen “heel goed zijn in het maken van geldige argumenten” en mensen de neiging hebben om alles te vertrouwen dat logisch en goed gearticuleerd lijkt.

Om deze effecten te beteugelen, zeggen onderzoekers dat organisaties wrijving moeten creëren door mensen te dwingen langzamer te gaan werken, de uitkomsten in twijfel te trekken en een menselijke context in te voegen die AI niet kan vastleggen.

De bedrijven zeggen dat ze kunstmatige intelligentie gebruiken om het menselijk oordeel te vergroten, maar niet te vervangen. En naarmate de adoptie groeit, proberen velen nog steeds uit te vinden waar de overdracht zal plaatsvinden.

Voor velen is het obstakel wellicht meer cultureel dan technisch: werknemers dwingen de resultaten van AI in twijfel te trekken en zich tegelijkertijd op hun gemak te voelen met de integratie ervan in de dagelijkse workflows.

AI is “een niveau hoger dan waar we normaal gesproken zijn”, zegt Spikes. “Een CEO heeft nu een andere adviseur die onbeperkte capaciteit heeft om data en informatie te verwerven.”

“Het informeert mij en geeft mij een breder perspectief.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in