Home Nieuws Uw AI-assistent kan u slechter maken in uw werk, tenzij deze op...

Uw AI-assistent kan u slechter maken in uw werk, tenzij deze op de juiste manier is gebouwd

11
0

Toen ik een paar jaar geleden bij een traditioneel advocatenkantoor werkte, ontmoetten partners ons vrijwel zonder enthousiasme. ‘Verheug je,’ kondigden ze aan, terwijl ze onze nieuwe onthulden NAAR DE assistent die het juridische werk sneller, gemakkelijker en beter zou maken. Er werd een expert ingeschakeld om ons te trainen op het gebied van dashboards en automatisering. Binnen een paar maanden veranderde zijn enthousiasme in frustratie, omdat advocaten het dure instrument negeerden of, erger nog, blindelings de aanbevelingen ervan volgden.

Toen besefte ik: we leerden niet hoe we AI moesten gebruiken. De AI leerde ons gebruiken.

Veel traditionele advocatenkantoren zijn overhaast begonnen met het adopteren van op AI gebaseerde beslissingsondersteunende instrumenten voor cliëntselectie, zaakevaluatie en strategieontwikkeling. De stelling is onweerstaanbaar: AI verlaagt de kosten, bespaart tijd en belooft betere beslissingen op basis van pure logica, onaangetast door menselijke vooroordelen of emoties.

Deze systemen lijken accuraat: wanneer AI in zaken wordt gebruikt, wordt het bewijsmateriaal geclassificeerd als ‘sterk’, ‘gemiddeld’ of ‘zwak’. Case-uitkomsten ontvangen waarschijnlijkheidsscores. Juridische strategieën zijn kleurgecodeerd op basis van risiconiveau.

Maar deze duidelijke zekerheid maskeert een verwarrende realiteit: de meeste van deze AI-evaluaties zijn gebaseerd op eenvoudige scoreregels die controleren of informatie overeenkomt met vooraf gedefinieerde kenmerken. Dit is verfijnde patroonafstemming, geen wijsheid, en het stort op spectaculaire wijze in in randgevallen die niet in het patroon passen.

En hier komt het knaller: AI-systemen repliceren vaak juist de vooroordelen die ze geacht worden te elimineren. Onderzoek is vinden dat algoritmische aanbevelingen in de juridische technologie menselijke vooroordelen die inherent zijn aan de trainingsgegevens kunnen weerspiegelen en zelfs versterken. Uw ‘objectieve’ AI-tool heeft misschien dezelfde blinde vlekken als een bevooroordeelde partner, maar is alleen sneller en veiliger.

En toch: dit alles betekent niet dat we AI-tools moeten opgeven. Het betekent bouwen en beter eisen.

De standaardval

“En dan?” zou je denken. “AI-tools zijn precies dat: tools. Kunnen we niet profiteren van hun snelheid en efficiëntie terwijl we hun suggesties kritisch onderzoeken?”

In theorie ja. Kortom, we zijn hier verschrikkelijk in.

Gedragseconomen hebben dit gedocumenteerd een fenomeen dat status quo bias wordt genoemd: Onze krachtige voorkeur voor standaardwaarden. Wanneer een AI-systeem een ​​aanbeveling doet, wordt die aanbeveling de weg van de minste weerstand. Het in twijfel trekken kost tijd, cognitieve inspanning en de sociale schaamte van het negeren van wat de consensus van deskundigen lijkt te zijn.

Ik heb dit in het bedrijfsleven herhaaldelijk zien gebeuren. Een medewerker zou de details van de zaak bekijken via kunstmatige intelligentie, die met een juridische strategie zou komen. In plaats van het als één van de vele input te beschouwen, werd het het startpunt dat vorm gaf aan elke volgende discussie. De AI-hypothese is onze standaard geworden, en standaarden zijn permanent.

Dit zou er niet toe doen als we tenminste erkenden wat er gebeurde. Maar er gebeurt iets verraderlijkers: ons vermogen om onafhankelijk te denken neemt af. De schrijver Nicholas Carr heeft al lang gewaarschuwd over de cognitieve kosten van het uitbesteden van het denken aan machines, en steeds meer bewijs ondersteunt zijn zorgen. Elke keer dat we AI uitstellen zonder het in twijfel te trekken, worden we een beetje slechter in het zelf maken van deze oordelen.

Ik heb juniormedewerkers het vermogen zien verliezen om zelfstandig zaken te beoordelen. Ze zijn bedreven geworden in het omgaan met de AI-interface, maar hebben moeite als hen wordt gevraagd een juridisch probleem helemaal opnieuw te analyseren. De tool moest ze efficiënter maken; in plaats daarvan maakte het hen afhankelijk.

Snelheid zonder wijsheid

Het echte gevaar is niet dat de AI fouten maakt. Feit is dat AI snel, veilig en op grote schaal fouten maakt.

Een advocaat accepteert een zaakevaluatie zonder te beseffen dat het systeem een ​​cruciaal precedent verkeerd heeft begrepen. Eén partner vertrouwt op door AI gegenereerde strategische aanbevelingen die er niet in slagen een creatief juridisch argument vast te leggen dat een mens zou hebben geïdentificeerd. Een bedrijf gebruikt kunstmatige intelligentie voor de intake van klanten en sluit systematisch gevallen uit die niet overeenkomen met historische patronen, zelfs als die gevallen de moeite waard zijn. Elke beslissing lijkt op dit moment rationeel, ondersteund door technologie en data. Maar slechte input en onvolmaakte modellen leveren slechte resultaten op, alleen sneller dan voorheen.

Het beste pad om te volgen

De problemen waar ik getuige van was, vloeiden voort uit de manier waarop deze oudere systemen waren ontworpen: als vervangingstools in plaats van als verbeteringstools. Ze positioneerden AI als de beslisser, waarbij mensen simpelweg de resultaten beoordeelden, in plaats van het menselijk oordeel centraal te stellen.

Er zijn betere juridische instrumenten voor AI, die een fundamenteel andere aanpak hanteren.

Ze zijn gebouwd met een op oordeelsvermogen gebaseerd ontwerp, waarbij advocaten worden behandeld als de belangrijkste besluitvormers en AI als een ondersteuningssysteem dat expertise vergroot in plaats van vervangt. Deze systemen maken hun redenering transparant en laten zien hoe ze tot aanbevelingen zijn gekomen, in plaats van de resultaten in een zwarte doos te presenteren. Ze omvatten periodieke vaardigheidsbeoordelingen om ervoor te zorgen dat advocaten hun onafhankelijke analytische capaciteiten behouden, zelfs als ze AI-hulp gebruiken. En ze zijn bedoeld om randgevallen en onzekerheden te signaleren in plaats van vals vertrouwen te wekken.

Het verschil is filosofisch: bouw je instrumenten die ervoor zorgen dat advocaten sneller advocaat worden, of instrumenten die de praktijk van het recht zelf proberen te vervangen?

Ik zie deze andere aanpak zich manifesteren in de immigratiediensten, waar de inzet van slechte beslissingen bijzonder hoog is. Neem een ​​geval waarin de werkgeschiedenis van een kandidaat niet perfect aansluit bij de historische goedkeuringspatronen; misschien hebben ze hiaten gehad, carrièreveranderingen gehad of in opkomende vakgebieden gewerkt. Een traditionele AI-tool zou het als ‘niet-standaard’ markeren, waardoor de kans op goedkeuring kleiner wordt en de standaardaanbeveling wordt. Een op oordelen gebaseerd systeem doet iets heel anders: het brengt de exacte factoren naar boven die de zaak atypisch maken, legt uit waarom een ​​precedent wel of niet van toepassing is, en vraagt ​​de immigratieambtenaar expliciet: “Wat zie je hier dat het algoritme mist?” De functionaris blijft de beslisser, gewapend met zowel de efficiëntie van AI als de cognitieve ruimte om genuanceerde expertise toe te passen. Het instrument heeft het oordeel niet vervangen; hij waardeerde het. Dit is het verschil tussen AI die professionals afhankelijk maakt en AI die hen vaardiger maakt.

Neem de controle terug

Dit alles betekent niet dat we AI-tools moeten opgeven. Het betekent dat je ze bewust gebruikt:

Behandel AI-aanbevelingen als concepten, niet als antwoorden. Voordat u AI-suggesties accepteert, moet u uzelf de vraag stellen: “Wat zou ik aanbevelen als het systeem er niet was?” Als je daar geen antwoord op kunt geven, ben je nog niet klaar om de output van de AI te evalueren.

Verhoogt de wrijving. Creëer een regel dat belangrijke beslissingen minimaal één alternatief vereisen voor de AI-aanbeveling. Doe je best om uit te leggen waarom de AI gelijk heeft, in plaats van aan te nemen dat dit zo is.

Regelmatig testen. Los problemen periodiek op zonder de hulp van AI om uw onafhankelijke oordeel te behouden. Zie het als een piloot die handmatige landingen oefent ondanks dat hij een automatische piloot heeft.

Vraag om transparantie. Daag leveranciers uit om uit te leggen hoe hun systemen tot conclusies komen. Als ze dat niet kunnen of willen, is dat een rode vlag. U heeft het recht om te begrijpen wat uw beslissingen drijft.

Blijf sceptisch over zekerheid. Als de resultaten van de AI verdacht betrouwbaar of accuraat lijken, graaf dan dieper. Problemen in de echte wereld zijn ingewikkeld; als het antwoord te duidelijk lijkt, is er waarschijnlijk iets te simpel gesteld.

De juridische professionals die gedijen met AI zijn niet degenen die zich er blindelings aan onderwerpen of het helemaal afwijzen. Zij zijn degenen die de efficiëntie ervan uitbuiten, terwijl ze tegelijkertijd een scherp menselijk oordeel behouden en die aandringen op instrumenten die zijn ontworpen om hun capaciteiten te vergroten in plaats van ze te omzeilen.

Als er niets aan wordt gedaan, zullen slecht ontworpen AI-assistenten je trainen om vreselijke beslissingen te nemen. Maar deze uitkomst is niet onvermijdelijk. De toekomst is aan juridische professionals die instrumenten eisen die hun expertise daadwerkelijk vergroten in plaats van ondermijnen. Snelheid en gemak verliezen immers veel van hun aantrekkingskracht als ze de kwaliteit van de rechtspraak zelf in gevaar brengen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in