Home Nieuws Het gebruik van ChatGPT door een immigratieambtenaar voor verwijzingen doet alarm rinkelen....

Het gebruik van ChatGPT door een immigratieambtenaar voor verwijzingen doet alarm rinkelen. Deskundigen leggen uit waarom

26
0
Het gebruik van ChatGPT door een immigratieambtenaar voor verwijzingen doet alarm rinkelen. Deskundigen leggen uit waarom

Weggestopt in een voetnoot van twee zinnen in een omvangrijk oordeel van de rechtbank, heeft een federale rechter onlangs beroep aangetekend immigratie agenten gebruiken kunstmatige intelligentie om rapporten te schrijven over het gebruik van geweld, waarbij de bezorgdheid wordt geuit dat dit tot onnauwkeurigheden zou kunnen leiden en het vertrouwen van het publiek verder zou kunnen uithollen hoe hij met de politie omging de onderdrukking van de immigratie in Omgeving Chicago en de daaruit voortvloeiende protesten.
De Amerikaanse districtsrechter Sara Ellis schreef de voetnoot in een 223 pagina’s tellend advies dat vorige week werd uitgebracht, en merkte op dat de praktijk van het gebruik van ChatGPT om rapporten over geweldgebruik te schrijven de geloofwaardigheid van officieren ondermijnt en “de onnauwkeurigheid van deze rapporten zou kunnen verklaren.” Hij beschreef wat hij zag in ten minste één lichaamscameravideo en schreef dat een officier ChatGPT vraagt ​​om een ​​verhaal voor een rapport samen te stellen nadat hij het programma een korte beschrijvende zin en verschillende afbeeldingen heeft gegeven.
De rechter merkte feitelijke discrepanties op tussen het officiële verhaal over de reacties van de wetshandhaving en wat de lichaamscamerabeelden lieten zien. Maar experts zeggen dat het gebruik van AI om een ​​rapport te schrijven dat afhangt van het specifieke perspectief van een functionaris, zonder gebruik te maken van de feitelijke ervaring van een functionaris, het slechtst mogelijke gebruik van de technologie is en ernstige zorgen oproept over nauwkeurigheid en privacy.

Het noodzakelijke perspectief van een officier

Wetshandhavingsinstanties in het hele land worstelen met het creëren van vangrails waardoor agenten de steeds beter beschikbare AI-technologie kunnen gebruiken met behoud van nauwkeurigheid, privacy en professionaliteit. Deskundigen betogen dat het in het advies gegeven voorbeeld niet aan deze uitdaging voldoet.
“Wat deze man deed is het ergste van alle werelden. Met één zin en een paar foto’s – als het waar is, als dat is wat hier is gebeurd – druist het in tegen elk klein beetje advies dat we hebben. Het is een nachtmerriescenario”, zegt Ian Adams, assistent-professor criminologie aan de Universiteit van South Carolina, die deel uitmaakt van een taskforce voor kunstmatige intelligentie via de Council for Criminal Justice, een onpartijdige denktank.
Het ministerie van Binnenlandse Veiligheid heeft niet gereageerd op verzoeken om commentaar, en het is onduidelijk of het agentschap richtlijnen of beleid heeft over het gebruik van kunstmatige intelligentie door agenten. De beelden van de in het bevel genoemde camera zijn nog niet vrijgegeven.
Adams zei dat weinig departementen beleid hebben ingevoerd, maar dat die vaak het gebruik van voorspellende kunstmatige intelligentie verbieden bij het schrijven van rapporten die wetshandhavingsbeslissingen rechtvaardigen, met name rapporten over het gebruik van geweld. Rechtbanken hebben een norm vastgesteld die objectieve redelijkheid wordt genoemd bij de beoordeling of het gebruik van geweld gerechtvaardigd was, waarbij ze sterk leunen op het perspectief van de specifieke officier in dat specifieke scenario.
“We hebben de specifieke, gearticuleerde gebeurtenissen van die gebeurtenis en de specifieke gedachten van die specifieke officier nodig om ons te laten weten of dit een gerechtvaardigd gebruik van geweld was”, zei Adams. “Dat is het ergste scenario, afgezien van hem expliciet te vertellen dat hij de feiten moet verzinnen, omdat je hem smeekt om de feiten te verzinnen in deze situatie waar veel op het spel staat.”

Privé-informatie en bewijsmateriaal

Naast het uiten van zorgen over een door AI gegenereerd rapport dat onnauwkeurig beschrijft wat er is gebeurd, brengt het gebruik van AI ook potentiële privacyproblemen met zich mee.
Katie Kinsey, stafchef en technologiebeleidsadviseur bij het Policing Project van de NYU School of Law, zei dat als de agent van het korps een openbare versie van ChatGPT gebruikte, hij zich waarschijnlijk niet realiseerde dat hij de controle over de afbeeldingen had verloren op het moment dat hij ze uploadde, waardoor ze onderdeel konden worden van het publieke domein en mogelijk door slechte acteurs konden worden gebruikt.
Kinsey zei dat vanuit technologisch oogpunt de meeste afdelingen het vliegtuig bouwen zoals het wordt gevlogen als het gaat om kunstmatige intelligentie. Hij zei dat het bij wetshandhaving vaak een patroon is om te wachten tot nieuwe technologieën al worden gebruikt en dat er in sommige gevallen fouten worden gemaakt om vervolgens te praten over het invoeren van richtlijnen of beleid.
“Je zou de dingen liever andersom doen, de risico’s begrijpen en barrières rond de risico’s ontwikkelen,” zei Kinsey. “Zelfs als ze de beste praktijken niet bestuderen, zijn er laaghangende vruchten die kunnen helpen. We kunnen beginnen met transparantie.”
Kinsey zei dat als de federale wetshandhavingsinstanties beoordelen hoe de technologie wel of niet moet worden gebruikt, ze een beleid kunnen aannemen zoals dat onlangs in Utah of Californië is ingevoerd, waarin politierapporten of communicatie die met behulp van kunstmatige intelligentie is geschreven, moeten worden geëtiketteerd.

Zorgvuldig gebruik van nieuwe hulpmiddelen

De foto’s die de officier gebruikte om een ​​verhaal te genereren, zorgden er ook voor dat sommige experts de juistheid ervan in twijfel trokken.
Populaire technologiebedrijven zoals Axon zijn begonnen met het aanbieden van kunstmatige-intelligentiecomponenten met hun lichaamscamera’s om te helpen bij het melden van ongevallen. AI-programma’s die door de politie op de markt worden gebracht, werken op een gesloten systeem en zijn grotendeels beperkt tot het gebruik van audio van lichaamscamera’s om verhalen te produceren, omdat bedrijven hebben gezegd dat programma’s die proberen de beelden te gebruiken niet effectief genoeg zijn voor gebruik.
“Er zijn veel verschillende manieren om een ​​kleur, een gezichtsuitdrukking of een visuele component te beschrijven. Je kunt het aan elke AI-expert vragen en zij zullen je vertellen dat suggesties heel verschillende resultaten opleveren tussen verschillende AI-toepassingen, en dat wordt ingewikkeld met een visuele component”, zegt Andrew Guthrie Ferguson, hoogleraar rechten aan de George Washington University Law School.
“Er is ook een kwestie van professionaliteit. Vinden we het goed dat politieagenten voorspellende analyses gebruiken?” voegde hij eraan toe. “Het gaat erom wat het model denkt dat er had moeten gebeuren, maar het kan zijn dat dit niet is wat er daadwerkelijk is gebeurd. Je wilt niet dat dat voor de rechter komt, om je daden te rechtvaardigen.”

—Claudia Lauer, Associated Press

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in