Home Nieuws De reactie van Liz Kendall op het ‘nudificeren’ van X is goed,...

De reactie van Liz Kendall op het ‘nudificeren’ van X is goed, maar niet genoeg om het probleem op te lossen | Nana Nwachukwu

1
0
De reactie van Liz Kendall op het ‘nudificeren’ van X is goed, maar niet genoeg om het probleem op te lossen | Nana Nwachukwu

OFn Het is een schokkende inbreuk op de privacy, maar nu a vertrouwde en banale praktijk. Tussen juni 2025 en januari 2026 heb ik 565 gevallen gedocumenteerd van gebruikers die Grok vroegen om intieme afbeeldingen zonder wederzijds goedvinden te maken. Hiervan werden er op één dag 389 aangevraagd.

Afgelopen vrijdag kondigde X, na kritiek op het vermogen van het platform om seksuele afbeeldingen zonder wederzijds goedvinden te maken, aan dat de functie voor het genereren van AI-afbeeldingen van Grok zou zijn alleen beschikbaar zijn voor abonnees. Rapporten suggereren dat de bot nu reageert hij niet meer wanneer hem wordt gevraagd afbeeldingen van vrouwen in bikini’s te genereren (hoewel dit blijkbaar nog steeds zal gebeuren voor verzoeken waarbij mannen betrokken zijn).

Maar zoals minister van Technologie Liz Kendall terecht zegt: deze actie “gaat niet ver genoeg”. Kendall kondigde aan dat het creëren van intieme beelden zonder wederzijdse toestemming dat wel zal doen een strafbaar feit worden deze week en dat het het aanbieden van naaktheidsapps strafbaar zal stellen. Dit is passend, gezien de zwakke reactie van X. Door de functie achter een betaalmuur te plaatsen, kan het platform directer profiteren van de online ontmenselijking en seksuele intimidatie van vrouwen en minderjarigen. En het stoppen van de ‘bikini’-reacties na publieke afkeuring en de dreiging van wetgeving is het minste wat X kan doen – de grotere vraag is waarom dit überhaupt mogelijk was.

Deze maatregelen betekenen een stap voorwaarts. Secretaresse van schaduwtechnologie Julia Lopez suggereerde in haar antwoord dat de regering overdreven reageerde, dat het slechts “een moderne versie van een oud probleem” was, niet anders dan ruwe tekeningen of Photoshop. Hij heeft het mis. De schaal is anders. De bereikbaarheid is anders. De snelheid is anders. Bij Photoshop is technische expertise vereist, evenals directe publicatie door een gebruiker, die alle acties behalve het ter beschikking stellen van het platform precies daarop plaatst. In dit geval reageert de gebruiker echter regelmatig via sms met een verzoek en genereert en publiceert Grok crimineel misbruik voor een groot publiek.

De aanpak van Kendall criminaliseert gebruikers die deze afbeeldingen maken of wijzigen, en bedrijven die speciale naaktheidstools aanbieden. Dit is waar het punt gemist wordt. Grok en de belangrijkste tools voor het genereren van afbeeldingen zijn geen speciale naaktheidstools. Het zijn AI voor algemene doeleinden met zwakke waarborgen. Kendall vereist geen platforms om proactieve detectie te implementeren. De wet wacht tot de schade zich voordoet en bestraft dan.

De nadelen van deze aanpak liggen voor de hand. Ik heb maandenlang gekeken hoe dit materiaal werd gegenereerd voordat de mainstream-reactie begon. Dit zijn gegenereerde kwaadaardige afbeeldingen die nog steeds bestaan ​​en mogelijk zijn opgeslagen en gedeeld op andere platforms. Voor slachtoffers van dit op AI gebaseerde seksueel misbruikmateriaal zal regulering achteraf niet helpen. Voor schade die op deze manier structureel wordt vergroot, moet de aanpak preventief zijn en niet reactionair.

Een andere, meer fundamentele kwestie is dat terwijl Groot-Brittannië de regulering van de veiligheid op het gebied van AI promoot, de VS zich in de tegenovergestelde richting beweegt. DE Trump-regering wil “de Amerikaanse mondiale dominantie op het gebied van AI versterken door middel van een minimaal belastend nationaal beleidskader voor AI.” In deze context hebben Amerikaanse AI-bedrijven weinig prikkels om het misbruik van hun producten te reguleren. Dit is belangrijk omdat AI-regulering onvolledig is zonder grensoverschrijdende samenwerking. Kendall kan gebruikers in Groot-Brittannië criminaliseren, hij kan dreigen X volledig te verbieden. Maar hij kan niet voorkomen dat Grok in San Francisco wordt geprogrammeerd. Het kan OpenAI of Anthropic of enig ander Amerikaans bedrijf niet dwingen om veiligheid boven snelheid te stellen. Zonder Amerikaanse samenwerking proberen we een transnationale technologie te reguleren met nationale wetten.

Terwijl dit dispuut over regelgeving en beleidsupdates zich ontvouwt, zullen veel slachtoffers en andere vrouwen online zich afvragen wat dit nieuwe tijdperk van AI-aangedreven online seksuele intimidatie voor hen betekent en hun deelname aan wereldwijde sociale-mediaplatforms in twijfel trekken. Als mijn imago digitaal is gewijzigd, hoe kan ik dan gerechtigheid krijgen als de dader zich aan de andere kant van de wereld bevindt? Transparantie in de praktijken van AI-bedrijven wel in verval – dus hoe kunnen we erop vertrouwen dat bedrijven zelf verantwoordelijk zijn voor en controle uitoefenen op de systemen die schade reproduceren?

De waarheid is dat deze bedrijven niet te vertrouwen zijn. Dit is de reden waarom de regelgeving wereldwijd moet verschuiven van “het verwijderen van schade wanneer je die ontdekt” naar “het bewijzen dat jouw systeem schade voorkomt”. We moeten daarbij de macht codificeren door verplichte filtering van input, onafhankelijke audits en licentievoorwaarden te eisen die preventie tot een technisch-juridische vereiste maken. Dit betekent dat het schade kan opmerken voordat deze zich manifesteert, waardoor toezichthouders het schadelijke gedrag van deze AI-bedrijven kunnen minimaliseren voordat hun producten worden gedistribueerd. Dit is het soort werk waar wij mee bezig zijn Verantwoordingslaboratorium voor kunstmatige intelligentie In de Pas het centrum aan aan het Trinity College Dublin voeren ons onderzoek uit.

Regeling achteraf is beter dan niets. Het biedt echter weinig voor slachtoffers die al schade hebben geleden en omzeilt het opvallende gebrek aan wetshandhaving bij het aanpakken van deze platformschade.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in