Het digitale uitkleedschandaal van Grok is angstaanjagend. De afgelopen dagen hebben talloze vrouwen, inclusief de moeder van een van de kinderen van Elon Musk, Ik heb gevonden NAAR DE-seksueel gegenereerde en niet-consensuele afbeeldingen van zichzelf die op internet worden gepropageerd. Volgens één analyse genereerde Grok, althans vanaf begin januari, duizenden euro’s seksueel suggestieve of uitgeklede afbeeldingen van mensen per uur. (Elon Musk zegt nu dat het genereren van afbeeldingen alleen beschikbaar zal zijn voor betaalde gebruikers.)
Onderzoekers in verschillende landen zijn onderzoeken gestart naar de vraag of xAI in strijd is geweest met de wet, inclusief regelgeving inzake pornografische deepfakes en kinderpornografie. Natuurlijk is geen van deze regeringen zo verwikkeld in xAI, of Elon Musk, als de Verenigde Staten op dit moment.
Het Ministerie van Defensie bood het bedrijf een contract van $ 200 miljoen aan voor Grok vorig jaar. Nu zegt een functionaris van het Pentagon dat Snel bedrijf dat het “beleid van het agentschap inzake het gebruik van kunstmatige intelligentie volledig in overeenstemming is met alle toepasselijke wet- en regelgeving”, eraan toevoegend dat “het personeel verantwoordelijk is voor het handhaven van deze normen en dat elke illegale activiteit onderworpen zal zijn aan passende disciplinaire maatregelen.”
De regering-Trump tekende ook een reeks overeenkomsten met xAI om de Grok-chatbot aan te bieden aan federale werknemers voor gebruik op kantoor. Het Witte Huis reageerde niet op een verzoek om commentaar. Zelfs Carahsoft niet, een contractant van de federale overheid die zich heeft aangemeld de verkoop vergemakkelijken van xAI’s Grok for Government-productsuite.
Het lijkt erop dat de General Services Administration, een wankele maar kritische federale instantie die verschillende grote overheidsdeals heeft geregeld voor kunstmatige-intelligentiebedrijven, waaronder xAI, de kwestie aan de orde stelt. Dat vertelt het bureau Snel bedrijf dat Grok nog steeds interne beveiligingstests onderging voordat het werd geïntegreerd in USAi, een enorm platform voor kunstmatige intelligentie voor de Amerikaanse overheid dat al technologie van bedrijven als OpenAI, Google en Anthropic bevat.
Maar het is onduidelijk hoe betrokken of actief deze tests eigenlijk zijn. Het is maanden geleden dat deze beoordelingen voor het eerst werden besproken en het bureau heeft geen updates vrijgegeven over de prestaties van Grok. Snel bedrijf heeft op grond van de Freedom of Information Act een verzoek ingediend om openbaar beschikbare documenten met betrekking tot de resultaten van die beoordelingen, maar ontving geen antwoord.
“Grok for Government en xAI ondergaan momenteel interne veiligheidsbeoordelingen die vereist zijn door GSA voorafgaand aan een mogelijke integratie in USAi.gov”, zegt Marianne Copenhaver, een woordvoerster van het agentschap. Snel bedrijf. Elke federale instantie die besluit Grok over te nemen via de grotere xAI-overheidsovereenkomst die zij al voor het bedrijf heeft helpen onderhandelen, is “verantwoordelijk voor het evalueren van de modellen die zij wil gebruiken”, voegt hij eraan toe.
Copenhaver zei niet of de dienst onderzoek deed naar Groks nieuwe neiging tot het produceren van kinderpornografie (CSAM).
Verantwoordelijkheid
In de Verenigde Staten is het mogelijk dat xAI met juridische problemen te maken krijgt. Het gebruik van kunstmatige intelligentie bij het uitkleden van minderjarigen valt bijvoorbeeld al onder het bestaande strafrecht. Daarnaast is er de Take It Down Act, een tweeledig wetsvoorstel opgesteld door senatoren Ted Cruz en Amy Klobuchar en ondertekend door Donald Trump vorig jaar vereist dat platforms niet-consensuele, door AI aangedreven seksuele afbeeldingen binnen twee dagen na kennisgeving verwijderen.
De werkgelegenheid van Grok binnen de Amerikaanse federale overheid zou een grote last kunnen vormen, zeggen verschillende experts Snel bedrijf.
Als instanties xAI gebruiken, zullen ambtenaren uiteindelijk extra vangrails nodig hebben om Grok bruikbaar te maken voor de overheid, wat moeilijk zou zijn als xAI uiteindelijk wat gegevens over overheidssystemen zou bewaren, zegt een voormalig functionaris van het Witte Huis.
In de huidige vorm van Grok zouden federale werknemers in theorie CSAM kunnen creëren – een “alarmerende” mogelijkheid, zegt David Nesting, een voormalig AI-adviseur van de federale hoofdinformatiefunctionaris. “Als instanties het gebruik van generatieve AI op de werkplek niet monitoren en filteren, lijkt dit een leemte.”
Mike Horton, voormalig AI-chef van het Department of Transportation, zegt dat het CSAM-probleem van Grok het “onvermijdelijke gevolg is van de cultuur van het Wilde Westen in Silicon Valley en dat de federale overheid ‘snel handelt en dingen kapotmaakt’.” Vangrails zijn noodzakelijk, zegt hij, om te voorkomen dat dit soort situaties zich überhaupt voordoen.
“Ongeremde AI-acceleratie zonder vangrails is als het besturen van een Maserati met 190 km/u zonder remmen. Met die snelheid kun je betrouwbaar en veilig rijden Waarom van de remmen, niet ondanks die remmen”, zegt hij.



