Technologiebedrijven en kinderbeschermingsinstanties zullen de bevoegdheid krijgen om te testen of AI-tools resultaten kunnen opleveren beelden van kindermisbruik volgens een nieuwe Britse wet.
De aankondiging werd gedaan toen een veiligheidswaakhond onthulde dat de meldingen van door kunstmatige intelligentie gegenereerd materiaal over seksueel misbruik van kinderen (CSAM) het afgelopen jaar meer dan verdubbeld zijn, van 199 in 2024 naar 426 in 2025.
Door de wijziging zal de overheid aangewezen AI-bedrijven en kinderveiligheidsorganisaties toestemming geven om AI-modellen – de technologie achter chatbots zoals ChatGPT en beeldgeneratoren zoals Google’s Veo 3 – te onderzoeken en ervoor te zorgen dat ze over veiligheidsmaatregelen beschikken om het gebruik ervan te voorkomen. beelden maken van seksueel kindermisbruik.
Kanishka Narayan, minister van Kunstmatige Intelligentie en Online Veiligheid, zei dat deze stap “uiteindelijk bedoeld is om misbruik te stoppen voordat het zich voordoet”, en voegde eraan toe: “Experts kunnen nu, onder strenge omstandigheden, risico’s in AI-modellen vroegtijdig opmerken.”
De wijzigingen zijn ingevoerd omdat het illegaal is om CSAM-materiaal te maken en te bezitten, wat betekent dat AI-ontwikkelaars en anderen dergelijke afbeeldingen niet kunnen maken als onderdeel van een testregime. Tot nu toe moesten de autoriteiten wachten tot de door AI gegenereerde CSAM-bestanden online waren geüpload voordat ze ermee aan de slag gingen. Deze wet heeft tot doel dit probleem op te lossen door het ontstaan van dergelijke beelden bij de bron te helpen voorkomen.
De veranderingen worden door de regering geïntroduceerd als amendementen op de Crime and Policing Bill, een wetgeving die ook een wet introduceert verbod op het bezitten, creëren of distribueren van AI-modellen ontworpen om kinderporno te genereren.
Deze week bezocht Narayan de Londense basis van Childline, een hulplijn voor kinderen, en luisterde naar een mock-up van een oproep aan hulpverleners met een op AI gebaseerde melding van misbruik. De oproep beeldde een tiener af die hulp zocht hij was gechanteerd door een geseksualiseerde deepfake van zichzelf, gebouwd met behulp van kunstmatige intelligentie.
“Als ik hoor dat kinderen online worden gechanteerd, is dat een bron van extreme woede bij mij en terechte woede bij mijn ouders”, zei ze.
De Internet Watch Foundation, die online pedofilie monitort, zegt dat de meldingen van door AI gegenereerd illegaal materiaal – zoals een webpagina die meerdere afbeeldingen kan bevatten – dit jaar meer dan verdubbeld zijn. Het aantal gevallen van categorie A-materiaal – de ernstigste vorm van misbruik – steeg van 2.621 afbeeldingen of video’s naar 3.086.
Meisjes waren het meest het doelwit en vormden in 2025 94% van de illegale AI-beelden, terwijl afbeeldingen van pasgeborenen en tweejarigen toenamen van vijf in 2024 naar 92 in 2025.
Kerry Smith, CEO van de Internet Watch Foundation, zei dat het wijzigen van de wet “een cruciale stap zou kunnen zijn om ervoor te zorgen dat AI-producten veilig zijn voordat ze worden vrijgegeven.”
“AI-hulpmiddelen hebben ervoor gezorgd dat overlevenden met slechts een paar klikken opnieuw het slachtoffer kunnen worden van seksueel misbruik van kinderen, waardoor criminelen de mogelijkheid hebben om potentieel onbeperkte hoeveelheden verfijnd, fotorealistisch materiaal over seksueel misbruik van kinderen te creëren”, zei hij. “Materiaal dat het lijden van slachtoffers verder vermarkt en kinderen, vooral meisjes, minder veilig maakt op en buiten internet.”
Childline heeft ook details vrijgegeven over counselingsessies waarin AI werd genoemd. Schade van AI die in gesprekken wordt genoemd, zijn onder meer: het gebruik van AI om gewicht, lichaam en uiterlijk te evalueren; chatbots die kinderen ervan weerhouden om met veilige volwassenen over misbruik te praten; online gepest worden met door AI gegenereerde inhoud; en online chantage met behulp van nepbeelden via kunstmatige intelligentie.
Tussen april en september dit jaar hield Childline 367 counselingsessies waarin kunstmatige intelligentie, chatbots en aanverwante termen werden genoemd, vier keer meer dan in dezelfde periode vorig jaar. De helft van de verwijzingen naar AI in de sessies van 2025 gingen over geestelijke gezondheid en welzijn, inclusief het gebruik van chatbots voor ondersteuning en AI-therapie-apps.



