ATLANTA – De regering-Trump overweegt een uitvoerend bevel om kunstmatige intelligentie te reguleren dat staten ervan zou weerhouden de technologie in de gaten te houden, met het argument dat er maar één stel regels zou moeten zijn.
Deze stap heeft tot bezorgdheid geleid onder voorstanders van kinderveiligheid, omdat dit van invloed zou zijn op de manier waarop staten kunstmatige intelligentie voor minderjarigen reguleren.
Klinisch psycholoog Eileen Kennedy-Moore vertelde Raising America echter dat regulering nu meer dan ooit nodig is.
“Dit is niet optioneel. Het is geen kwestie van rood versus blauw”, zei Kennedy-Moore. “We houden allemaal van onze kinderen, dat hebben we allemaal gemeen. Dus nee, deze bedrijven slagen er niet in onze kinderen uit te buiten.”
Het onderhavige uitvoeringsbesluit zou een nationale norm stellen voor het reguleren van kunstmatige intelligentie en voor president Trump zei hij maandag hij zou deze week een order tekenen. De bedoeling is om een lappendeken van tegenstrijdige staatswetten te vermijden, die volgens de regering voor verwarring kunnen zorgen en innovatie kunnen belemmeren. Verschillende staten – waaronder Californië, Utah en Arkansas – hebben al wetten aangenomen of voorgesteld die gericht zijn op het beperken van het gebruik van AI onder minderjarigen, waardoor het nationale debat is aangewakkerd over de vraag of AI-regels op staats- of federaal niveau moeten worden vastgesteld.
Kennedy-Moore zegt dat het haar doel is om gezinnen te ondersteunen in een tijd van snelle technologische groei en wat zij beschrijft als een groeiende afhankelijkheid van kunstmatige intelligentie die een hele generatie negatief kan beïnvloeden.
‘Dit is te groot om door één gezin te worden afgehandeld’, zei hij. “Absoluut moeten deze bedrijven gereguleerd en in toom gehouden worden, en we moeten kijken naar het gezond verstand van wetenschappers, de media, de American Psychological Association, die lijsten hebben van dingen waarvan zij denken dat bedrijven eraan moeten voldoen, en we moeten onze kinderen beschermen.”
Kennedy-Moore voegde eraan toe dat het probleem niet alleen gaat over het beschermen van de veiligheid en privégegevens van jongeren, hoewel de risico’s voor de privacy van gegevens zijn benadrukt door kinderveiligheidsorganisaties en federale instanties. Het gaat ook om het opwerpen van barrières rond de toegang van kinderen. Zonder duidelijke normen kunnen jonge gebruikers gemakkelijk met één klik op de knop expliciete of leeftijdongepaste inhoud tegenkomen die door AI-systemen wordt gegenereerd, merkte hij op.
Hij waarschuwde dat AI-tools een vertekend beeld van de echte wereld kunnen creëren. Hoewel menselijke relaties van nature onenigheid, compromissen en emotionele nuances met zich meebrengen, bieden interacties met AI vaak onrealistische validatie en al te prettige reacties.
“Ik denk dat dat het grootste gevaar is, en ik heb derdeklassers horen zeggen: ‘Oh, het helpt mijn sociale vaardigheden en vergroot mijn zelfvertrouwen.’ Nee, zo is het niet. Het is zo verschrikkelijk die slaafsheid: ‘Oh, je bent zo slim, je bent zo geweldig.’ Het is verschrikkelijk. Dit bevordert narcisme in echte relaties”, zei hij. “In een echte relatie hebben we de mogelijkheid om uit te leggen, te begrijpen, compromissen te sluiten of te accepteren, en dat is wat ons helpt groeien.”
Copyright 2025 Nexstar Media Inc. Alle rechten voorbehouden. Dit materiaal mag niet worden gepubliceerd, uitgezonden, herschreven of opnieuw gedistribueerd.



