Voor het eerst staat Washington op het punt om te beslissen hoe kunstmatige intelligentie moet worden gereguleerd. En de strijd die gaande is, gaat niet over technologie, maar over wie de regelgeving moet doen.
Bij gebrek aan een zinvolle federale AI-standaard gericht op consumentenveiligheid hebben staten tientallen wetsvoorstellen ingediend om inwoners te beschermen tegen AI-gerelateerde schade, waaronder de Californische AI-veiligheidswet SB-53 en de Texas Responsible AI Governance Act, die opzettelijk misbruik van AI-systemen verbiedt.
Technologiegiganten en bruisende Silicon Valley-startups betogen dat dergelijke wetten een onwerkbare lappendeken creëren die de innovatie bedreigt.
“Het zal ons vertragen in de race tegen China”, vertelde Josh Vlasto, medeoprichter van de pro-AI Leading the Future PAC, aan TechCrunch.
De industrie en veel daarvan transplantaties in het Witte Huis dringt hij aan op een nationale standaard of helemaal geen. In de loopgraven van die alles-of-niets-strijd zijn nieuwe pogingen ontstaan om staten te verbieden hun eigen AI-wetgeving uit te vaardigen.
Huiswetgevers proberen naar verluidt de National Defense Authorization Act (NDAA) te gebruiken om staats-AI-wetten te blokkeren. Tegelijkertijd blijkt uit een uitgelekt ontwerp van een uitvoeringsbesluit van het Witte Huis ook krachtige steun voor het voorkomen van staatsinspanningen om AI te reguleren.
Brede preventieve actie die staten het recht zou ontnemen om kunstmatige intelligentie te reguleren, is niet populair in het Congres, dat met overweldigende meerderheid tegen een voorstel stemde soortgelijk moratorium eerder dit jaar. Wetgevers voerden aan dat staten die de maatregelen blokkeren, als er geen federale norm is, consumenten blootstellen aan schade en dat technologiebedrijven vrij zullen zijn om zonder toezicht te opereren.
Techcrunch-evenement
San Francisco
|
13-15 oktober 2026
Om deze nationale norm te creëren, bereiden vertegenwoordiger Ted Lieu (D-CA) en de tweeledige House Task Force on Artificial Intelligence een pakket federale AI-wetsvoorstellen voor die een reeks consumentenbeschermingen bestrijken, waaronder fraude, gezondheidszorg, transparantie, kinderveiligheid en catastrofale risico’s. Het zal waarschijnlijk maanden, zo niet jaren duren voordat een megawet als deze wet wordt, wat onderstreept waarom de huidige haast om het staatsgezag te beperken een van de meest controversiële veldslagen in het AI-beleid is geworden.
De gevechtslinies: NDAA en EO
De inspanningen om te voorkomen dat staten AI reguleren, zijn de afgelopen weken toegenomen.
Het Huis van Afgevaardigden overwoog om in de NDAA taal op te nemen die staten ervan zou weerhouden kunstmatige intelligentie te reguleren, zei meerderheidsleider Steve Scalise (R-LA). Punchbowl-nieuws. Het Congres was naar verluidt bezig om vóór Thanksgiving een akkoord over de defensiewet af te ronden. Dat heeft de politiek gemeld. Een bron die bekend is met de zaak vertelde TechCrunch dat de onderhandelingen zich hebben gericht op het verkleinen van de reikwijdte om mogelijk het staatsgezag te behouden op gebieden als de veiligheid van kinderen en transparantie.
Ondertussen, een EO van het Witte Huis lekte Het ontwerp onthult de potentiële preventieve strategie van de regering. De EO, die naar verluidt in de wacht gezetzou een ‘AI Litigation Task Force’ oprichten om de AI-wetten van de staten voor de rechtbank aan te vechten, agentschappen opdracht geven om staatswetten die als ‘belastend’ worden beschouwd te beoordelen, en de Federal Communications Commission en de Federal Trade Commission in de richting van nationale normen te duwen die de staatsregels terzijde schuiven.
Met name zou de EO David Sacks – de AI en Crypto Czar van Trump en mede-oprichter van de durfkapitaalfirma Craft Ventures – mede-leidende autoriteit geven bij het creëren van een uniform juridisch kader. Dat zou Sacks directe invloed geven op het AI-beleid dat de typische rol vervangt van het Witte Huis Office of Science and Technology Policy en zijn chef Michael Kratsios.
Sacks heeft publiekelijk gepleit voor het blokkeren van staatsregulering en het handhaven van ondergeschikte federale controle, waarbij hij zelfregulering van de industrie bepleit om ‘de groei te maximaliseren’.
Het patchwork-onderwerp
De positie van Sacks weerspiegelt de opvattingen van een groot deel van de AI-industrie. Er zijn de afgelopen maanden verschillende pro-AI-super-PAC’s ontstaan, die honderden miljoenen dollars in lokale en staatsverkiezingen hebben gestoken om zich te verzetten tegen kandidaten die AI-regulering steunen.
De toekomst besturen – gesteund door Andreessen Horowitz, OpenAI-president Greg Brockman, Perplexity en mede-oprichter van Palantir Joe Lonsdale – heeft meer dan $100 miljoen opgehaald. Deze week lanceerde Leading the Future een Campagne van 10 miljoen dollar Het Congres ertoe aanzetten een nationaal AI-beleid te ontwikkelen dat de staatswetten terzijde schuift.
“Als je innovatie in de technologie-industrie probeert te stimuleren, kun je geen situatie krijgen waarin al deze wetten blijven komen van mensen die niet noodzakelijkerwijs over de technische expertise beschikken”, vertelde Vlasto aan TechCrunch.
Hij betoogde dat een lappendeken van staatsregels ‘ons zal vertragen in de race tegen China’.
Nathan Leamer, uitvoerend directeur van Build American AI, de belangenorganisatie van de PAC, bevestigde dat de groep voorrang steunt zonder dat er federale consumentenbescherming is die specifiek is voor AI. Leamer betoogde dat bestaande wetten, zoals de wetten die fraude of productaansprakelijkheid aanpakken, voldoende zijn om de schade als gevolg van AI aan te pakken. Waar staatswetten vaak problemen proberen te voorkomen voordat ze zich voordoen, geeft Leamer de voorkeur aan een meer reactieve aanpak: bedrijven snel laten handelen en problemen later voor de rechter aankaarten.
Geen voorkoop zonder vertegenwoordiging

Alex Bores, een parlementslid uit New York dat zich kandidaat stelt voor het Congres, is een van de belangrijkste doelwitten van Leading the Future. Hij sponsorde de OPHEFFENDE wetwaarvoor grote AI-laboratoria veiligheidsplannen moeten hebben om ernstige schade te voorkomen.
“Ik geloof in de kracht van kunstmatige intelligentie, en daarom is het zo belangrijk om redelijke regelgeving te hebben”, vertelde Bores aan TechCrunch. “Uiteindelijk zal de AI die op de markt wint een betrouwbare AI zijn, en de markt onderschat vaak of biedt op de korte termijn weinig prikkels voor beveiligingsinvesteringen.”
Bores steunt een nationaal beleid op het gebied van kunstmatige intelligentie, maar stelt dat staten sneller actie kunnen ondernemen om opkomende risico’s aan te pakken.
En het is waar dat staten sneller vooruit gaan.
Sinds november 2025 hebben 38 staten dit gedaan aangenomen Dit jaar zijn er meer dan 100 AI-gerelateerde wetten aangenomen, die zich voornamelijk richten op deepfakes, transparantie en openbaarmaking, en het gebruik van AI door de overheid. (Een recente studie ontdekte dat 69% van deze wetten geen eisen opleggen aan AI-ontwikkelaars.)
De activiteit van het Congres levert verder bewijs van de vertraging met betrekking tot de stelling van de staten. Er zijn honderden AI-wetsvoorstellen geïntroduceerd, maar slechts weinigen zijn aangenomen. Sinds 2015 heeft Rep. Lieu 67 wetsvoorstellen ingediend bij de House Science Committee. Slechts één werd wet.
Ruim 200 wetgevers hebben een overeenkomst ondertekend open brief verzet zich tegen preemptie in de NDAA, met het argument dat “staten dienen als laboratoria van democratieën” die “de flexibiliteit moeten behouden om nieuwe digitale uitdagingen het hoofd te bieden wanneer deze zich voordoen.” Bijna veertig procureurs-generaal hij stuurde ook een open brief zijn tegen een verbod op staatsregulering van AI.
Cybersecurity-expert Bruce Schneier en datawetenschapper Nathan E. Sanders – auteurs van Herbedrading van de democratie: Hoe kunstmatige intelligentie onze politiek, onze overheid en onze burgers zal transformeren – beweren dat de klacht over het mozaïek overdreven is.
AI-bedrijven voldoen al aan de strengste EU-regelgeving, merken ze op, en de meeste industrieën vinden manieren om onder verschillende staatswetten te opereren. De echte reden, zeggen ze, is het vermijden van verantwoordelijkheid.
Hoe zou een federale standaard eruit kunnen zien?
Lieu werkt aan een megawet van ruim 200 pagina’s die hij in december hoopt te presenteren. Het behandelt een aantal kwesties, zoals sancties bij fraude, deepfake-beveiligingenbescherming van klokkenluiders, computerbronnen voor de academische wereld en verplichte tests en openbaarmaking voor grote bedrijven die taalmodellen adopteren.
Deze nieuwste bepaling zou AI-laboratoria verplichten hun modellen te testen en de resultaten te publiceren, wat de meeste nu vrijwillig doen. Lieu heeft het wetsvoorstel nog niet ingediend, maar zegt dat het geen enkele federale instantie dwingt om AI-modellen rechtstreeks te beoordelen. Deze verschilt van een soortgelijke Ik tel geïntroduceerd door Sens. Josh Hawley (R-MS) en Richard Blumenthal (D-CN), waarvoor een door de overheid beheerd evaluatieprogramma voor geavanceerde kunstmatige-intelligentiesystemen nodig is voordat ze worden geïmplementeerd.
Lieu erkende dat zijn wetsvoorstel niet zo zwaar zou zijn, maar zei dat het een grotere kans zou hebben om wet te worden.
“Mijn doel is om in deze zittingsperiode iets in de wet om te zetten”, zei Lieu, waarbij hij opmerkte dat Scalise, leider van de meerderheid in het Huis van Afgevaardigden, openlijk vijandig staat tegenover AI-regulering. “Ik schrijf geen wetsvoorstel dat ik zou hebben als ik koning was. Ik probeer een wetsvoorstel te schrijven dat een door de Republikeinen gecontroleerd Huis, een door de Republikeinen gecontroleerde Senaat en een door de Republikeinen gecontroleerd Witte Huis zou kunnen goedkeuren.”


