SZuid-Korea is begonnen aan een poging om kunstmatige intelligentie te reguleren en heeft wat wordt aangeprezen als ’s werelds meest uitgebreide reeks wetten gelanceerd, die een model zouden kunnen zijn voor andere landen, maar de nieuwe wetgeving heeft al op weerstand stuiten.
De wetten, die bedrijven zullen dwingen om door AI gegenereerde inhoud te labelen, zijn bekritiseerd door lokale tech-startups, die zeggen dat ze te ver gaan, en door maatschappelijke organisaties, die zeggen dat ze niet ver genoeg gaan.
Middenin komt de Basiswet Kunstmatige Intelligentie, die vorige week donderdag in werking trad groeiend mondiaal ongemak met kunstmatig gecreëerde media en geautomatiseerde besluitvorming, zoals regeringen hebben moeite om bij te blijven met snel voortschrijdende technologieën.
De wet verplicht bedrijven die kunstmatige-intelligentiediensten leveren om:
-
Voeg onzichtbare digitale watermerken toe voor duidelijk kunstmatige resultaten zoals tekenfilms of illustraties. Voor realistische deepfakes zijn zichtbare labels vereist.
-
‘AI met hoge impact’, inclusief systemen die dat gewend zijn medische diagnoseVoor opdrachten en goedkeuringen van leningen zijn exploitanten verplicht risicobeoordelingen uit te voeren en te documenteren hoe beslissingen worden genomen. Als een mens de uiteindelijke beslissing neemt, valt het systeem mogelijk niet in deze categorie.
-
Extreem krachtige AI-modellen zullen veiligheidsrapportage vereisen, maar de drempel is zo hoog gelegd dat overheidsfunctionarissen erkennen dat geen enkel model wereldwijd hieraan momenteel voldoet.
Bedrijven die de regels overtreden, riskeren boetes tot 30 miljoen won (£ 15.000), maar de regering heeft een uitstelperiode van minstens een jaar beloofd voordat boetes worden opgelegd.
De wetgeving wordt aangeprezen als de “eerste ter wereld” die volledig door één land wordt geïmplementeerd, en is de sleutel tot de ambitie van Zuid-Korea om naast de Verenigde Staten en China een van de drie grootste kunstmatige-intelligentiemachten ter wereld te worden. Overheidsfunctionarissen zeggen dat de wet voor 80 tot 90 procent gericht is op het bevorderen van de industrie in plaats van deze te beperken.
Alice Oh, hoogleraar computerwetenschappen aan het Korea Advanced Institute of Science and Technology (KAIST), zei dat de wet weliswaar niet perfect was, maar wel bedoeld was om te evolueren zonder innovatie te belemmeren. Echter een enquête in december ontdekte de Startup Alliance dat 98% van de AI-startups niet voorbereid waren op naleving. Zijn medevoorzitter, Lim Jung-wook, zei dat de frustratie wijdverbreid was. “Er is enige wrok”, zei hij. “Waarom moeten wij de eersten zijn die dit doen?”
Bedrijven moeten zelf bepalen of hun systemen in aanmerking komen als AI met hoge impact, een proces dat volgens critici tijdrovend is en onzekerheid schept.
Ze waarschuwen ook voor een onevenwicht in de concurrentieverhoudingen: alle Koreaanse bedrijven zijn onderworpen aan regelgeving, ongeacht hun omvang, terwijl alleen buitenlandse bedrijven die aan bepaalde drempels voldoen – zoals Google en OpenAI – hieraan moeten voldoen.
De drang naar regulering heeft zich ontwikkeld in een bijzonder beladen nationale context, waardoor maatschappelijke groeperingen zich zorgen hebben gemaakt dat de wetgeving niet ver genoeg gaat.
Zuid-Koreaanse rekeningen Volgens een rapport uit 2023 van Security Hero, een in de VS gevestigd bedrijf voor identiteitsbescherming, vertegenwoordigt het 53% van alle wereldwijde slachtoffers van deepfake-pornografie. In augustus 2024 vond een onderzoek plaats ze hebben enorme netwerken van Telegram-chatrooms blootgelegd het creëren en distribueren van door AI gegenereerde seksuele beelden van vrouwen en meisjes, als voorloper het schandaal die later zou uitbarsten rond de Grok-chatbot van Elon Musk.
De oorsprong van de wet dateert echter van vóór deze crisis, toen het eerste AI-gerelateerde wetsvoorstel in juli 2020 bij het parlement werd ingediend. De wet is herhaaldelijk tot stilstand gekomen, deels als gevolg van bepalingen die ervan worden beschuldigd de belangen van de industrie voorrang te geven boven de bescherming van burgers.
Maatschappelijke organisaties stellen dat de nieuwe wetgeving beperkte bescherming biedt aan mensen die schade ondervinden van AI-systemen.
Vier organisaties, waaronder Minbyun, een collectief van mensenrechtenadvocaten, brachten de dag na de invoering ervan een gezamenlijke verklaring uit, waarin ze betoogden dat de wet vrijwel geen bepalingen bevatte om burgers te beschermen tegen de risico’s van AI.
De groepen merkten op dat hoewel de wet voorzag in de bescherming van ‘gebruikers’, deze gebruikers ziekenhuizen, financiële bedrijven en openbare instellingen waren die kunstmatige intelligentiesystemen gebruiken, en niet mensen die door de AI werden getroffen. De wet heeft geen verboden kunstmatige-intelligentiesystemen ingevoerd, betoogden zij, en uitzonderingen voor ‘menselijke betrokkenheid’ creëerden aanzienlijke mazen in de wet.
De Nationale Mensenrechtencommissie hij bekritiseerde het Uitvoeringsbesluit vanwege het gebrek aan duidelijke definities van AI met een hoge impact, waarbij wordt opgemerkt dat degenen die het meest waarschijnlijk te maken krijgen met rechtenschendingen zich nog steeds in blinde vlekken op het gebied van de regelgeving bevinden.
In een verklaring zei het ministerie van Wetenschap en ICT dat het verwacht dat de wet “de rechtsonzekerheid zal wegnemen” en “een gezond en veilig binnenlands AI-ecosysteem” zal opbouwen, eraan toevoegend dat het de regels zal blijven verduidelijken door middel van herziene richtlijnen.
Experts zeggen dat Zuid-Korea bewust een ander pad heeft gekozen dan andere rechtsgebieden.
In tegenstelling tot het rigide, op risico’s gebaseerde regelgevingsmodel van de EU, de grotendeels sectorale en marktgerichte benaderingen van de Verenigde Staten en het Verenigd Koninkrijk, of China’s combinatie van door de staat geleid industriebeleid en gedetailleerde dienstspecifieke regelgeving, heeft Zuid-Korea gekozen voor een flexibeler, principieel raamwerk, zegt Melissa Hyesun Yoon, hoogleraar rechten aan de Hanyang Universiteit en gespecialiseerd in AI-governance.
Deze aanpak concentreert zich op wat Yoon omschrijft als ‘op vertrouwen gebaseerde promotie en regulering’.
“Het Koreaanse raamwerk zal dienen als een nuttig referentiepunt in discussies over mondiaal AI-beheer”, zei hij.



