Home Nieuws Instellingen verdrinken in door AI gegenereerde tekst en kunnen het niet bijhouden

Instellingen verdrinken in door AI gegenereerde tekst en kunnen het niet bijhouden

2
0
Instellingen verdrinken in door AI gegenereerde tekst en kunnen het niet bijhouden

In 2023 verschijnt het sciencefiction-literaire tijdschrift Clarkesworld gestopt met accepteren nieuwe inzendingen omdat er zoveel zijn gegenereerd kunstmatige intelligentie. Voor zover de redactie kon zien, hebben veel auteurs de gedetailleerde verhaalrichtlijnen van het tijdschrift in een AI geplakt en de resultaten ingediend. En ze waren niet de enigen. Andere fictietijdschriften hebben dit ook gedaan meldde een hoog aantal van mailings gegenereerd door kunstmatige intelligentie.

Dit is slechts één voorbeeld van een alomtegenwoordige trend. Een oud systeem was afhankelijk van problemen met schrijven en cognitie om het volume te beperken. Generatieve AI overweldigt het systeem omdat mensen aan de ontvangende kant het niet bij kunnen houden.

Dit gebeurt overal. Kranten worden overspoeld met producten die zijn gegenereerd door kunstmatige intelligentie brieven aan de redactiezoals ze zijn academische tijdschriften. Wetgevers worden overspoeld met door AI gegenereerde technologieën constituerende opmerkingen. Rechtbanken over de hele wereld worden overspoeld met door AI gegenereerde systemen dossiersvooral door mensen die zichzelf vertegenwoordigen. AI-conferenties zijn dat wel overstroomd met door AI gegenereerde onderzoekspapers. Sociale middelen EN overstroomd met De plaag van kunstmatige intelligentie. In muziek, open source-software, instructie, onderzoeksjournalistiekEN aannemenhet is hetzelfde verhaal.

Net als de eerste reactie van Clarkesworld hebben sommige van deze instellingen hun aanvraagprocedures stopgezet. Anderen hebben op het offensief van AI-inputs gereageerd met een defensieve reactie, vaak met een contrasterend gebruik van AI. Academisch peer-recensenten maken steeds meer gebruik van kunstmatige intelligentie om documenten te evalueren die mogelijk door kunstmatige intelligentie zijn gegenereerd. Socialemediaplatforms spelen hierop in AI-moderator. Rechtssystemen maken gebruik van kunstmatige intelligentie triage en berechting het aantal rechtszaken wordt vergroot door kunstmatige intelligentie. Werkgevers wenden zich tot Hulpmiddelen voor kunstmatige intelligentie om sollicitaties van kandidaten te beoordelen. Docenten gebruiken kunstmatige intelligentie niet alleen voor stemdocumenten EN examens afnemenmaar hoe feedback hulpmiddel voor studenten.

Dit zijn allemaal wapenwedlopen: een snelle, vijandige iteratie om gemeenschappelijke technologie voor tegengestelde doeleinden toe te passen. Veel van deze wapenwedlopen hebben duidelijk schadelijke gevolgen. De samenleving lijdt eronder als de rechtbanken verstopt raken met lichtzinnige zaken die voortkomen uit kunstmatige intelligentie. Er is ook schade als gevestigde maatstaven voor academische prestaties – publicaties en citaten – in het voordeel uitvallen van de onderzoekers die het meest bereid zijn om op frauduleuze wijze door AI geschreven brieven en papers in te dienen, in plaats van degenen wier ideeën de grootste impact hebben. De angst is dat frauduleus gedrag, mogelijk gemaakt door AI, uiteindelijk de systemen en instellingen zal verzwakken waarop de samenleving vertrouwt.

Voordelen van kunstmatige intelligentie

Toch hebben sommige van deze AI-wapenwedlopen verrassende verborgen voordelen, en de hoop is dat in ieder geval sommige instellingen in staat zullen zijn om te veranderen op manieren die ze sterker maken.

Het lijkt waarschijnlijk dat de wetenschap dankzij AI sterker zal worden, maar er ontstaat een probleem als AI fouten maakt. Neem het voorbeeld van zinlooshet filteren van door AI gegenereerde zinnen in wetenschappelijke artikelen.

Een wetenschapper die kunstmatige intelligentie gebruikt om te helpen bij het schrijven van een academisch artikel kan een goede zaak zijn, als hij zorgvuldig en transparant wordt gebruikt. Kunstmatige intelligentie wordt steeds meer een primair instrument in wetenschappelijk onderzoek: voor literatuuronderzoek, programmeren en voor datacodering en -analyse. En voor velen is het een fundamentele ondersteuning geworden voor wetenschappelijke expressie en communicatie. Vóór de komst van kunstmatige intelligentie konden de best gefinancierde onderzoekers mensen inhuren om hen te helpen bij het schrijven van hun academische papers. Voor veel auteurs wier primaire taal niet het Engels is, aannemen deze vorm van zorg was duur behoefte. AI biedt het aan iedereen.

In fictie veroorzaken frauduleus ingediende, door AI gegenereerde werken schade, zowel voor menselijke auteurs die nu onderhevig zijn aan toegenomen concurrentie, als voor lezers die zich mogelijk bedrogen voelen nadat ze onbewust het werk van een machine hebben gelezen. Maar sommige winkels zouden AI-ondersteunde voorstellen met adequate informatie en volgens specifieke richtlijnen kunnen verwelkomen, en AI kunnen gebruiken om deze te beoordelen op basis van criteria als originaliteit, geschiktheid en kwaliteit.

Anderen kunnen door AI gegenereerd werk afwijzen, maar dit zal een prijs met zich meebrengen. Het is onwaarschijnlijk dat een menselijke editor of technologie het vermogen kan behouden om menselijk en machinaal schrijven te onderscheiden. In plaats daarvan zullen media die uitsluitend mensen willen publiceren de inzendingen moeten beperken tot een groep auteurs waarvan zij vertrouwen dat ze geen gebruik zullen maken van kunstmatige intelligentie. Als dit beleid transparant is, kunnen lezers het formaat kiezen dat zij verkiezen en met plezier lezen bij een of beide soorten verkooppunten.

We zien ook geen probleem als een werkzoekende AI gebruikt om zijn cv op te poetsen of betere sollicitatiebrieven te schrijven; de rijken en bevoorrechten hebben voor deze zaken al lang toegang tot menselijke hulp. Maar het overschrijdt de grens als AI’s eraan gewend zijn leugen op identiteit en ervaring, of a bedrieger op sollicitatiegesprekken.

Op dezelfde manier vereist een democratie dat haar burgers hun mening kunnen uiten aan hun vertegenwoordigers of aan elkaar via een medium zoals de krant. De rijken en machtigen kunnen al lang schrijvers inhuren om hun ideeën om te zetten in overtuigend proza, en AI die hulp biedt aan meer mensen is naar onze mening een goede zaak. In dit geval kunnen AI-fouten en vooroordelen schadelijk zijn. Burgers zouden AI kunnen gebruiken voor meer dan alleen een tijdbesparende kortere weg; zouden hun kennis en capaciteiten kunnen vergroten door uitspraken te doen over historische, juridische of politieke factoren waarvan redelijkerwijs niet kan worden verwacht dat ze deze zelfstandig kunnen controleren.

De huidige commerciële AI-tekstdetectoren zijn verre van onfeilbaar.

Fraude bestuurder

Wat we niet willen is dat lobbyisten AI gebruiken in kunstgrascampagnes, meerdere brieven schrijven en deze doorgeven als individuele meningen. Dit is ook een ouder probleem dat AI steeds erger wordt.

Wat in dit geval het positieve van het negatieve onderscheidt, is geen intrinsiek aspect van de technologie; Het is de dynamiek van macht. Dezelfde technologie die de inspanning vermindert die een burger nodig heeft om zijn ervaringen met wetgevers te delen, zorgt er ook voor dat bedrijfsbelangen het publiek op grote schaal verkeerd kunnen voorstellen. De eerste is een toepassing van kunstmatige intelligentie voor machtsevenwicht die de participatieve democratie verbetert; dit laatste is een toepassing van machtsconcentratie die deze bedreigt.

Over het geheel genomen zijn wij van mening dat schrijf- en cognitieve hulp, die al lang beschikbaar was voor de rijken en machtigen, voor iedereen beschikbaar zou moeten zijn. +Het probleem ontstaat wanneer AI fraude faciliteert. Elke reactie moet een evenwicht vinden tussen het omarmen van de nieuwe democratisering van de toegang en het voorkomen van fraude.

Er is geen manier om deze technologie uit te schakelen. Zeer capabele AI’s zijn overal verkrijgbaar en kunnen op een laptop draaien. Ethische richtlijnen en duidelijke professionele grenzen kunnen helpen, voor degenen die te goeder trouw handelen. Maar er zal nooit een manier zijn om academische schrijvers, werkzoekenden of burgers volledig te beletten deze instrumenten te gebruiken, hetzij als legitieme hulp, hetzij om fraude te plegen. Dat betekent meer reacties, meer brieven, meer vragen, meer bijdragen.

Het probleem is dat degene die aan de ontvangende kant van deze door AI gevoede zondvloed zit, het toegenomen volume niet aankan. Wat kan helpen is de ontwikkeling van ondersteunende AI-instrumenten die instellingen en de samenleving ten goede komen en tegelijkertijd fraude beperken. En dat zou kunnen betekenen dat we het gebruik van AI-ondersteuning in deze vijandige systemen moeten omarmen, ook al zal defensieve AI nooit de overhand krijgen.

Breng de nadelen in evenwicht met de voordelen

De sciencefictiongemeenschap worstelt sinds 2023 met kunstmatige intelligentie. Clarkesworld heropende uiteindelijk de registratie. ondersteunen dat een adequate manier heeft om verhalen geschreven door mensen te scheiden van verhalen geschreven door kunstmatige intelligentie. Niemand weet hoe lang of hoe goed het zal blijven werken.

De wapenwedloop gaat door. Er is geen gemakkelijke manier om te zeggen of de potentiële voordelen van AI opwegen tegen de nadelen, nu of in de toekomst. Maar als samenleving kunnen we de balans beïnvloeden tussen de schade die het veroorzaakt en de kansen die het biedt terwijl we door het veranderende technologische landschap navigeren.

Bruce Schneier hij is contracthoogleraar openbaar beleid bij Kennedyschool van Harvard.

Nathan Sanders is aangesloten bij het Berkman Klein Center for Internet & Society op Harvard Universiteit.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in