Home Nieuws Omdat het grootste risico van AI in het hoger onderwijs de erosie...

Omdat het grootste risico van AI in het hoger onderwijs de erosie van het leren is

2
0
Omdat het grootste risico van AI in het hoger onderwijs de erosie van het leren is

Publiek debat over kunstmatige intelligentie in het hoger onderwijs speelt grotendeels een bekende zorg: bedriegen. Zullen studenten chatbots gebruiken om essays te schrijven? Mogen docenten dit zeggen? Moeten universiteiten technologie verbieden? Hem knuffelen?

Deze zorgen zijn begrijpelijk. Maar als we zo veel op bedrog focussen, gaan we voorbij aan de grotere transformatie die al aan de gang is, en die veel verder reikt dan het wangedrag van studenten en zelfs het klaslokaal.

Universiteiten adopteren NAAR DE op veel terreinen van het institutionele leven. Sommige toepassingen zijn grotendeels onzichtbaar, zoals systemen die helpen bij het toewijzen van middelen, rapporteer “risicovolle” studenten.optimaliseer de cursusplanning of automatiseer routinematige administratieve beslissingen. Andere toepassingen liggen meer voor de hand. Studenten gebruiken AI-tools om samen te vatten en te studeren, docenten gebruiken ze om opdrachten en programma’s te maken, en onderzoekers gebruiken ze om code te schrijven, literatuur te scannen en urenlang saai werk in minuten te comprimeren.

Mensen kunnen AI gebruiken om vals te spelen of werkopdrachten over te slaan. Maar de vele toepassingen van AI in het hoger onderwijs, en de veranderingen die zij met zich meebrengen, werpen een veel diepere vraag op: wat gebeurt er met het hoger onderwijs als machines steeds beter in staat worden het werk van onderzoek en leren te doen? Waar is de universiteit voor?

De afgelopen acht jaar hebben we de morele implicaties van diepgaande betrokkenheid bij kunstmatige intelligentie bestudeerd als onderdeel van een gezamenlijk onderzoeksproject tussen de Centrum voor Toegepaste Ethiek aan UMass Boston en de Instituut voor Ethiek en opkomende technologieën. In de recent WitboekWij stellen dat naarmate AI-systemen autonomer worden, de ethische belangen van het gebruik van AI in het hoger onderwijs toenemen, evenals de potentiële gevolgen ervan.

Naarmate deze technologieën beter worden in het produceren van kenniswerk – het ontwerpen van lessen, het schrijven van papers, het voorstellen van experimenten en het samenvatten van moeilijke teksten – maken ze universiteiten niet alleen productief. Ze lopen het risico het leer- en mentoring-ecosysteem waarop deze instellingen zijn gebouwd en waarvan ze afhankelijk zijn, uit te hollen.

Niet-autonome AI

We beschouwen drie soorten AI-systemen en hun impact op het universitaire leven:

In het hoger onderwijs wordt al op AI gebaseerde software gebruikt toelatingsoverzichtaankoop, academisch adviesen institutionele risicobeoordeling. Deze worden als “niet-autonome” systemen beschouwd omdat ze taken automatiseren, maar een persoon zit “op de hoogte” en gebruikt deze systemen als hulpmiddelen.

Deze technologieën kunnen dat een risico vormen voor de privacy en veiligheid van studentengegevens. Ze kunnen ook bevooroordeeld zijn. En ze beschikken vaak niet over voldoende transparantie om de oorzaken van deze problemen te achterhalen. Wie heeft toegang tot leerlinggegevens? Hoe worden “risicoscores” gegenereerd? Hoe kunnen we voorkomen dat systemen ongelijkheden reproduceren of sommige leerlingen behandelen als problemen die moeten worden beheerd?

Deze vragen zijn serieus, maar conceptueel niet nieuw, althans op het gebied van de informatica. Universiteiten beschikken doorgaans over compliance-kantoren, institutionele beoordelingsraden en bestuursmechanismen die zijn ontworpen om deze risico’s te helpen aanpakken of beperken, hoewel ze soms niet aan deze doelstellingen voldoen.

Hybride AI

Hybride systemen omvatten een reeks tools, waaronder AI-ondersteunde chatbots voor bijles, gepersonaliseerde feedbacktools en geautomatiseerde schrijfondersteuning. Ze vertrouwen vaak op generatieve kunstmatige intelligentietechnologieënvooral grote taalmodellen. Hoewel menselijke gebruikers de algemene doelen bepalen, zijn de tussenstappen die het systeem neemt om deze te bereiken vaak niet gespecificeerd.

Hybride systemen hebben steeds meer invloed op het dagelijkse academische werk. Studenten gebruiken ze als schrijfpartners, docenten, brainstormpartnersen uitleggers op aanvraag. Docenten gebruiken ze om rubrieken, lesconcepten en ontwerpschema’s te genereren. Onderzoekers gebruiken ze om documenten samen te vatten, commentaar te geven op concepten, experimenten te ontwerpen en code te genereren.

Dit is waar het gesprek over ‘verraad’ om de hoek komt kijken. Nu studenten en docenten steeds meer afhankelijk zijn van technologie voor hulp, is het redelijk om je af te vragen welke vormen van leren onderweg verloren kunnen gaan. Maar hybride systemen roepen ook complexere ethische vragen op.

Eén daarvan heeft te maken met transparantie. AI-chatbots bieden natuurlijke taalinterfaces die het moeilijk maken om te begrijpen wanneer u met een mens communiceert en wanneer u met een geautomatiseerde agent communiceert. Dit kan vervreemdend en afleidend zijn voor degenen die met hen omgaan. Een student die materiaal voor een toets doorneemt, moet kunnen zien of hij of zij tegen zijn of haar onderwijsassistent praat of tegen een robot. Een leerling die feedback op een essay leest, moet weten of het door de docent is geschreven. Alles behalve volledige transparantie zal in deze gevallen vervreemdend werken voor alle betrokkenen en zal de focus van academische interacties verleggen van leren naar de middelen of technologie van leren. Onderzoekers van de Universiteit van Pittsburgh hebben dit aangetoond deze dynamiek brengt gevoelens van onzekerheid, angst en wantrouwen met zich mee voor studenten. Dit zijn problematische bevindingen.

Een tweede ethische kwestie betreft verantwoordelijkheid en intellectueel krediet. Als een docent AI gebruikt om een ​​opdracht te schrijven en een leerling AI om een ​​antwoord te schrijven, wie doet dan de beoordeling en wat wordt er precies beoordeeld? Als feedback deels door machines wordt gegenereerd, wie is er dan verantwoordelijk als deze misleidt, ontmoedigt of verborgen aannames verankert? En wanneer AI substantieel bijdraagt ​​aan de synthese of het schrijven van onderzoek, zullen universiteiten dat doen Er zijn duidelijkere regels nodig over auteurschap en verantwoordelijkheid– niet alleen voor studenten, maar ook voor docenten.

Ten slotte is er de cruciale kwestie van cognitieve ontlading. AI kan het saaie werk verminderen, en dat is op zichzelf geen slechte zaak. Maar het kan gebruikers ook afleiden van de onderdelen van het leren die vaardigheden opbouwen, zoals het genereren van ideeën, het tegengaan van verwarring, het doornemen van een onhandig concept en het leren ontdekken van hun fouten.

Autonome agenten

De meest ingrijpende veranderingen zouden kunnen komen met systemen die minder op assistenten lijken en meer op agenten. Hoewel werkelijk autonome technologieën ambitieus blijven, is de droom van een onderzoeker “in een doos”– een op agenten gebaseerd kunstmatig intelligentiesysteem dat zelfstandig onderzoeken kan uitvoeren – wordt steeds realistischer.

Van agentische tools wordt verwacht dat ze dit doen “vrije tijd” voor werk die zich richt op meer menselijke vaardigheden zoals empathie en probleemoplossing. Bij het lesgeven kan dit betekenen dat leraren nog steeds les kunnen geven in de reguliere zin van het woord, maar een groot deel van het dagelijkse instructiewerk kan worden overgedragen aan systemen die zijn geoptimaliseerd voor efficiëntie en schaal. Op dezelfde manier wijst het traject op het gebied van onderzoek in de richting van systemen die in staat zijn de onderzoekscyclus steeds verder te automatiseren. In sommige domeinen verschijnt het al robotlaboratoria die continu draaienautomatiseer grote delen van het testen en selecteer zelfs nieuwe tests op basis van eerdere resultaten.

Op het eerste gezicht lijkt dit misschien een welkome verhoging van de productiviteit. Maar universiteiten zijn geen informatiefabrieken; het zijn praktijksystemen. Ze zijn afhankelijk van een groep afgestudeerde studenten en academici die aan het begin van hun carrière leren lesgeven en onderzoek doen terwijl ze aan hetzelfde werk deelnemen. Als autonome agenten meer van de ‘routinematige’ verantwoordelijkheden op zich zouden nemen die historisch gezien als opstapje naar het academische leven hebben gediend, zou de universiteit door kunnen gaan met het produceren van cursussen en publicaties, waardoor de gelegenheidsstructuren die de expertise in stand houden in de loop van de tijd stilletjes zouden worden uitgedund.

Dezelfde dynamiek geldt voor universiteitsstudenten, zij het in een ander register. Wanneer AI-systemen op verzoek uitleg, schetsen, oplossingen en curricula kunnen bieden, is de verleiding groot om de meest uitdagende onderdelen van het leren te ontlasten. Voor de industrie die AI naar universiteiten pusht, lijkt het misschien dat dit soort werk ‘inefficiënt’ is en dat studenten dit beter door een machine kunnen laten doen. Maar het is juist de aard van die strijd die duurzaam begrip opbouwt. Cognitieve psychologie heeft aangetoond dat studenten intellectueel groeien door het werk van het opstellen, herzien, falen, opnieuw proberen, worstelen met verwarring en het herzien van zwakke argumenten. Dit is het werk van leren leren.

Alles bij elkaar suggereren deze ontwikkelingen dat het grootste risico van automatisering in het hoger onderwijs niet simpelweg de vervanging van bepaalde taken door machines is, maar de erosie van het bredere ecosysteem van praktijken dat lange tijd onderwijs, onderzoek en leren heeft ondersteund.

Een lastig keerpunt

Dus wat heb je aan universiteiten in een wereld waar kenniswerk steeds meer geautomatiseerd wordt?

Eén mogelijk antwoord beschouwt de universiteit in de eerste plaats als een motor voor de productie van diploma’s en kennis. Daar rijst de fundamentele vraag: studeren studenten af? Worden er documenten en ontdekkingen gegenereerd? Als autonome systemen deze resultaten efficiënter kunnen opleveren, dan heeft de instelling alle reden om ze te adopteren.

Maar een ander antwoord beschouwt de universiteit als meer dan alleen een machine voor het produceren van resultaten, en erkent dat de waarde van het hoger onderwijs gedeeltelijk in het ecosysteem zelf ligt. Dit model kent intrinsieke waarde toe aan de reeks mogelijkheden waardoor beginners experts worden, aan de mentorstructuren waardoor oordeel en verantwoordelijkheid worden gecultiveerd, en aan het onderwijsontwerp dat productieve strijd aanmoedigt in plaats van deze te optimaliseren. In dit geval gaat het er niet alleen om of kennis en kwalificaties worden geproduceerd, maar ook hoe ze worden geproduceerd en wat voor soort mensen, vaardigheden en gemeenschappen daarbij worden gevormd. In deze versie is de universiteit bedoeld als niets minder dan een ecosysteem dat op betrouwbare wijze menselijke expertise en oordeelsvorming vormgeeft.

In een wereld waarin het kenniswerk zelf steeds meer wordt geautomatiseerd, zijn wij van mening dat universiteiten zich moeten afvragen wat het hoger onderwijs te danken heeft aan haar studenten, haar beginnende wetenschappers en de samenleving die het dient. De antwoorden zullen niet alleen bepalen hoe AI wordt toegepast, maar ook wat de moderne universiteit zal worden.


Nir Eisikovits is hoogleraar filosofie en directeur van het Centrum voor Toegepaste Ethiek in UMass Boston.

Jacob Burley is junior onderzoeker bij het Centrum Toegepaste Ethiek van Massa Boston.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.


Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in