Home Nieuws Speciale docenten gebruiken AI om hiaten op te vullen, maar de effecten...

Speciale docenten gebruiken AI om hiaten op te vullen, maar de effecten zijn onbekend

2
0
Speciale docenten gebruiken AI om hiaten op te vullen, maar de effecten zijn onbekend

In het speciaal onderwijs in de Verenigde Staten is de financiering schaars Het tekort aan personeel is wijdverbreidwaardoor veel schooldistricten het moeilijk hebben aannemen gekwalificeerde en bereidwillige professionals.

Te midden van deze al lang bestaande uitdagingen is dat zo groeiende belangstelling in gebruik kunstmatige intelligentie instrumenten om enkele van de lacunes waarmee districten momenteel worden geconfronteerd te helpen opvullen en de arbeidskosten te verlagen.

Meer dan 7 miljoen kinderen ontvangen federaal gefinancierde rechten onder de Wet op het onderwijs aan personen met een handicapwat ervoor zorgt dat studenten toegang hebben tot onderwijs dat is afgestemd op hun specifieke fysieke en psychologische behoeften, evenals juridische processen waarmee gezinnen over steun kunnen onderhandelen. Bij speciaal onderwijs zijn verschillende professionals betrokken, waaronder revalidatiespecialisten, logopedisten en onderwijsassistenten. Maar deze specialisten zijn schaarsondanks de bewezen behoefte aan hun diensten.

Als universitair hoofddocent speciaal onderwijs die met kunstmatige intelligentie werkt, zie ik de potentie en de valkuilen ervan. Hoewel AI-systemen de administratieve lasten kunnen verminderen, deskundige begeleiding kunnen bieden en overweldigde professionals kunnen helpen hun werkdruk te beheersen, kunnen ze ook ethische uitdagingen met zich meebrengen, variërend van machinevooroordelen tot bredere vragen over vertrouwen in geautomatiseerde systemen. Ze lopen ook het risico de bestaande problemen met de manier waarop speciale onderwijsdiensten worden geleverd te vergroten.

Toch kiezen sommigen in de branche ervoor om AI-tools te testen, in plaats van te wachten op een perfecte oplossing.

Een sneller IEP, maar hoe geïndividualiseerd?

AI geeft nu al vorm aan de planning van speciaal onderwijs, de voorbereiding van het personeel en de beoordeling.

Een voorbeeld is het geïndividualiseerde onderwijsprogramma (IEP), het belangrijkste instrument voor het sturen van de diensten die een kind ontvangt. Een IEP is gebaseerd op een reeks beoordelingen en andere gegevens om de sterke punten van een kind te beschrijven, zijn of haar behoeften te bepalen en meetbare doelen te stellen. Elk onderdeel van dit proces is afhankelijk van getrainde professionals.

Maar aanhoudende tekorten aan arbeidskrachten Dit betekent dat districten vaak moeite hebben met het voltooien van beoordelingen, het bijwerken van plannen en het integreren van de inbreng van ouders. De meeste districten ontwikkelen IEP’s met behulp van software waarbij professionals moeten kiezen uit een gegeneraliseerde reeks vooraf gedefinieerde antwoorden of opties, wat leidt tot een niveau van standaardisatie dat het kan zijn dat ze niet voldoen aan de werkelijke individuele behoeften van het kind.

Uit voorlopig onderzoek is gebleken dat grote taalmodellen zoals ChatGPT bedreven kunnen zijn in het genereren van speciale sleutels onderwijs documenten zoals IEP’s, waarbij gebruik wordt gemaakt van meerdere gegevensbronnen, waaronder informatie van studenten en gezinnen. Chatbots die snel IEP’s kunnen maken, kunnen aanbieders van speciaal onderwijs mogelijk helpen beter tegemoet te komen aan de behoeften van individuele kinderen en hun gezinnen. Sommige professionele organisaties op het gebied van speciaal onderwijs hebben dit ook gedaan moedigde docenten aan gebruik AI voor documenten zoals lesplannen.

Training en diagnose van handicaps

Er is ook het potentieel dat AI-systemen kunnen helpen bij het ondersteunen van training en professionele ontwikkeling. Mijn baan on staff development combineert verschillende toepassingen van kunstmatige intelligentie met virtual reality, zodat professionals lesroutines kunnen testen voordat ze rechtstreeks met kinderen gaan werken. In dit geval kan AI werken als een praktische uitbreiding van bestaande trainingsmodellen, waarbij herhaalde oefeningen en gestructureerde ondersteuning worden aangeboden op manieren die moeilijk vol te houden zijn met een beperkt personeelsbestand.

Sommige districten zijn begonnen met het gebruik van kunstmatige intelligentie voor beoordelingen, wat een verscheidenheid aan academische, cognitieve en medische beoordelingen kan omvatten. Kunstmatige intelligentietoepassingen die automatische spraakherkenning en taalverwerking combineren, zijn dat wel nu werkzaam bij computerondersteunde mondelinge leesbeoordelingen om het bewijs van leesvaardigheid van studenten te evalueren.

Beoefenaars vaak het is moeilijk om er betekenis aan te geven van de hoeveelheid gegevens die scholen verzamelen. Gedreven door kunstmatige intelligentie machinaal leren Tools kunnen hier ook helpen, door patronen te identificeren die mogelijk niet onmiddellijk zichtbaar zijn voor docenten voor evaluatie of educatieve besluitvorming. Dergelijke ondersteuning kan bijzonder nuttig zijn bij het diagnosticeren van handicaps zoals autisme OF leerproblemenwaar maskering, variabele presentatie en onvolledige verhalen interpretatie moeilijk kunnen maken. Mijn onderzoek in uitvoering laat zien dat de huidige AI voorspellingen kan doen op basis van gegevens die waarschijnlijk in sommige districten beschikbaar zullen zijn.

Privacy- en vertrouwenskwesties

Er zijn serieuze ethische – en praktische – vragen over deze AI-ondersteunde interventies, variërend van risico’s voor de privacy van studenten tot vooroordelen over machines en diepere vragen over het vertrouwen van het gezin. Sommigen draaien om de vraag of AI-systemen al dan niet diensten kunnen leveren die werkelijk voldoen aan de bestaande regelgeving.

DE Wet op het onderwijs aan personen met een handicap vereist dat niet-discriminerende methoden voor het beoordelen van handicaps worden vermeden ongepast zichzelf identificeren studenten voor diensten of verwaarlozen NAAR dienen degenen die kwalificeren. En de Wet op de educatieve rechten en privacy van gezinnen beschermt expliciet de privacy van de gegevens van leerlingen en het recht van ouders op toegang tot en bewaring van de gegevens van hun kinderen.

Wat gebeurt er als een AI-systeem bevooroordeelde gegevens of methoden gebruikt om een ​​aanbeveling voor een kind te genereren? Wat gebeurt er als de gegevens van een kind worden misbruikt of openbaar worden gemaakt door een AI-systeem? Het gebruik van AI-systemen om enkele van de hierboven beschreven functies uit te voeren, plaatst gezinnen in een positie waarin van hen wordt verwacht dat ze niet alleen hun vertrouwen stellen in het schooldistrict en het speciaal onderwijspersoneel, maar ook in commerciële AI-systemen, waarvan de innerlijke werking grotendeels ondoorgrondelijk is.

Deze ethische twijfels zijn dat wel nauwelijks uniek voor speciale edities; Velen zijn op andere gebieden opgegroeid en aangepakt door early adopters. Terwijl automatische spraakherkenning, of ASR, veel systemen bijvoorbeeld moeite hebben gehad om Engels met accenten nauwkeurig te evalueren leveranciers trainen nu hun systemen om tegemoet te komen aan specifieke etnische en regionale accenten.

Maar lopende onderzoekswerkzaamheden suggereert dat sommige ASR-systemen beperkt zijn in hun vermogen om taalkundige verschillen in verband met handicaps op te vangen, rekening te houden met lawaai in de klas en onderscheid te maken tussen verschillende stemmen. Hoewel deze problemen in de toekomst door technische verbeteringen kunnen worden opgelost, hebben ze op dit moment grote gevolgen.

Ingebouwde vooroordelen

Op het eerste gezicht lijken machine learning-modellen misschien beter dan traditionele klinische besluitvorming. AI-modellen moeten echter worden getraind op basis van bestaande gegevens, wat betekent dat hun beslissingen mogelijk al lang bestaande gegevens blijven weerspiegelen vooroordelen hoe handicaps werden geïdentificeerd.

Onderzoek heeft dit zelfs bewezen AI-systemen worden regelmatig gehinderd door vooroordelen zowel in trainingsgegevens als in systeemontwerp. AI-modellen kunnen ook nieuwe vooroordelen introduceren door subtiele informatie weg te laten die tijdens persoonlijke beoordelingen aan het licht komt of door kenmerken van groepen die in trainingsgegevens zijn opgenomen, te overrepresenteren.

Dergelijke zorgen, zo zouden voorstanders kunnen beweren, worden aangepakt door waarborgen die al in de federale wetgeving zijn ingebouwd. Gezinnen hebben een ruime beoordelingsmarge over wat ze accepteren en kunnen voor alternatieven kiezen, op voorwaarde dat ze zich ervan bewust zijn dat ze dat kunnen doen leiding geven aan het IEP-proces.

Op dezelfde manier lijkt het gebruik van AI-tools om IEP’s of lessen te bouwen een voor de hand liggende verbetering ten opzichte van onderontwikkelde of oppervlakkige plannen. Echte individualisering zou echter vereisen dat beschermde gegevens in grote taalmodellen worden geplaatst. die mogelijk in strijd is privacy regelgeving. En hoewel AI-toepassingen gemakkelijk mooiere IEP’s en andere papieren documenten kunnen produceren, vertaalt dat zich niet noodzakelijkerwijs in betere diensten.

Het overbruggen van de kloof

Het is nog niet duidelijk of AI een zorgstandaard biedt die gelijkwaardig is aan de hoogwaardige conventionele behandeling waarop kinderen met een handicap volgens de federale wetgeving recht hebben.

DE Het Hooggerechtshof heeft dit in 2017 afgewezen het idee dat de Onderwijswet voor Personen met een Handicap studenten eenvoudigweg recht geeft op triviale, ‘de minimis’-vorderingen, wat een van de belangrijkste redenen ondermijnt om AI na te streven: dat het kan voldoen aan een minimumstandaard van zorg en praktijk. En omdat AI nog niet echt op grote schaal empirisch is geëvalueerd, is niet aangetoond dat het adequaat voldoet aan de eisen van eenvoudige verbetering die verder gaat dan de onvolmaakte status quo.

Maar dat verandert niets aan de realiteit van beperkte middelen. Ten goede of ten kwade wordt AI al gebruikt om de kloof te overbruggen tussen wat de wet vereist en wat het systeem feitelijk biedt.

Seth Koning Hij is universitair hoofddocent Speciale Pedagogiek aan de Universiteit van Amsterdam Universiteit van Iowa.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in