Vooruitgang in kunstmatige intelligentie ze geven vorm aan bijna elk aspect van de samenleving, inclusief het onderwijs. De afgelopen jaren, vooral met de beschikbaarheid van grote taalmodellen zoals ChatGPT, heeft er een explosie plaatsgevonden van AI-gestuurde edtech. Sommige van deze hulpmiddelen helpen studenten echt, terwijl veel dat niet doen. Voor leiders in het onderwijs die het beste van AI willen benutten en tegelijkertijd de schade ervan willen beperken, is er nog veel te doen.
Dat is de reden waarom de organisatie die ik leid, het Advanced Education Research and Development Fund, samenwerkte met de Alliance for Learning Innovation (ALI) en Education First om te schrijven Het bewijs vóór de hype: onderzoek en ontwikkeling gebruiken voor coherente kunstmatige intelligentie op basisscholen Instructie. Ik ontmoette mijn co-auteurs, Melissa Moritz, senior consultant bij ALI, en Ila Deshmukh Towery, partner bij Education First, om te bespreken hoe scholen innovatieve, verantwoordelijke en effectieve AI-tools kunnen adopteren.
Vraag: Melissa, wat maak je je zorgen over de huidige golf van AI-aangedreven edtech-tools, en wat zou je veranderen om ervoor te zorgen dat deze tools ten goede komen aan studenten?
Melissa: Te vaak wordt AI-edtech ontwikkeld zonder basis van onderzoek of inbreng van docenten. Dit leidt tot instrumenten die misschien innovatief lijken, maar de verkeerde problemen oplossen, geen bewijs van effectiviteit bieden, de realiteit van de workflow negeren of de ongelijkheid verergeren.
Wat we nodig hebben is een fundamentele verandering in onderwijsonderzoek en -ontwikkeling, zodat docenten vanaf het begin betrokken zijn bij het definiëren van problemen en het ontwikkelen van oplossingen in de klas. Een diepgaande samenwerking tussen docenten, onderzoekers en productontwikkelaars is van cruciaal belang. We creëren infrastructuur en prikkels die het voor hen gemakkelijker maken om samen te werken aan gedeelde doelen.
Bij de ontwikkeling van AI-instrumenten moet ook prioriteit worden gegeven aan wetenschappelijk leren en bewijsmateriaal. Beoefenaars, onderzoekers en ontwikkelaars moeten voortdurend leren en herhalen om studenten de meest effectieve hulpmiddelen te bieden voor hun behoeften en contexten.
Vraag: Ila, wat is de AI x Coherence Academy en wat heeft Education First geleerd over het adopteren van AI van leiders van het basis- en voortgezet onderwijs die hebben deelgenomen?
Ilja: AI x Coherence Academy helpt multifunctionele teams van schooldistricten het werk te doen dat AI nuttig maakt: het probleem definiëren, afstemmen op instructiedoelen en vervolgens tools kiezen (of aanpassen) die passen bij de prioriteiten van het systeem. Dit is een initiatief uit meerdere districten dat schoolsystemen helpt AI te integreren op een manier die de belangrijkste onderwijsprioriteiten versterkt in plaats van ontwricht, zodat adoptie geen reeks onsamenhangende pilots wordt.
Door dit werk leren we drie dingen. Eerst en vooral wint consistentie het van nieuwigheid. Districten geven de voorkeur aan aanpasbare AI-oplossingen die integreren met de bestaande technologie-infrastructuur in plaats van eenmalige producten. Ten tweede gaan use cases vóór tools. Een duidelijke use case die een probleem verwoordt, benoemt en de resultaten bijhoudt, filtert snel de ruis weg. Ten derde is vertrouwen een voorwaarde. In een wereld die steeds sceptischer wordt over technologie op scholen, is consensus waarschijnlijker wanneer docenten, studenten en leden van de gemeenschap helpen het probleem te definiëren en vorm te geven aan de manier waarop technologie het helpt oplossen.
Leiders vertellen ons dat ze instrumenten willen die de voortdurende onderwijs- en leerdoelstellingen versterken, duidelijke gebruiksscenario’s hebben en feedbackloops bieden voor voortdurende verbetering.
Vraag: Melissa en Ila, welke soorten barrières moeten er zijn voor een verantwoorde en effectieve integratie van AI in klaslokalen?
Ilja: Als AI een positieve kracht wil zijn in het onderwijs, hebben we verschillende vangrails nodig. Laten we beginnen met consistentie en eerlijkheid. Voor consistentie moet de adoptie van AI expliciet aansluiten bij de onderwijs- en leerdoelen, datasystemen en systeembrede workflows. Om problemen met vooringenomenheid en toegankelijkheid tot een minimum te beperken, moeten productontwikkelaars controles op vooringenomenheid en toegankelijkheid publiceren, en moeten schoolsystemen relevante gegevens bijhouden, bijvoorbeeld of hulpmiddelen het leren en de ontwikkeling ondersteunen (en niet verstoren), evenals de effectiviteit en impact van de hulpmiddelen op academische resultaten. Deze vangrails moeten worden ontworpen in samenwerking met opvoeders en gezinnen, en niet opgelegd door technologen of politici.
Districten die echte vooruitgang boeken via onze AI x Coherence Academy zijn geen AI-maximalisten. Ze zijn gedisciplineerd over hoe nieuwe hulpmiddelen aansluiten op onderwijsdoelen, in samenwerking met de mensen van wie ze hopen dat ze ze zullen gebruiken. In een omgeving met weinig vertrouwen zullen gezamenlijk ontworpen vangrails en definities daadwerkelijk standhouden.
Melissa: We hebben ook vangrails nodig op het gebied van beveiliging, privacy en bewijsmateriaal. Schoolsystemen moeten de veiligheid bevorderen en leerlinggegevens beschermen door gezinnen te voorzien van informatie over de gebruikte AI-tools en hen duidelijke opt-out-paden te bieden. Wat de productontwikkelaars betreft, moeten zij, voortbouwend op de punten van Ila, transparant zijn over de manier waarop hun producten gebruik maken van AI. Ontwikkelaars zijn ook verantwoordelijk voor het geven van duidelijke richtlijnen over hoe hun product wel en niet mag worden gebruikt, en voor het leveren van bewijs van de effectiviteit van het hulpmiddel. En uiteraard moeten staats- en districtsleiders en toezichthouders edtech-aanbieders ter verantwoording roepen.
Vraag: Melissa en Ila, wat geeft jullie hoop nu we dit tijdperk van snel evoluerende AI betreden?
Melissa: We beginnen steeds vaker de juiste gesprekken te voeren over AI en onderwijs. Steeds meer leiders en financiers roepen op tot bewijs en een paradigmaverschuiving in de manier waarop we denken over lesgeven en leren in het tijdperk van kunstmatige intelligentie. Door mijn werk bij ALI heb ik van federale beleidsmakers, maar ook van staats- en districtsleiders, gehoord dat er een oprecht verlangen bestaat naar op bewijs gebaseerde AI-tools die tegemoetkomen aan de behoeften van studenten en docenten. Ik hoop dat we samen door dit nieuwe landschap zullen navigeren door ons te concentreren op AI-innovaties die zowel verantwoord als effectief zijn.
Ilja: Wat mij hoop geeft, is dat districtsleiders slimmer worden in het adopteren van AI. Ze erkennen dat het toevoegen van meer tools niet de oplossing is: consistentie wel. De districten die echte vooruitgang boeken, zijn niet de districten met de meeste AI-pilots; zij zijn degenen die gedisciplineerd zijn over hoe nieuwe tools aansluiten op hun bestaande doelen, systemen en relaties. Ze vragen zich af: versterkt dit wat we al goed proberen te doen, of duwt het ons in een nieuwe richting? En ze brengen een scala aan stemmen mee om gebruiksscenario’s te definiëren en oplossingen te testen om het vertrouwen te centreren in plaats van eroderen. Dit soort strategische duidelijkheid is wat we nu nodig hebben. Wanneer de adoptie van AI coherent is in plaats van chaotisch, kan het het onderwijs en het leren versterken in plaats van het te fragmenteren.
Auditi Chakravarty is CEO van het Advanced Education Research and Development Fund.


