Maakt AI betere lesvoorbereidingen dan leerkrachten? Spontaan roepen nu een boel lesgevers in koor: Nee. Maar is dat effectief zo? Een recente studie van Trust en collega’s bekeek dit en lijkt het eenvoudige antwoord te bevestigen. Ze lieten ChatGPT, Gemini en Copilot meer dan 300 lesplannen genereren voor burgerschapseducatie en analyseerden vervolgens wat die lesvoorbereidingen precies inhielden. Het resultaat klinkt stevig. De overgrote meerderheid van de activiteiten zit op het niveau van onthouden, begrijpen en toepassen. Maar, hogere orde denkvaardigheden komen nauwelijks voor. En ook wie hoopt op meerstemmigheid of inclusie komt bedrogen uit. In 94% van de activiteiten ontbreken die volledig. Dat laatste verbaasde me nauwelijks, omdat we weten dat AI de biases en vooroordelen van onze samenleving gewoon kopieert.
De conclusie ligt dus voor de hand: vertrouw deze lesplannen niet zomaar. Dat klinkt overtuigend. En ergens klopt het ook. Maar is deze studie wel de juiste?
Wat deze studie in feite onderzoekt, is namelijk wat er gebeurt wanneer je AI één simpele opdracht geeft en het resultaat vervolgens neemt zoals het komt. Dus er was geen bijsturing, geen verfijning, geen vervolgrondes. Gewoon: “schrijf een lesplan” en klaar. Dat is methodologisch netjes, maar didactisch vreemd. Want zo werken leraren niet. Of toch niet de leraren waar we op hopen… Ja, ik kijk naar jou, collega, die enkel de methode slaafs volgt.
De lesplannen die AI hier genereert zijn vaak voorspelbaar. Ze volgen een vast stramien, blijven veilig en mikken op het gemiddelde. Maar dat is precies wat je krijgt als je een systeem voedt met gemiddelde input en het niet verder uitdaagt. AI is in die zin geen creatieve rebel. Het is een spiegel van wat er al is. Als je zo kijkt naar deze studie, dan is AI vooral weer een ongemakkelijke spiegel.
Dat maakt de studie tegelijk interessant en beperkt. Interessant, omdat ze scherp blootlegt wat er gebeurt als je AI zonder professionele tussenkomst gebruikt. Beperkt, omdat ze daarmee eigenlijk niet onderzoekt wat we echt willen weten: wat gebeurt er als leraren met AI werken? Daar zit een belangrijk verschil. Niet tussen goede en slechte technologie, maar tussen gebruik en niet-gebruik. Of beter: tussen passief gebruik en actief gebruik.
Andere studies, zoals recente trials van de Education Endowment Foundation, kijken net daar. Niet naar wat AI op zichzelf produceert, maar naar wat leraren ermee doen in hun voorbereiding. En dan zie je een ander beeld. Geen wondermiddelen, geen spectaculaire sprongen, maar wel kleine verbeteringen. Tijdswinst, meer variatie in werkvormen, soms betere afstemming op leerlingen. Niet omdat AI plots briljant wordt, maar omdat leraren ermee aan de slag gaan.
En dat is volgens mij de kern. AI is geen didactiek, laat staan pedagogiek. Het kan een hulpmiddel zijn. Wie het gebruikt als vervanging van denken, krijgt middelmatige output. Wie het gebruikt als ondersteuning van denken, kan er iets beters van maken, zie ook de studie die ik eerder deze week bracht.
De studie van Trust en collega’s toont dus wel degelijk een probleem. Maar niet het probleem dat ze zelf denken te tonen. Het probleem is niet dat AI slechte lesplannen maakt. Het wordt pas een probleem als we geneigd zijn die lesplannen te behandelen alsof ze af zijn. Dit is dus geen technologisch probleem, maar een professioneel probleem.
Als je AI gebruikt zoals je een zoekmachine gebruikt, krijg je wat je verwacht. Als je AI gebruikt, zoals je een collega ‘gebruikt’, krijg je iets anders. Maar dat vraagt wel iets. Kennis, oordeel en vooral de bereidheid om niet tevreden te zijn met het eerste antwoord.
Vind ik leuk:
Vind-ik-leuk Aan het laden...