Er is op dit moment geen tekort aan meningen over AI in onderwijs. Wat er wél schaars blijft, is degelijke evidentie. Dat maakt het recente rapport The Evidence Base on AI in K-12: A 2026 Review interessant. Niet omdat het spectaculaire conclusies brengt, maar net omdat het dat niet doet. Het legt bloot hoe dun de echte kennisbasis nog is, en tegelijk toont het wel welke patronen zich beginnen af te tekenen.
Categorie archief: Webtoepassingen
Na de waarschuwingen: wanneer AI in onderwijs wél kan werken (eventueel)
In een vorige post besprak ik enkele dagen geleden het recente Brookings-rapport A New Direction for Students in an AI World
. De kernconclusie daarvan was ongemakkelijk maar helder: vandaag wegen de risico’s van AI voor leerlingen zwaarder dan de beloften. Niet omdat AI per definitie schadelijk is, maar omdat veel toepassingen leerprocessen ondermijnen die juist essentieel zijn voor ontwikkeling. Beschermen, begrenzen en bewust kiezen stonden centraal.
Nu verscheen er ook het nieuwe OECD Digital Education Outlook 2026, volledig gewijd aan generatieve AI in onderwijs. Ik nam het globaal door wegens ook weer zeer uitgebreid, maar het is duidelijk dat dit rapport vanuit een andere vraag vertrekt. Deze keer niet zozeer: wat kan er misgaan? maar: wanneer en hoe kan AI daadwerkelijk bijdragen aan beter leren, beter lesgeven en sterkere systemen?
AI in onderwijs: de risico’s wegen vandaag zwaarder dan de beloften (nieuw rapport)
De discussie over AI in onderwijs blijft vaak opvallend binair. Ofwel is AI de onvermijdelijke redding van een overbelast systeem, ofwel een existentiële bedreiging voor leren, denken en zelfs bij uitbreiding de menselijkheid. Het nieuwe Brookings-rapport A New Direction for Students in an AI World probeert dat patroon te doorbreken, maar het kan lijken dat ze daar niet in slagen. Ze doen het namelijk niet door het midden te zoeken, maar door een ongemakkelijke conclusie expliciet te maken: op dit moment wegen de risico’s van AI voor leerlingen zwaarder door dan de baten
Waarom sociale media ons cynischer maken dan nodig is
Vandaag hebben sociale media een behoorlijk slechte reputatie. Op Twitter (ik volhard) spreekt men over Bluecry in plaats van Bluesky. Op Bluesky verdenkt men dan weer iedereen op Twitter van rechts te zijn. En Facebook? Wie zit daar eigenlijk nog op. LinkedIn tenslotte: zelfpromotie, toch? Die intuïtie voelt begrijpelijk. Wie even door reacties scrolt onder een nieuwsbericht van kranten die dit nog toelaten, ziet haat, desinformatie en gratuit cynisme. Het lijkt soms alsof dat gedrag normaal is geworden.
Een nieuw artikel in PNAS Nexus zet precies daar een interessante correctie of eerder nuance tegenover. Niet door te beweren dat sociale media onschuldig zijn. Je zal straks merken, dat zijn ze niet. Wel door te laten zien dat we systematisch verkeerd inschatten wie en hoeveel mensen verantwoordelijk zijn voor dat schadelijke gedrag online.
Angela Y Lee en collega’s vroegen Amerikanen hoeveel gebruikers volgens hen toxische reacties posten of nepnieuws delen. De antwoorden die ze kregen, waren opvallend consistent. Respondenten dachten dat ongeveer 40 tot 50 procent van de gebruikers zich daar wel eens aan bezondigt. Wacht even met verder lezen. Welk percentage denk jezelf?
Hoe een relatief kleine paper de basis vormde voor ChatGPT, Gemini, …
Wie vandaag ChatGPT, Gemini of Claude gebruikt, werkt indirect met een idee uit 2017, leerde ik vrijdag van Barbara Oakley. Dat idee staat beschreven in een paper met een opvallend zelfverzekerde titel: Attention Is All You Need. Achteraf gezien was die titel geen grootspraak, maar een vrij accurate samenvatting van wat volgde. Alhoewel Barbara aangaf dat toen de paper ingediend werd voor een conferentie, de organisatie er nauwelijks aandacht aan had besteed en het in een spreekwoordelijke achterkamer voorgesteld werd. In de praktijk kreeg de paper toen weinig aandacht buiten een kleine kring van specialisten
AI bij leren: notities zonder chatbot werken nog altijd het best
Wie de recente discussies over AI in het onderwijs volgt, merkt hetzelfde patroon dat ik vorige week scherp benoemde in mijn blog naar aanleiding van een meta-review over dit onderwerp: veel AI-onderzoek toont vooral de technologische mogelijkheden, maar laat de didactische onderlaag grotendeels liggen. We experimenteren volop, maar vaak zonder helder zicht op wat leerlingen precies doen, hoeveel denkwerk ze nog zelf verrichten en welke leertheorie daaronder zou moeten liggen. In dat licht is de nieuwe studie van Pia Kreijkes en collega’s interessant, omdat ze niet vertrekt vanuit het enthousiasme over wat AI kan genereren, maar kijkt naar iets wat in veel onderzoeken ontbreekt: wat blijft er na een paar dagen effectief hangen wanneer leerlingen met een LLM leren.
Het opzet van de studie is relatief eenvoudig en precies daardoor sterk. Meer dan driehonderd Britse vijftienjarigen lazen twee moeilijke geschiedenisfragmenten. Voor één van de twee teksten moest elke leerling altijd met de chatbot werken om uitleg te krijgen, begrippen te laten toelichten of een samenvatting te genereren. De andere tekst werd, afhankelijk van de toegewezen conditie, óf uitgewerkt met alleen notities óf met een combinatie van LLM en notities. Zo konden de onderzoekers vergelijken hoeveel leerlingen leerden van zelf noteren, van AI-ondersteuning of van de combinatie. Drie dagen later volgden testen op feitelijke kennis, begrip en vrije reproductie. Dit was dus geen demonstratie van wat AI kan produceren. Het was wel een experiment dat vraagt wat leerlingen nog weten wanneer de schermen al even dicht zijn.
De kernresultaten zullen ervaren lesgevers wellicht niet verrassen. Wie zelf notities maakt, leert meer. Bijna alle uitkomsten tonen dat actief verwerken krachtiger is dan wat leerlingen spontaan met een LLM doen. De combinatie van LLM en notities levert wel een kleine extra winst op ten opzichte van enkel de LLM, maar die blijft veel kleiner dan het voordeel van gewoon noteren. Meteen zie je waarom dit werk relevant is. Leerlingen vonden werken met de LLM leuker en makkelijker, maar besteedden minder moeite en minder tijd. Dat klinkt bijna te mooi als een voorbeeld uit een theorieboek over leerpsychologie, maar hier komt het gewoon terug in de data. Dingen die makkelijk voelen, zijn niet per se de dingen die beklijven.
Toch verdient de studie lof omdat ze zorgvuldig is opgebouwd. De teksten zijn op voorhand gematcht op lengte, moeilijkheid en conceptdichtheid. Alle stappen binnen het onderzoek werden op voorhand geregistreerd. De open antwoorden zijn gescoord door drie onafhankelijke beoordelaars met bijna perfecte overeenstemming. En de onderzoekers gaan niet alleen in op leerprestaties, maar ook op hoe leerlingen met de AI communiceren. Interessant daarbij is dat in de combinatieconditie veel leerlingen gewoon knip en plakgedrag vertoonden. Hun notities waren soms letterlijk stukken LLM-output. HIerdoor gaat precies datgene verloren wat noteren krachtig maakt: actief selecteren en zelf formuleren. Of ook wel: denken.
Net daardoor vallen de beperkingen duidelijk op. De studie bevat geen passieve leesconditie. Hierdoor weten we niet of LLM-gebruik beter of slechter is dan gewoon lezen zonder strategie. Het experiment blijft smal: één leeftijd, één vak, twee korte sessies, één model dat intussen verouderd is. Wat leerlingen doen met AI in een langere leercyclus, met begeleiding of in andere domeinen, blijft buiten beeld. En hoewel de studie zorgvuldig is, vergelijkt ze eigenlijk een goed uitgewerkte leerstrategie met een vrij ongestuurde manier van AI gebruiken. Dat zegt veel over spontaan gebruik, maar nog weinig over hoe we bij sterke didactiek AI nuttig zou kunnen integreren. En de onderzoekers zijn ook wel verbonden aan Microsoft en Cambridge University Press & Assessment,
Het meest opvallende blijft misschien wel deze tegenstelling: notities zonder LLM werkten het best, maar leerlingen hadden er het minst zin in. Dat is geen klein detail. Het toont opnieuw hoe groot het verschil kan zijn tussen wat comfortabel voelt en wat effectief is. Technologie kan die spanning verkleinen, maar ze heft ze niet op.
Wat AI-onderzoek in het onderwijs vooral onthult: een didactische blinde vlek
Wie vandaag het onderzoek naar AI in het onderwijs induikt, ziet vooral belofte en soms ook heel wat minder sterke studies. Slimme systemen die feedback geven, robots die kinderen helpen samenwerken, adaptieve platforms die leren personaliseren. Maar zodra je de pedagogisch-didactische onderlaag oplicht of stilstaat bij welke leertheorieën gebruikt worden, wordt het beeld minder futuristisch en echt een stuk herkenbaarder. Je ziet dan een veld dat vooral experimenteert zonder veel houvast, waar de technologie sneller loopt dan de didactiek.
Een nieuwe systematische review van Topali en collega’s (2025) laat dat opvallend scherp zien. Van de 28 studies die daadwerkelijk AI inzetten in echte klascontexten binnen het leerplichtonderwijs, blijkt ongeveer de helft géén expliciete leertheorie te gebruiken. Geen verwijzing naar hoe kinderen leren, geen ontwerpkeuzes die vertrekken vanuit cognitieve belasting of socioculturele interacties, geen link met leerdoelen of activiteitendynamiek. AI wordt vaak toegevoegd zoals je een nieuw toestel in een klas zet: plug-and-play, en hopen dat het werkt.
Bij de studies die wél een theoretische basis gebruiken, duikt vooral één stroming op: het constructivisme, in uiteenlopende varianten. Robots die als mediatoren optreden binnen Vygotskiaanse kaders, game-based learning geïnspireerd door Piaget, inquiry-gebaseerde omgevingen waar leerlingen al construerend leren. Op zich logisch: veel AI-toepassingen in de lagere jaren zijn speels, interactief en sociaal, en sluiten aan bij die traditie.
Maar opvallend is vooral wat níet gebruikt wordt. Cognitieve leertheorieën, toch een stevige pijler van hedendaagse didactiek, zijn schaars. Bloom of SRL-modellen komen sporadisch voor, maar zelden diepgaand. Cognitive Load Theory? Afwezig. Expliciete instructie? Nauwelijks. Motivatie- en zelfdeterminatietheorieën verschijnen slechts in enkele studies, vaak als randkader. Socioculturele theorieën komen iets vaker voor, maar blijven beperkt tot specifieke projecten rond samenwerking of leerlingen met bijzondere noden.
Het resultaat is een veld dat vooral didactisch leunt op brede, soms losjes geïnterpreteerde constructivistische ideeën, aangevuld met ad-hoc toepassingen van motivatietheorieën. Dat hoeft op zich niet verkeerd te zijn, maar het laat een blinde vlek achter: hoe AI zich verhoudt tot leren zoals we het uit robuust onderzoek kennen. Denk dan aan werkgeheugen, voorbeeldwerking, expertiseontwikkeling, feedbackprincipes, effectieve instructie. Dit alles blijft grotendeels onverkend terrein. Als AI echt moet bijdragen aan leren, dan moet het meer doen dan een speels laagje technologie over bestaande activiteiten leggen.
Daar komt dan nog bij dat veel studies niet alleen theoretisch dun zijn, maar methodologisch ook beperkt: kleine steekproeven, korte interventies, veel novelty effects. Bijna alle studies meten leerwinst op korte termijn, vaak in één vak, soms in één klas. Leraren zelf komen amper in beeld, behalve als decorstukken die de AI moeten toelaten zijn werk te doen.
Het resultaat? Een systeem dat sneller automatiseert dan het begrijpt wat het automatiseert.
Daarom is de review belangrijk, precies omdat ze de vinger legt op wat ontbreekt. Als we willen dat AI meer doet dan een gimmick zijn, dan moet het veld volwassen worden. Dat betekent: duidelijke leertheorieën, ingebedde ontwerpkeuzes, aandacht voor context, en vooral een bredere blik op wat leren en onderwijzen betekent. Niet alleen of een robot of platform “werkt”, maar waarom, voor wie, onder welke voorwaarden, en met welk effect op denken, motivatie en relaties in een klas.
En zo blijkt AI in het onderwijs vooral een spiegel. Niet dat het ons leert wat machines kunnen, maar dat het ons opnieuw dwingt scherp te krijgen wat leren is.
ChatGPT in het wiskundeonderwijs? Veel enthousiasme, weinig evidentie
Een paar maanden geleden schreef ik deze blogpost. De aanleiding was het artikel van Weidlich, Gašević, Drachsler en mijn goede vriend en collega Paul Kirschner met als premise dat we misschien de verkeerde vragen stellen over ChatGPT in het onderwijs. We vragen ons vooral af wat het kan, niet wat het doet met leren. En enkele dagen geleden stelde ik een andere vraag: is de evidentie eigenlijk wel goed genoeg?
Intussen verscheen een nieuwe systematische review in Teaching and Teacher Education (Turmuzi, Azmi & Kertiyani, 2025). Ze onderzochten twintig empirische studies over ChatGPT in het wiskundeonderwijs, gepubliceerd tussen 2023 en 2025. En eerlijk: de resultaten lezen als een illustratie van beide eerdere blogposts En nee, ik schrijf dit niet omdat ik per se gelijk wil krijgen. Integendeel.
De auteurs concluderen dat ChatGPT vooral wordt gebruikt om snelle feedback te geven en om studenten extra oefeningen te bieden, vooral in algebra en statistiek. In 70% van de studies werkt dat goed. Leerlingen krijgen meer onmiddellijke feedback en voelen zich ondersteund. Maar het loopt mis zodra het om complexere redeneringen gaat, Denk dan aan calculus, probleemoplossend denken, het waarom achter de berekening.
Nog opvallender is wat men níét onderzoekt. In 65% van de studies ging het om percepties van studenten of leraren, niet om de effectieve leerresultaten. Slechts een handvol gebruikte een degelijk experimenteel design. En bijna allemaal waren de experimenten en bijhorende steekproeven klein: meestal minder dan tachtig deelnemers. Statistische kracht? Nauwelijks. Lange termijn? Onbekend.
De auteurs noemen dat netjes ‘een ontwikkelingsfase van het onderzoeksveld’, maar feitelijk bevestigt het wat ik eerder schreef: de hype is sneller dan de data.
Interessant genoeg raakt de review ook aan het stuk van april. De meeste studies onderzoeken ChatGPT als tool en niet als leeromgeving. Ze meten of het model juiste antwoorden geeft, maar niet wat er cognitief gebeurt bij de leerling. Wordt begrip verdiept? Wordt kritisch denken gestimuleerd, of net uitgeschakeld omdat het antwoord zo snel komt? Die vragen blijven grotendeels liggen.
Wie deze review leest, ziet dus vooral wat we nog niet weten. En dat is niet erg. Integendeel, het is waardevolle informatie. Want het helpt ons om de volgende generatie studies beter op te zetten: met grotere steekproeven, echte leeruitkomsten, en aandacht voor wat ChatGPT doet met motivatie, autonomie en denkproces.
Tot die tijd blijft de conclusie dezelfde: ChatGPT kan nuttig zijn in de klas. Zeker als je het inzet als hulpmiddel voor feedback of oefening. Maar het verandert niets aan het fundamentele principe van goed onderwijs: leren is een menselijk proces dat tijd, begeleiding en reflectie vraagt.
De volgende stap is hopelijk niet nóg een studie die laat zien dat ChatGPT handig kan zijn voor huiswerk, maar onderzoek dat uitlegt wanneer het werkt, voor wie en waarom. En dat zijn volgens mij geen verkeerde vragen.
Maar juf, maar meester: heeft u AI gebruikt?
“Maar juf, maar meester: heeft u AI gebruikt?”
Dat zou weleens de nieuwe vraag van deze generatie studenten kunnen worden. En eerlijk: ze hebben er reden toe. Want waar leraren en docenten zich zorgen maken over studenten die ChatGPT gebruiken, blijkt uit recent onderzoek dat studenten net zo goed het vertrouwen in hun leraren verliezen door… hoe leraren met AI omgaan. Ik kwam op het spoor van deze studie via een gast blog van Greg Toppo bij Larry Cuban.
In haar studie bij de Education University of Hong Kong onderzocht Jiahui Luo (Jess) hoe studenten vandaag vertrouwen (of wantrouwen) ervaren in een tijd waarin generatieve AI deel is geworden van de beoordelingspraktijk. Wat betekent “vertrouwen” nog, als je je werk moet indienen mét een AI-verklaring én de chatgeschiedenis met ChatGPT, terwijl je geen idee hebt hoe je docent daarmee omgaat?
Een angstige generatie studenten
Luo sprak elf studenten (meestal toekomstige leraren) over hun ervaringen met AI in hun opdrachten. Hun reacties waren opvallend eensluidend: angst.
“Ik gebruik geen enkele AI-tool meer, zelfs Grammarly niet,” zei één student. “Straks denkt de docent dat ik vals speel.”
De universiteit waar het onderzoek plaatsvond, verplicht studenten om elk gebruik van AI te melden. Maar hoe die informatie precies wordt beoordeeld, blijft vaak vaag. Studenten weten niet of eerlijkheid beloond wordt of juist tegen hen kan werken. Een van hen verwoordde het scherp:
“Als ik mijn AI-gebruik eerlijk vermeld, wie zegt dat ik daar niet op word afgerekend?”
Het resultaat? Veel studenten nemen het zekere voor het onzekere en vermijden AI volledig. Niet omdat ze denken dat het verkeerd is, maar omdat ze hun docent niet vertrouwen.
Vertrouwen is geen éénrichtingsverkeer
Wat Luo blootlegt, is een asymmetrie: studenten moeten transparant zijn over hun AI-gebruik, maar docenten zelden over het hunne. Terwijl studenten hun prompts moeten tonen, blijft voor hen onduidelijk of docenten zelf AI gebruiken bij het beoordelen, of hoe ze AI-scores van Turnitin interpreteren.
Luo noemt dat gebrek aan “two-way transparency” een fundamentele oorzaak van wantrouwen.
“Wanneer transparantie enkel van studenten wordt verwacht, voelt dat als toezicht, niet als samenwerking.”
De lat voor docenten ligt hoger
Een tweede opvallende bevinding: studenten verwachten meer van hun docenten dan vroeger. Niet enkel vakinhoudelijke expertise, maar ook AI-geletterdheid. Ze willen leraren die de technologie begrijpen, genuanceerd over de voor- en nadelen kunnen praten en rechtvaardige beoordelingsvormen ontwerpen die niet zomaar door een chatbot te produceren zijn.
“Mijn professor liet ons ChatGPT-antwoorden kritisch analyseren in de les,” vertelde een student. “Daardoor voelde ik me veilig om AI ook zelf te gebruiken.”
Een ander noemde het “hypocrisie” dat docenten AI verbieden, terwijl hun eigen cursusbeschrijving volgens een AI-detector “duidelijk met ChatGPT was geschreven.”
Vertrouwen vraagt moed – van beide kanten
De kern van Luo’s onderzoek is even eenvoudig als confronterend: zonder kwetsbaarheid is er geen vertrouwen.
Studenten durven zich pas openstellen als ze geloven dat hun docent dat ook doet.
In een tijd waarin AI detectie, regels en controle overheersen, is dat geen vanzelfsprekendheid meer.
Of zoals Luo het samenvat: we hebben leraren nodig die niet alleen uitleggen wat mag met AI, maar ook tonen hoe zij zelf omgaan met die onzekerheid.
Kort gezegd: studenten vragen niet om laissez-faire beleid, maar om eerlijkheid, wederkerigheid en menselijkheid. En misschien is de vraag “Heeft u AI gebruikt?” minder brutaal dan ze lijkt. Misschien is ze gewoon de nieuwste versie van wat onderwijs altijd al drijft: vertrouwen.
Niet meer weten, maar beter snappen: wat leraren écht nodig hebben voor AI
Er is geen gebrek aan optimisme over AI in het onderwijs — of aan ongerustheid, wat dat betreft. Tussen de beloften van ‘gepersonaliseerd leren’ en de angst voor ‘robotleraren’ vergeten we al eens dat een klas in de eerste plaats draait op mensen, niet op platforms. Een recente studie van Marta López-Costa en collega’s aan de Universitat Oberta de Catalunya neemt dat menselijke element serieus. Zij vroegen zich af wat nu echt bepaalt of leraren in het secundair onderwijs AI beginnen te gebruiken — en wat niet.
Hun analyse van meer dan 370 Catalaanse leraren levert iets verfrissend concreets op: het gaat niet om een STEM-achtergrond of om uitzonderlijke technische vaardigheden. Wat telt, is weten hoe AI werkt, en vlot kunnen omgaan met data in het algemeen. Leraren die al vertrouwd waren met digitale leeromgevingen en leerdata konden interpreteren, bleken veel vaker AI-tools te gebruiken. Meer gespecialiseerde of technische kennis — zoals privacy-beleid, databeheer of de interne structuur van een school — maakte nauwelijks verschil.
Het opvallendste resultaat is dat AI-kennis de sterkste voorspeller was van gebruik. Leraren die al geëxperimenteerd hadden met het maken van content via AI — beelden, lesideeën, zelfs stukjes code — integreerden de technologie het meest actief in hun praktijk. Niet horen over AI, maar ermee werken blijkt de brug naar gebruik.
Toch klinkt er ook een waarschuwing. De perceptie van AI — ethische zorgen over bias, transparantie of plagiaat — had een klein maar statistisch significant negatief effect. Met andere woorden: bezorgdheid speelt nog steeds een rol. Vertrouwen groeit met inzicht, maar twijfel blijft een stille tegenkracht.
Waarom dit ertoe doet
Als deze bevindingen ook elders gelden, moet nascholing misschien een andere klemtoon krijgen. Minder aandacht voor abstracte ‘digitale transformatie’ en meer voor praktische AI-geletterdheid: leren hoe generatieve systemen tekst of beelden produceren, wat een goede prompt is, en waar menselijk oordeel zwaarder weegt dan algoritmische output. Combineer dat met degelijke datageletterdheid — patronen in leerlingresultaten herkennen, ruis van signaal onderscheiden — en de kans op zinvol en ethisch AI-gebruik stijgt aanzienlijk.
Even belangrijk is dat de studie laat zien dat een achtergrond in wiskunde of wetenschap niet automatisch betekent dat je klaar bent voor AI. De vaardigheid om data te interpreteren en pedagogisch over technologie na te denken, overstijgt vakgrenzen. AI-gebruik is geen STEM-privilege; het is een professionele leeruitdaging.
Een genuanceerde conclusie
De auteurs overschatten hun resultaten niet: hun model verklaart zo’n 30 procent van de variatie in AI-gebruik — behoorlijk, maar niet alles. En het onderzoek is cross-sectioneel, dus oorzaak en gevolg blijven open. Toch past het patroon bij wat veel scholen in de praktijk zien: leraren gebruiken AI niet omdat het van bovenaf wordt opgelegd, maar omdat ze er zelf zinvolle, pedagogisch verantwoorde toepassingen voor vinden.
De boodschap is tegelijk eenvoudig en genuanceerd: om AI te laten werken in het onderwijs, begin niet bij AI. Begin bij de leraar — bij zijn of haar begrip van data, nieuwsgierigheid en vermogen om te testen, te twijfelen en aan te passen. Technologie volgt de mens, niet omgekeerd.
Abstract van het onderzoek:
This study investigates the factors influencing the adoption of Artificial Intelligence (AI) by secondary school teachers in Catalonia. Using a Partial Least Squares Structural Equation Modelling (PLS-SEM) methodology, a conceptual model was analyzed that includes AI perception, AI knowledge, General data use, Applied data use, and STEM training as predictors of AI adoption. The results reveal that AI knowledge (β = .482, p < .001) and General data use (β = .288, p = .001) are the most significant and positive predictors of AI adoption. In contrast, AI perception shows a weak but statistically significant negative relationship (β = -.105, p = .022), while applied data use and STEM training do not present a significant direct effect. The model explains 30.5 % of the variance in AI adoption. These findings suggest that developing specific knowledge on how to use AI for content creation and competence in general data use is crucial to fostering AI adoption among secondary school teachers in the Catalan context. In addition, this explorative work provides the research community with evidence that key Data Literacy competencies significantly shape AI adoption.