In een vorige post besprak ik enkele dagen geleden het recente Brookings-rapport A New Direction for Students in an AI World
. De kernconclusie daarvan was ongemakkelijk maar helder: vandaag wegen de risico’s van AI voor leerlingen zwaarder dan de beloften. Niet omdat AI per definitie schadelijk is, maar omdat veel toepassingen leerprocessen ondermijnen die juist essentieel zijn voor ontwikkeling. Beschermen, begrenzen en bewust kiezen stonden centraal.
Nu verscheen er ook het nieuwe OECD Digital Education Outlook 2026, volledig gewijd aan generatieve AI in onderwijs. Ik nam het globaal door wegens ook weer zeer uitgebreid, maar het is duidelijk dat dit rapport vanuit een andere vraag vertrekt. Deze keer niet zozeer: wat kan er misgaan? maar: wanneer en hoe kan AI daadwerkelijk bijdragen aan beter leren, beter lesgeven en sterkere systemen?
Ik kreeg veel reacties op mijn eerste post, maar kan wellicht verschillende antwoorden afdekken met dit rapport. Waar Brookings vooral waarschuwt, probeert de OECD te preciseren. Ik denk echt dat ze samen het debat beter maken.
Een eerste belangrijk punt waarop de OECD expliciet aansluit bij Brookings, is de vaststelling dat betere prestaties niet automatisch beter leren betekenen. Het rapport laat zien dat generatieve AI leerlingen vaak helpt om taken sneller of correcter uit te voeren, maar dat dit effect kan verdwijnen of zelfs omslaan zodra de ondersteuning wegvalt. Een veldexperiment in Turkije dat ik ook zelf al vaak aanhaalde, duikt ook hier op: studenten presteerden beter mét AI, maar slechter zodra die toegang werd verwijderd. AI kan dus leren ondersteunen, maar kan het ook vervangen op een manier die leerontwikkeling verzwakt. Zelf denk ik dat deze studie meer vragen oproept over het curriculum. Wat moeten studenten zelf kunnen, en waar mogen ze leunen op technologie.
Dit sluit naadloos aan bij de zorg uit het Brookings-rapport over het uitbesteden van cognitieve arbeid. De OECD bevestigt die zorg, maar trekt er nog een andere vervolgvraag uit dan ik net suggereerde: wat moet het ontwerp van AI-toepassingen dan wél doen om leren te ondersteunen?
De OECD maakt een scherp onderscheid tussen algemene, commerciële AI-tools en speciaal voor educatie ontworpen AI-systemen. Veel problemen ontstaan, stelt men, wanneer generieke chatbots, gebouwd voor snelheid en output, worden ingezet in leercontexten. Niet omdat ze “slecht” zijn, maar omdat ze niet ontworpen zijn om denkprocessen zichtbaar te maken, fouten productief te benutten of zelfregulatie te ondersteunen.
Wanneer AI daarentegen expliciet ontworpen wordt als educatieve technologie, met pedagogische doelen, transparantie over stappen en ruimte voor sturing door de leraar, veranderen de effecten. Dan kan AI bijvoorbeeld fungeren als tutor die vragen stelt in plaats van antwoorden geeft. Of als feedbackinstrument dat leerprocessen in kaart brengt in plaats van ze af te korten.
Ook op het niveau van leraren is het verschil in insteek relevant. Waar Brookings vooral waarschuwt voor verlies aan autonomie en professionaliteit, werkt de OECD dit uit in het concept van teacher–AI teaming. AI kan leraren tijd besparen, analyses ondersteunen en feedback verrijken, maar enkel en alleen wanneer de leraar duidelijk “in the loop” blijft. Dus niet als uitvoerder van AI-suggesties, maar als professionele beslisser die bepaalt wat zinvol is in een concrete context.
Op systeemniveau blijft de OECD voorzichtig optimistisch. Generatieve AI kan administratieve lasten verminderen, curricula analyseren of onderzoek ondersteunen. Maar ook hier benadrukt het rapport dat governance cruciaal is. Zonder duidelijke kaders rond privacy, bias, transparantie en verantwoordelijkheid verschuift de macht onvermijdelijk naar commerciële aanbieders. In dat opzicht versterkt de OECD juist de beschermingslogica die Brookings centraal stelt.
Ok. Twee grote rapporten, veel AI, en nu?
Het Brookings-rapport legt terecht de nadruk op beschermen: van leren, van autonomie, van ongelijkheid. Het OECD-rapport laat zien dat beschermen alleen niet volstaat. Als AI een rol krijgt in onderwijs, en dat heeft de technologie nu al, moet die rol ook bewust ontworpen worden. Niet alles toelaten, maar ook niet alles afhouden. De kernvraag verschuift dan van of AI gebruikt wordt naar onder welke pedagogische en institutionele voorwaarden dat verantwoord is.
AI zal niet verdwijnen uit het leven van leerlingen. Maar of het leren versterkt of verzwakt, is geen natuurwet. Het is een gevolg van keuzes. En precies daar zouden deze rapporten ons scherper in moeten maken.