Wie ooit ChatGPT heeft gebruikt om snel iets te begrijpen, weet hoe efficiënt het aanvoelt. Binnen enkele seconden krijg je een helder, keurig samengevat antwoord. Vaak beter geschreven dan wat je zou vinden via een willekeurige zoekopdracht op het web. Maar volgens nieuw onderzoek van de Wharton School en de New Mexico State University kan die handigheid een prijs hebben. Wanneer leren te makkelijk lijkt, leren we mogelijk minder diep.
In zeven experimenten met meer dan 10.000 deelnemers vergeleken Shiri Melumad en Jin Ho Yun hoe mensen leren via grote taalmodellen (zoals ChatGPT) en via klassieke zoekmachines. De resultaten waren opvallend consistent. Wie ChatGPT gebruikte, had het gevoel minder geleerd te hebben, schreef adviezen die minder gedetailleerd en minder origineel waren, en hun teksten werden beoordeeld als minder informatief en overtuigend. Zelfs wanneer de informatie exact dezelfde was, maar enkel anders werd gepresenteerd, leerden de deelnemers minder uit de samenvatting van het taalmodel dan uit het zelf doorzoeken van webpagina’s.
De verklaring is niet zo vreemd als je de wetenschap rond leren al wat langer volgt en weet hoe belangrijk denken is voor onthouden. Wanneer we op de klassieke manier zoeken, moeten we zelf verkennen, vergelijken en beslissen welke bronnen we vertrouwen. Dat vraagt inspanning, maar helpt ons ook om mentale modellen te bouwen en verbanden te leggen. Wanneer een taalmodel die synthese voor ons maakt, slaan we het deel van het leren over waarin we actief moeten nadenken. De onderzoekers verwijzen naar het idee van desirable difficulties uit de cognitieve psychologie: leren wordt dieper wanneer het net genoeg moeite kost om ons erbij te betrekken.
In een van de meest interessante vervolgstudies vroegen de onderzoekers aan andere deelnemers om het advies te lezen en te beoordelen dat eerder was geschreven door mensen die via Google of ChatGPT hadden geleerd. De lezers wisten niet wie wat had gebruikt, maar vonden het ChatGPT-advies systematisch minder nuttig, minder betrouwbaar en minder de moeite waard om over te nemen. Het verschil in leerkwaliteit zat dus niet enkel in het hoofd van de deelnemers. Het was zichtbaar in het resultaat.
Dat betekent niet dat we AI niet meer zouden mogen gebruiken om te leren. De studie is voorzichtig in haar conclusies: taalmodellen kunnen nog altijd nuttig zijn om feitelijke of procedurele kennis te verwerven, en ze maken informatie onmiskenbaar toegankelijker. Maar het is wel een tijdige herinnering dat wrijving soms een functie heeft. Wanneer een antwoord té vlot verschijnt, slaan we misschien precies die stappen over die leren betekenisvol maken.
Toch is wat nuance op haar plaats. De studie is knap opgezet, maar de taken waren relatief eenvoudig en kortlopend. Leren hoe je groenten plant of leefstijladvies geeft, is niet hetzelfde als een vak beheersen of expertise opbouwen. Het onderzoek toont vooral hoe we leren, niet wat we na verloop van tijd bijhouden. Gemak en efficiëntie kunnen leren vlot laten aanvoelen, maar dat gevoel kan misleidend zijn. De echte vraag voor het onderwijs is niet of AI ons minder doet nadenken, maar hoe we het zo kunnen inzetten dat het ons net aanzet om dieper na te denken.
Het onderzoek roept ook een bredere vraag op. De meeste zoekmachines gebruiken vandaag al AI om zoekopdrachten te interpreteren, resultaten te rangschikken of zelfs rechtstreeks antwoorden te geven in plaats van links. De grens tussen “AI-zoeken” en “AI-antwoorden” vervaagt dus snel. Het verschil zit misschien niet langer in de technologie zelf, maar in de mate van autonomie die ze de lerende laat. Hoe meer een systeem voor ons denkt, hoe minder we het zelf doen.