Mondelinge examens als antwoord op AI? Hold your horses

Er is iets onweerstaanbaars aan oplossingen die tegelijk oud én nieuw zijn. Mondelinge examens bijvoorbeeld. Eeuwenoud, ooit de norm, daarna grotendeels verdwenen, en nu plots weer helemaal terug in de aandacht. Niet uit nostalgie, maar uit noodzaak. Want sinds de opkomst van generatieve AI klinkt steeds vaker dezelfde reflex: als schrijven niet meer betrouwbaar te beoordelen is, dan moeten we terug naar spreken? Het klinkt logisch. En ergens klopt het ook. Dus op naar meer mondelinge examens? Hold your horses…

In een bijdrage van midden vorig jaar in Educational Researcher maakt Andrea Fenton een overtuigend pleidooi om mondelinge evaluaties opnieuw serieuzer te nemen. Ze wijst erop dat zulke evaluaties niet alleen helpen om fraude en oneigenlijk AI-gebruik te beperken, maar ook iets anders doen: ze dwingen studenten om te denken, te redeneren, te verwoorden. Niet zomaar iets reproduceren, maar tonen wat ze begrijpen.

En dat is geen detail. In een tijd waarin AI moeiteloos teksten genereert die op het eerste gezicht overtuigend lijken, wordt het steeds moeilijker om te zien wat een leerling of student zélf kan. Mondelinge examens lijken dan een elegant antwoord. Je kan doorvragen. Je kan inspelen op wat iemand zegt. En hopelijk zie je het denken gebeuren. Of niet.

Alleen is er, zoals zo vaak in onderwijs, een belangrijke nuance. Want mondelinge examens zijn dus allesbehalve nieuw. En ze zijn ook niet zomaar verdwenen. Dat had goede redenen. Tijd, schaalbaarheid, betrouwbaarheid. Het is niet evident om grote groepen studenten individueel te bevragen. En nog minder evident om dat op een consistente, eerlijke manier te doen. Ik nam zelf graag mondelinge examens af, maar bij nummer 25 op één dag werd het pittig. En dan beseffen dat er morgen weer een hele groep studenten de revue zouden passeren…

Fenton benoemt die uitdagingen ook zelf. Mondelinge evaluaties vragen duidelijke structuren, training van beoordelaars en aandacht voor bias. Zonder dat risico loop je al snel tegen problemen aan van subjectiviteit en ongelijkheid. Een recente reactie op haar artikel duwt precies op die pijnpunten.

Hu en Hashim gaan akkoord met het potentieel van mondelinge evaluaties, maar voegen drie belangrijke correcties toe. Ze beschrijven het niet als een afwijzing. Mondelinge examens kunnen wel degelijk helpen in deze AI-tijd. Maar ze geven vooral een duidelijke reality check, met concrete suggesties.

Eerst en vooral: eerlijkheid of objectiviteit is bij mondelinge examens echt niet vanzelfsprekend. In een mondeling examen meet je namelijk nooit alleen kennis. Je meet ook taalvaardigheid, spreekdurf, snelheid van denken. Met andere woorden: je meet méér dan je misschien wil meten. Hun suggestie is simpel, maar fundamenteel: maak dat expliciet in je beoordelingscriteria en scheid inhoud van vorm.

Daarnaast is er het probleem van betrouwbaarheid. Twee verschillende examinatoren kunnen dezelfde student anders beoordelen. Kleine verschillen in doorvragen of formulering kunnen grote impact hebben. De oplossing ligt volgens hen in standaardisering, opname van gesprekken en het systematisch controleren van beoordelaars. Niet omdat dat mooi klinkt, maar omdat het nodig is om dit soort evaluaties geloofwaardig te houden.

En dan is er misschien wel de grootste uitdaging waar ik zelf al naar verwees met mijn eigen ervaring: schaalbaarheid. Hier komen de auteurs met een interessant voorstel, al zie ik ook nog steeds de beperkingen. In plaats van volledige mondelinge examens voor iedereen, pleiten ze voor een soort “viva-lite”. Geen vervanging van schriftelijke evaluatie, maar een korte mondelinge verificatie. Vijf minuten kan al volstaan. Laat studenten één stap uit hun redenering uitleggen. Laat hen een keuze verantwoorden in een nieuwe context. Begrijp me niet verkeerd. Ik denk dat dit nog steeds meer dan pittig kan zijn bij grote groepen studenten, maar er zit wel iets in om het iets meer schaalbaar te maken.

De belangrijkste twist zit in een laatste, bijna ironische nuance in hun betoog. Mondelinge examens lossen het AI-probleem alleen op als ze iets vragen wat niet gewoon ingestudeerd kan worden. Studenten kunnen perfect AI-antwoorden uit het hoofd leren. Wat dat doorbreekt, is niet het spreken zelf, maar het denken. Onverwachte vragen. Nieuwe situaties. Hardop redeneren. Het is dus verleidelijk om te denken dat een andere vorm van examen de huidige AI-crisis oplost. Maar zoals zo vaak zit de echte uitdaging niet in hoe we toetsen, maar in wat we écht proberen te meten.

2 gedachten over “Mondelinge examens als antwoord op AI? Hold your horses

  1. Pingback: Die ene leerling – Teacher Tapp Nederland

Geef een reactie