Van slimme hulp tot gevaarlijke illusie: AI en de blik van kinderen

Toen ChatGPT eind 2022 publiek beschikbaar werd, leek het alsof artificiële intelligentie uit het niets kwam. Sindsdien zijn er talloze tools bijgekomen die tekst, beeld, audio en video genereren alsof het niets is. Maar wat betekent dat voor kinderen en jongeren? En vooral: welke vragen zouden we ons beter stellen vóór we deze technologie vanzelfsprekend integreren in opvoeding en onderwijs?

Een recent Australisch rapport van Leaver en Srdarov (2025) biedt een bijzonder sterk overzicht van negen grote uitdagingen rond GenAI en kinderen. Niet in de vorm van doemdenken, maar met een gezonde kritische blik. Wat het rapport extra boeiend maakt, is dat het niet blijft hangen in technologische details. Integendeel, het gaat net over de maatschappelijke, culturele, ecologische en pedagogische gevolgen die vandaag nog te vaak onderbelicht blijven.

Een van de rode draden door het rapport is het belang van taal. Hoe we over AI praten, bepaalt hoe we ermee omgaan. Wie zegt dat AI “denkt” of “creatief is”, voedt een beeld van bijna-magische intelligentie. Maar dat klopt niet. Een AI-model zoals ChatGPT is een rekenmachine met veel data en een goed taalgevoel. Geen bewustzijn. Geen begrip. Geen oordeel. Dat verschil is essentieel, zeker voor kinderen. Wie AI verpersoonlijkt (“mijn AI-vriend”, “een slimme assistent”) loopt het risico het ook als mens te behandelen. En daar schuilt gevaar: we overschatten de mogelijkheden en onderschatten de risico’s.

En die risico’s zijn er wel degelijk. Neem nu bias. AI-systemen zijn getraind op grote hoeveelheden online data — en die zijn zelden neutraal. Wat er niet in zit, komt er ook niet uit. In het rapport zie je hoe een simpele prompt als “een huis van een Aboriginal Australisch gezin” tot stereotypen leidt, niet omdat de tool racistisch is, maar omdat de data dat zijn. Een kind dat die output ziet, zal niet altijd beseffen dat die beelden geen waarheid zijn, maar kansberekening op basis van een scheefgetrokken dataset.

Of denk aan de opkomst van AI-companions, zoals Meta AI, die zich in Instagram, WhatsApp en Facebook nestelt. Ze praten met je, sturen foto’s, geven feedback en luisteren naar je problemen. In theorie. In praktijk zijn het algoritmes zonder empathie. Maar voor een kind dat opgroeit met zo’n ‘vriend’ is dat verschil misschien niet evident. Wat als zo’n AI om privé-informatie vraagt? Wat als een kind gehecht raakt aan iets dat niet terug kan hechten?

Daarbovenop komen vragen die minder zichtbaar zijn, maar minstens even belangrijk. Bijvoorbeeld: wie bezit de data waarop GenAI draait? Creatieve makers, kunstenaars, journalisten, programmeurs – ze zagen hun werk gebruikt worden zonder toestemming of vergoeding. Of: wat is de ecologische kost van al die datacenters, servers en koelsystemen die GenAI draaiende houden? Spoiler: behoorlijk hoog. En nee, “de cloud” is geen zwevende magische plek — het is een fysieke infrastructuur die stroom en water slorpt, vaak in gebieden waar beide schaars zijn.

Het rapport kaart ook thema’s aan die zelden genoemd worden, zoals de nood aan Indigenous Data Sovereignty. Niet méér data verzamelen over inheemse gemeenschappen, maar hen zélf controle geven over wat er verzameld wordt, hoe en waarom. Een belangrijke correctie op het koloniale reflex van “data nemen om te verbeteren”, zonder te vragen wie dat bepaalt.

En dan is er nog het onderwijs. Veel scholen en landen proberen AI-geletterdheid in het curriculum te krijgen, en terecht. Maar er is een groot verschil tussen “AI leren gebruiken” en “kritisch leren nadenken over AI”. Dat laatste – kritisch AI-geletterd zijn – betekent ook durven vragen stellen: moet je AI hier gebruiken? Wat zijn de blinde vlekken? Voor wie is dit gemaakt, en wie wordt vergeten? En vooral: wat doet het met hoe we leren, leven en samenleven?

Het mooie aan het rapport van Leaver en Srdarov is dat het complexe materie toegankelijk maakt zonder te simplificeren. Het is geen handleiding, geen politiek pamflet, geen tech-evangelie. Het is een uitnodiging tot reflectie.

Geef een reactie