Hoeveel jongeren zullen de voorbije dagen of komende maandag punten krijgen waarbij AI een rol gespeeld in het tot stand komen van die punten? Maar er is al lang veel meer AI in het dagelijkse leven van onze kinderen en jongeren. Of dat nu in de vorm is van een chatbot als luisterend oor, een tool die helpt bij het leren of een algoritme dat bepaalt wat ze te zien krijgen op TikTok. Maar wat betekent dat voor hun welzijn, zelfbeeld en ontwikkeling? De American Psychological Association bracht net een stevige adviesnota uit met een duidelijke boodschap: laat ons niet achteraf schrikken van wat we nu al hadden kunnen voorzien.
De nota klinkt niet paniekerig of technofobisch. Integendeel. Ze benadrukt dat AI best veel kan betekenen voor jongeren: het kan helpen om drempels weg te nemen, om te oefenen met sociale situaties, om meer inzicht te krijgen in jezelf. Maar alleen als het goed zit qua ontwerp, context én begeleiding. Want AI vervangt geen menselijk contact, en zeker geen volwassene die écht luistert.
Wat de APA vooral duidelijk maakt: jongeren bouwen soms relaties op met AI alsof het echte mensen zijn. En veel systemen doen ook hun best om die illusie in stand te houden. Denk aan apps die zeggen: “Ik ben er voor je.” Of die je het gevoel geven dat ze je door en door begrijpen. Maar achter de schermen zit een taalmodel dat patronen voorspelt, geen empathie. Jongeren – zeker in kwetsbare periodes – maken dat onderscheid niet altijd vanzelf.
Daarom pleit de APA voor een soort AI-geletterdheid, vergelijkbaar met of onderdeel van mediawijsheid. Jongeren moeten weten hoe AI werkt, maar ook leren om te herkennen wanneer ze er te veel op gaan vertrouwen. Dat vraagt iets van ouders en leraren. Niet per se dat ze zelf technisch expert zijn, wel dat ze de juiste vragen stellen: “Waar komt die info vandaan?” of “Wat denk jij zelf van dat advies?” En dat ze hun eigen ongemak met die technologie durven benoemen.
De nota wijst ook op een ander gevaar: AI als gezondheidsadviseur. Jongeren zoeken vaak online naar antwoorden op moeilijke vragen. En AI geeft die ook, overtuigend en vlot. Alleen: niet altijd juist, en zelden met de nuance die je bij gevoelige thema’s nodig hebt. Daarom is het cruciaal dat AI-systemen altijd duidelijk maken dat ze geen arts of psycholoog zijn – en dat ze jongeren aanmoedigen om hulp te zoeken bij een mens van vlees en bloed.
Ook privacy komt aan bod. Jongeren zijn geen kleine volwassenen, hun gegevens zijn extra gevoelig. Wat ze zeggen, hoe ze klinken, hoe ze eruitzien – dat mag niet zomaar worden opgeslagen of doorverkocht. De APA pleit voor strenge regels en heldere uitleg. Niet in juridische taal, maar op maat van jongeren zelf.
En dan is er nog de onderwijscomponent. Volgens de APA zou AI-geletterdheid eigenlijk thuishoren in elk curriculum. Niet als apart vak, maar als vaardigheid die je in verschillende contexten nodig hebt: bij technologie, bij ethiek, bij mediawijsheid. Met aandacht voor vragen als: wie bepaalt wat ik te zien krijg? Waar zitten de blinde vlekken van een algoritme? En hoe weet ik of iets te mooi is om waar te zijn?
Wat ik goed vind aan deze aanbevelingen: ze zijn niet naïef. Ze gaan niet uit van het beste of het slechtste scenario, maar van de vraag wat we nú al kunnen doen om jongeren sterker te maken. Geen regels opleggen die niemand snapt, wel investeren in gesprek, begeleiding en onderwijs. Zodat jongeren niet alleen leren hoe AI werkt, maar vooral: hoe ze er zélf verstandig mee kunnen omgaan.
Kortom: AI verdwijnt niet meer. Maar of het jongeren helpt of schaadt, hangt af van hoe wij ermee omgaan. En dat begint bij bewustzijn – van henzelf, van ons, en van de systemen die we toelaten in hun leven.