Dat patroon is zeer oud. Denk bijvoorbeeld hoe een kind ooit als een tabula rasa, een onbeschreven blad of beter gladgestreken wastablet werd omschreven door wellicht al Aristoteles en explicieter gelinkt aan John Locke. In verschillende periodes is het brein verder beschreven als een soort telefooncentrale, als een hydraulisch systeem, als een computer, als een netwerk. Telkens bood de technologie van het moment een kader om iets ongrijpbaars toch enigszins begrijpelijk te maken. Telkens ook legde dat kader accenten: wat telt als informatie, wat telt als verwerking, wat telt als output.
In de tweede helft van de twintigste eeuw werd de computer de dominante metafoor. Denken werd input–verwerking–output. Geheugen werd opslag. Leren werd het efficiënt coderen en ophalen van informatie. Die metafoor was productief. Ze leidde tot testbare modellen, tot betere meetinstrumenten, tot echte vooruitgang in de cognitieve psychologie. Maar ze had ook blinde vlekken. Emotie, betekenis, context en motivatie passen veel moeizamer in een dergelijk schema.
Later schoof het netwerk naar voren. Connectivisme van Siemens en Downes, verspreide kennis, leren als deelnemen aan netwerken. Ook dat was geen onzin. Het hielp om sociale en digitale dimensies van leren serieus te nemen. Maar opnieuw gebeurde iets bekends: omdat het netwerk een krachtige beschrijving was van hoe kennis circuleert, werd het soms ook een verklaring van hoe kennis ontstaat of ontsloten wordt. En daarmee verdween opnieuw een deel van het individu uit beeld.
Vandaag is artificiële intelligentie de nieuwe hype, en meer specifiek de grote taalmodellen. En wees niet verbaasd als dit onze dominante metafoor wordt, al schuilt er hier een diepe ironie in als je er op doordenkt. We spreken over lagen, representaties, voorspellingen. Over embeddings die steeds abstracter worden. Over systemen die taal begrijpen door het volgende woord te voorspellen. En onvermijdelijk stellen we de vraag: werkt ons brein ook zo?
Recent onderzoek van Goldstein en collega’s laat zien hoe verleidelijk deze gedachte is. Hersensignalen tijdens het luisteren naar een verhaal blijken in de tijd verrassend goed te correleren met de interne lagen van grote taalmodellen. Vroege lagen sluiten beter aan bij vroege hersenactiviteit, latere lagen bij latere. Het is knap onderzoek, methodologisch sterk, en het levert iets op wat eerder nauwelijks zichtbaar was: een fijnmazig beeld van hoe taalverwerking zich in de tijd ontvouwt in het brein.
Maar precies hier wordt de metafoor gevaarlijk aantrekkelijk. Want het is één ding om vast te stellen dat twee systemen vergelijkbare structuren vertonen. Het is iets anders om daaruit af te leiden dat ze hetzelfde doen, op dezelfde manier werken of zelfs hetzelfde zijn.
Dat taalmodellen een hiërarchie van representaties hebben, betekent niet dat het brein tokens verwerkt. Dat ze goed voorspellen, betekent niet dat menselijke taalverwerking gereduceerd kan worden tot next-word prediction of het voorspellen van een volgend woord (al lukt dat wederzijds ondertussen goed bij mijn partner). Het zegt vooral dat deze modellen, precies omdat ze zo krachtig zijn, een nieuw raster leggen over onze data. Ze laten patronen zien die we eerder niet konden zien. Maar ze kunnen dus ook bepalen welke patronen we überhaupt nog zoeken.
Dat is geen reden om deze metaforen te wantrouwen. Het is wel een reden om ze op hun juiste plaats te houden. Technologie is zelden een neutrale spiegel van de werkelijkheid. Het is een bril. En elke bril verscherpt sommige contouren terwijl andere dreigen te vervagen.
Het interessante is dat dit mechanisme zichzelf herhaalt. Elke nieuwe technologie corrigeert de vorige metafoor, maar installeert tegelijk haar eigen vanzelfsprekendheden. De computer-metafoor maakte interne processen opnieuw bespreekbaar, als correctie op het behaviorisme. Al zou je dit nu niet meer denken, het netwerk corrigeerde de beperkingen van het computerdenken, en nu corrigeert AI het netwerk. Maar telkens dreigen we te vergeten dat ook deze nieuwe beschrijving voorlopig is.
Maar misschien is dat ook niet erg. Misschien kunnen we het brein alleen begrijpen via tijdelijke metaforen. Wat wel problematisch wordt, is wanneer we die metaforen verwarren met verklaringen. Wanneer een model niet langer een hulpmiddel is om na te denken, maar een antwoord op de vraag hoe denken “echt” werkt.
De geschiedenis leert iets anders. Niet dat metaforen fout zijn, maar dat ze hun waarde verliezen zodra we vergeten dat het metaforen zijn. Het brein is geen computer. Het was het niet in 1985, het is het niet in 2005, en het is het ook niet in 2026. Maar elke generatie zal opnieuw technologie nodig hebben om er iets zinnigs over te kunnen zeggen.
De uitdaging is dus niet om de juiste metafoor te vinden en die definitief vast te klikken. De uitdaging is om met elke nieuwe metafoor ook de discipline te bewaren om haar grenzen te blijven zien. Want misschien zegt het feit dat we vandaag zo graag in lagen, voorspellingen en embeddings denken uiteindelijk evenveel over onze technologie als over ons brein.