Waar we best naar kijken bij een digitale samenleving, ook oa in onderwijs (Linda Duits)

Deze post verscheen eerst op dieponderzoek.nl.

Het Rathenau Instituut doet sinds 1986 onderzoek naar de impact van technologie op de samenleving. In een recent verschenen rapport naar de stand van digitaal Nederland spreekt het Instituut zorgen uit. Het selecteerde acht domeinen en maakte een overzicht van de problemen, onderbelichte vragen en politieke vragen voor de komende vier jaar. De conclusie: de stand van de digitale samenleving is op tal van aspecten zorgelijk en het huidig beleid blijkt onvoldoende.

De macht van Big Tech wordt alleen maar groter, de samenleving is sterk afhankelijk van de diensten die deze bedrijven leveren. Scholen, ziekenhuizen en overheden maken er gebruik van, zonder dat er duidelijke afspraken zijn waarmee die bedrijven tot verantwoording kunnen worden geroepen. Voor de overheid zelf is het “een uitdaging om als parlement voldoende zicht te krijgen op de werking van overheidssystemen” (p. 46). Ondertussen vormen nieuwe immersieve technologieën nadere bedreigingen voor onze privacy.

De samenvatting van de politieke vraagstukken per domein, woordelijk overgenomen uit het rapport (p. 11-12):

Inclusieve digitale democratie
Desinformatie, deepfakes, politieke micro-targeting en de macht van Big Tech bedreigen de democratie. In Europese wetsvoorstellen krijgen platformen meer verantwoordelijkheden. Maar hoe ver moeten die precies reiken? Is het toezicht voldoende geregeld als platformen gaan bepalen wat illegale content is? Digitale middelen kunnen democratische besluitvorming ook versterken. In welke mate willen partijen daar gebruik van maken?

Eerlijke dataeconomie
Platformen brengen vraag en aanbod efficiënt bij elkaar, maar de enorme marktmacht onzekere arbeidsomstandigheden en minder leefbare steden zijn bekende keerzijden. Nieuwe wetten moeten de marktmacht reguleren en investeringen in Europese technologie moet zorgen voor alternatieve aanbieders. Maar met meer concurrentie ontstaat nog geen leefbare stad. Welke plichten moeten platformen krijgen om een eerlijke economie te realiseren? En hoe kan innovatiebeleid meer worden gericht op maatschappelijke uitdagingen?

Robuuste digitale infrastructuur
De digitale samenleving is kwetsbaar. Hoewel de afgelopen jaren meer wettelijke eisen zijn opgesteld, bijvoorbeeld voor 5G, blijft de basis, zoals encryptie, onvoldoende op orde. De afhankelijkheden worden groter. En nieuwe infrastructuren, zoals 6G en satellieten, komen eraan. Wat is er nodig om Nederland veiliger te maken en hoeveel mag dat kosten? Hoe kan Nederland haar hoogwaardige expertise over kwantumtechnologie, encryptie en AI beter benutten?

Behoorlijke digitale overheid
De overheid gebruikt data en algoritmen om te beslissen over zaken die burgers aangaan. Maar die beslissingen zijn vaak ondoorzichtig. En het blijkt lastig om maatwerk te leveren en gemaakte fouten snel te herstellen. Bovendien blijken systemen niet altijd effectief. Hoe weegt het parlement de maatschappelijke kosten tegen de baten? Wat is er nodig om te waarborgen dat digitale overheidssystemen voldoen aan de eisen van behoorlijk bestuur?

Duurzaam digitaal
Digitalisering van het energiesysteem kan de energietransitie bevorderen. Dat vraagt om beter gebruik van energiedata, met aandacht voor privacy en beveiliging. Dat is nog niet voor alle relevante data, zoals data uit slimme thermostaten of elektrische auto’s, goed geregeld. Hoe zorgt het parlement dat beschikbare data in dienst staat van de energietransitie? En hoe wordt gezorgd dat de ambities voor digitalisering gelijk op gaan met de doelen van de energietransitie?

Hoogwaardig digitaal onderwijs
Onderwijsinstellingen experimenteren met digitale leermiddelen. Op beleidsniveau is aandacht voor dataprotectie, beveiliging en publieke regie over de inkoop van systemen. Maar de impact van educatieve technologie reikt verder dan dat. Want wat betekenen de systemen voor de kwaliteit van het onderwijs en kansengelijkheid? Durven leerlingen nog fouten te maken als elke stap wordt
vastgelegd? Kortom: hoe kan innovatie vorm worden gegeven met oog voor onderwijskwaliteit en publieke waarden?

Verantwoord medische data delen
Uitwisseling van medische data kunnen de gezondheidszorg vooruit helpen, bijvoorbeeld doordat zorgverleners over de juiste informatie beschikken. Maar het gebruik van medische data dient uiterst zorgvuldig, en in het belang van de publieke gezondheidszorg, te gebeuren. Met de toename van private partijen en grote platformen komt dat belang onder druk te staan. Hoe behouden we solidariteit bij datagebruik en worden zorgverleners en patiënten beter beschermd?

Betrouwbare immersieve technologie
Spraaktechnologie, Virtual Reality en Augmented Reality maken het nog moeilijker om echt van nep (manipulatie) te onderscheiden. Deze technologieën zullen de komende jaren worden gebruikt in de zorg, het onderwijs, de bouw of defensie. Welke afspraken zijn er nodig over privacy, autonomie, waarachtigheid en gezondheid? En welke juridische kaders ontbreken, zoals voor onze publieke ruimte en intellectueel eigendom?

Hoe kunnen computers je anders laten denken? (Universiteit van Nederland)

Het is een mooie aanvulling/andere bik op de post van Linda Duits:

Robots die discrimineren of computers die iemand onterecht als fraudeur bestempelen. Is een toekomst met kunstmatige intelligentie wel zo rooskleurig? Ja, volgens neuro-informaticus Sennay Ghebreab (Universiteit van Amsterdam). Computers kunnen onze blik op de wereld (en op anderen) namelijk ook positief veranderen.

De kernzin is volgens mij trouwens ‘het hoeft niet zo te zijn’, maar ik ben misschien minder optimistisch dat het daarom ook niet zo zal zijn.

Je radicaliseert niet tot coronawappie door te veel YouTube kijken deel II (Linda Duits)

Deze blogpost verscheen eerder op dieponderzoek.nl.

Dankzij Zondag Met Lubach is de gedachte dat je radicaliseert door veel YouTube te kijken bijkans gemeengoed geworden. Lubach sprak over een fabeltjesfuik waarin je wordt gezogen: mensen stellen aanvankelijk begrijpelijke vragen (“is de PCR-test betrouwbaar?”) maar worden door het algoritme naar steeds heftigere filmpjes geleid. In drie clicks ga je van coronatesten naar de aanslagen op de Twin Towers, via pedofielennetwerken. Op Brainwash schreef ik een kritisch stuk over deze aanname. Vanuit de communicatiewetenschap is er geen bewijs dat mensen op deze manier naar informatie zoeken. Een recent verschenen artikel [abstract] test de hypothese dat YouTube kijkers radicaliseert.

Kort gezegd vinden de onderzoekers geen bewijs dat YouTube onschuldige gebruikers richting radicale politieke content drijft. In plaats daarvan is het platform simpelweg een plek waar complottheorieën, desinformatie en “hyperpartisan content” breed beschikbaar zijn, actief opgezocht worden en makkelijk gevonden geworden.

Methode
De onderzoekers maakten gebruik van data van 309.813 YouTube-gebruikers verkregen via marktonderzoeker Nielsen. Het ging om de periode januari 2016 tot en met december 2019. Iemand kwalificeerde als YouTube-gebruiker als ze minstens een keer de site hadden bezocht. Dit leverde 21.385.962 pageviews op van in totaal 9.863.964 unieke video’s. Van die video’s werd metadata opgevraagd zoals de categorie, titel en lengte. Iedere video werd gelabeld op basis van de politieke kleur van het kanaal.

In navolging van ander onderzoek gebeurde dat labellen eerst aan de hand van de traditionele links/centrum/rechts-indeling, en vervolgens naar achttien tags als socialistisch, religieus-conservatief en complot. Daarna werd een indeling gemaakt in zes categorieën: radicaal-links, links, centrum, anti-woke, rechts en radicaal-rechts. Anti-woke is uiteraard een opvallend label. De onderzoekers zien het als ter rechterzijde van het spectrum, maar anders dan rechts en radicaalrechts. Het gaat om kanalen die vallen onder wat wel het Intellectual Dark Web wordt genoemd, anti-social justice warriors en mannenrechtenactivisten.

Resultaten
Uit de analyse wordt duidelijk dat gebruikers zich sterk binnen hun eigen clusters bevinden. Er zijn afgebakende ‘gemeenschappen’ op YouTube, met homogene voorkeuren. Net als uit ander onderzoek wordt duidelijk dat nieuwsconsumptie klein is op YouTube: slechts elf procent van de totale consumptie. Dit zijn vooral mainstream of links-leunende bronnen. Er wordt veel minder radicaal-rechtse content bekeken: er zijn minder kijkers en zij kijken minder lang. De onderzoekers concluderen dat er inderdaad radicaal-rechtse gemeenschappen zijn, en die zijn groter dan links-radicale gemeenschappen, maar ze zijn klein in vergelijking met links, centrum en rechts. De consumptie van anti-woke content nam echter sterk toe en deze gemeenschap groeit.

Centraal in dit onderzoek stond hoe gebruikers bij radicaal-rechtse content terechtkomen. Slechts een fractie kan verklaard worden door de aanbevelingen van YouTube. De onderzoekers vonden over de kijksessies heen geen trend richting meer extreme content, niet op links en niet op rechts. Ze stellen daarom dat het kijken naar zulke content bepaald wordt door de voorkeur van de kijkers, niet door de aanbevelingen van het algoritme. Bovendien consumeren anti-woke, rechtse en radicaal-rechtse gebruikers ook buiten YouTube veel radicaal-rechtse content. Het sluit dus aan bij hun nieuwsdieet, en is niet het gevolg van een push vanuit YouTube.

Implicaties
YouTube is één bibliotheek binnen een groter ecosysteem, stellen de onderzoekers. Wat er gekeken wordt op YouTube is een weerspiegeling van de smaak en zoekopdrachten van de gebruiker. Die gebruikers bevinden zich in duidelijke clusters oftewel gemeenschappen.

In mijn artikel op Brainwash betoogde ik dat het belangrijk was de rol van gemeenschappen mee te nemen. Tijdens corona hebben veel complotdenkers elkaar ook fysiek ontmoet. Hun gemeenschap is daardoor sterker geworden.

Dit onderzoek zegt niets over corona: de data zijn immers verzameld voor de pandemie uitbrak. Het leert ons wel een belangrijke les: het is te makkelijk om naar YouTube (of andere platforms) te wijzen als oorzaak van sociale problemen. Om radicalisering tegen te gaan zullen we dus ook met andere oplossingen moeten komen. Dat pleit YouTube niet vrij van verantwoordelijkheid, maar het betekent wel dat ook hier niet opgaat dat ‘het de schuld van de media is’.

Facebook excuseert zich voor zijn racistische artificiële intelligentie

Toen op 27 juni de Britse Daily Mail op Facebook een video plaatste waarbij zwarte burgers woordenwisselingen hadden met bijvoorbeeld de politie, kregen de gebruikers van het platform een wel zeer aparte boodschap te lezen. Ze kregen namelijk de vraag of ze interesse hadden in “keep seeing videos about Primates,”.

Voor alle duidelijkheid, er was geen enkele primaat te zien in de video, maar de artificiële intelligentie maakte weinig onderscheid. De tool die deze fout maakte, is ondertussen uitgezet en in de NY Times verontschuldigt het bedrijf zich: “As we have said, while we have made improvements to our A.I., we know it’s not perfect, and we have more progress to make. We apologize to anyone who may have seen these offensive recommendations.”

Het is het zoveelste voorbeeld van foute en vaak racistische biases in artificiële software. De NY Times geven in hun artikel een overzicht van toepassingen van oa Google Photos. Zelf moest ik spontaan ook terugdenken aan de bot van Microsoft die op een korte tijd zeer racistisch werd.

Het is een belangrijke waarschuwing nu we steeds meer AI in onderwijs (willen) gebruiken…

Deze technologie is indrukwekkend en tegelijk griezelig

Je ziet het vaak in films en series. Men heeft zeer vage beelden van iets, maar de technologie maakt het bij wonder helder. Ik weet niet of jij het al probeerde met je telefoon, maar blijkbaar hebben de CSI’s en andere diensten wel deze magische technologie. Tot voor kort was het idee dat die technologie nog niet bestond, maar kijk even naar deze video:

Je neemt een blurry foto van 64 op 64, de artificiële intelligentie voegt eerst ruis toe om vervolgens weer ruis af te nemen en te eindigen met een beeld op hoge resolutie:

SR3 is a super-resolution diffusion model that takes as input a low-resolution image, and builds a corresponding high resolution image from pure noise. The model is trained on an image corruption process in which noise is progressively added to a high-resolution image until only pure noise remains. It then learns to reverse this process, beginning from pure noise and progressively removing noise to reach a target distribution through the guidance of the input low-resolution image. (bron en meer uitleg)

Maar tegelijk zag ik zeer veel verdeelde reacties op deze nieuwe tool van Google. Het is en blijft AI die gokt. En net in die series en films uit het begin van deze post, worden dergelijke beelden net vaak als ‘aanwijzing’ of zelfs ‘bewijs’ gebruikt, maar is dat wel een goed idee?

Hoe sociale media ons leren om meer verontwaardigd te zijn (of toch zo te reageren)

Laat me deze post beginnen met iets te bekennen: de voorbije corona-tijd heb ik steeds vaker de negeer-knop op twitter gebruikt en zelfs een enkele keer de blokkeer-knop. Die laatste knop enkel omwille van bedreigingen en/of betrekken van mijn gezin in discussies. Soms lijkt het alsof mensen steeds meer kwaad en verontwaardigd zijn op sociale media platformen, ook als het niet over Corona gaat. Nieuw onderzoek van Brady en collega’s doet vermoeden dat sociale media hier ook een rol in kunnen spelen.

En nee, dan gaat het deze keer niet over de algoritmes die je in een konijnenpijp kunnen trekken, maar over mechanismes in feite bijna ouderwets behaviorisme. Ze bekeken meer dan 12 miljoen tweets van 7331 gebruikers en deden enkele experimenten met een kleinere steekproef en leerden zo dat als mensen meer likes kregen voor berichten met een verontwaardigde toon, dergelijke tweets vaker gepost werden in de daaropvolgende tijd.

Klinkt niet onlogisch, maar het is toch nog een stuk complexer. Dit was tot u toe namelijk een voorbeeld van operante conditionering (beloningen doen gedrag toenemen) maar er is ook sprake van sociale leren (een van de grondleggers Bandura overleed trouwens deze zomer). Als men in een netwerk zit waarbij verontwaardigde boodschappen de norm is, dan heb je cru gesteld die beloning niet meer nodig, maar gaan mensen zich gaan richten op die norm.

En op het einde van de rit komen toch die eerder vermelde algoritmes terug in het spel in de paper omdat de onderzoekers wel degelijk een interactie-effect vermoeden:

Social media newsfeed algorithms can directly affect how much social feedback a given post receives by determining how many other users are exposed to that post. Because we show here that social feedback affects users’ outrage expressions over time, this suggests that newsfeed algorithms can influence users’ moral behaviors by exploiting their natural tendencies for reinforcement learning. In this way, reinforcement learning on social media differs from reinforcement learning in other environments because crucial inputs to the learning process are shaped by corporate interests (2652). Even if platform designers do not intend to amplify moral outrage, design choices aimed at satisfying other goals such as profit maximization via user engagement can indirectly affect moral behavior because outrage-provoking content draws high engagement (2931). Given that moral outrage plays a critical role in collective action and social change (4053), our data suggest that platform designers have the ability to influence the success or failure of social and political movements, as well as informational campaigns designed to influence users’ moral and political attitudes (3451). Future research is required to understand whether users are aware of this and whether making such knowledge salient can affect their online behavior.

Abstract van het onderzoek:

Moral outrage shapes fundamental aspects of social life and is now widespread in online social networks. Here, we show how social learning processes amplify online moral outrage expressions over time. In two preregistered observational studies on Twitter (7331 users and 12.7 million total tweets) and two preregistered behavioral experiments (N = 240), we find that positive social feedback for outrage expressions increases the likelihood of future outrage expressions, consistent with principles of reinforcement learning. In addition, users conform their outrage expressions to the expressive norms of their social networks, suggesting norm learning also guides online outrage expressions. Norm learning overshadows reinforcement learning when normative information is readily observable: in ideologically extreme networks, where outrage expression is more common, users are less sensitive to social feedback when deciding whether to express outrage. Our findings highlight how platform design interacts with human learning mechanisms to affect moral discourse in digital public spaces.

Ook TikTok kan de ontlezing niet stoppen (Linda Duits)

Deze post verscheen eerder op dieponderzoek.nl.

Zorgen over ontlezing bestaan al zeker sinds mijn kindertijd en de concurrentie van schermen heeft die zorgen alleen maar vergroot. Er worden dan ook allerlei voorstellen gedaan om die ontlezing te stoppen, liefst hippig in combinatie met andere media zoals via een game. Doorgaans halen zulke top-down initiatieven weinig uit, maar deze week schrijft Het Parool dat het TikTok-sterren lukt hun volgers aan het lezen te krijgen.

Effect op boekverkoop
Via #BookTok delen influencers boekentips: wat te lezen en waarom. Dit slaat aan, en blijkbaar ook in Nederland. In Het Parool komen verkopers van de Engelstalige Amsterdamse boekhandels American Book Center en Waterstone’s aan het woord die een daadwerkelijke stijging zien:

“Jonge mensen komen vaak langs met een lijstje boek­titels op hun telefoon. Meestal gaan ze dan ook weg met een stapeltje boeken. Dagelijks verkopen we vijf à tien van deze ‘TikTokboeken’. Dan gaat het om titels als They Both Die at the EndThe Song of Achilles en RedWhite and Navy Blue. Laatst hebben we in twee dagen zo’n zestig exem­plaren van The Midnight Library van Matt Haig verkocht. Dat zijn voor ons aantallen die we nog nooit hebben meegemaakt, misschien alleen toen de Harry Potter-boeken uitkwamen. Het gaat zo hard.”

Er is ook een Nederlandstalige hashtag op TikTok, #BoekTok, aangevoerd door Soraya Riem die bij uitgeverij Lebowski blijkt te werken. Ze bedenkt acties samen met de CPNB – het is dus geen kwestie van influencers die ‘spontaan’ beginnen met het lezen van boeken en dat delen. Het is ook de vraag hoe blijvend een dergelijke trend is: pikken jongeren op deze manier echt een liefde voor lezen op?

BookTube
Het is ook niet de eerste keer dat zulke berichten verschijnen. In 2018 kopte The New York Times ‘Meet the YouTube Stars Turning Viewers Into Readers’. Daar ging het dus over YouTube en heette de gemeenschap BookTube. Ook toen was het idee dat kijkers die geen grote lezers waren dankzij het platform geïnspireerd werden dat wel te worden. Ook toen werd effect gerapporteerd:

“viewer engagement is substantial; many subscribers comment that they were convinced to buy the book being promoted. According to YouTube, the community as a whole has gotten over 200 million views and, compared to this time last year, engagement with them is up 40 percent.”

Maar BookTube heeft geen einde gebracht aan ontlezing. Dat is ook een veel te hoge verwachting van een platform met zo’n uiteenlopend aanbod. YouTube en TikTok zijn grote platforms, maar ze zijn ook exemplarisch voor de fragmentatie van het medialandschap: iedereen kijkt iets anders. Creëren deze influencers echt een vraag, of weten kijkers die lezen toch al wel een beetje leuk vonden deze kanalen te vinden?

Leesbevordering
Lezen via een game of #BookTok zijn voorbeelden van wat ‘leesbevordering’ wordt genoemd. Het effect van zulke initiatieven is twijfelachtig, stelt onderwijskundige Helge Bonset [abstract]. Sowieso is het discutabel hoe effect te operationaliseren. Als toename van lezen in de vrije tijd? Maar we “meten het succes van natuuronderwijs ook niet alleen af aan de mate waarin leerlingen
in hun vrije tijd de natuur ingaan” schrijft Bonset. Alle beetjes helpen en er is wel degelijk een verband tussen lezen in de vrije tijd en taalvaardigheid, maar we verwachten te veel. Bonset eindigt:

“De waarde van leesbevordering is buiten kijf. Maar helaas, behalve het lichtpuntje uit het onderzoek van Nielen (2016), wijst op dit moment weinig erop dat leesbevordering de ontlezing, de afname van het lezen in de vrije tijd, onder jongeren zal kunnen stoppen. De meest voor de hand liggende reden hiervoor komt naar voren uit het onderzoek van Huysmans (2013): met het toenemen van de leeftijd dringen mobiele en digitale mediavormen (televisiekijken, muziek luisteren, computeren, internetten, gamen, mobiel bellen en social media bijhouden) het lezen van boeken steeds meer terug. Leerlingen kunnen hun vrije tijd helaas maar één keer besteden” (p. 35).