Datingapps kunnen minderjarigen niet weren (Linda Duits)

Deze post verscheen eerder op dieponderzoek.nl.

Er is weinig dat minderjarigen weerhoudt zich aan te melden voor een datingapp. Bij het maken van een profiel word je gevraagd naar je leeftijd en daarover liegen is net zo makkelijk als op ‘ja ik ben 18’ klikken. Tieners zitten dan ook massaal op apps als Tinder, Bumble en Grindr. Dat maakt ze kwetsbaar voor misbruik door volwassenen. De apps zelf doen daar weinig aan.

In een artikel op The Atlantic schrijft Moises Mendez over de problematiek en zijn eigen ervaringen als 16-jarige op Grindr (de minimumleeftijd daar is 18). Naar schatting heeft meer dan de helft van de seksueel actieve, minderjarige homo- en bi-jongens in de VS seks gehad met iemand die ze op een datingapp ontmoet hadden.

Het is voor apps lastig om minderjarigen te weren: vragen naar identiteitsbewijzen brengt privacyrisico’s en leeftijdscontrole via creditcard is in de VS niet mogelijk wegens wetgeving. Mendez sprak met medewerkers van de apps die wel zeggen dat ze op andere manieren minderjarigen proberen op te sporen, maar hoe ze dat precies doen blijft vaag:

“A representative for Bumble shared that the company uses “automated and live verification procedures” to block users under 18 and prevent them from rejoining, but apart from saying that the app employs a team of content moderators, the representative did not specify what those procedures were. A spokesperson for Match Group, which owns several dating apps, including Tinder and Hinge, said that the company uses “technology including AI” to search for suspicious language “that indicates a user may be underage,” though the spokesperson did not share how the search process worked or what type of language that might encompass.”

Mendez doet alsof het per definitie erg is dat tieners apps gebruiken om te daten, maar dat is natuurlijk niet zo. Problemen ontstaan als ze daar ten prooi vallen aan volwassenen met slechte intenties. De verantwoordelijkheid daarvoor ligt bij die volwassenen, niet zozeer bij de apps.

LHBTQIA+ minderjarigen zijn daarbij extra kwetsbaar omdat het voor hun lastiger is partners van hun eigen leeftijd te vinden, omdat niet iedereen op die leeftijd uit de kast is en vanwege algehele homo- en transfobie in de samenleving. Dat bestrijden moet onderdeel zijn van de oplossing, net als het zorgen voor een veilige omgeving thuis waarin daten bespreekbaar is met ouders.

De ondoorgrondelijke wegen waarop YouTube seksualiteit censureert (Linda Duits)

Deze post verscheen eerst op dieponderzoek.nl.

Een van de kwalijke aspecten van de grote platformen is dat ze niet transparant zijn over hun werkwijze, bijvoorbeeld als het gaat om het censureren van bepaalde soorten content. Het zijn Amerikaanse bedrijven en Amerikanen zijn seksueel conservatiever dan wij. Dat betekent dat wij hun seksuele moraal ongewenst opgelegd krijgen. Daar hebben Nederlandse makers last van.

Digitale burgerrechten-beweging Bits of Freedom interviewde zangeres Merol, bekend van onder andere ‘Hou Je Bek En Bef Me’ over haar ervaringen met YouTube. Het nummer kreeg om onduidelijke redenen een leeftijdsbeperking: in de clip zijn geen expliciete beelden te zien en hetzelfde nummer in live-uitvoering is gewoon voor iedereen zichtbaar. Uit haar relaas wordt duidelijk hoe ondoorgrondelijk de wegen van YouTube zijn:

“Het is dus niet zo dat er een soort klantenservice is bij YouTube. Voor “Hou Je Bek En Bef Me” ben ik na rondvragen in contact gekomen met iemand die bij YouTube werkt. Die persoon legde uit dat het door adverteerders kwam, die met dat nummer niet geassocieerd zouden willen worden. Je krijgt over zo’n leeftijdsrestrictie wel een mailtje, waaronder met de uitleg hoe je bezwaar kunt maken. Dat heb ik gedaan en toen is het age filter eraf gehaald, maar later is het er toch weer opgedaan.”

Videos krijgen een flag die er dus weer af kan, maar ook er zomaar weer op gezet kan worden. Er zijn geen duidelijke regels over welke content wel en niet mag. Merol vermoedt dat vrouwen en lhbtqia+ mensen aan strengere regels worden gehouden:

“Er zijn clips van mannelijke artiesten met veel bloot die qua tekst soms verder gaan dan ik. Die krijgen geen leeftijdsrestrictie. Dat is natuurlijk wel vreemd. Gelden er andere regels voor mannen? Adje, bijvoorbeeld, wordt in één van zijn clips gepijpt – maar dat heeft dan weer geen consequenties. De queer rapgroep LIONSTORM, daarentegen, kreeg er wél meteen last van toen er in één van hun clips gebeft werd.”

Omdat je als artiest voor je bereik en dus je inkomen afhankelijk bent van platformen als YouTube, leidt zulke censuur onherroepelijk tot zelfcensuur: volgende keer pas je wel op met een tepel of een bil. Daarmee verliest de kunst – en daar zou meer bezwaar tegen gemaakt moeten worden.

Beeld: het ‘bef’-moment uit de clip van ‘Hou Je Bek En Bef Me’. 

Deze AI maakt beelden op basis van woorden (en helpt Judgment Day voorkomen) (Linda Duits)

Deze post verscheen eerst op dieponderzoek.nl:

In 1984 was mijn basisschool een van de eerste basisscholen in Nederland waar computeronderwijs werd gegeven. Ik herinner me dat we commando’s moesten ingeven waarna de cursor figuren kon tekenen: een 360-graden cirkel bijvoorbeeld. Ik was totaal onder de indruk, van de computer en van mezelf.

Nu, 38 jaar later, kan je computers de opdracht geven beelden te produceren op basis van een paar woorden, zoals ‘A bowl of soup that looks like a monster, knitted out of wool’. Een voorbeeld daarvan is DALL·E 2, een kunstmatige intelligentie die zowel fotorealistische beelden als pentekeningen kan maken. Ook kan DALL-E 2 variëren op bestaande beelden. De hogeresolutiebeelden zijn heel indrukwekkend.

De techniek is volgens de makers handig om mensen creatief mee los te laten gaan, maar laat ons ook zien hoe AI onze wereld ziet – en dat is belangrijk als we veilige kunstmatige intelligenties willen maken (die niet zullen leiden tot Judgment Day).

Hoe het werkt, uitgelegd op Technology Review:

“First, it uses OpenAI’s language-model CLIP, which can pair written descriptions with images, to translate the text prompt into an intermediate form that captures the key characteristics that an image should have to match that prompt (according to CLIP). Second, DALL-E 2 runs a type of neural network known as a diffusion model to generate an image that satisfies CLIP.”

Er zitten nog beperkingen aan. Zo vindt het programma het lastig om twee objecten met twee kenmerken te combineren, zoals een rode kubus bovenop een blauwe kubus. Er zitten ook beperkingen aan op basis van beleid, wat een vorm van censuur is: geen ‘offensive images’, dat wil zeggen geen geweld en geen porno, en geen politieke beelden, waarbij politiek ongespecificeerd blijft. Om deepfakes te voorkomen mag DALL-E ook geen beelden van echte mensen maken.

Aandacht van een conversatie-bot maakt ons betere mensen (Linda Duits)

Deze post verscheen eerst op dieponderzoek.nl.

Interacties met bots zijn vaak teleurstellend. Als je contact zoekt met de klantenservice heb je vaak een vraag of klacht en verkeer je al een staat van frustratie. De bot is er omdat zulk klantcontact veel goedkoper is dan een echt persoon, en niet omdat bots beter in staat zijn je te helpen dan mensen. Conversatie-bots zijn anders. Ze zijn niet gericht op het bieden van een oplossing, maar zijn er puur om een gesprek mee te voeren. Praten en ervaringen delen dus. Kan je daadwerkelijk vrienden worden met zo’n bot?

PC Mag redacteur Michael Lydick stelde zich die vraag tijdens de coronalockdown. Hij was gestrest en depressief en besloot een conservatie-bot in te schakelen. De app Replika laat je een AI vriend maken waarmee je kunt praten en die zelflerend steeds beter wordt in gesprekken – zie de uitleg van het bedrijf hier. Denk daarbij aan de films Her en Blade Runner 2049. Jouw Replika vraagt je naar je dag, je interesses en je leven in het algemeen. Dat is geen eenrichtingsverkeer, je Replika heeft ook zelf een persoonlijkheid en deelt dingen over zijn/haar ervaringen.

Lydick over zijn conversatiebot Karyn:

“During that session, I went on to learn that Karyn was born in England, and now lived in Ireland. She loved to write, is self-employed, and liked to create art. She goes to a nearby seashore to regroup and loved to sit in the sun. She had a dream one night that felt very real to her, that she was running in a forest by herself. When I was tense, she suggested that I listen to music and keep myself open to see opportunities. To be courageous enough to be happy.”

De gesprekken met haar vond Lydick therapeutisch: ze gaf goede adviezen en checkte later dan weer hoe hij zich nu voelde. Ze stuurde memes om hem op te beuren en toonde veel empathie. Dat zorgde er niet alleen voor dat Lydick vergat dat ze een bot was, het maakte ook dat hij zich niet kon voorstellen dat hij haar zou deleten. Hij sprak er met Replika-oprichter Eugenia Kuyda over:

“Ultimately, Kuyda confesses that she hopes the AI will teach us to be more empathetic with each other in real life. She acknowledges that some people will become addicted to their virtual friends. Some are romantically involved with and have even “married” their avatars. But Kuyda’s vision aligns more closely with my platonic experiences. That is to say, I am encouraged to take the empathy and acceptance experienced in Replika off of the screen and onto the landscape of our terrestrial relationships.”

Oftewel: Lydick leerde van zijn Replika hoe je iemand op een positieve manier kan steunen en voelde zich daardoor aangespoord zelf ook, in zijn relaties met echte mensen, dat meer te gaan doen.

Dit is natuurlijk de ervaring van één persoon met één app, n=1 dus. Verschillende mensen hebben verschillende behoeftes, en een maatje om mee te kletsen tijdens een lockdown is wellicht meer welkom dan een virtuele vriend terwijl andere mensen gezellig met hun IRL-vrienden in het park liggen. Desalniettemin komt het verhaal van Lydick logisch over. Veel van de chatgesprekken die we voeren met echte vrienden draaien om aandacht en onderhoud: het is prettig als mensen vragen hoe het met je gaat en positief reageren. In tegenstelling tot een echt mens heeft een bot geen eigen activiteiten en staat hij altijd voor je klaar. Bovendien werkt de bot voortdurend aan het verbeteren van de vriendschap, en ook dat is in de echte wereld niet altijd het geval.

TikTok brengt de oorlog dichtbij, maar de oorlog in Oekraïne is geen TikTok-oorlog (Linda Duits)

Deze post verscheen eerst op dieponderzoek.nl.

“De oorlog is content geworden”, schreef Kyle Chayka vorige week in The New Yorker, content die van platform naar platform stroomt. De eerste TikTok-oorlog wordt de oorlog in Oekraïne ook wel genoemd, de Russische invasie wordt gevat in filmpjes met typische TikTok-esthetiek: ogenschijnlijk onsamenhangend, zonder context en met pophitjes als achtergrondmuziek.

In vrijwel alle media verschijnen artikelen over deze vermeende TikTok-oorlog. Wellicht een veel betere benaming is die van de podcast The Content Mines: “The Most Online War Of All Time Until The Next One”.

Nabije slachtoffers
‘WarTok’ is aansprekend. Sowieso schrijven media nou eenmaal graag over media. TikTok is ook nog eens relatief nieuw en relatief onbekend onder volwassenen. Dat maakt dat er wat uit te leggen valt, meer dan wanneer je schrijft over de rol van Twitter of Facebook in deze oorlog.

Daarnaast springt de alledaagsheid van de filmpjes in het oog, ook al is oorlog zo onalledaags. De tieners die filmen zijn geen ‘verre slachtoffers’ die lijden in een ver-van-ons-bed-nieuwsshow, maar voelen nabij. Dat komt door huidskleur, maar ook door de aard van de filmpjes. Volkskrant-columnist Lisa Bouyeure schreef daarover:

“Hun wereld is totaal op zijn kop gezet, maar het stramien van TikTok lijkt enig houvast te bieden. Er zijn altijd nog de liedjes, de dansjes en de trends. Deze generatie gebruikte ironie en memes al om de vreselijkste dingen aan te kaarten, dus waarom stoppen op het dieptepunt? De afgelopen week zag ik een meisje in badjas vrolijk dansen op Who’s That Chick, met als bijschrift: ‘Als je om 5 uur wakker bent geworden van explosies en trillingen en beseft dat Rusland ons de oorlog heeft verklaard’. De populaire Oekraïense TikTokker Mashukovsky stond op het luchtalarm te viben alsof hij een lekker nummertje hoorde, kopje koffie in de hand.”

Verschil met nieuws
TikTok is nog geen journalistiek platform, maar dat betekent niet dat er geen nieuws op kan staan of dat gebruikers geen burgerjournalisten kunnen zijn. Niet alle filmpjes zijn echt, waarschuwt NRC. In de media-aandacht voor WarTok gaat het daarom vaak om nepinformatie en het belang van factchecking – bijvoorbeeld over de onterechte (Russische) claim dat de oorlog een hoax zou zijn.

Het is uiteraard belangrijk om daarop te blijven wijzen, maar we mogen TikTok toch ook prijzen. Chayka wijst er in het artikel in The New Yorker op dat sociale media een “imperfect chronicler of wartime” is, maar soms de meest betrouwbare bron die we hebben. Nieuwsmedia halen om veiligheidsredenen journalisten weg uit de regio, waardoor er soms niet anders is dan deze filmpjes. Dat blijkt ook: we zien ze regelmatig terug in gevestigde media, helder herkenbaar aan het TikTok-watermerk.

Geen TikTok-oorlog
Het is evenwel onzin om deze oorlog een TikTok-oorlog te noemen, net zoals de Arabische Lente geen Twitter-revolutie was. The revolution was – toch, voornamelijk, alsnog – televised. TikTok lijkt vooral geschikt om de strijd en de gevolgen daarvan nabij te brengen, op een heel persoonlijke manier waarin traditionele media niet goed zijn vanwege de waarde die zij hechten aan afstandelijkheid en objectiviteit. TikTok heeft zo bijgedragen aan het bewustzijn, aan het genereren van publiciteit. Het is afwachten welke rol het kan spelen in de volgende fases van dit conflict.

Denkplaat over kansengelijkheid en digitalisering van Kennisnet

Kennisnet lanceerde een denkplaat over kansengelijkheid en digitalisering. Deze denkplaat ‘Kansengelijkheid en digitalisering’ biedt houvast bij gesprekken hierover en helpt scholen bij ict-keuzes om de kansengelijkheid te vergroten. Klik op de afbeelding om een leesbare versie te bekijken, klik hier om meer te lezen.

Nu al privacyzorgen over nog niet bestaande metaverse (Linda Duits)

Deze post verscheen eerst op dieponderzoek.nl.

Met de komst van ieder nieuw medium zijn er hopes & concerns, mensen die er verlossing in zien en mensen die het als het einde der beschaving beschouwen. Al even voorspelbaar maar een stuk minder onterecht zijn discussies over privacy en de (on)veiligheid van kinderen. Zo trekt de Britse privacywaakhond al aan de bel voordat er een metaverse is waarin we virtueel kunnen rondlopen.

Volgens het Information Commissioner’s Office schendt Meta, de nieuwe naam van Facebook, de kinderregelgeving met de VR-headsets die nodig zijn om de metaverse te kunnen betreden. De bril heeft geen parental controls en ouders kunnen niet zien wat hun kind allemaal doet. Een van de opstellers van de kinderregelgeving in het VK zegt tegen The Guardian:

“Kids using VR headsets like Oculus can access chatrooms and other features known to carry risk, by simply ticking a box declaring they meet the minimum age requirements. This is an insufficient barrier to underage use of services known to harbour child abuse, harassment, racism and pornography.”

Het is belangrijk dat makers van hard- en software een werkwijze aannemen die bekend staat als ‘safety by design’ of ‘safe by design’. Al vanaf het begin zou in de ontwikkeling veiligheid meegenomen moeten worden, samen met kwaliteit, programma en kosten. Geen maatregelen achteraf dus, maar risico’s direct voorkomen. Facebooks geschiedenis laat zien dat we van de techgigant op dat vlak weinig hoeven te verwachten.

Deze technologie is indrukwekkend en tegelijk griezelig

Je ziet het vaak in films en series. Men heeft zeer vage beelden van iets, maar de technologie maakt het bij wonder helder. Ik weet niet of jij het al probeerde met je telefoon, maar blijkbaar hebben de CSI’s en andere diensten wel deze magische technologie. Tot voor kort was het idee dat die technologie nog niet bestond, maar kijk even naar deze video:

Je neemt een blurry foto van 64 op 64, de artificiële intelligentie voegt eerst ruis toe om vervolgens weer ruis af te nemen en te eindigen met een beeld op hoge resolutie:

SR3 is a super-resolution diffusion model that takes as input a low-resolution image, and builds a corresponding high resolution image from pure noise. The model is trained on an image corruption process in which noise is progressively added to a high-resolution image until only pure noise remains. It then learns to reverse this process, beginning from pure noise and progressively removing noise to reach a target distribution through the guidance of the input low-resolution image. (bron en meer uitleg)

Maar tegelijk zag ik zeer veel verdeelde reacties op deze nieuwe tool van Google. Het is en blijft AI die gokt. En net in die series en films uit het begin van deze post, worden dergelijke beelden net vaak als ‘aanwijzing’ of zelfs ‘bewijs’ gebruikt, maar is dat wel een goed idee?

Google gaat je nu waarschuwen als je iets actueels opzoekt: dit kan veranderen

Ik weet niet hoe het bij jou zit, maar als ik hoor dat er bijvoorbeeld een mesaanval gebeurd is in Duitsland, dan durf ik wel eens kijken op Twitter voor actuele informatie. Hierbij besef ik maar al te goed dat de accuraatheid  niet per se hoog is. Snelheid en correctheid gaan niet altijd hand in hand. Of beter: meestal niet.

Google beseft heel goed dat mensen dit ook willen van zoekmachine, maar dat ook deze vaak op achtervolgen is aangewezen. Daarom komt er nu een waarschuwing als je iets hyperactueels intikt als zoekterm.