Wat als de controlesoftware je niet herkent tijdens het examen?

Verschillende hogescholen en universiteiten gebruiken tools om examens afleggen mogelijk te maken op afstand. Dergelijke online proctoring software is niet onomstreden omwille van de privacy. Maar wat als het algoritme last heeft van een spijtig genoeg vaak voorkomende bias: het slecht kunnen herkennen van zwarte studenten?

We denken soms dat algoritmen geen voorkeuren hebben, maar dit is allerminst het geval. Vaak is dit omdat het lerend algoritme te eenzijdige data gekregen heeft.

Nu blijkt Proctorio zowat de helft van de keren gezichten niet te herkennen als deze niet-blank zijn, ontdekte een student door reverse engeneering toe te passen op de software.

Ik heb het al herhaaldelijk gezegd: er zijn belangrijke ethische discussies rond technologie die we echt moeten voeren…

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s

Deze site gebruikt Akismet om spam te bestrijden. Ontdek hoe de data van je reactie verwerkt wordt.