Waarom een dragqueen minder exposure krijgt dan een racist
Technologische ontwikkelingen gaan in een razend tempo, zo ook op het gebied van kunstmatige intelligentie. Voor minderheidsgroepen zoals de LHBT+ gemeenschap kan die ontwikkeling echter gevaarlijk zijn, schrijft onderzoeker Eduard Fosch Villaronga in een ingezonden brief in Nature Machine Intelligence.
Waarom heeft u deze brief geschreven?
‘De introductie van kunstmatige intelligentie gebeurt met de beste bedoelingen. Denk bijvoorbeeld aan gezichtsherkenningssoftware die het gemakkelijker maakt om iemand te taggen in een foto. Je ziet echter dat deze programma’s onbedoeld discrimineren tegen minderheidsgroeperingen. Zo worden donkere vrouwen minder gemakkelijk herkend dan witte mannen, wat erg problematisch is als er op basis van die gezichtsherkenningssoftware beslissingen worden genomen.’
En iets soortgelijks gebeurt er dus voor LHBT-ers?
‘Platforms zoals Facebook en Twitter gebruiken kunstmatige intelligentie om automatisch “toxische” content van hun kanalen te weren of verwijderen. Denk daarbij aan beledigende opmerkingen of grof taalgebruik. Onbedoeld blijkt de LHBT+ gemeenschap daar echter het slachtoffer van te zijn. Het is voor dragqueens onder elkaar bijvoorbeeld vrij gebruikelijk om elkaar plagerig ‘bitch’ te noemen, maar het algoritme begrijpt de context niet en ziet het als een ordinair scheldwoord. Het algoritme ziet de content dus als toxisch, vaak zelfs giftiger dan beruchte white supremacists die voor blanke superioriteit strijden.’
Waarom is dat problematisch?
‘De content wordt afgeschermd, en dat zorgt ervoor dat dragqueens geen stem meer hebben op internet. De vrijheid van meningsuiting van deze minderheidsgroep wordt er sterk door beknot. En je zou kunnen zeggen: het beknot de vrijheid om te zijn wie je bent, want dragqueens mogen zich online niet uiten zoals ze dat offline gewend zijn. Van andere technologische ontwikkelingen is nog niet precies duidelijk of en hoe ze de LHBT+-gemeenschap gaan raken, maar wel dat het niet voldoende is onderzocht.’
Waarom discrimineren sommige algoritmes? Je zou juist zeggen dat ze geen feilbare menselijke eigenschappen hebben.
‘Het probleem is dat het mensen zijn die de algoritmes programmeren, en die mensen hebben bepaalde overtuigingen en opvattingen. Uit onderzoek blijkt regelmatig dat programmeurs zich niet voldoende bewust zijn van de impact van hun werk. Het is al lastig genoeg om een robot te laten staan of lopen, dus veel programmeurs hebben niet de capaciteit om ook nog eens na te denken wat de invloed is van deze ontwikkelingen op ons, de mens. Dat komt ook deels door een gebrek aan interdisciplinaire training.’
Hoe kunnen programmeurs dit soort discriminatie in de toekomst voorkomen?
‘Idealiter denk je natuurlijk na over de implicaties van een innovatie voordat je deze massaal uitrolt over de samenleving. Daarvoor is het belangrijk dat je bij iedere ontwikkeling stilstaat bij de consequenties van je handelen. Daarom stuurde ik deze ingezonden brief samen met Adam Poulsen en Roger Søraa naar Nature Machine Intelligence. Een belangrijke stap in de goede richting zijn meer diverse ontwikkelteams, waarin ook de stem van mensen met een ander geslacht, etnische achtergrond, religie of seksuele oriëntatie worden gehoord, gewaardeerd en in acht genomen.’
Europese financiering
Fosch Villaronga werkt aan de Universiteit Leiden dankzij het LEaDing Fellows Marie Curie COFUND. Met die beurs, gefinancierd uit het Horizon 2020-programma van de Europese Unie, kunnen jonge onderzoekers werkervaring opdoen bij een van de universiteiten of medische centra in Leiden, Delft of Rotterdam. Deze universiteiten werken samen in het samenwerkingsverband Leiden-Delft-Erasmus (LDE).