Kunstmatige intelligentie kan lhbti+ emancipatie hinderen

LHBTI+ regenboogvlag

Kunstmatige intelligentie kan de emancipatie van lhbti+ personen schaden. Dat zegt Movisie in een onderzoek. Deze doelgroep is slecht vertegenwoordigd, waardoor de resultaten minder betrouwbaar zijn.

Onderzoek wijst uit dat er problemen zijn met gezichtsdetectie van transgenderpersonen, met name tijdens de transitie. Daarbij blijken kunstmatige neurale netwerken de seksuele oriëntatie van personen met veel grotere accuraatheid te kunnen detecteren. Dit levert belangrijke risico’s op rondom privacy en (online) veiligheid van lhbti+ personen, bijvoorbeeld als het in gezichtsherkenningssoftware zou worden toegepast.

De Leidse onderzoeker Fosch-Villaronga van Movisie wijst daarnaast op ongewenste effecten van gebruik van filters door digitale platformen als X (Twitter) en Facebook, zonder oog te hebben voor de sociale context.

Drag queens

Een voorbeeld is het onderling geaccepteerd taalgebruik van drag queens. Binnen de gemeenschap van drag queens is de term ‘bitch’ bijvoorbeeld normaal en wordt plagerig en/of positief gebruikt. Het algoritme van Facebook en X ziet dit woord echter als ordinair of beledigend (‘toxic’) taalgebruik en verwijdert de content. Dit leidt onbedoeld tot een inperking van de uitingsvrijheid voor deze groep.

Er is nog maar weinig onderzoek naar en kennis van de crosssectie tussen kunstmatige intelligentie en lhbti+ emancipatie. De experts onderstreepten dan ook de noodzaak van onderzoek en een multi-stakeholder aanpak, waarbij de betrokkenheid van de lhbti+ gemeenschappen een noodzakelijke randvoorwaarde is om tot de ontwikkeling van inclusieve kunstmatige intelligentie te komen.

Experts spraken hun zorgen uit over de opslag, vertrouwelijkheid, transparantie, representativiteit, heteronormativiteit en de mensenrechtentoets van bestaande datasets. Met bewustwording en regelgeving moet het mogelijk worden om meer grip op te krijgen op deze terechte zorgen.

Inclusief beleid

Deze verkenning onderstreept het belang van het betrekken van stakeholders vanaf het begin én in samenspraak om tot beleid, innovaties en handelingsperspectieven te komen die inclusief zijn en niet (on)bedoeld lbhti+ personen uitsluiten. Belangrijke stakeholders zijn investeerders en bedrijven, ministeries, wetenschap en kennisinstituten, de nationale AI-coalitie en bovenal lhbti+ gemeenschappen en -belangenorganisaties.

Daarbij is het van belang om continu oog te hebben voor de kwetsbare positie van lhbti+ personen bij het ontwerp en de uitvoering van kunstmatige intelligentiesystemen. Zeker gezien de kwetsbare positie van deze groep is het belangrijk de waarde van kunstmatige intelligentie niet zomaar voor lief te nemen.

Uit zowel de literatuurstudie als gesprekken met de experts blijkt dat het belangrijk is om de inzet van kunstmatige intelligentie kritisch langs de meetlat te leggen. Dat moet samen met alle betrokken partijen gebeuren. Alleen zo kun je goed nagaan hoe het kan bijdragen aan de inclusie en, idealiter, de emancipatie van lhbti+ personen, zonder onbedoelde effecten en schadeberokkening.

Lees ook:

Gerelateerde berichten...