Det er sidste udkald, hvis den digitale verden ikke kun skal være et sted for hvide mænd

Det er stort set kun mænd, der udvikler den digitale infrastruktur, der gennemsyrer store dele af vores samfund og tilværelse. Det kan skabe et samfund, der ubevidst er funderet på automatiseret sexisme og racisme.

Foto: Asger Ladefoged. Natalie Schluter har masters i sprog og matematik og en ph.d. i computer science. Sammen med flere andre advarer hun om, at digitaliseringens automatisering af samfundet risikerer at blive sexistisk og racistisk fordi, der er så få kvinder og minoriteter, der er med til at udvikle algoritmerne.
Læs mere
Fold sammen

Når Natalie Schluter ser et blad blafre i efterårsvinden, ser hun også matematiske formler. For hende er der et sprog i bladets blafren, som algoritmer ville kunne finde mønstre i, hvis det blev optaget og oversat til data.

Der er data overalt, og det er med al den data, vi er ved at skabe en automatiseret verden, hvor algoritmer vurderer og bestemmer baseret på, det de har lært. Det er derfor det er så afgørende, at dem der udvælger data og forstår, repræsenterer så mange som muligt. Og måske er Natalie Schluter, der er opvokset i Canada som halvt jamaicaner og australier, en af de eneste der bemærker bladet, blandt de få der kan.

Som kvinde og sort er hun den diametrale modsætning til langt størstedelen af dem, der skaber vores digitale verden. Hun kender til at være minoritet, at være kvinde, at være splittet mellem kulturer, og så kender hun til data og intelligente algoritmer.

»Teknologen er overalt i samfundet, og sniger sig ind i hele vores tilværelse. Det skal ikke bare være en enkelt lille del af befolkningen, der skaber den. Jeg tror, at hvis alle var klar over i hvor høj grad teknologien ændrer vores liv, ville de selv ønske at være involveret i det,« siger Natalie Schluter, der forsker i algoritmer og machine learning og er leder af IT-Universitetets nye Data Science uddannelse, hvor 24 procent af de studerende er kvinder, mens optaget på softwareudviklerlinjen er tredoblet til 22 procent.

Det er da også ved at være sidste udkald, hvis den teknologiske infrastruktur, der gennemsyrer den digitale verden, ikke skal udvikle sig til at blive »a white mans world«.

Algoritmernes påvirkning sker i det skjulte

Det er paradoksalt.

For samtidig med at kvinder stormer frem og overhaler mænd inden for en lang række felter, styrer vi mod en verden, der indirekte kan blive fuldstændig domineret af en mandlig tankegang. Interne opgørelser fra de største teknologivirksomheder som Google, Facebook, Apple og Microsoft viste forrige år, at kvinder kun udgør 16 procent af den decideret tekniske arbejdsstyrke. Derfor er det de mandlige udvikleres ubevidste fordomme, tanker, blinde vinkler og associationer, der sniger sig med ind i algoritmen.

»Al machine learning er forudindtaget, men når man har et mangfoldigt udviklingshold med vidt forskellige baggrunde, er det langt nemmere at rette op på algoritmernes forudintagethed eller i det mindste forudsige, hvilken effekt algoritmens beslutninger vil have på befolkningen,« siger Natalie Schluter, der selv om hun er master i både sprog og matematik, har en ph.d. i Computer Science, og udvikler algoritmer og machine learning i sin forskning, ofte oplever, at folk automatisk antager, at hun ikke har en teknisk indsigt.

Debatten om kvinder i IT blev for alvor sat i brand, da Google fyrede ingeniøren James Damore for at spekulere over om manglen på kvinder i IT, skyldes at mænd og kvinder socialiseres til eller naturligt har forskellige interesser. Uanset, hvad årsagen er, er det afgørende at flere kvinder og minoriteter begynder at deltage i processen med at bygge den digitale verdens infrastruktur.

Algoritmernes påvirkning af os sker mest i det skjulte. De styrer store dele af det finansielle system, påvirker hvad vi ser på Facebook og finder på Google og i Danmark har algoritmer automatiseret en række forvaltningsopgaver.

Lektor på ITU Irina Shklovski, der har en ph.d. i computer science og forsker i mødet mellem menneske og teknologi, kan se sporene af algoritmernes forudindtagethed.

Hvis hun for eksempel taster »a woman must« i Google forslår algoritmen selv »a woman must be silent, a woman must submit to a man«. På samme måde har det vist sig, at billedgenkendelsesalgoritmer er tilbøjelige til at vurdere personer i et køkken som kvinder, personer på kontor som mænd, ligesom sorte mennesker kan være usynlige for ansigtsgenkendelsesalgoritmer, fordi de blev oplært af hvide mennesker, der ikke tænkte på at oplære dem i andre hudfarver.

Viderefører kønsstereotyper

Med andre ord viderefører algoritmerne kønsstereotyperne og den ubevidste diskrimination til vores samtid, der ellers forsøger at gøre op med de forældede tankemønstre.

»Algoritmerne er ikke i sig selv sexistiske eller racistiske, men de afspejler samfundet. De lærer via historisk data, og automatiserer dermed den sexisme eller racisme, der allerede eksisterer. Udviklerne er ikke dårlige eller fordomsfulde mennesker, det falder dem bare ikke ind, at sort hud måske ser anderledes ud end hvid hud eller at det er uhensigtsmæssigt at lære algoritmerne, at kvinder står i køkkenet. Der er ingen til at konfrontere dem med de spørgsmål, og derfor risikerer, vi at der bliver udviklet en digital infrastruktur, der passer fremragende til en lille gruppe af befolkningen, men ikke for andre,« siger Irina Shklovski.

Det har tidligere gjort sig gældende. For eksempel var den temperatur som varmeapparater og aircondition var indstillet til i åbne kontorlandskaber i mange år baseret på en enkelt 40-årig mands behov, som blev regnet som repræsentativ for alle. Det er siden ændret, men kan have været grunden til at kvinder ofte fandt det for varmt eller koldt på arbejdspladser.

Professor i algoritmer og machine learning ved IT-Universitetet Rasmus Pagh er enig i, at der er en risiko ved, at det er samme type person, der udvikler dem. Men han mener, problemet også er i den historiske data, altså de eksempler, som algoritmerne automatiserer beslutningsprocessen ud fra.

»Hvis man har noget data som afspejler historik for eksempel kriminalitetsstatisk, der viser at 80 procent af alle anholdelser sker i bestemte områder, så vil algoritmen formentlig forudsige, at de fleste anholdelser sker der, uanset om kvarteret udvikler sig, eller statistikkerne dækkede over, at der var skjult kriminalitet andre steder. På den måde kan algoritmen være selvbekræftende, og en konsekvens kunne være, at beboere for sværere ved at blive forsikret,« siger Rasmus Pagh.