Danske forskere blæser til kamp mod neosexisme – og det kan blive farligt

Forskere ved IT-Universitetet har opfundet et digitalt værktøj til at analysere debatten på nettet og finde frem til kommentarer, som udtrykker kvindehad eller neosexisme. Det er dog ikke helt uden problemer at anvende værktøjet.

En gruppe forskere fra IT-Universitetet i København har udviklet et værktøj, som kan analysere debatter på for eksempel Facebook og identificere kvindehad. Fold sammen
Læs mere
Foto: Dado Ruvic/Ritzau Scanpix
Lyt til artiklen

Vil du lytte videre?

Få et Digital Plus-abonnement og lyt videre med det samme.

Skift abonnement

Med Digital Plus kan du lytte til artikler. Du får adgang med det samme.

Debatter på sociale medier bliver stadig hårdere, og mange har ikke længere lyst til at deltage i den offentlige debat på nettet.

Nu har tre forskere på IT-Universitet, ITU, i København udviklet et digitalt værktøj baseret på kunstig intelligens og maskinlæring, som kan medvirke til at bekæmpe kvindehad i forskellige afskygninger – herunder en kategori, som forskerne kalder neosexisme.

De seneste ti måneder har forskerne dels udviklet et klassifikationssystem for kvindehad – eller misogyni, som det hedder – og har i den forbindelse gennemgået hadsprog i 28.000 datasæt fra Facebook, Twitter og Reddit. Med hjælp fra et panel bestående af mænd og kvinder har forskerne udvalgt 2.000 nøje klassificerede eksempler fra datasættet, som de har fodret en computermodel med.

Modellen er sidenhen blevet optimeret og kan i dag ifølge Leon Derczynski, der er lektor i datalogi ved ITU og en af de tre forskere bag med 85 procents sikkerhed identificere potentielt sexistiske kommentarer.

Hvad er neosexisme?

De seks kategorier for kvindehad, som forskerne opererer med, er seksuel chikane, dominans, sexisme forklædt som komplimenter, stereotyp fremstilling af kvinder, miskreditering af kvinder og neosexisme.

At kategorisere kommentarer som potentielt neosexistiske er en nyskabelse, mener Leon Derczynski:

»Neosexisme er et begreb, vi har hentet fra sociologien. Det er første gang, det bliver operationaliseret, og hvor vi har et stort computersystem, der forsøger at indfange det. Grunden til, at vi har fundet det nødvendigt at anvende begrebet, er, at vi ved gennemgangen af de mange debattråde på de sociale medier har set, at der er mange mennesker, der i debatten her i Danmark, insisterer på, at der er ligestilling, og for eksempel forsøger at ændre debatten, ved at kræve dokumentation for påstande, der er almindeligt accepteret som en realitet,« siger Leon Derczynski.

Forskerne fremhæver et eksempel, hvor en debat om kvinders barsel og karriere bliver mødt af følgende kommentar:

»Kan I pege på forskning, der viser, at barsel er grunden til, at mødre går glip af forfremmelser.«

»Det ændrer debatten, når man er nødt til at bevise, at vi ikke har ligestilling, selvom diskussionen ikke burde gå på, hvorvidt vi har det eller ej,« siger Leon Derczynski.

Ukorrekte forudsigelser er farlige

Det kunne vel være relevant at bede om dokumentation for sådan en påstand?

»Ja, og derfor er konteksten afgørende, når man skal finde frem til, om der er tale om neosexisme. Hvis du for eksempel prøver at finde beviser, der understøtter argumentet om, at kvinder går glip af forfremmelsesmuligheder, er det ikke sexisme – så er det et naturligt spørgsmål at svare på,« siger Leon Derczynski.

Hvordan tager computeren højde for kontekstens betydning?

»Det er meget svært at vide, hvad man skal gøre med kontekst. Det handler blandt andet om, hvor kommentaren kommer fra. Det er, når vi kategoriserer data, at vi træffer beslutningerne om, hvad der er neosexisme og ikke. Hvis vi finder nogle sætninger, hvor vi er i tvivl, og hvor vores panel også er i tvivl, så tager vi ikke data med i vores træningsmodel,« forklarer Leo Derczynski.

Hvad skal jeres værktøj bruges til i praksis?

»Vores mål er at adressere misogyni online. Skal vi gøre det, er vi nødt til at kunne måle det – det kan man med vores model.«

»Man skal være meget forsigtig«

Vil værktøjet også kunne bruges af for eksempel store techgiganter som for eksempel Facebook til at overvåge og moderere den offentlige debat om sexisme eller andre emner som klima eller politik?

»Man skal være meget forsigtig, hvis man skal bruge den her teknologi i en offentlig debat. En ting er at bruge det til at måle, hvordan folk taler sammen, men der, hvor man kommer ind på farligt territorium er, når du bruger kunstig intelligens og maskinlæring til at filtrere og moderere debatter. Det er teknologierne ikke perfekte til,« siger Leon Derczynski.

Teknologien kan kun bruges, hvis der er mennesker involveret til at træffe beslutninger og undgå fejlfund.

»At filtrere og moderere en debat er svært, selv for mennesker, men umulig for computere. Derfor er vi nødt til at holde mennesket inde i loopet. Vi er nødt til at beholde mennesker til at træffe beslutningerne,« siger Leon Derczynski.

Han forudser, at værktøjet vil blive brugt til analyser og forskning, men afviser ikke, at virksomheder vil kunne få gavn af det. Forskerne har allerede fået henvendelse fra et par danske medieselskaber, ligesom de har et møde med Facebook i USA i kalenderen.

»Man kan bruge værktøjet til at sætter fokus på, hvor problemerne er i debatten, og så kunne man forestille sig, at det blev stillet til rådighed for moderatorer af for eksempel Facebook-grupper, så de kan beslutte, hvad der er passende i deres gruppe.

Ifølge Leon Derczynski er det i sidste ende ikke så vigtigt med de enkelte kommentarer. Det, der er vigtigt, er at finde ud af, hvad den enkelte gruppe på Facebook vil acceptere.

Censur skader den offentlige debat

Er jeres mål at censurere bestemte debatter på de sociale medier?

»Nej, hvis vi skulle blokere alle potentielt sexistiske kommentarer, ville det skade den offentlige debat langt mere, end hvis vi ikke gjorde noget,« siger Leon Derczynski:

»Formålet er at være med til at skabe en situation, hvor flere vil føle det behageligt at deltage i den offentlige debat. På DR.dks Facebook-side er der lige nu en debat i kølvandet på en historie om vores forskning. Hvis du ser på disse kommentarer, tror jeg, det er meget klar, hvorfor mange ikke har lyst til at engagere sig i den offentlige debat,« tilføjer Leon Derczynski.

På Facebook-siden bliver de tre forskeres værktøj diskuteret livligt, og en stor del af de flere end 300 kommentarer vil formentlig hurtigt kvalificere sig til rubricering i en af de seks kategorier, som forskerne har opstillet for kvindehad.

Du mener, at den debat understreger jeres pointe?

»Ja, desværre. Jeg havde nok ikke troet, at det ville have været helt så klart.«