Dette er en leder. Den er skrevet af et medlem af vores lederkollegium og udtrykker Berlingskes holdning.

Censur er ikke løsningen på Facebooks problemer

Nye Facebook-afsløringer giver et skræmmende billede af en social platform fyldt med farligt indhold. Men løsningen er ikke alene at slette uønsket indhold. Vi skal tale om, hvilket indhold Facebooks algoritmer aktivt promoverer.

De seneste læk fra Facebook har afsløret, at techgiganten »prioriterer profit over samfundsansvar,« skriver Pierre Collignon i denne leder. Her er virksomhedens topchef, Mark Zuckerberg, under en kongreshøring i 2018. Fold sammen
Læs mere
Foto: Ritzau Scanpix / AFP
Lyt til artiklen

Vil du lytte videre?

Få et Digital Plus-abonnement og lyt videre med det samme.

Skift abonnement

Med Digital Plus kan du lytte til artikler. Du får adgang med det samme.

Skeletterne bliver ved med at vælte ud af Facebooks skabe. Senest var det Berlingske, som sammen med andre internationale medier kunne afdække historien om et eksperiment udført af en ansat i Facebook i 2019.

Ideen var den simple at undersøge, hvad der sker, hvis en ny bruger på den sociale platform ukritisk accepterer alle de anbefalinger, som Facebook kommer med. Resultatet var slående.

Ved blindt at følge algoritmens forslag havnede brugeren ifølge Facebook-dokumenter i »en konstant spærreild« af »misinformation, vold og lemlæstelse«.

Testen blev udført i Indien, og det var et aktuelt terrorangreb, som udløste en voldsom bølge af opslag med voldsforherligende, ultranationalistisk indhold og åbenlyse fordrejninger.

Terror er et emne, som notorisk fører til spredning af løgne og vrede, men det interessante var her, at brugeren ikke selv tog aktiv stilling.

Det gjorde Facebooks store algoritme ved hele tiden at foreslå nye grupper og nyt indhold. Man kunne have drømt om, at brugeren blev ført i retning af seriøse medier, der kunne tilbyde en afbalanceret og tilstræbt objektiv dækning af terroren. Men nej. Hvad der vandt, var billeder af afhuggede lemmer og voldsom agitation.

Eksperimentet kom frem som led i et læk af dokumenter, som også har ført til en række bekymrende afsløringer i den amerikanske avis The Wall Street Journal. De tegner et mønster af, at Facebook (eller Meta, som koncernen nu kalder sig) prioriterer profit over samfundsansvar.

Ifølge interne dokumenter gik Facebooks topchef, Mark Zuckerberg, for eksempel i april 2020 imod ændringer, der kunne begrænse algoritmernes boost af indhold med stort potentiale for mange delinger (og dermed også ofte indhold, som fremkalder vrede). Zuckerberg frygtede nemlig, at det ville føre til, at brugerne så endte med at være i kortere tid på Facebook.

De mange afsløringer har ført til pres for politiske indgreb og krav om, at Facebook fjerner mere af den slags indhold, der beskrives som misvisende, polariserende eller ligefrem voldeligt.

Censurvejen er uomgængelig i forhold til direkte opfordringer til vold, men censur kan ikke være den eneste løsning. Facebook fjernede alene i andet kvartal over 30 millioner opdateringer, som ifølge virksomheder indeholdt »hatespeech«. Men vi ved også, at mange af de automatiske sletninger rammer forkert og lægger hindringer i vejen for debatter, der er fuldt ud lovlige.

Skal en platform som Facebook blive ved med at spille en positiv demokratisk rolle, er det vigtigt, at platformen stadig kan rumme såvel kritik af Israel som debatter om vacciner, indvandring, terror og islam. Alle sammen emner, der rutinemæssigt rammes skævt af Facebooks censur.

Vejen frem er at kræve en mere intelligent moderation – for eksempel burde Facebook helt holde sig ud af markeder, før platformen er klar til at moderere de lokale sprog.

Og vigtigst af alt: Vi skal tale om, hvilket indhold Facebook aktivt promoverer. Der er brug for et regime af radikal transparens om Facebooks og andre platformes algoritmer.

Det må være det første krav til en fremtidig regulering. Skal vi kunne føre en saglig debat om, hvordan ændringer i platformenes algoritmer og delefunktioner virker, kræver det langt mere åbenhed fra techgiganternes side, end vi har oplevet det indtil videre.

De oplysninger om forskning i algoritmerne, som senest er kommet frem takket være en whistleblowers læk til internationale medier, burde Facebook for længst have gjort frit tilgængelige.

PIERRE COLLIGNON