Læk til Berlingske afslører: Trolde og hadefulde grupper hærger Facebook. Og de ansatte kan ikke følge med

Facebook er bygget på en drøm om at forbinde venner og familie. Men omfattende læk viser, at verdens største sociale medie utilsigtet hiver brugere ned i et hul af voldsforherligelse og konspirationsteorier, og at politikere og medier belønnes for at skrive hadefuldt. Især halter Facebooks kontrol med mindre udbredte sprog. Berlingske har fået adgang til det materiale, en amerikansk whistleblower tog med sig, da hun sagde op, og kan nu blotlægge nye detaljer.

Facebooks stifter og direktør, Mark Zuckerberg, er havnet i endnu et stormvejr, efter at en tidligere ansat har kopieret interne dokumenter med bekymrende budskaber. Nu har Berlingske og en håndfuld andre europæiske medier læst dokumenterne. Arkivfoto: Erin Scott/Reuters/Ritzau Scanpix Erin Scott

En dag i begyndelsen af februar 2019 fik en ung forsker hos Facebook en idé til et eksperiment.

Hvor ender en spritny bruger af verdens største sociale medie, hvis vedkommende blindt begynder at følge de sider, Facebook foreslår? Hvilken version af verden får man præsenteret, hvis man trykker »følg«, hver gang anbefalinger om sider eller grupper dukker op på ens Facebook-side?

Til formålet oprettede hun en profil som en 21-årig kvinde, bosiddende i den indiske storby Jaipur. Hun gav ingen oplysninger om interesser eller synspunkter og tilføjede ingen venner. Facebooks hjerne, dens famøse algoritme, skulle altså selv komme med forslag til sider, der ville interessere denne nye bruger.

Den 4. februar var profilen skabt, eksperimentet gik i gang. Og så satte den ansatte sig til at vente.

Tre uger senere kunne hun og en kollega gøre status. Og resultatet, konstaterede de, var et decideret »mareridt«.

Det indiske eksperiment er beskrevet i et omfattende læk af internt materiale fra Facebook, der samlet set giver et bekymrende indblik i hverdagen for de ansatte hos mediegiganten – såvel som for dets milliarder af brugere verden over.

Flere af de opsigtsvækkende dokumenter er drypvis blevet beskrevet i amerikanske medier siden september. Men Berlingske har nu som eneste danske medie – og ét af kun en håndfuld europæiske – fået adgang til lækket gennem en kilde i USAs kongres og kan beskrive nye oplysninger og undersøgelser – såsom det indiske – som ikke før har været beskrevet.

Dokumenterne er indsamlet af en tidligere ansat i Facebook, den amerikanske dataingeniør Frances Haugen, som blev så desillusioneret over, hvad hun oplevede hos det verdensomspændende, magtfulde sociale medie, at hun besluttede sig for at blive whistleblower og gå til de amerikanske myndigheder, børstilsynet SEC, og fremlægge dokumenterne. Myndigheder, lovgivere, investorer og ikke mindst Facebooks brugere har krav på at få de oplysninger, Facebook ikke selv lægger frem, mener hun.

Whistleblower Frances Haugen opsummerer sin erfaring fra Facebook sådan her: Virksomheden sætter profit før brugeren. En påstand, Facebook omvendt mener er uberettiget. Pool/Reuters/Ritzau Scanpix

Dokumenterne giver indblik i en virksomhed, hvor ansatte oplever at kæmpe en stadig mere ulige kamp mod de bølger af misinformation, voldsforherligelse, konspirationsteorier og had, som på ingen tid kan sprede sig som steppebrande over det sociale medie og trække millioner af brugere med sig. Ofte mens Facebooks egen medarbejderstab ser måbende og magtesløst til, fremgår det.

Og få eksempler illustrerer det kaos, der hersker i Facebooks randområder, så levende som det tre uger lange indiske eksperiment.

Det begyndte ellers fredeligt nok. Som de ansatte selv formulerer det i deres notat om forløbet:

»Facebook er et temmelig tomt sted for en ny bruger uden venner.«

Men så tog Facebooks algoritme fat: Over den følgende uge anbefalede den en række sider, som den vurderede ville interessere brugeren. I begyndelsen var der primært tale om uskyldige indiske nyhedsmedier, politiske partier eller politikere. Og forsøgspersonen valgte at følge det hele.

Ugen efter var turen kommet til Facebooks såkaldte »grupper«, fora med bestemte temaer eller emner, som Facebooks brugere kan vælge at følge. Igen blev forsøgspersonen præsenteret for en række forslag, hun kunne følge. Igen var de fleste uskyldige: »Romantiske sange«, og »positive tanker« hed nogle af grupperne. Andre var støttegrupper for det indiske militær eller politiske støttegrupper. Igen valgte brugeren at følge det hele.

Så gik det stærkt:

Nogenlunde samtidig fandt et terrorangreb sted i en indisk by, der ifølge indiske myndigheder var orkestreret af en terrorgruppe fra arvefjenden Pakistan. Og pludselig skiftede brugerens Facebook-feed, hvor nye sider, opslag og venner dukker op, drastisk karakter. Op poppede nu opslag med voldeligt, nationalistisk indhold: Et billede viste en bøddel, der fremviste et afhugget hoved under et pakistansk flag. Andre viste fotografier af døde soldater eller blodige civile. Da indisk militær et par dage senere bombede formodede terrorister i den omstridte Kashmirprovins, flød brugerens feed over med voldsforherligende budskaber.

»300 hunde er døde nu, leve Indien, død over Pakistan,« lød ét, mens andre opslag fremviste flere år gamle fotografier af sønderbombede byer og dusinvis af lig som – fejlagtige – beviser på det indiske angreb.

»Se forræderne,« konstaterede et af opslagene triumferende over et billede af fem omkomne svøbt i ligklæder.

Derefter stoppede de to Facebook-ansatte eksperimentet:

»I sidste ende var udfaldet så chokerende, at jeg ikke vil dele det med jer,« skrev en af forfatterne efterfølgende til kollegerne i materialet, Berlingske har fået adgang til.

Facebook har i flere år haft problemer i Indien. Her protesterede indiske demonstranter i 2018 mod en bølge af voldelige overfald i flere byer. Overfaldene skete efter rygter, der på kort tid blev spredt til store grupper på blandt andet Facebook og WhatsApp. Sam Panthaky/AFP/Ritzau Scanpix

På bare tre uger var den nystiftede konto – ved udelukkende at følge Facebooks anbefalinger – druknet i et »hav af polariserende, nationalistiske budskaber«, konstaterede forfatterne bag forsøget. Og den godtroende bruger endte med at befinde sig i »en konstant spærreild« af »misinformation, vold og lemlæstelse«.

»Jeg har set flere billeder af døde mennesker de sidste tre uger, end jeg har i hele mit liv totalt set,« skrev de.

Ifølge forfatterne afdækkede forsøget et af mange fundamentale huller i Facebooks egen forståelse af, hvordan det sociale medie dybest set fungerer. Det kom nemlig bag på de ansatte, at algoritmen valgte at præsentere den nye bruger for stærkt voldeligt indhold.

De delte oplevelsen, skrev de i deres notat om forsøget, fordi de håbede, at det kunne rejse en diskussion om især ét centralt spørgsmål:

»Skal vi som virksomhed tage et særligt ansvar for at forebygge og forhindre skadelige krænkelser, som udløses af vores anbefalede indhold?«

Vred algoritme

Eksemplet fra Indien illustrerer, hvordan Facebooks egne ansatte ofte føler, at det sociale medie – trods hære af dataloger, ingeniører og andre kloge hoveder – ikke længere kan forudse eller forhindre, at platformens brugere suges ned i et destruktivt mørke.

Det er, som om algoritmen har fået sit eget liv.

»Problemet er, at vi ikke har – og formentlig aldrig vil få – en model, der indfanger størstedelen af de skadelige krænkelser, især på følsomme områder,« som en af Facebooks ingeniører skrev i et notat fra 2019 om den konstante kamp mod skadeligt indhold.

Og ikke kun nye brugere udsættes oftere for dystert indhold. Indhold af mere ekstrem og aggressiv karakter bliver helt grundlæggende favoriseret på Facebook, lyder det i flere notater.

Især efter januar 2018, da topchef Mark Zuckerberg annoncerede en ændring af algoritmen. En ændring, der skulle vise sig at føre flere negative tendenser med sig – ikke bare i USA, men også i særlig grad i Europa, viser blandt andet et internt notat fra april 2019.

Erfaringen var efterfølgende fra diverse »politiske partier på tværs af Europa«, at Facebook efter algoritmeændringen nu fungerede helt anderledes, når partierne skrev opslag.

Målet med ændringen af algoritmen var blandt andet i al sin enkelthed at få brugerne til at engagere sig mest muligt i platformen med for eksempel »likes« og kommentarer. Men ifølge partierne medførte dette, at især »provokerende indhold og lavkvalitetsindhold« blev promoveret.

Brugernes reaktioner på opslag af »positiv og politisk karakter« blev »alvorligt reduceret«. Det efterlod partierne som »stadig mere afhængige af ophidsende opslag og direkte angreb på deres konkurrenter«.

Partierne følte sig nødsaget til at ændre deres strategi for, hvad de delte på platformen, og hvilken karakter indholdet havde. Og det var ikke til det bedre. Tværtimod. Udviklingen gjorde ligefrem partierne bekymrede for »langtidseffekterne for demokratiet«.

I Polen kaldte et af landets partier tendensen for »en borgerkrig på sociale medier«. Det polske parti havde ifølge dokumentet før fokuseret på, at 50 procent af deres opslag havde et »positivt« indhold, og 50 procent af opslagene havde et »negativt« indhold. Men algoritmens ændring favoriserede nu i så høj grad det negative indhold, at man havde skiftet fokus til 80 procent indhold af negativ karakter. Det skete »udelukkende som en følge af algoritmens ændring«, lød det. Udviklingen betød også, at radikale partier var »overdimensionerede« på platformen, lød det nu fra de store mainstream partier.

Fænomenet har man ikke kun opdaget hos de politiske partier. Også nyhedsmedier har måttet sande, at dystert, aggressivt indhold har væsentlig bedre forudsætninger for at blive spredt på Facebook. En intern undersøgelse fra 2018 af algoritmens håndtering af Facebook-opslag fra det amerikanske medie Buzzfeed var »noget bekymrende«, hedder det i et notat.

I mere end tre uger undersøgte ansatte sammenhængen mellem stemningen i kommentarer til diverse opslag fra Buzzfeed, med hvor mange klik mediet høstede på de givne opslag. Og resultatet var markant:

»Jo flere negative kommentarer, noget indhold ansporer til, desto større er sandsynligheden for, at linket får mere trafik.«

Ifølge notatet var det dybest set samme erfaringer, mange kabel-tv-stationer havde gjort sig årtier forinden: »Vrede tiltrækker opmærksomhed.« Men det var ikke på linje med Facebooks mission, mente notatets forfattere:

»Vi bør derfor reducere incitamentet til, at publicister vækker vrede hos sit publikum, det er det rigtige at gøre både for vores mission og for vores vækst på langt sigt.«

Facebooks egne tal bekræfter tendensen: Hadefulde opslag får i gennemsnit op imod 60 procent flere såkaldte »engagementer« – likes, reaktioner, delinger eller kommentarer – fra andre brugere end ikkehadefuldt indhold, viser en anden undersøgelse fra januar sidste år.

Og flere producenter af indhold forklarede helt åbent, at de føler »sig nødsaget til at dele stadig mere splittende og polariserende indhold« for at få den ønskede opmærksomhed.

Troldefarme på rov i USA

Algoritmens generelle favorisering af skandaliserende og negativt indhold er let at udnytte – eller misbruge. Det har især én særlig gruppe af Facebook-brugere gjort til perfektion, siden de første gang trådte ind på det sociale medie under den amerikanske valgkamp i 2016.

»Ejerne af siderne talte ikke særlig godt engelsk, heller ikke spansk eller noget andet sprog, der er udbredt i USA. De havde ingen særlig forståelse for amerikansk politik. Og deres primære interesse i at træde ind på den amerikanske publicistiske, politiske scene var at tjene nogle penge og skabe kaos,« konstaterer en rapport.

Der er tale om de såkaldte »troldefarme«, løse netværk af diverse facebooksider om alt fra nuttede babyer til religiøse tekster, som ofte er styret fra fattige europæiske lande. Troldefarmenes sider endte med at være en af de mest betydningsfulde kræfter i det amerikanske præsidentvalg i 2016, hvor de løbende præsenterede deres enorme publikum for politiske budskaber og nyheder – ofte falske – der især tilsværtede demokraternes kandidat, Hillary Clinton.

Og rapporten, der er fra oktober 2019, anslår, at Facebook fortsat slet ikke havde fået bugt med problemet: Der eksisterede således 15.000 facebooksider, styret fra Kosovo og Makedonien, og som med enorm succes målrettet gik efter et amerikansk publikum. Med helt uoverskuelige konsekvenser til følge: Hver måned nåede siderne ud til 140 millioner Facebook-brugere i USA og 360 millioner brugere på verdensplan, står der i rapporten. Lagde man troldefarmenes sider sammen, udgjorde de suverænt den største side på Facebook.

Som rapportens forfatter sarkastisk eksemplificerede det:

»Vores platform har givet den største stemme i det kristne, amerikanske samfund til en håndfuld fjendtlige aktører, som – vurderet ud fra deres mediebrug – aldrig har været i kirke.«

»Dette er ikke normalt. Dette er ikke sundt«, skriver forfatteren, der vurderede, at flere af troldefarmene var kontrolleret af det russiske Internet Research Agency, der ifølge de amerikanske efterretningstjenester stod bag en stor del af spredningen af misinformation i USAs præsidentvalgkamp i 2016 og har bånd til det russiske statsapparat.

Svært at håndtere koordinerede aktioner

I det hele taget lader det til, at Facebook har ekstremt svært ved at gardere sig mod koordinerede indsatser fra større netværk og grupper på platformen.

Et notat fra marts 2021 forsøger at kortlægge, hvor meget skade det kan gøre i virkeligheden, når for eksempel stater, udenlandske aktører eller modstandsgrupper på Facebook går koordineret efter eksempelvis at skabe social vrede, opildne befolkningen og påvirke en specifik dagsorden.

Her konstateres det kort og godt, at Facebook ikke er gode nok på området: »De nuværende afbødningsstrategier er ikke nok.«

De modsvar, Facebook har til denne type koordinerede indsatser, er »ikke fuldt skaleret op globalt, tager ikke hensyn til aktiviteternes koordinerede natur og giver ikke mulighed for en vedvarende håndhævelse«, konstateres det.

Fanger ikke misinformation

Det er ikke kun østeuropæiske troldefarme, politiske partier eller fremmede magter, der udnytter Facebooks algoritme til problematiske formål. Flere interne rapporter beskriver, hvordan selv mere eller mindre diffuse grupper, der især fremmer konspirationsteorier som det amerikanske QAnon-fænomen, på kort tid og med enkle midler har været i stand til at få hundredtusindvis af følgere.

Ofte er der tale om relativt få brugere, der har held med at sprede misinformation om eksempelvis coronapandemien og vacciner til et ekstremt stort antal personer.

»Det er et velkendt hul«, skriver en analytiker i en rapport: At brugere med mange følgere kan nå en helt ekstremt rækkevidde på Facebook – uden at vedkommende blive underkastet tilstrækkelig »integritetskontrol« af Facebook.

I løbet af sommeren 2021 gik demonstranter på gaden i Washington, D.C. for at demonstrere mod misinformation om coronavirus på Facebooks platforme.  Gabrielle Crockett

Facebook har faktisk implementeret funktioner, der forsøger at identificere misinformation om eksempelvis vacciner, der bliver gengivet i opslag. Men systemet var altså ifølge rapporten ikke modnet til også at kontrollere kommentarfelterne – altså læsernes reaktioner, der kan skrives under opslagene. Det er ellers oftest her i kommentarsporene, at de allermest konspiratoriske og vildledende påstande optræder som reaktioner på lødige avisartikler eller nyhedsindslag.

»Risikoen for vaccineskepsis i kommentarerne er højere end i selve opslagene, alligevel har vi underinvesteret i at forebygge vaccineskepsis i kommentarerne,« skriver en ansat i et notat.

Fanger kun fem procent

Og hvad gør Facebook så selv for at stoppe den negative spiral?

Tja, tilsyneladende langtfra tilstrækkeligt. Jo, Facebook har udviklet modeller og systemer, baseret på kunstig intelligens, der forsøger at identificere særlige typer af opslag. Og mange tusinde ansatte verden over forsøger at opspore især voldelige aktører eller gennemse indberetninger fra brugere, der er stødt på vold eller misinformation. Men det er en kompleks kamp. Som det fremgår af et internt brev, omhandlende indsatsen mod især hadefulde opslag:

»De forbedringer, vi foretager, sker kun gradvist og drukner fuldstændig i den ufattelige mængde af voldeligt indhold, der er på Facebook,« skriver forfatteren, der regner sig frem til, at brugere hver dag laver i omegnen af fem millioner opslag, der vil falde under kategorien hadefuldt eller voldeligt. Til sammenligning fjerner Facebook i omegnen af 250.000 af sådanne opslag dagligt.

»Så med alle vores samlede indsatser fjerner vi mindre end fem procent af alle hadefulde opslag på Facebook. Og det er endda et optimistisk estimat,« skriver forfatteren.

Ægte problemer, ægte konsekvenser

Facebooks utilstrækkelighed i forhold til at overvåge, hvad der sker på det sociale medie, er i det hele taget et gennemgående tema i de mange dokumenter, Berlingske har fået adgang til.

En ledende medarbejder inden for afdelingen for »civilt engagement« beskrev i oktober 2019 de store dilemmaer, Facebooks medarbejdere støder ind i verden over, og det store ansvar de bærer på deres skuldre. Han beskriver et arbejde, som hele tiden har en »hastende karakter«.

Især når det drejer sig om valghandlinger eller humanitære kriser, er det essentielt, at man fra Facebooks side handler lynhurtigt.

»Deadlines kan ofte ikke flyttes eller er uforudsigelige. At undlade at handle kan have meget konkrete konsekvenser for verden,« skriver forfatteren i det interne notat og deler en smertefuld erkendelse med kollegerne:

»Den pinefulde sandhed er, at vi simpelthen ikke kan dække hele verden på det samme niveau.«

Huller i arabiske lande

Det lyder umiddelbart som en underdrivelse:

Af Facebooks udgifter til at kontrollere opslag for hadefuldt sprog i 2019 blev næsten 38 procent brugt på engelsksprogede opslag i USA, fremgår det af en oversigt. Nummer to på listen var spansksprogede opslag, der tog mindre end fem procent af budgettet.

Flere ansatte peger i interne rapporter på, at Facebook har ekstremt svært ved at overvåge og kontrollere opslag på mindre udbredte sprog. Især er det et problem i mange arabiske lande, hvor Facebooks popularitet er enorm. Hovedparten af virksomhedens arabiske moderatorer arbejdede i 2020 i enten Marokko eller Tyskland, men – som en af rapporterne konstaterer – så er arabisk langt fra ét sprog, men derimod en lang række vidt forskellige dialekter, som kræver detaljeret kulturel og sproglig indsigt at forstå. Og som Facebook kun dækker et fåtal af.

Indiske skolebørn undervises af Facebook i samarbejde med lokale myndigheder i at identificere »fake news«. Initiativet fandt sted i 2018 efter en stribe voldelige overfald, der fandt sted efter rygtespredning på bl.a. Facebook. Abhishek Verma/AFP/Ritzau Scanpix

Eksempelvis er der store huller i overvågningen af indhold fra brugere i Yemen, der i årevis har været hærget af borgerkrig. Og også i andre af Facebooks definerede »højrisikolande« – bedømt ud fra risikoen for uroligheder – mangler virksomheden sprogkyndige ansatte og effektive systemer. En ansat konstaterede så sent som i sommeren 2020, at der er »konstateret betydelige huller i vores dækning« i blandt andet urohærgede lande som »Myanmar og Etiopien«, hvilket ifølge den ansatte understreger, at Facebooks retningslinjer på området er »utilstrækkelige«.

Profit før mennesker?

Samtlige dokumenter beskrevet er indsamlet af den tidligere ansatte gennem små to år, dataingeniør – og nu whistleblower – Frances Haugen. Berlingske har været i kontakt med Haugen, som sætter ord på, hvorfor hun fandt det nødvendigt at gå til myndighederne og pressen med interne dokumenter fra sin arbejdsplads.

Facebook er som en »sort boks«, siger hun. En virksomhed, der er så hemmelighedsfuld og svær at forstå, at omverdenen ikke en gang ved, hvad man kan bede Facebook om at svare på. Derfor var der ingen anden udvej end selv at sørge for, at offentligheden gennem konkrete interne dokumenter fik den viden, mener hun.

»Man talte aldrig internt om at behandle de temaer, som var i modstrid med Facebooks værdier, på en mere ærlig måde. Det hørte jeg aldrig omtalt. Hvad jeg til gengæld hørte en del, var ting som 'pressen misforstår os', 'offentligheden misforstår os',” siger hun uddyber:

»De mennesker, der når til tops i Facebook, er mennesker, der tror på virksomhedens linje om, at de skaber flere gode ting end dårlige,« lyder det.

Undervejs i sin ansættelse blev hun »gang på gang chokeret over, hvor tyndt bemandet kritiske funktioner var« i et selskab, der har et årsresultat, der skal måles i et tocifret milliardbeløb i dollar.

Hun opsummerer det kort:

»Realiteten er, at Facebook prioriterer profit frem for mennesker.«

Ingen perfekte løsninger

Hos Facebook afviser man på det strengeste Frances Haugens udlægning om, at virksomheden sætter profit over mennesker.

Guy Rosen, der er vicepræsident for Facebooks integritetsafdeling, skriver i et svar til Berlingske og avisens europæiske samarbejdspartnere, at Facebooks medarbejdere hver dag skal balancere mellem at give milliarder af mennesker mulighed for at udtrykke sig selv og samtidig gøre Facebook til et trygt og positivt sted at opholde sig.

»Vi opnår hele tiden væsentlige forbedringer, der holder skadeligt indhold væk fra vores platforme, men der er ikke nogen perfekt løsning,« siger han og tilføjer, at der er tale om en »løbende proces.«

Facebooks hovedkvarter på Hacker Way i Californien. 40.000 ansatte arbejder med sikkerhed bredt set hos mediegiganten. Josh Edelson/AFP/Ritzau Scanpix

I en lang række svar til Berlingske oplister en talsmand desuden, hvad Facebook gør for at dæmme op for, at platformen bliver misbrugt af brugere med slette hensigter.

Blandt andet har Facebook investeret 13 milliarder dollar – mere end 83 milliarder kroner – til formålet og har i dag 40.000 ansatte, der beskæftiger sig med sikkerhed på platformen. Herunder beskæftiger 15.000 ansatte sig alene med at sortere indhold – såsom helt at fjerne det eller at skrue ned for, hvor mange brugere der kan se materiale og bestemte kommentarer, der bryder med Facebooks regelsæt. Specifikt har man blandt andet i løbet af coronakrisen gjort sig anstrengelser for at forhindre misinformation om covid-19 og vaccineskepsis, lyder det.

Talsmanden beskriver blandt andet, at man har særlige team i områder, hvor der er en større risiko for, at konflikter og vold kan eskalere. Herunder har man ansatte, der gennemgår indhold på 70 sprog, såvel som eksperter udi menneskerettigheder og humanitære forhold.

Desuden straffer man i dag brud på reglerne »lige så hårdt« uden for USA som i USA, lyder det også.

»De ansatte har gjort fremskridt i at tackle svære udfordringer, såsom hadefuldt sprog, og bygget nye måder, hvorpå vi hurtigt kan besvare situationer, når de opstår. Vi er bevidste om, at de her udfordringer er meget virkelige, og vi er stolte af det arbejde, vi har opnået indtil nu,« lyder det.

Facebook beskriver også, at man har »taget en række skridt til at bekæmpe hadefuld tale og andet skadeligt indhold«.

Kunstig intelligens er én af de mest benyttede metoder til at opdage det skadelige indhold, så de ansatte efterfølgende kan undersøge indholdet nærmere. Og Facebook er også blevet bedre til at begrænse udbredelsen af bestemt materiale, så færre brugere ender med at blive eksponeret for det. Så selvom Facebook kun aktivt fjerner en brøkdel af alle de hadefulde opslag, betyder det ikke så meget, påpeger talsmanden: For Facebooks systemer sikrer nemlig, at kun omkring 0,05 procent af alt det hadefulde indhold i sidste ende bliver set af andre brugere.

Hvad angår de kæmpestore Facebook-grupper, der er styret af såkaldte troldefarme i Europa, svarer Facebook, at man siden undersøgelsens konklusioner i 2019 »aggressivt har håndhævet handling mod denne slags udenlandske og hjemlige falske grupper«.

Så Facebook er med syvmileskridt på rette vej, hævder talsmanden.

Men hvad så med det indiske eksperiment? Hvordan kunne det ske, at en indisk forsøgsperson – som beskrevet indledningsvist – på kun tre uger endte i et helvede af voldsforherligelse og nationalistisk had?

Her undlader Facebook at svare direkte. I stedet giver talsmanden ordet til Facebooks øverste chef. Milliardæren med det skarptskårne pandehår, der i 2004 sammen med en lille gruppe kammerater stiftede det sociale medie for at forbinde de studerende på Harvard College. Og som siden er blevet ansigtet på verdens største og mest magtfulde sociale medie.

»Det er dybt ulogisk«, siger Mark Zuckerberg i et skriftligt citat, »at vi bevidst skulle fremme indhold, som gør folk vrede, for profittens skyld.«

Både moralske og forretningsmæssige logikker peger i den stik modsatte retning, mener han:

»Vi tjener penge på reklamer, og annoncørerne fortæller os igen og igen, at de ikke vil have deres reklamer ved siden af harmfuldt og vredt indhold,« siger Mark Zuckerberg og understreger:

»Jeg kender ikke noget techselskab, der bevidst går efter at skabe produkter, der gør folk vrede eller deprimerede.«