Terror i Christchurch: Derfor er det så svært at fjerne massakrevideoen fra nettet

Facebook, Twitter, YouTube og Reddit arbejder hårdnakket på at få fjernet den video, som en 28-årig terrorist delte, da han angreb to moskeer i New Zealand. Men hvorfor er det så svært at få videoen fjernet? Berlingske giver her et overblik over sagen.

Blomster og kort er blevet lagt ved mindesmærket for de ofre, der blev dræbt ved terroangrebet mod to moskeer i Christchurch. 50 personer blev dræbt.  Fold sammen
Læs mere
Foto: EDGAR SU

Terroristen i Christchurch havde en klar mediestrategi, da han fredag angreb to moskeer i New Zealands tredjestørste by. Men har de sociale medier et ansvar for, at han lykkedes med at sprede både sine budskaber og livestreame det brutale angreb?

Mens Facebook, YouTube, Twitter og Reddit kæmper med at få fjernet varianter af terroristens livestream fra terrorangrebet, er en massiv kritik blevet rejst mod techgiganterne for, at videoen overhovedet kunne finde vej til deres platforme – og tilsyneladende har været meget svær at fjerne igen.

Berlingske bringer her et overblik over sagen.

Hvad gjorde den 28-årige terrorist?

Allerede to dage inden angrebet begyndte den 28-årige på diverse internetfora at dele links til sit 74 sider lange manifest bestående af konspirationsteorier, hyldester til andre hvide nationalister og hadefulde påstande om flygtninge, indvandrere og muslimer.

Fredag begyndte så hans livestream på Facebook. Med et GoPro-kamera klistret i panden satte den 28-årige Brenton Tarrant kurs mod Al Noor-moskeen i Christchurch, og da han gik ind og begyndte at skyde på de hundredvis af uskyldige muslimer, der var samlet derinde, blev det sendt live ud på Facebook.

Men blev det ikke taget ned?

Jo. Facebook har selv forklaret, at 1,5 millioner videoer er blevet fjernet fra sitet inden for de første 24 timer efter angrebet, og at yderligere 1,2 millioner videoer er blevet blokeret, inden de overhovedet blev uploadet.

Men da var skaden allerede sket. De sociale medier får kritik for, at videoen i første omgang overhovedet kunne blive delt – for har de på den måde løbet gerningsmandens ærinde og hjulpet ham med at dele sin hadefulde ideologi og de drabelige billeder?

Inden Facebook begyndte at fjerne indholdet, var videoen allerede delt på andre platforme, hvor hundredtusindvis af mennesker kunne se den – og downloade den, hvis de ville.

Det betød, at videoen mange timer efter angrebet stadig blev delt på både YouTube, Reddit, Twitter og Facebook. Selvom de sociale medier ihærdigt forsøgte at fjerne videoerne, blev brugerne ved med at uploade dem igen – bare i minimalt ændrede udgaver.

Hvorfor kan de sociale medier ikke bremse dét?

Nu bliver det lidt teknisk. Men når en video som denne uploades på sociale medier, tager administratorer på sitet typisk en kopi af videoen – det hedder på techsprog en såkaldt »hash« – som så kan bruges til automatisk at blackliste samme video fra at blive uploadet igen. Det er blandt andet sådan, at sociale medier som Facebook i årevis har hindret allerede blokeret indhold fra at finde vej ind på platformen igen.

Men det er ikke svært at omgå algoritmen. Hvis man laver om på klippet – for eksempel ved at lægge et vandmærke på filen, ændre lydsporet, videoens hastighed eller filens størrelse – kan den ikke længere automatisk identificeres som en 1:1 kopi af den originale video. Og det er sådan, videoen igen og igen kan uploades med små variationer, skriver Washington Post.

Okay, men hvordan kan et terrorangreb overhovedet blive livestreamet i første omgang?

Den korte forklaring er, at det netop er, fordi det var et livestream, at det kunne lade sig gøre. Facebook kunne simpelthen ikke nå at gennemgå indholdet af videoen, inden det var ude i æteren, fordi det foregik i realtid.

Den lidt længere forklaring er, ifølge techmagasinet Wired, at de automatiserede moderations-systemer – som for eksempel genkender videoer, der tidligere er blevet fjernet, halshugningsvideoer og børnepornografi – kun virker, når forhåndsproducerede videofiler bliver uploadet.

Når noget livestreames, som angrebet på moskeerne blev, er det derimod mennesker, der skal se og reagere på videoerne, inden de kan blive fjernet. Ifølge Facebook var der færre end 200 Facebook-brugere, der så videoen, mens den blev livestreamet – og ingen anmeldte den før 12 minutter efter, at livestreamet var afsluttet. Det gjorde det væsentligt sværere for Facebooks moderatorer at opdage videoen i tide.

Hvad siger Facebook, YouTube, Twitter og Reddit?

Både Facebook, YouTube, Twitter og Reddit har forklaret, at de arbejder hårdt på at få fjernet videoen og alle opslag, som hylder eller roser terrorangrebet, gerningsmanden eller videoen.

Peter Münster, der er Facebooks nordiske kommunikationschef, siger for eksempel til Ritzau:

»Når folk vælger at bruge vores teknologi til noget negativt, så skal vi have begrænset det så meget som muligt og så hurtigt som muligt.«