I 2017 iværksatte sikkerhedsstyrkerne i Myanmar en etnisk udrensning af rohingya-folket. En ny rapport fra Amnesty International viser, hvordan algoritmerne på Facebook bidrog til grusomhederne, og at Facebook-ejer Meta havde – eller burde have haft – kendskab til det.
Myanmars sikkerhedsstyrker igangsatte i 2017 en decideret etnisk udrensningskampagne mod rohingyaerne, hvor de dræbte, torturerede, voldtog og fordrev folket i tusindvis. I månederne og årene op til grumshederne intensiverede Facebooks algoritmer en storm af had mod rohingyaerne, som bidrog til volden i den virkelige verden.
I stedet for at reagere på den hadefulde retorik, der foregik på Facebook, profiterede Meta, der ejer Facebook, væsentligt på debatten, der spredte sig på netværket, og som siden udviklede sig til virkelige voldelige forfølgelser.
Et hadfyldt ekkokammer
Meta bruger engagement-baserede algoritmer og tjener penge på målrettet reklame. Dette betyder, at jo længere tid, facebookbrugerne befinder sig på mediet, jo flere penge ryger der i kassen. En måde at engagere brugerne på platformen er ved at prioritere hadefuld og provokerende indhold.
Facebook var i tiden op til hændelserne i Myanmar et ekkokammer fyldt med had mod rohingya-folket. Især anti-muslimsk indhold prægede mediet. Et billede af en muslimsk menneskerettighedsforkæmper blev for eksempel delt over 1.000 gange, og kommentarerne dertil var racistiske og truende:
”Han er muslim. Muslimer er hunde og bør skydes.” og ”Lad ham ikke være i live. Fjern hele hans race. Tiden løber.”
Meta oprettede i 2014 digitale anti-hads klistermærker, kaldet ”Panzagar” eller ”blomster tale”, som Facebookbrugerne kunne bruge som respons til hadbeskederne for at påminde hinanden om ”ikke at være årsagen til vold”. Dog havde dette en modsatrettet effekt, da brugen af klistermærkerne resulterede i mere interaktion i de hadefulde ekkokamre og dermed mere bruger-engagement.
Meta må tage ansvar
Allerede tilbage i 2012 viste interne studier, at Meta kendte til algoritmernes potentiale til at promovere ekstremismen på netværket, som senere ville kunne resultere i alvorlig skade ude i virkeligheden.
Amnesty Internationals efterforskning bygger på en analyse af ”the Facebook Papers”, som whistlebloweren, Frances Haugen, lækkede tilbage i 2021, indeholdende dokumentation på Metas kendskab til den effekt, algoritmerne ville have på samfund rundtom i verden.
Rohingya-folket har tidligere forsøgt at få Meta til at stå til ansvar for sin medvirken i spredningen af anti-rohingya-indhold, men uden held. I stedet svarede Meta tilbage, at ”Facebook ikke direkte tager del i filantropiske aktiviteter.”
Amnesty International lancerer derfor en ny kampagne, der opfordrer til, at Meta Platforms, Inc. tager ansvar for sin medvirken og bidrager til at hjælpe rohingyaerne ved at donere 1 million dollars til et undervisningsprojekt i en flygtningelejr Cox’s Bazar i Bangladesh.
Hvad skete der i Myanmar?
Rohingyaerne har i flere år været udsat for statssponsoreret diskrimination, forfølgelse og undertrykkelse, og blevet frataget adgang til sundhedspleje, uddannelse og haft begrænsede arbejdsmuligheder.
Fra 2012 blev rohingyaernes situation væsentligt forværret med vold og drab på befolkningsgruppen samt ødelæggelser af deres hjem.
Efter mange års systemisk diskrimination af rohingya-folket, indledte en rohingya bevæbnet gruppe, Arakan Rohingya Salvation Army, et angreb mod sikkerheds- og militærområder i det nordlige Rakhine State den 25. august 2017.
Som resultat heraf angreb Myanmars sikkerhedsstyrker rohingya befolkede landsbyer, som Myanmars militær kaldte for ”rydningsoperationer” .
De efterfølgende måneder påbegyndte Myanmars sikkerhedsstyrker den etniske udrensning af rohingyafolket, hvor de dræbte tusindvis af rohingyaer, inklusivt børnene, voldtog og begik anden seksuel vold mod rohingya kvinder og piger, og tortur på rohingya mænd og drenge.
Mere end 702.000 rohingyaer blev nødsaget til at flygte til nabolandet, Bangladesh, som i dag huser over 895.000 rohingya flygtninge i Cox’s Bazar distriktet.