Negli Stati Uniti e nel Regno Unito, la minoranza rohingya ha fatto causa a Facebook per aver permesso la diffusione di post che incitavano alla violenza.
La passività di Facebook potrebbe aver in qualche modo alimentato il genocidio dei musulmani rohingya nel Myanmar (ex-Birmania), perché gli algoritmi del colosso dei social network avrebbero amplificato contenuti che incitavano alla violenza etnica. È questa la tesi di un’azione legale avviata negli Stati Uniti e nel Regno Unito da parte di diversi richiedenti asilo appartenenti alla minoranza etnica dei rohingya. La piattaforma fondata da Mark Zuckerberg deve ora affrontare una richiesta di risarcimento che ammonta a 175 miliardi di euro.
Nel testo della class action, presentata al tribunale distrettuale di San Francisco, si legge che Facebook avrebbe “barattato le vite dei rohingya in cambio di maggiori opportunità nel mercato di un piccolo paese nel sud-est asiatico”. E che “pur in possesso degli strumenti per fermare tale processo, ha semplicemente continuato ad andare avanti”. Insomma, Facebook non avrebbe fatto nulla o quasi per ostacolare la circolazione dei messaggi d’odio contro la popolazione musulmana.
La drammatica storia dei rohingya
I rohingya sono una minoranza etnica del Myanmar, composta da circa 800mila persone. Nel corso della storia del paese, divenuto indipendente nel 1948 e composto al 90 per cento da una maggioranza buddista, gli appartenenti alla popolazione islamica hanno dovuto subire discriminazioni sociali e politiche di ogni tipo. Diversi sono stati i limiti imposti alla loro libertà di movimento, così come gli ostacoli che hanno impedito loro l’accesso a al lavoro e a servizi come istruzione e sanità. Ai rohingya, peraltro, non è mai stata concessa la cittadinanza birmana. Nel corso del tempo hanno subito diversi attacchi ai loro villaggi, ma se c’è un anno in cui questa situazione già difficile è ufficialmente degenerata, quello è il 2017, quando il governo militare ha avviato una vasta operazione di “sgombero”.
Secondo un rapporto di Medici senza frontiere, sono 6.700 i rohingya uccisi nelle violenze da parte dell’esercito, mentre un’indagine di una Commissione d’inchiesta internazionale indipendente nel Myanmar parla di 700mila persone che sono stati costrette a fuggire nel confinante Bangladesh, per evitare persecuzioni, violenze, stupri e mettersi in salvo dalla distruzione dei propri villaggi.
Le Nazioni Unite hanno parlato di un autentico genocidio, chiedendo che i capi militari venissero processati per questo, oltre che per crimini contro l’umanità e crimini di guerra. Il governo birmano, invece, ha sempre negato le proprie responsabilità.
I post di Facebook sarebbero collegati alle violenze offline
Facebook è stato lanciato nel Myanmar nel 2011, diventando rapidamente il social media più utilizzato. Nel giro di poco tempo, la piattaforma si è popolata di materiale che inneggiava alla violenza contro i rohingya, che è stato diffuso e amplificato quasi senza alcun contrasto o richiamo alle regole legate all’hate speech. È lo stesso Facebook ad ammetterlo: nel 2018, infatti, la piattaforma ha dichiarato di “non aver fatto abbastanza per prevenire fenomeni di incitamento all’odio contro i rohingya”.
Lo studio legale che sta seguendo la causa per conto di decine di richiedenti asilo (anche se si punta a coinvolgerne migliaia attraverso la class action) ha spiegato che “Facebook è diventato un mezzo per coloro che cercano di diffondere odio e causare danni alla minoranza rohingya. I post sono direttamente collegati alle violenze offline”. E ancora: “Nonostante ciò sia stato riconosciuto, non è stato offerto un solo centesimo di risarcimento, né alcuna altra forma di riparazione o supporto ad alcun sopravvissuto”.
Le accuse dei legali mettono in evidenza un fatto sconcertante: Facebook non sarebbe in grado di investire in moderatori e fact-checker locali, madrelingua, al fine di individuare ed eliminare post specifici che incitano all’odio nei confronti di una specifica categoria di persone.
Facebook sarebbe in grado di rimuovere soltanto i contenuti in inglese
Per fare un esempio, in un post apparso nel 2013 si leggeva: “Dobbiamo combatterli come Hitler ha fatto con gli ebrei”. Oppure, in un altro post del 2018, che mostra una fotografia di una barca carica di rifugiati Rohingya, si dice: “Versate della benzina e date fuoco in modo che possano incontrare Allah più velocemente”.
Come ha spiegato Frances Haugen, ex-dipendente di Facebook che ha rivelato decine di migliaia di documenti interni del colosso americano, un caso analogo starebbe accadendo in Etiopia, dove Facebook permetterebbe la diffusione di contenuti carichi di odio etnico. Secondo Haugen, della spesa destinata a combattere la disinformazione su Facebook l’87 per cento riguarda contenuti in inglese. Ma in Birmania solo il 9 per cento della popolazione parla e scrive post in tale lingua.
Facebook ha affermato di avere adottato una “strategia globale” per i paesi a rischio di conflitto violenti, compreso l’uso di madrelingua e verificatori. L’azienda proprietaria di Facebook, Meta, è stata contattata dal Guardian per un commento, ma per ora non è arrivata alcuna risposta.
Drogata e stuprata per anni, Gisèle Pelicot ha trasformato il processo sulle violenze che ha subìto in un j’accuse “a una società machista e patriarcale che banalizza lo stupro”.
La scarcerazione di Narges Mohammadi è avvenuta per motivi di salute e durerà tre settimane. Cresce la pressione sul regime dell’Iran per renderla definitiva.
Migliaia di persone sono scese in strada contro la decisione del governo di sospendere i negoziati per l’adesione all’Unione europea fino al 2028. Violenta la reazione delle forze dell’ordine. La presidente della Georgia rifiuta di lasciare il mandato finché non verranno indette nuove elezioni.