Rhoingya vs Facebook: l’algoritmo finisce in tribunale

Facebook citato in giudizio per aver, stando alle accuse, lasciato che l’odio contro la minoranza etnica dilagasse in rete.

di Federico Asciutti

Hanno rischiato di perdere tutto pur di fuggire da una persecuzione che le Nazioni Unite definiscono “textbook example of ethnic cleansing”.
Nel 2019 la Corte Internazionale di Giustizia ha ordinato al Myanmar di adottare “misure eccezionali” per prevenire il genocidio della comunità Rohingya.
Ora le vittime delle persecuzioni nel Regno Unito e negli USA vogliono trascinare Facebook (adesso Meta) in tribunale intentando una causa risarcitoria per 150 miliardi di dollari. Secondo l’accusa Facebook non avrebbe posto alcun freno all’incitamento alla discriminazione e alla violenza veicolata in rete, giocando un ruolo fondamentale nella brutale persecuzione subita dalla minoranza etnica.

Chi sono i Rohingya.
Descritti dal segretario generale delle Nazioni Unite António Guterres come “una delle, se non la più discriminata popolazione al mondo”, i Rohingya sono una delle tante minoranze etniche presenti nel Myanmar.
Con una propria lingua e cultura, sono discendenti di commercianti arabi e coloni musulmani insediatisi nella regione nel XV secolo, nell’allora regno indipendente dell’Arakan, fino alla sua conquista nel 1784 ad opera dell’impero birmano.
In maggioranza islamici, in un paese che mal tollera le minoranze etniche, sono da anni vittime di persecuzioni che ne mettono a rischio la stessa sopravvivenza.
Con una popolazione complessiva intorno ai 2 milioni, circa un milione di essi vive nel Myanmar, prevalentemente nello stato nord ovest del Rakhine. Oltre 600mila sono invece ospiti del più grande campo rifugiati al mondo di Kutaplong, in Bangladesh.

La persecuzione in Myanmar.
Considerati dallo Stato birmano come immigrati illegali provenienti dal Bangladesh e perfino esclusi dal censimento del 2014, ai Rohingya non è riconosciuta alcuna forma di cittadinanza.
Non hanno alcun diritto di accesso ai servizi sociali né all’educazione e la loro libertà di movimento all’interno e all’esterno dello Stato del Rakhine è fortemente limitata.
In uno stato prevalentemente buddhista, che comprende 135 distinti gruppi etnici al popolo Rohingya, che rappresenta la più grande minoranza islamica nel Paese, non è concessa questa definizione.
La persecuzione di stato inizia dal 1962 quando il Myanmar cade sotto una dittatura militare.
I Rohingya diventano vittime di sistematici attacchi militari, culminati nelle operazioni “King Dragon” e “Clean and Beautiful Nation”, in cui l’esercito venne accusato dalla comunità internazionale di gravi violazioni dei diritti umani come stupri e arresti di massa.
Una minoranza Rohingya ha risposto formando l’Esercito di salvezza dei Rohingya dell’Arakan (Arsa). I ribelli si sono però resi responsabili di almeno un massacro, e forse di un secondo, appena prima del lancio della campagna di pulizia etnica dell’esercito Tatmadaw del 2017.
L’UNHCR stima che la rappresaglia dell’esercito abbia causato la distruzione di 300 villaggi e costretto circa 742mila Rohingya a cercare rifugio in Bangladesh.

Le responsabilità del social media.
Stando alle accuse, Facebook sarebbe stato utilizzato come amplificatore dei messaggi che incitavano al massacro in Myanamar.
Secondo un report che valuta l’impatto di Facebook sui diritti umani in Myanamar pubblicato nel 2018 dalle Nazioni Unite emerge una correlazione significante. Gli autori del rapport ritengono che Facebook abbia giocato un ruolo determinante, divenendo “a useful instrument for those seeking to spread hate, in a context where, for most users, Facebook is the Internet”.
Nelle mani del governo birmano la piattaforma social sarebbe stato un megafono in grado di esacerbare le divisioni etniche che hanno avuto un ruolo importante nel genocidio.
Viene messa in risalto la forza dirompente del social network, secondo il rapporto in grado alimentare spaccature nella società e di indebolire le democrazie, non soltanto in Myanmar.
In Etiopia dove è in corso una brutale guerra civile, sarebbe stato utilizzato per veicolare la falsa propaganda governativa fondata sulla discriminazione etnica, generando risentimento verso le minoranze. In India, paese guidato dalla destra nazionalista indù, la rete è invasa da commenti islamofobi. Odio e disinformazione che mirati a disumanizzare i destinatari, li rendono sempre più vulnerabili e in pericolo.

L’algoritmo messo alla sbarra.
Facebook ha riconosciuto di non aver fatto abbastanza per prevenire gli abusi in rete. Tuttavia, può essere ritenuto responsabile per i fatti accaduti? Presto potremmo avere la risposta.
La battaglia legale partita in contemporanea dalle due sponde dell’Atlantico è pronta ad accusare Facebook, ora divenuto Meta, di essere responsabile di aver permesso la diffusione di contenuti capaci di fomentare l’odio durante le persecuzioni contro il popolo Rohingya.
Il 6 dicembre è stata notificata presso gli uffici Facebook di Londra la volontà di portare la questione di fronte alla Corte Suprema.
La class action, mossa a nome di tutto il popolo Rohingya, chiede una compensazione di 150 miliardi di dollari per le “morti ingiuste, lesioni personali, dolore, sofferenze fisiche ed emotive e la perdita delle proprietà”. Secondo l’accusa Facebook avrebbe non considerato le vite dei Rohingya in cambio di una migliore penetrazione nel mercato del piccolo paese del sud est asiatico.
Le accuse vanno in due direzioni.
La prima parte dal presupposto che dal 2010 Facebook abbia fallito nella moderazione dei contenuti che incitavano al genocidio nel Myanmar, nonostante fosse al corrente dei fatti. In secondo luogo che l’algoritmo di content-recomentadion, il software in grado di filtrare contenuti per creare raccomandazioni personalizzate, abbia amplificato la diffusione del materiale sul social network.
Meta si dice sconcertata per i crimini commessi e assicura di aver già migliorato la capacità dell’algoritmo di moderare i contenuti birmani. Un dato più di ogni altro rileva la carenza di Facebook nel tentativo di arginare il problema: come emerge dai racconti dall’informatrice Frances Haugen, Data Engineer ed ex Product Manager di Facebook, la piattaforma social amplifica la violenza etnica e non fa abbastanza per fermarla. Infatti l’87% della spesa destinata a contrastare la disinformazione è in inglese, mentre solo il 9% degli utenti sono anglofoni.