Mark Zuckerberg, fondatore e CEO di Facebook, ha annunciato l’istituzione di un Oversight Board che si esprimerà sui più gravi casi di odio online

Settimana scorsa Nick Gregg, vicepresidente degli affari globali e addetto alla comunicazione per Facebook, ha annunciato l’istituzione di un Oversight Board che affiancherà l’azienda nella moderazione dei contenuti postati sul social.

Il nuovo organo entrerà in funzione dal gennaio 2020 e sarà inizialmente composto da 11 membri. Questi primi commissari saranno scelti direttamente da Facebook in collaborazione con il Trust, organo esterno ma finanziato da Zuckerberg. Il colosso californiano promette però di farsi da parte nella successiva scelta di ulteriori 29 membri, che verranno selezionati dagli 11 iniziali.

Le linee guida per la scelta dei componenti del Board sono state delineate da Facebook, che tuttavia non ha voluto renderle pubbliche. I vertici dell’azienda si sono limitati a evidenziare che i commissari saranno specialisti di diverse materie e che il Board sarà multinazionale.

Nonostante la Commissione sia definita indipendente, i suoi componenti verranno stipendiati dal Trust e dovranno deliberare solamente basandosi sui dati fornitigli da Facebook. I membri potranno rimanere in carica per 3 anni e potranno rinnovare il mandato solamente due volte, per un totale di 9 anni.

Rapporti tra Facebook e l’Oversight Board- Fonte: Facebook

Nonostante i dubbi sulla reale impazialità del Board, si tratta in ogni caso di un passo in avanti significativo; parecchie sono state le voci che negli ultimi anni hanno chiesto a Zuckerberg di delineare una politica contro l’odio in rete. Tuttavia, data la natura privata dell’impresa, nessun governo si è mai potuto imporre sulle scelte interinali dell’azienda.

La decisione di istituire una Commissione di Supervisione è nata lo scorso novembre, spiega il CEO. Anche se non viene pubblicamente dichiarato, non è difficile immaginare che Zuckerberg senta la necessità di ricostruire la credibilità aziendale dopo lo scandalo dei dati di Cambridge Analytica, che lo ha portato davanti al Congresso degli Stati Uniti proprio nell’aprile del 2018 (per saperne di più, vi consigliamo il documentario The Great Hack prodotto da Netflix).


Traboccanti di sconvolgimenti politici e sociali, gli ultimi anni hanno reso ambigua la posizione di Facebook sulla moderazione del dibattito politico mondiale. Prima l’elezione di Donald Trump, poi le elezioni nazionali europee, passando per il referendum sulla Brexit, hanno sollevato importanti interrogativi sul ruolo di Facebook all’interno delle campagne elettorali.


Il leader dei social networks ha assunto un ruolo controverso anche in Myanmar, dove si è reso colpevole della mancata eliminazione di contenuti razzisti e fake news contro la minoranza etnica dei Rohingya. Il governo birmano ha sfruttato la piattaforma per ideologizzare l’odio razziale in quello che l’Onu ha definito come il più grave genocidio della storia contemporanea.

L’Hate Speech viene definito come “espressione di odio e incitamento all’odio di tipo razzista, tramite discorsi, slogan e insulti violenti, rivolti contro individui, specialmente se noti o famosi, o intere fasce di popolazione” (Treccani). Il discorso d’odio è specialmente frutto di discriminazione razziale, sessuale, di genere e religiosa e si articola in quattro ulteriormente categorie. Si inizia dal semplice commento intollerante per poi arrivare all’incitamento al genocidio.


Vox realizza ogni anno in Italia una Mappa dell’Intolleranza che si occupa di evidenziare i target presi più di mira. Nel 2019 le donne sono la fascia di popolazione più attaccata insieme agli omosessuali. Marilisa d’Amico, professoressa di Diritto Costituzionale all’Università Statale di Milano e co-fondatrice di Vox, correla il vocabolario della politica contemporanea all’ondata d’intolleranza social.

Non si tratta di un collegamento univoco, ma di un circolo vizioso: la politica fonda le sue campagne basandosi sui malcontenti che serpeggiano in rete, che a loro volta si concentrano sui temi lanciati dai leader politici.

Hate Speech Pyramid- Fonte: Article19.org

Facebook si è gradualmente trasformato nel lettino dello psicologo per parecchi utenti, che ad oggi sono in totale più di 2.2 miliardi. D’altronde, la domanda che ognuno si ritrova sulla homepage iniziale non aiuta: “A cosa stai pensando?”.

Il social di Zuckerberg offriva uno spazio in cui conoscere e dialogare con persone nuove, arricchendo il proprio bagaglio sociale e, perché no, culturale. Era stato raccontato come il ponte tra i popoli di un mondo globalizzato e sempre più interconnesso.

Tuttavia, con la diffusione del risentimento dopo la crisi economica del 2008 e della retorica sovranista odierna, l’escalation della violenza verbale sui social non si è fatta attendere.

Gli algoritmi di Facebook e la pubblicità mirata hanno frammentato la popolazione mondiale in fazioni omogenee che condividono lo stesso sistema di valori. L’anonimato e la funzione “blocca” hanno fatto il resto, creando odiatori da tastiera e incontri di pugilato virtuali.

L’Oversight Board non si occuperà, come ovvio, di qualsiasi caso di Hate Speech o violazione di dati degli utenti. I casi verranno precedentemente selezionati da alcuni moderatori, dislocati nei vari continenti.

Questi analisti sono attualmente 15mila e non sono direttamente stipendiati da Facebook, che ha preferito esternalizzare affidandosi ad aziende quali Accenture o BCforward.


Per comprendere il meccanismo della moderazione su Facebook, occorre innanzitutto
sfatare il mito che il colosso dei social networks si affidi unicamente ad algoritmi elaborati dai suoi informatici. Non esiste ancora un algoritmo perfetto in grado d’individuare i contenuti problematici sui social e uno dei paladini dell’innovazione fa ciò che di più reazionario esista: si affida agli umani.

Alla base della piramide ci sono gli utenti, a cui è permesso di segnalare contenuti ritenuti offensivi, che poi gli algoritmi divideranno in categorie. Tante Mary Poppins che schioccano le dita per rimettere in ordine la stanza, per intenderci.

Sarà compito dell’operatore specializzato valutare la fondatezza della segnalazione. Tuttavia, molti di noi si sono accorti che il meccanismo di ban dei contenuti non sempre è efficace, nonostante i moderatori siano donne e uomini. Ciò è dovuto al fatto che gli operatori non sono omogeneamente distribuiti sul territorio globale, né rappresentano ogni nazionalità.

Nel caso italiano, ad esempio, gli analisti sentenziano da Dublino sulle segnalazioni giunte dal Bel Paese, e molti di loro non possiedono nemmeno la cittadinanza italiana. Gli operatori che si occupano dell’Italia, di conseguenza, potrebbero anche non a possedere l’adeguato background culturale per giudicare l’aggressività o la sussistenza del discorso d’odio preso in considerazione. Ciò spiega come mai vengano oscurati molti contenuti non ritenuti offensivi da un pubblico italiano.


Arriviamo così all’ultimo e più recente gradino della piramide. Se un contenuto necessiterà una particolare attenzione, verrà preso in esame dal Board. Per ogni caso che giungerà al Board verrà istituita una sottocommissione di 5 membri scelti a rotazione tra i 40 totali. Tassativamente almeno un componente della sottocommissione dovrà essere originario della zona in cui è sorto il caso di odio online. Dopo la deliberazione, Facebook verrà informato sul responso e sulle sanzioni da mettere in atto, sulle quali in teoria non potrebbe esercitare alcun veto.

La decisione di Zuckerberg apre certamente uno spiraglio alla moderazione della discriminazione virtuale, ma c’è da chiedersi se non occorra giudicarla tardiva. Neil Postman, teorico dei media, sosteneva che ogni invenzione abbia una natura ecologica più che additiva.

Ogni innovazione non si somma a ciò che già esiste, ma rivoluziona la società intera. Facebook ha creato la cultura di massa più diffusa mai sperimentata dal genere umano e ha ridefinito la psicologia del mondo globalizzato.

L’Hate Speech è una derivazione di questa cultura, i cui risvolti necessiteranno di anni per manifestarsi ed essere compresi appieno. Zuckerberg sta correndo ai ripari come un padre preoccupato per le marachelle del figlio. In caso contrario diventerebbe vittima della sua stessa creatura: un parricidio edipico.

Foto di copertina: Pixabay