fbpx

INDIPENDENTI, COSTRUTTIVI, ACCESSIBILI

Home Analisi Mondo Hate speech e fake news sui social: quali rimedi?

Hate speech e fake news sui social: quali rimedi?

Tempo di lettura stimato: 6 min.

-

I fatti di Capitol Hill del 6 gennaio scorso hanno portato diverse piattaforme social, come Twitter e Facebook, a limitare, se non bloccare permanentemente, gli account social di Donald Trump. Il blocco è arrivato dopo una campagna di protesta su presunti brogli elettorali, mai provati, durante il voto presidenziale americano del novembre 2020. 

Questo evento ha generato un intenso dibattito. Si è parlato di ostacolo alla libertà di espressione, oppure di barriere necessarie per evitare il proliferare di hate speech e disinformazione. Il dibattito ha anche chiamato in causa le principali piattaforme social, accusate di aver fatto troppo poco fino a quel momento per limitare il diffondersi di notizie false e di incitamento all’odio. 

La domanda che quindi sorge è quanto sia stato fatto o meno dalle piattaforme social (specialmente Twitter e Facebook) per censurare contenuti ritenuti discriminatori o mendaci. Per rispondere a tale domanda è necessario ripercorrere le tappe della regolamentazione social, sia governativa, sia portata avanti dalle aziende stesse nel corso degli ultimi anni.

Hate speech e fake news: cosa hanno fatto le piattaforme social?

Come sottolinea un rapporto scritto da European Journalists e l’organizzazione Article 19, sarebbe esagerato affermare che i social abbiano rinunciato totalmente alla regolamentazione di contenuti mendaci o incitanti all’odio.

Parte della regolamentazione dei contenuti è stata attuata, ovviamente, dalle aziende stesse, che rimuovono i contenuti contrari alle regole stabilite dai loro termini di servizio. E’ innegabile però che le piattaforme social abbiano affrontato diverse critiche sulla poca chiarezza e trasparenza delle regole e sullo scarso rispetto della privacy degli utenti, come mostrato nello scandalo di Cambridge Analytica o dalla proliferazione di notizie false nella campagna presidenziale americana del 2016

Proprio in risposta a tali criticità, le aziende social hanno cercato di rendere più trasparenti le politiche di moderazione dei contenuti, rafforzando i controlli contro hate speech e notizie false. 

La politica di moderazione di Facebook è stata resa nota nel 2018, dopo che il Guardian, un anno prima, ne aveva già svelato il contenuto. Essa, oltre a combattere comportamenti criminali sulla piattaforma, quali terrorismo e abusi su minori, già cercava di moderare, se non eliminare, contenuti mendaci o istiganti all’odio.

Nello stesso anno, Twitter ha proposto una nuova politica aziendale contro contenuti che discriminano altri individui sulla base della loro appartenenza a un gruppo, etnico, politico o religioso, identificabile. Tale proposta ha esteso la politica già esistente della piattaforma, che mirava a combattere minacce e attacchi a persone sulla base del loro genere, orientamento sessuale e affiliazione religiosa. Questa stretta sulla moderazione è arrivata dopo le accuse rivolte da diversi commentatori verso il social per aver permesso la proliferazione di bot sulla propria piattaforma, e la conseguente diffusione di disinformazione nella campagna presidenziale americana del 2016. 

Con le proteste di Black lives matter del 2020, Twitter ha assunto un approccio più netto nella moderazione dei contenuti. Come riporta il New York Times, il social americano ha deciso di etichettare un post di Trump in risposta alla repressione della protesta del movimento Black lives matter da parte della polizia, che recitava “when the looting starts, the shooting starts” (“quando inizia il saccheggio inizia la sparatoria”). Twitter ha deciso di apportare al post dell’allora presidente americano un avviso che diceva che il post violava le politiche del social sulla glorificazione della violenza.

Tuttavia Facebook, quando Twitter ha deciso di intervenire sulla pubblicazione di alcuni contenuti di Trump, si è mostrato più attendista nell’intervenire. Mark Zuckerberg si era dichiarato contrario a un’azione simile a quella di Twitter, scatenando l’ira di diversi dipendenti della compagnia, che hanno inscenato uno sciopero virtuale.

Con la fine del 2020 e l’inizio del 2021, le cose sono cambiate. Le dichiarazioni post elezione di Donald Trump e i successivi fatti di Capitol Hill del 6 gennaio hanno portato Twitter e Facebook a intraprendere maggiori controlli e cancellazioni di vari contenuti. Per esempio, a gennaio, Twitter ha cancellato più di 70.000 mila account collegati al gruppo cospirazionista QAnon, mentre Facebook ha eliminato tutti i contenuti contenenti la frase “stop the steal” (“fermate il furto” in italiano), slogan comune tra gli utenti che credono nella presunta illegittimità delle elezioni presidenziali americane dello scorso novembre. 

E cosa hanno fatto i governi? 

E’ comunque innegabile che un ruolo importante nella moderazione dei contenuti da parte delle piattaforme è giocato dai governi, sia nazionali sia sovranazionali. 

Guardando all’Unione europea, la Commissione si è impegnata a regolamentare il comportamento dei social non solo attraverso una migliore protezione dei dati personali degli utenti, come fatto dal GDPR. La Commissione ha cercato di promuovere anche una migliore moderazione dei contenuti social attraverso il Code of conduct on countering illegal hate speech online, siglato nel 2016  proprio in collaborazione con alcune delle stesse piattaforme social, come Facebook e Twitter. Le aziende social sono tenute a cancellare contenuti che violano le regole del codice di condotta. 

La situazione negli Stati Uniti appare invece più complicata. Come sostenuto dal New York Times,  la sezione 230 del Communication Decency Act, legge federale risalente al 1996, ha spesso agito da scudo nei confronti dei social media, proteggendoli dalle responsabilità per contenuti pubblicati da parti terze. Questa legge è stata oggetto di diverse critiche e di proposte di riforme, da parte di Trump stesso, ma anche da parte del nuovo presidente americano Joe Biden. 

In tal senso, Harvard Business Review ipotizza che il nuovo governo possa apportare modifiche al Communication Decency Act. Il Congresso potrebbe approvare una deroga alla sezione 230, rendendo così le piattaforme social responsabili dei contenuti condivisi dai propri utenti. Questo sarebbe un grande passo verso la responsabilizzazione dei social network, portando ad un veloce giro di vite sull’hate speech. Si porrebbe, però, un’altra domanda: chi decide cos’è offensivo e cosa no?

I possibili sviluppi: autoregolamentazione, intervento governativo o status quo?

Vi sono stati quindi dei tentativi negli ultimi anni, a livello sia aziendale che governativo, per garantire una migliore protezione degli utenti social da disinformazione e hate speech. Tuttavia questa regolamentazione è stata spesso tardiva o insufficiente, non di rado accompagnata da esitazioni da parte delle aziende e dei governi. 

In tal senso, alla luce dei fatti di Capitol Hill, ci si chiede quale sarà il futuro della regolamentazione social: se sarà all’insegna dello status quo, dell’autoregolamentazione o di un maggiore intervento da parte dei governi e delle istituzioni sia nazionali sia internazionali. Gli interventi intrapresi dalle piattaforme social dopo le vicende del 6 gennaio rendono la prima opzione alquanto improbabile. Tuttavia, la questione su quale sia la strategia migliore tra autoregolamentazione e intervento governativo rimane aperta. 

E’ possibile alla fine che si vada per una sintesi delle due, con una moderazione più severa e capillare da parte delle aziende, accompagnata però da una supervisione governativa più stringente. Come sostiene ancora Harvard Business Review, optare per una più diffusa e profonda autoregolamentazione potrebbe risultare una soluzione strategica per le principali piattaforme social. Esse infatti in tal modo potrebbero evitare un massiccio intervento da parte dei governi nazionali (o sovranazionali, come nel caso dell’Ue) e creare persino sinergie tra le major dell’industria per quanto concerne la moderazione dei contenuti, mutuando dall’esperienza di altri settori, come quello videoludico e cinematografico, che hanno beneficiato dell’autoregolamentazione in questo senso. 

Ciononostante, l’autoregolamentazione di per sé potrebbe non essere abbastanza, ma dovrebbe essere perlomeno condotta in sinergia con i governi, che potrebbero fungere da facilitatori per la creazione di linee guida comuni, come avvenuto nel caso europeo con la stesura del codice di condotta sull’hate speech. Sembra anche che una qualche forma di intervento governativo sia probabile pure in America, come menzionato poco sopra. 

In ogni caso, una nuova era per la regolamentazione dei contenuti social appare alle porte. Resta da capire quanto verrà fatto dalle aziende e quanto dai governi. A patto che la chiusura degli account di Donald Trump non sia stata un semplice fuoco di paglia. 

* Social media: [credit: dole777 via unsplash]
Giovanni Carletti
Mi sono laureato in Relazioni Internazionali alla Cattolica. Al momento studio Politiche Europee a LSE... nel paese della Brexit! Mi interesso principalmente alle questioni europee e mediorientali. Timido di temperamento, amo i sentieri difficili e il rock degli anni ‘60 e‘70.

Commenta

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

3,900FansMi piace
29,200FollowerSegui
1,500FollowerSegui
1,000FollowerSegui