19 Marzo 2024

Hate speech, le responsabilità di cittadini, Stati e social media

[In un articolo precedente a questo ci siamo occupati di tecniche educative, documenti e progetti mirati ad arginare il fenomeno. In questo ci occupiamo dell’ambito legislativo.]

Dopo un lungo iter legislativo che sembrava volerne rivoluzionare i contenuti è stata approvata in Italia una legge sul cyberbullismo, promossa dalla senatrice del Partito Democratico Elena Ferrara. Esiste, quindi, da oggi una definizione giuridica del fenomeno come “qualunque forma di pressione, aggressione, molestia, ricatto, ingiuria, denigrazione, diffamazione, furto d’identità, alterazione, acquisizione illecita, manipolazione, trattamento illecito dei dati personali in danno di minorenni, nonché la diffusione di contenuti online il cui scopo intenzionale e predominante sia quello di isolare un minore o un gruppo di minori ponendo in atto un serio abuso, un attacco dannoso, o la loro messa in ridicolo“.

Vengono indicati, inoltre alcuni strumenti utili alla rimozione dal web dei contenuti lesivi. Questo provvedimento ci consente di introdurci in un tema spinoso e fortemente dibattuto, ovvero quale sia il ruolo della politica contro la diffusione di commenti d’odio online.

social media hate speech
Fonte: wired.it

Gli Stati europei sono chiamati formalmente ad agire contro l’hate speech dal Consiglio d’Europa che, con una raccomandazione del dicembre 2015, li esorta a ratificare le convenzioni internazionali e i protocolli riguardo agli atti di razzismo e xenofobia realizzati per via informatica nel quadro della Convenzione internazionale per l’eliminazione della discriminazione razziale.

Ai Governi europei viene chiesto, inoltre, di “impegnarsi a individuare le condizioni che possono favorire il fenomeno del discorso dell’odio e le varie forme che può assumere, e misurarne la portata e i danni che provoca, al fine di prevenirlo e scoraggiarne l’uso, di ridurne gli effetti nocivi e di porvi rimedio.” Sensibilizzazione, sostegno delle persone colpite e incentivo all’autoregolamentazione delle istituzioni pubbliche e private sono gli strumenti che, secondo il Consiglio d’Europa, dovrebbero essere impiegati parimenti per ottenere l’obiettivo.

Poco più tardi, il 31 maggio 2016,  la Commissione europea annunciava, insieme a Facebook, Twitter, Youtube e Microsoft di aver stilato e adottato un Codice di condotta sulle espressioni illegali di odio online, un accordo che mirava a bilanciare la tutela della libertà di espressione e quella dei cittadini-utenti. La principale criticità che emerge da una lettura del Codice è che sono i privati i soggetti chiamati a decidere quale contenuto va eliminato, e dunque censurato, e quale no. E affidarsi a Facebook, Twitter e agli altri non è garanzia di tutela dei diritti umani, anzi non è previsto uno strumento per i cittadini vittime di abusi del potere di censura affidato alle aziende. Esistono, al proposito, “soltanto” piattaforme come Online Censorship che, grazie al monitoraggio continuo e alle segnalazioni ricevute, richiedono alle “compagnie del web” di agire con più trasparenza in modo tale che sia sempre chiaro perché un contenuto viene cancellato.

Dopo quasi un anno da quando questo Codice di condotta ha preso vita e alla luce della prima relazione sul suo funzionamento, emerge la presenza di alcune criticità, prima fra tutte la disomogeneità di trattamento dei contenuti d’odio tra i vari Paesi dell’Unione. Non esiste, infatti, un vero e proprio diritto comunitario né una definizione accettata e condivisa su cosa sia l’hate speech. Del resto, come evidenzia Bruno Saetta su ValigiaBlu, “lo scopo del Codice non è affatto quello di garantire l’applicazione della legge, quanto bensì quello di imporre alle aziende di prendere l’iniziativa in materia e il risultato è che le aziende applicano semplicemente i loro termini di servizio e quindi le loro specifiche definizioni di hate speech, con valutazioni estremamente soggettive e differenti da caso a caso.”

Mark Zuckerberg facebook
Mark Zuckerberg. Fonte: unioninformatica.org

Per valutare individualmente le segnalazioni, le aziende più grosse si sono dotate in questi anni di strumenti di autoregolamentazione interna. Sulla base della Dichiarazione dei diritti e delle responsabilità, Facebook si impegna direttamente nella lotta contro l’hate speech, definendo il fenomeno e sottolineando che la rimozione dei contenuti verrà fatta sulla base della “propria” definizione.

Twitter ha introdotto la possibilità di bloccare gli utenti affinché fosse effettivo il divieto di “pubblicare minacce o incitamento alla violenza, molestie, o di promuovere la violenza contro una persona o attaccarla in base alla razza, etnia, origine nazionale, orientamento sessuale, religione, età, disabilità o malattia“. Anche la Microsoft e YouTube si sono dotate di regole specifiche per evitare la diffusione di discorsi d’odio, ma il problema resta il medesimo, la profonda e inevitabile soggettività del trattamento del contenuto e la valutazione soggettiva e diversificata di ciascun caso.

Le criticità, come sottolinea nuovamente Bruno Saetta, non sono passate del tutto inosservate a Bruxelles, tanto che la Commissione CULT del Parlamento Europeo ha espresso, lo scorso 25 aprile, parere negativo riguardo alla proposta di direttiva Audio Visual Media Services (AVMS) che prevedeva una rimozione preventiva, grazie a dei filtri specifici, dei contenuti che rispondessero ad una definizione di hate speech. La Commissione, dunque, dice “no alle norme che istituiscono gli sceriffi del web con privatizzazione dei diritti online” e questo rifiuto sarà la posizione tenuta dal Parlamento Europeo in occasione dei prossimi meeting con il Consiglio d’Europa.

Se da un lato l’Europa, non sempre in maniera coerente, chiede di agire e, contemporaneamente, delega ai vari social la responsabilità di agire, dall’altro esistono alcuni Paesi che hanno promosso iniziative legislative contro l’hate speech. È il caso della Germania dove il ministro della Giustizia, Heiko Maas, ha proposto lo scorso marzo un disegno di legge che prevede multe salate e sanzioni per i gestori di piattaforme web, social network in primis, che non saranno in grado di rimuovere velocemente i contenuti considerati illegali.

A Facebook, Twitter, YouTube e tutti gli altri viene chiesto di nominare un rappresentante nazionale, di attivare una procedura chiara per la segnalazione di contenuti d’odio e fake news, rimuovere i contenuti illegali entro 24 ore dalla segnalazione e redigere un report trasparente e accessibile ogni tre mesi. La mancata attuazione delle norme previste può portare a multe anche molto salate, il massimo previsto, infatti, è 50 milioni di euro. Secondo Maas, “la libertà di espressione finisce dove inizia la legge penale, quindi non dovrebbe esserci spazio per diffamazione e incitazione al crimine sui social network così come non c’è sulla strada.”

Di fatto, però, continua a prevalere l’idea che per sconfiggere la diffusione dell’hate speech sia necessario agire con un approccio “take down” per cui i contenuti d’odio vanno eliminati il più in fretta possibile e per mano delle aziende stesse che “ospitano” il commento, il post o il video in cui vengono espresse.

Laura Boldrini. Fonte: Wikimedia.commons
Laura Boldrini. Fonte: Wikimedia.commons

In Italia non esiste una legge vera e propria contro il discorso d’odio. Esiste, appunto, la nuova norma che contiene le disposizioni in tutela dei minori dal cyberbullismo e, in generale, spicca il forte attivismo della presidentessa della Camera, Laura Boldrini. Lo scorso luglio si è fatta, infatti, promotrice della Carta dei diritti in Internet che ribadisce la tutela della libertà di espressione e sottolinea come “la sicurezza in Rete debba essere garantita come interesse pubblico“, con particolare riguardo alla “dignità delle persone da abusi connessi a comportamenti quali l’incitamento all’odio, alla discriminazione e alla violenza.

L’attivismo della Boldrini in questo campo si è spinto anche oltre. Lo scorso febbraio, infatti, è stata pubblicata su Repubblica una lettera diretta proprio a Mark Zuckerberg in cui si chiede l’apertura di una sede di Facebook in Italia e fa riferimento a due proposte “tecniche” rivolte direttamente ad un collaboratore dell’azienda, incontrato poco prima. Quali siano queste proposte di “natura tecnica”, chi le abbia redatte e in che direzione vadano non sono informazioni rese note, anzi come domanda Massimo Mantellini dal suo blog sul Post, “perché, visto che si tratta di proposte che l’Italia fa a Facebook a riguardo dell’ecosistema di rete non solo non sono state discusse pubblicamente (non dico in Parlamento che sarebbe il luogo deputato per farlo) ma non vengono nemmeno citate per sommi capi?

In Europa, in generale, gode di poco credito qualsiasi approccio che non colleghi la soppressione dei commenti d’odio alla promozione della democrazia. A differenza di quanto accade negli Stati Uniti dove prevale la tutela della libertà individuale di espressione e opinione, i modelli, anche per l’Italia, sembrano essere la legge tedesca, così come quella francese o britannica, che vietano le manifestazioni di odio razziale e religioso, percepite come “minaccia per la pace sociale“, anche se non sussiste il rischio di violenza. E soprattutto sembrano carenti, nella riflessione del legislatore, lo spazio e le risorse dedicate alla prevenzione dei commenti d’odio che passa, necessariamente, dalle scuole e dai luoghi di aggregazione.

Contestualmente, appare marginale anche nel dibattito pubblico la considerazione che il problema del discorso d’odio razziale e xenofobo non è nuovo. La “novità”, piuttosto, è rappresentata dallo spazio di Internet dove, forse per la prima volta, ciascuno è veramente libero di esprimere il proprio pensiero. Il discorso d’odio, l’insulto o la minaccia non sono “invenzioni” del web che, una volta rimosse e nascoste, smettono di esistere. Anzi, il rischio è quello di costringere Facebook, Google, Twitter e gli altri a “nascondere i reati sotto il tappeto”, come sottolinea ironicamente Joe McNamee, direttore esecutivo di EDRi.

È necessario e prioritario, invece, agire sull’educazione e sulla promozione di buone pratiche attive che coinvolgano i cittadini in un discorso aperto e democratico basato sul rispetto reciproco. Come abbiamo raccontato qualche settimana fa in un articolo dedicato alle tecniche educative e di controllo del fenomeno dell’hate speech, esistono decaloghi, ricerche, iniziative attive in questo senso.

Fino ad ora è stata la società civile a muoversi, ma è bene ricordare, insieme a Bruno Saetta, che “è compito dello Stato e della scuola pubblica costruire un’etica e una morale.” Questa è l’arma più efficace per arginare un fenomeno che può avere conseguenze terribili, senza però ledere tutti quei diritti umani universali che ci spettano e che una regolamentazione che privatizza la censura rischia di mettere a repentaglio.

[Per completezza, consigliamo di seguire gli aggiornamenti di ValigiaBlu a chi sia interessato ad approfondire ulteriormente l’argomento e a seguire l’evoluzione delle proposte legislative in Europa e in Italia.]

Angela Caporale

Giornalista freelance. Credere nei diritti umani, per me, significa dare voce a chi, per mille motivi, è silente. Sogno di scoprire e fotografare ogni angolo del Medio Oriente. Nel frattempo, scrivo per diverse testate, sono nata su The Bottom Up.

One thought on “Hate speech, le responsabilità di cittadini, Stati e social media

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *