Il principio della libertà di espressione è oggi consacrato quale pilastro degli ordinamenti moderni, tanto che risulta imprescindibile poter parlare di democrazia senza tenerne conto.
Tuttavia, seppur ritenuto un valore meritevole di protezione, al pari di qualsiasi altra azione umana anche il linguaggio espressivo può sfociare nell’offesa e nella violenza.
A tal proposito, con hate speech (discorso di incitamento all’odio) si fa riferimento ad un genere di parole e discorsi il cui unico scopo è quello di esprimere odio e intolleranza verso una persona o un gruppo. L’offesa, si badi bene, può riguardare qualsiasi tipo di discriminazione: razziale, etnica, religiosa ecc.
L’avvento delle nuove tecnologie e il conseguente dialogo perenne che si sviluppa sui social network ha alimentato il dibattito giuridico e spinto i governi ad interrogarsi su misure di contenimento o repressione di questo fenomeno.
Lo sviluppo dell’hate speech
Affinché si possa comprendere pienamente il fenomeno in questione, risulta necessario ripercorrere brevemente l’evoluzione dell’hate speech ed individuare le caratteristiche e le criticità che lo differenziano dalle manifestazioni di odio offline.
È ovvio che l’incitamento all’odio è sempre esistito, è qualcosa di implicito nella natura umana. Non a caso, la storia ci insegna che da sempre e ovunque ci sono stati gruppi di interessi, movimenti politici o religiosi i quali attraverso l’individuazione di capri espiatori hanno influenzato le masse e raccolto consenso. Il diverso contro il quale coalizzarsi è stato, spesso e volentieri, il collante per aumentare la coesione sociale.
Si pensi che il termine hate speech venne coniato negli anni ’20, periodo storico-sociale contraddistinto da una forte teorizzazione pseudoscientifica della superiorità razziale e dal trionfo politico di movimenti nazionalisti e razzisti. Contestualmente, però, lo stesso momento storico è ricordato per la diffusione delle prime teorie antirazziste dalle quali, appunto, nasce il termine hate speech.
I primi studi in materia di hate speech online, invece, sono stati pubblicati negli Stati Uniti d’America nel 1999. Questi studi evidenziavano, soprattutto, la possibilità degli utenti di utilizzare internet al fine di far circolare discorsi d’odio e d’incitamento alla violenza. Inoltre, appariva già chiaro che il tradizionale approccio ad una giurisdizione “fisica” (intesa come limitata territorialmente) era destinato a decadere vista la natura virtuale e senza confini dei contenuti online. La possibilità di difendersi dall’hate speech diveniva improvvisamente difficile se non impossibile.
Infatti, l’odio online non presentava (e tutt’ora non presenta) un’essenza diversa da quella comunemente attribuita all’odio offline. Si parlava sempre di un’azione mirata a sottomettere ed umiliare altre persone e, in quanto razzismo ed espressioni d’odio, a negare i fondamentali diritti di una persona. Quello che cambiava era che, per la prima volta, attraverso internet si offriva uno spazio per creare messaggi discriminatori e, in poco tempo e poco sforzo, diffonderli su larga scala. Internet, in quest’ottica, diventava strumento di propaganda di affermazioni scientifiche-sociali, formalmente anche autorevoli, che in realtà mascheravano espressioni razziste e xenofobe.
Un’evoluzione significativa del fenomeno si ricorda nei primi anni duemila, periodo in cui fu massiccia la diffusione di forum volti al reclutamento di nuovi adepti e all’indottrinamento degli utenti più pacati. Tra l’altro, sempre negli stessi anni e sempre in riferimento ai forum di cui sopra, con il commercio elettronico si iniziava a diffondere la vendita di cimeli e gadget volti a finanziare le attività di odio online. Cominciava, quindi, ad apparir evidente la volontà di creare un network dell’odio.
La differenza tra odio online e odio offline
Secondo sociologi e giuristi sarebbero sostanzialmente quattro le differenze che contraddistinguono l’online speech da quello tradizionale:
– la permanenza, ossia la potenzialità delle manifestazioni di odio online di rimanere attive nel tempo sotto formati diversi, di essere trasferite tra piattaforme differenti con la correlata possibilità di essere ininterrottamente allegate ad altri contenuti. Ad esempio, in social come Twitter sono i trending topics ad agevolare la diffusione di messaggi d’odio e ad aumentare la loro appetibilità;
– il ritorno imprevedibile, ossia che la rimozione di un contenuto dal web non equivale alla scomparsa totale del medesimo in quanto quello stesso contenuto può riapparire e “vivere nuovamente” in un altro luogo, in un altro tempo o, magari, proprio sulla stessa piattaforma ma con diversa forma o intestazione;
– l’anonimato o l’utilizzo di pseudonimi e nomi falsi. Questa è probabilmente la differenza più importante. Infatti, essendo la rete un luogo dove (almeno di facciata) è possibile agire in anonimato, molti utenti si sentono maggiormente legittimati ad esprime odio: è spesso l’idea di agire senza il pericolo di essere identificati ad incoraggiare il fenomeno;
– la transnazionalità, ovvero l’assenza di confini e la possibilità di diffusione capillare dei messaggi, la quale alimenta notevolmente il fenomeno dell’hate speech e aggrava ulteriormente l’individuazione degli schemi legali per combatterlo.
Uno sguardo allo scenario giuridico
La necessità di reprimere le idee reputate offensive è da sempre ricorrente nella storia del diritto.
Infatti, facendo esclusione della crudeltà delle pene appartenenti ad altre epoche, le forme e le modalità del contrasto giuridico non hanno subito nel tempo troppe variazioni. Ancora oggi, si reprimono con lo strumento penale una serie di condotte che vanno dall’espressione di un pensiero eversivo (es. l’apologia di un reato, cioè l’esaltazione di azioni criminali) all’istigazione al compimento di atti lesivi.
La premessa dalla quale partire è che il discorso dell’odio non è esplicitamente richiamato nei documenti e trattati internazionali sui diritti umani, essendo molto spesso considerato soltanto in via indiretta dai principi relativi alla dignità umana e alle libertà di espressione (es. la “Dichiarazione universali dei diritti dell’uomo” del 1948 all’art. 7 afferma: “Tutti hanno diritto alla parità di protezione contro qualsiasi discriminazione in violazione della presente Dichiarazione e contro qualsiasi istigazione a tale discriminazione”).
È bene evidenziare ancora come ci si raffronti con un quadro legislativo in continuo divenire, anche e soprattutto perché chiamato a modificare normative diventate inadeguate e anacronistiche di fronte l’avvento di Internet e dei social media.
Tutto questo infatti deve essere contestualizzato nell’ambito digitale.
Gli interventi europei
In tal senso, punto di partenza è la Decisione Quadro (UE) sulla lotta contro il razzismo e la xenofobia, la quale obbliga ciascuno Stato membro ad adottare le misure necessarie per criminalizzare l’istigazione pubblica alla violenza o all’odio e la perpetrazione di tali azioni mediante la diffusione e la distribuzione pubblica di scritti, immagini o altro materiale. Partendo da questa decisione, l’Unione europea è intervenuta con una serie di atti meritevoli di approfondimento.
Si ricorda, quindi, il “Codice di condotta per contrastare l’illecito incitamento all’odio online” (finalizzato ad impedire il proliferarsi dell’incitamento all’odio razzista e xenofobo online con l’aiuto di Facebook, Microsoft, Twitter e Youtube). Il Codice in questione richiede alle piattaforme interessate di prevedere procedure chiare ed efficaci circa le segnalazioni riguardanti forme illegali di incitamento all’odio all’interno dei loro servizi nonché ad adottare “regole o orientamenti per la comunità degli utenti volte a precisare che sono vietate la promozione dell’istigazione alla violenza e a comportamenti improntati all’odio”. In tal senso, si è voluto valorizzare il ruolo chiave delle piattaforme nel combattere i fenomeni di hate speech.
La Commissione europea ha poi adottato una politica di contrasto settoriale, ad esempio introducendo delle modifiche nella normativa sui servizi media e audiovisivi: così, con l’approvazione della Direttiva UE 2018/1808, il legislatore europeo sembra mirare a rafforzare la protezione dei minori e a contrastare i fenomeni di hate speech diffusi per mezzo di contenuti audiovisivi.
E gli interventi nazionali
La strategia italiana, quindi, dev’essere analizzata alla luce delle considerazioni fin qui svolte.
Occorre, innanzitutto, registrare un recente intervento legislativo in materia di tutela dell’infanzia e dell’adolescenza: la legge n. 71/2017, la quale protegge i minori di età contro il cyberbullismo. La legge è significativa in quanto, nei casi sopra, richiede ai gestori delle piattaforme digitali di diffusione dei contenuti di rimuovere e oscurare i dati personali del minore diffusi nella rete internet.
Invece, l’AGCOM (Autorità per le garanzie nelle comunicazioni) già nel 2014 aveva istituito l’Osservatorio sui diritti della persona, con delibera n. 481/14/CONS, con l’intento di monitorare e approfondire il fenomeno e le conseguenze dell’hate speech coinvolgendo i differenti portatori di interessi. Nel 2016, invece, con la delibera n. 424/16/CONS la stessa AGCOM ha richiesto ai fornitori di servizi media audiovisivi e di radiofonia di tutelare gli utenti a rischio di discriminazione al fine di garantire il rispetto della dignità umana e del principio di non discriminazione. Obiettivo perseguito, in particolare, limitando accezioni discriminatorie non inerenti al diritto di cronaca nei programmi che divulgano notizie, che devono tendere alla verità, ad esempio evitando espressioni d’odio o che incitino alla violenza. Tuttavia, è con la delibera n. 157/19/CONS che la lotta all’hate speech ha ricevuto grande impulso; infatti, dall’Autorità Garante è stato approvato il “Regolamento recante disposizioni in materia di rispetto della dignità umana e del principio di non discriminazione e di contrasto all’hate speech”. Quest’ultimo punta a disciplinare il profilo dell’equilibrio tra la libertà di parola e il rispetto del valore della persona. Eppure, all’Autorità suddetta è stato “rimproverato” di aver trascurato il fenomeno dell’odio online e di avere investito molto di più sulle disposizioni del settore radiotelevisivo. Il Regolamento, infatti, istituisce una sorta di doppio binario: per i contenuti audiovisivi prevede una potestà di intervento diretto dell’AGCOM, per la Rete, invece, sulla scia del modello europeo, punta al coinvolgimento delle piattaforme digitali mediante la codeterminazione di codici e protocolli di condotta. In sostanza, dispone un modello regolatorio pubblico per il sistema audiovisivo e uno co-regolatorio per il mondo di Internet.
Esiste un’alternativa alla regolamentazione giuridica?
Alla luce di quanto descritto, emerge una realtà sociologica alquanto preoccupante: la semplicità di esprimersi attraverso Internet ha, inevitabilmente, intensificato le occasioni di scontro tra le persone. Le espressioni di odio online sono, oramai, una costante della quotidianità della Rete, motivo per cui affrontare il fenomeno dell’hate speech online è divenuto un dovere di ciascun ordinamento giuridico costituzionale e democratico. Il valore della dignità della persona umana non può essere subordinato al principio della libertà di espressione (seppur nella piena consapevolezza della assoluta rilevanza di tale diritto).
Per quanto immaginare una totale eliminazione del fenomeno dell’hate speech online sia utopistico e il fenomeno non riguardi il solo ambiente informatico, la libertà di espressione online deve essere oggetto di riflessione e forse di “educazione”, oltre che di una disciplina normativa efficace.
Redazione Diritto dell’Informatica