Questa è la lotta per il controllo di internet, scegliete da che parte stare

Nel maggio del 2017 Darren Osborne vide Three Girls, una miniserie della Bbc che metteva in scena la vera storia di una rete di pedofili, il cosiddetto “caso di Rochdale”. Dopo aver guardato Three Girls, Osborne cominciò a fissarsi sulla nazionalità e la religione dei colpevoli, anglo-pakistani, pur non avendo mai dato segno, a familiari o amici, di professare idee razziste. Quasi immediatamente Osborne si mise a cercare informazioni su Internet, e fu attirato da siti islamofobi che diffondevano disinformazione e incitamenti all’odio. Lesse i post di Tommy Robinson, noto sostenitore della supremazia bianca, che affermava: «Esiste una nazione nella nazione che si va formando appena sotto la superficie del Regno Unito. È una nazione fondata sull’odio, sulla violenza e sull’Islam».

A meno di un mese dalla visione della miniserie, e all’inizio del suo viaggio nei bassifondi del razzismo britannico in rete, Osborne fece rotta verso Londra a bordo di un furgone che aveva noleggiato a Cardiff il giorno prima. Aveva un solo pensiero in mente: travolgere i manifestanti della Al Quds Day March, l’annuale corteo filopalestinese, e ammazzare così un po’ di musulmani.

Dopo essere stato respinto dalla sicurezza mentre tentava di raggiungere il centro di Londra, Osborne iniziò a cercare altrove, finché non capitò nella zona intorno alla moschea di Finsbury Park, a nord della città. Piombò sulla folla con il furgone, uccidendo il cinquantunenne Makram Ali e ferendo molte altre persone. Il magistrato che presiedeva al processo di Osborne, Bobbie Cheema-Grubb, fornì la seguente interpretazione di come Osborne, quasi da un momento all’altro, fosse diventato l’assassino di Finsbury Park. Rivolgendosi direttamente all’imputato, disse:

Lei si è infuriato per quella che riteneva una risposta inadeguata dei leader politici e delle altre autorità a quei comportamenti criminali [descritti in Three Girls]. Grazie alle ricerche in rete e all’iscrizione a Twitter agli inizi del 2017, è entrato massicciamente in contatto con le ideologie estremiste antislamiche e razziste. Si è radicalizzato su Internet nel giro di poco tempo, scoprendo e consultando i materiali diffusi in questo paese e negli Stati Uniti da individui decisi a propagare l’odio verso i musulmani sulla base della loro religione. Le atrocità di stampo terroristico commesse dagli estremisti islamici hanno alimentato la sua rabbia. In meno di un mese ha sviluppato una mentalità improntata all’odio e alla malevolenza. Ha permesso che la sua mente venisse avvelenata da coloro che si autoproclamano leader.

Può darsi che Osborne, che all’epoca del processo fu dipinto come disoccupato cronico, depresso, forse prossimo al suicidio e alcolizzato, fosse il bersaglio perfetto dei propagandisti che gestiscono account razzisti su Twitter, YouTube e Facebook. Pur avendolo descritto come un individuo dotato di libero arbitrio («ha permesso che la sua mente venisse avvelenata»), il giudice Cheema-Grubb aveva anche sottinteso che Internet aveva contribuito alla sua radicalizzazione. Se ammettiamo che il razzismo in rete abbia contribuito a fare di Osborne un violento animato dall’odio, come devono regolarsi i governi e le piattaforme rispetto a tale contributo? Come devono comportarsi le multinazionali e i governi con i Darren Osborne (ma anche con i Tommy Robinson) di Internet?

La polizia britannica ha sostenuto che molti degli attentati terroristici compiuti di recente nel Regno Unito, sia da suprematisti bianchi che da islamisti, hanno avuto “una componente in rete”. Mark Rowley, capo nazionale delle forze antiterrorismo e vicequestore della polizia metropolitana, ha sottolineato come Osborne si fosse radicalizzato consumando «ingenti quantità di materiali di estrema destra in rete». Rowley non si è limitato ai social media, rimproverando anche ai media tradizionali di aver dato eccessivo rilievo a individui come Robinson e agli islamisti britannici militanti come Anjem Choudary.

Pubblchiamo un estratto dal libro Libertà vigilata. La lotta per il controllo di internet (Treccani). Traduzione di Francesco Graziosi.

 

Le compagnie che gestiscono i social media hanno stabilito norme per sorvegliare e rimuovere dalle proprie piattaforme i contenuti e le organizzazioni di stampo terroristico, adottando definizioni ampie per poter soddisfare le richieste dei governi.

Hanno sviluppato tecnologie di intelligenza artificiale e database di hashtag automatizzati che identificano i contenuti di stampo terroristico e ne permettono la rimozione quasi immediata, e parlano incessantemente delle possibilità offerte dall’intelligenza artificiale alla limitazione di tali contenuti. Si stanno coordinando con le forze di polizia e i servizi di sicurezza tramite le Nazioni unite e grazie a un’iniziativa del settore nota come Global Internet Forum to Combat Terrorism. Hanno aderito al Codice di condotta sull’incitamento all’odio. Tutto ciò comporta rimozioni di contenuti e sanzioni contro gli account da parte delle compagnie. I governi, però, continuano a chiedere di più.

Nel settembre del 2017, durante la sua prima visita all’Assemblea generale delle Nazioni unite in qualità di presidente della Francia, Emmanuel Macron fu invitato dal primo ministro britannico Theresa May a un evento, da lei promosso, sulla «prevenzione dell’uso di Internet a scopi terroristici». May aveva gettato le basi per una dichiarazione congiunta di Gran Bretagna, Francia e Italia, un appello alla cooperazione internazionale per «prevenire la diffusione di contenuti terroristici in rete e l’uso di Internet da parte dei terroristi per radicalizzare, reclutare, ispirare o incitare».

May utilizzò la terminologia vaga con cui i leader politici parlano di «contenuti pericolosi» ed entrò nello specifico esigendo che le compagnie «approfondiscano e accelerino l’automatizzazione dei processi per individuare e rimuovere i contenuti di stampo terroristico». Fu Macron, tuttavia, a cogliere la direzione strategica degli sforzi dei governi e il loro tratto essenziale: le compagnie private dovevano esercitare responsabilità pubbliche. Formulò questa richiesta in termini così chiari e minacciosi che i leader della Silicon Valley eventualmente all’ascolto avrebbero dovuto mostrare un minimo di preoccupazione. In un tono che sottintendeva «o siete con noi, o siete con i terroristi», Macron affermò: «C’è chi combatte per i nostri valori, la libertà e la sicurezza dei nostri concittadini, e chi decide di fare il gioco dei terroristi. Scegliete da che parte stare».

In tutto il mondo i governi, sia democratici che autoritari, stanno chiedendo che i social media e le compagnie dei motori di ricerca risolvano il problema dei contenuti di stampo terroristico in rete. Governate lo spazio che gestite, altrimenti concluderemo che siete dalla parte dei terroristi. Tutti i principali soggetti del dibattito sulla regolamentazione di Internet concordano sul fatto che l’incitamento alla violenza vada eliminato dalle piattaforme online.

È vietato da quasi tutti i codici legali del mondo, nazionali o internazionali che siano, comprese le leggi sui diritti umani. Esistono varianti circa l’imminenza della violenza, e molti governi vietano anche l’incitamento all’odio e alla discriminazione, come previsto dalle leggi sui diritti umani. (Questa è una notevole differenza rispetto alla legge americana del Primo emendamento, che non consente al governo di proibire l’incitamento all’odio o alla discriminazione.)

Al di là dell’incitamento all’odio, esiste un dibattito su cos’altro debba essere oggetto di censura, e finora i governi sono stati riluttanti a specificarlo. Regno Unito, Francia, Spagna e altri hanno adottato leggi penali che proibiscono l’incoraggiamento, l’esaltazione o l’apologia del terrorismo, tutte cose che ai sensi della legge sui diritti umani ricadono a malapena sotto l’autorità dei governi. Questi non possono ordinare la rimozione di espressioni puramente “problematiche” senza una base giuridica statale, perciò chiedono alle compagnie di farlo al loro posto. Evitano così le aspre battaglie che nascerebbero dall’adottare, nelle leggi dello Stato, definizioni che a causa della loro ampiezza potrebbero essere impugnate nei tribunali ai sensi delle leggi costituzionali e sui diritti umani.

Se da una parte l’esternalizzazione è un tratto comune, dall’altra i governi hanno adottato due modelli per la sorveglianza dei contenuti di stampo terroristico o estremista su Internet. Il primo comporta operazioni di polizia delle Internet Referral Units o Iru (Unità addette alle segnalazioni su Internet), mentre il secondo riguarda ammonimenti in stile Macron. Entrambi i modelli includono forme di pressione, uno in maniera passivo-aggressiva, l’altro semplicemente aggressiva.

Le Iru si sono diffuse dal Regno Unito all’Unione Europea e poi al resto del mondo. Il governo britannico monitora i social media almeno dal 2010, quando Scotland Yard ha fondato la Counter-Terrorism Internal Referral Unit (Ctiru), prima nel suo genere. Mi aspettavo di trovare le sue porte sbarrate. Invece, in un mattino di luglio insolitamente caldo, sono stato invitato al quartier generale della Ctiru a Londra, in un edificio di trenta piani che svetta su Earls Court e West Kensington.

La Ctiru non ha il potere di ordinare una rimozione, può soltanto richiederla. Sorveglia i social media nel senso più ampio del termine, esaminando le piattaforme principali ogni giorno feriale dalle sette del mattino alle sette di sera. Funge da “governo ombra” per i moderatori di contenuti con un’effettiva autorità di rimozione, come Burcu Punsmann e i dipendenti di Arvato e altre società di servizi che lavorano alle postazioni negli uffici di Berlino, Manila e altrove.

Due dozzine di agenti di polizia setacciano la rete alla ricerca di contenuti di stampo terroristico, usando parole chiave che non vogliono divulgare e rispondendo a segnalazioni di presunti contenuti terroristici inviate da privati cittadini di tutto il Regno Unito.

La Ctiru non pubblica le norme che segue per stabilire se un contenuto è segnalabile alle compagnie, ma dà ai singoli la possibilità di segnalare quelli che definisce “contenuti di stampo terroristico o estremista”. Se la Ctiru stabilisce che il contenuto segnalato è illegale o viola le condizioni di servizio di una compagnia, lo riferisce a quest’ultima e ne chiede la rimozione. («Più lunga è l’e-mail, meno convincente sarà la richiesta» mi ha detto scherzando un dipendente di una compagnia di social media.)

Un agente mi ha raccontato che fino al 2014 le compagnie neanche parlavano con la Ctiru (ma un ex dipendente di Google ben informato mi ha assicurato che ciò non corrisponde al vero). Fu più o meno a quei tempi che in rete cominciarono a diffondersi sempre più video di decapitazioni e altri crimini efferati. Ciò scatenò il panico fra gli inserzionisti, e le compagnie corsero ai ripari.

Dapprima la Ctiru si concentrò su cose come “Inspire”, la rivista di propaganda dell’Isis, insieme agli incitamenti all’odio, le istruzioni per fabbricare bombe e i messaggi dei jihadisti contenuti nelle nashid (“cantate”). I suoi agenti, mi è stato detto, sono in difficoltà, proprio come vorrebbero gli attivisti per la libertà di espressione, nel distinguere una feroce invettiva o una “minaccia” sarcastica e falsa da un incitamento alla violenza, o nel distinguere un’esplosione causata da studenti per esperimenti scientifici da un addestramento al terrorismo. Gli agenti della Ctiru sostengono che il loro ruolo è in parte anche quello di «salvaguardare l’Internet aperta».

Ad aprile del 2018, la Ctiru affermava di aver richiesto con successo la rimozione di 304.000 «materiali legati al terrorismo»,7 ma a quanto pare non raccoglie i dati sulla natura di queste rimozioni, il tipo di contenuti o le compagnie interessate; evidentemente non vengono conservate statistiche sulla natura del loro lavoro, anche se le attività di Ctiru a volte danno avvio a indagini penali.

Le Iru non possono costringere le piattaforme a eliminare contenuti, ma possono fungere da veicolo per i governi per spingere le compagnie a rimuovere contenuti offensivi che non violano effettivamente leggi o condizioni di servizio. Sfruttano gli standard aperti delle piattaforme per insistere sulla rimozione.

AccessNow, un’associazione globale per l’applicazione delle leggi sui diritti umani alla comunicazione su Internet, ha definito le Iru «non soltanto pigre, ma estremamente pericolose». Se i governi ritengono che certi contenuti siano problematici, pericolosi o dannosi, la loro rimozione dovrebbe sottostare ai principi democratici fondamentali: l’adozione di nuove leggi tramite regolare iter legislativo, la verifica da parte di organi indipendenti giudiziari e non, l’onere di dimostrare la necessità e la congruità del provvedimento. Ma tutto questo, con le Iru e la moderazione appaltata a terzi, semplicemente non accade.

Al di qua della Manica, a Bruxelles, un funzionario della Commissione europea nell’estate del 2018 mi ha detto: «I contenuti di stampo terroristico non sono un problema. Se ne occupano le compagnie, spesso nel giro di un’ora, e la via da seguire sono gli hashtag». Mi ha stupito, perché nello stesso momento i funzionari della Commissione si preparavano a esercitare ulteriori pressioni sulle piattaforme perché rimuovessero quelli che a detta loro erano contenuti di stampo terroristico. In effetti, le compagnie hanno sviluppato tecnologie di intelligenza artificiale capaci di rimuovere i contenuti terroristici entro un’ora dal caricamento. Una volta inseriti in uno specifico hash database accessibile a tutte le compagnie, anche i contenuti terroristici ricondivisi possono essere cancellati o bloccati entro pochi istanti dal tentativo di caricamento. Le compagnie hanno adottato queste misure sotto la spinta dell’opinione pubblica, dell’economia e della politica. Nelle loro norme sui contenuti, le definizioni di terrorismo erano abbastanza ampie da comprendere tutto quello che i governi potessero chiedere di eliminare.

Nonostante ciò, i governi europei si dicono ancora insoddisfatti dell’operato delle compagnie e dell’insufficiente portata delle leggi europee volte a responsabilizzarle. Nel settembre del 2018, dopo un lungo dibattito fra i suoi membri, la Commissione ha proposto di andare oltre la legge morbida dell’impegno volontario.

Vĕra Jourová ha sostenuto che «dovremmo avere la certezza assoluta che tutte le piattaforme e tutti i fornitori di servizi informatici rimuovano i contenuti di stampo terroristico e collaborino con le autorità competenti in tutti gli Stati membri». Quella della «certezza assoluta» è una fantasia. Con un’aspettativa così alta, i governi stanno facendo ricadere sulle compagnie la responsabilità politica di ogni futuro attacco terroristico. Esse verranno incolpate dai governi per non aver intercettato, o eliminato abbastanza in fretta, i contenuti di stampo terroristico. È un surplus di responsabilità: la dura realtà delle sanzioni economiche con cui si minacciano le compagnie, più la realtà politica del fatto che per un funzionario europeo non esiste altro capro espiatorio al di fuori delle compagnie americane, che ospitano una gran parte del dibattito pubblico in Europa. Le compagnie stanno al gioco, continuando a promuovere l’uso dell’intelligenza artificiale e dell’hashing per rimuovere i contenuti di stampo terroristico, perché hanno ben poca scelta.

Nell’autunno del 2018 la Commissione ha proposto una normativa che avrebbe allargato le responsabilità delle compagnie a rimuovere potenziali incitamenti ad atti terroristici e a monitorare attivamente i contenuti generati dagli utenti sulle loro piattaforme. Tuttavia, anziché coinvolgere le autorità pubbliche (tribunali o altri organi indipendenti) per stabilire quando un atto mira a incitare o “esaltare” il terrorismo, la normativa chiede alle compagnie di prendere questo tipo di decisioni per conto di ciascuno dei ventisette Stati membri dell’Unione Europea. L’ampiezza e la vaghezza di questa proposta sono problematiche. È un caso diverso dall’abuso sessuale di minori, sul quale esiste un consenso riguardo a quali immagini ricadano chiaramente e oggettivamente in una definizione concreta. La normativa chiede invece alle compagnie di prendere decisioni legali (e che siano anche decisioni giuste) su quali siano le componenti terroristiche o di incitamento o esaltazione. Sono le compagnie a vigilare sui contenuti che rispondono a tali criteri, anziché le tradizionali istituzioni di governance democratica.