Sul mito della neutralità algoritmica: l’algoritmo come discorso

algoritmo, discorso

Da oggi nelle prossime settimane pubblicheremo su cheFare il saggio di Massimo Airoldi e Daniele Gambetta, Sul mito della neuttralità algoritmica pubblicato su The Lab’s Quarterly. Oggi la prima parte


Con il diffondersi delle tecnologie di cattura e analisi di dati in tempo reale e la parallela ascesa di social media e piattaforme digitali, le nostre vite sono divenute la materia prima informazionale di processi algoritmici votati a un ampio ventaglio di scopi (si veda Amoore & Piotukh, 2016).

Anche per questo motivo, da semplice ricetta computazionale relegata a manuali di ingegneria, analisi finanziarie e conferenze di computer science, l’algoritmo è diventato qualcosa di più: una parola chiave della contemporaneità. Degli algoritmi di Google e Facebook hanno iniziato a parlare politici, operatori culturali, giornalisti, persino comuni cittadini – preoccupati perché i post delle rispettive vacanze non appaiono mai nel newsfeed.

I casi di delega algoritmica oggetto di dibattito pubblico negli ultimi anni sono stati vari. Per esempio, si è parlato di Compas, un modello di calcolo di rischio di recidività del crimine soggetto a bias razziali (si veda Pedreschi et al., 2018); ha fatto ugualmente scalpore il caso di Tay, il twitter-bot di Microsoft ritirato perchè diventato antisemita a causa dell’azione congiunta di vari utenti, così come il software di Google News che scriveva notizie con un forte pregiudizio sessista e le raccomandazioni automatiche di ingredienti “esplosivi” da parte di Amazon.

Con un po’ di ritardo (come di consueto), anche le scienze umane e sociali hanno visto un proliferare di articoli accomunati da un aggettivo prima sconosciuto: algorithmic identity (Cheney-Lippold, 2011), algorithmic culture (Striphas, 2015), algorithmic life (Amoore & Piotukh, 2016), algorithmic decision (Zarsky, 2016), algorithmic memory (Esposito, 2017), algorithmic states of exception (McQuillan, 2015), algorithmic brands (Carah, 2017), solo per citarne alcuni. Ciò che questi e molti altri contributi hanno provato a teorizzare – o, più raramente, a indagare empiricamente – è come l’esternalizzazione di scelte umane alla macchina stia trasformando società, individui e relazioni sociali.

Di recente, numerosi autori hanno inoltre contribuito alla problematizzazione del presunto carattere neutrale di quelli che Gillespie (2014) ha definito «algoritmi di rilevanza pubblica», utilizzati da piattaforme e servizi per filtrare contenuti e personalizzare le esperienze degli utenti. Dalla definizione e operativizzazione dei modelli statistici alla scelta delle fonti di dati, passando per l’implementazione e continua modifica delle funzionalità, i sistemi algoritmici sono essenzialmente prodotti storici e sociali che riflettono le scelte – nonché gli assunti culturali – di esseri umani e organizzazioni (Seaver, 2017; Striphas, 2015; Gillespie, 2014, 2016; Rieder, 2017). Ciononostante, il mito della neutralità algoritmica continua a circolare nell’immaginario contemporaneo, componente centrale del più ampio discorso pubblico intorno a tecnologie digitali e intelligenza artificiale (Natale e Ballatore, 2018).

Questo articolo, rifacendosi al filone di ricerca internazionale tracciato dagli autori sopra citati, si pone il seguente obiettivo: decostruire il discorso intorno alla neutralità della macchina e al suo supposto agire in modo scevro da quei pregiudizi ed errori che inficiano le decisioni umane.

Questo mito è legato a doppio filo con quello del calcolo matematico e della sua presunta oggettività, e ha radici storiche ben più antiche della nascita di Google. Il presente contributo punta a: descriverne, in breve, la genesi; illustrarne le fragilità (e pericolosità) attraverso una serie di esempi empirici; rispolverare la critica epistemologica alla neutralità della scienza; e, infine, sulla base di essa, proporre nelle conclusioni una «contronarrazione» (Pasquale, 2016) dell’algoritmo con al centro spiegabilità e sovranità condivisa ( Pedreschi et al., 2018; Rojo, 2018).

Anzichè soffermarci sulle proprietà tecniche e applicazioni di specifici algoritmi (si veda Rieder, 2017), intendiamo seguire la linea teorica suggerita da Beer (2017) e Seaver (2017): l’algoritmo sarà trattato come un oggetto discorsivo, nuova parola d’ordine del mito moderno della neutralità di scienza e tecnologia. Anche e soprattutto per questo motivo, lo sguardo teorico adottato in queste pagine è ispirato al metodo genealogico di Michel Foucault e, in particolare, all’idea di una necessaria sovrapposizione tra la produzione discorsiva di verità sul mondo e i meccanismi del potere (si veda Foucault, 2011).

Nell’introduzione alla special issue The Social Power of Algorithms recentemente apparsa nella rivista Information, Communication & Society, il sociologo David Beer (2017) sottolinea la necessità di prestare attenzione non soltanto a come gli algoritmi utilizzati da piattaforme, aziende e governi modellano la vita sociale in tempo reale, ma anche e soprattutto all’algoritmo in quanto discorso, nel senso foucaultiano del termine.

Per Foucault, la produzione sociale di discorsi e il loro carattere di verità sono legati a doppio filo con l’esercizio del potere: «non c’è potere che si eserciti senza una serie di intenti e di obiettivi» (Foucault, 2011, 84). Gerarchizzando, normando, indirizzando, censurando, i regimi discorsivi orchestrano le pratiche sociali, come nel caso della sessualità e della sua evoluzione storica. Qualcosa di simile, secondo Beer, accade anche nel caso degli algoritmi e, più in generale, della costellazione di narrazioni che gravitano intorno a piattaforme, intelligenza artificiale e big data (si vedano anche Beer, 2018; Natale e Ballatore, 2018; Seaver, 2017).

Da un lato, gli algoritmi che popolano le piattaforme digitali, classificando e ordinando contenuti in base al calcolo predittivo della loro rilevanza o similarità, riproducono un certo tipo di discorso sul sociale, oggettificato negli output dell’elaborazione statistica e, a monte, negli assunti culturali cristallizzati nel codice. Con le parole dell’autore, «there is a truth to which the algorithm might adhere or a truth that its actions might produce» (Beer, 2017, 9). È il caso, ad esempio, delle meaningful interactions privilegiate dalla più recente formulazione dell’algoritmo EdgeRank di Facebook: l’operativizzazione di meaningful specificata e riprodotta dal modello statistico (Gillespie, 2016), così come i contenuti che vengono algoritmicamente etichettati come significativi e dunque inclusi nel newsfeed dell’utente, hanno entrambi a che fare con la costruzione e riproduzione discorsiva di una verità.

Dall’altro lato, gli algoritmi sono a loro volta oggetti discorsivi, parole chiave (Seaver, 2017) che risuonano con quello che – sempre Beer (2018) – chiama «immaginario dei dati», veicolando «narrazioni» e «contronarrazioni» (Pasquale, 2016), proto-teorie sul sociale, così come «intenti» e «obiettivi» che – Foucaultianamente – si legano ai «vari meccanismi e istituzioni di potere» (Foucault, 2011, 8). Beer chiarisce questo punto come segue:

algorithms are also a notional presence in discourse. We might look at how that term or notion is deployed to create or perpetuate certain truths about social orders and the like, or how certain truths are cultivated through discussions or evocations of the algorithm. This would be to suggest that the notion of the algorithm is itself doing some work in these discursive framings. It is a notion that carries some persuasive weight and is likely to be suggestive of wider power claims and rationalities (2017, 9)

Pensiamo al caso Cambridge Analytica[1] e all’enfasi mediatica intorno al micro-targeting automatizzato di utenti Facebook sulla base delle loro caratteristiche psicografiche. La mitizzazione di questa strategia di analisi, rappresentata come un’arma magica di persuasione di massa, testimonia la potenza evocativa di algoritmi e big data nell’immaginario sociale contemporaneo, cui nemmeno i media più critici restano immuni.

La tesi principale portata avanti da questo articolo è che al centro del regime discorsivo che circonda la connotazione dominante data all’algoritmo vi sia una nozione chiave: quella di neutralità algoritmica. In breve, l’idea che la disintermediazione tecnica, la rimozione (apparente) dell’umano, abbia come salvifica conseguenza la scomparsa della fallibilità e scarsa oggettività che, ahimè, contraddistinguono i nostri processi decisionali (si veda Christian & Griffith, 2016).

La manifestazione concreta di questo discorso datista nel tardo capitalismo informazionale è l’applicazione sempre più ubiqua di tecniche algoritmiche ad ambiti tradizionalmente lontani dalle competenze degli ingegneri informatici. Il caso più evidente è quello dei sistemi di raccomandazione utilizzati in piattaforme come Amazon, YouTube o Spotify (si veda Airoldi, 2015), i quali prendono sostanzialmente il posto dei tradizionali intermediari culturali umani (ad esempio, critici professionisti) nell’orientare i gusti artistici dei consumatori digitali (si vedano Morris, 2015; Barile & Sugiyama, 2015).

Non c’è da stupirsi dunque se nel 1995 l’autorevole Harvard Business Review introduceva ai lettori un esempio pionieristico di algoritmo di raccomandazione applicato al marketing con il titolo «Do you want to keep your customers forever?». L’articolo proseguiva come segue: «Customers, whether consumers or businesses, do not want more choices. They want exactly what they want – when, where, and how they want it – and technology now makes it possible for companies to give it to them» (Pine II, Peppers and Rogers, 1995).

Da allora, il mito di una macchina neutrale ed efficiente cui delegare attività e decisioni complesse ha colonizzato quasi ogni mercato e ambito del sociale, grazie alla valanga di dati forniti gratuitamente dai prosumer del Web 2.0 (Ritzer, 2013), ai rapidi avanzamenti tecnici nei campi del machine learning e del deep learning, alla promessa di soluzioni di business più competitive e, di conseguenza, alla sovrabbondanza di finanziamenti per la ricerca privata (Gambetta, 2018). Questo discorso interessato intorno alla neutralità del calcolo matematico ha tuttavia radici più profonde. Il paragrafo seguente rappresenta un tentativo di ripercorrerne la storia e mitologia, in breve e senza pretese di esaustività.


[1] La Cambridge Analytica (CA) è stata una società di consulenza britannica che progettava campagne elettorali e di comunicazione tramite l’analisi di big data. Il 2 maggio 2018 la società ha dichiarato bancarotta a causa dello scandalo dovuto al ruolo dell’azienda nella campagna elettorale di Donald Trump, basata su dati estratti illegalmente da milioni di utenti Facebook.


L’articolo è la prima parte del saggio Sul mito della neutralità algoritmica in pubblicazione ogni settimana su cheFare.