Quando il Sé diventa digitale il programmatore diventa responsabile?

economia-digitale-disattenzione chefare

Luca Sossella Editore, con Emilia Romagna Teatro Fondazione e Gruppo Unipol, ha ideato il progetto Oracoli. Saperi e pregiudizi ai tempi dell’Intelligenza Artificiale: una serie di azioni integrate dedicate all’emergenza delle tecnologie intelligenti e al loro impatto su tutti gli aspetti dell’esistenza umana.

La prima di queste azioni è l’organizzazione a Bologna di quattro lezioni-spettacolo in cui esperti di livello internazionale ragioneranno sulle più rilevanti questioni etiche, filosofiche, politiche, sociali ed economiche connesse allo sviluppo dell’intelligenza artificiale. La seconda di queste azioni è una pubblicazione, curata da Paolo Gervasi, scaricabile in pdf qui, che racconta il progetto e approfondisce la riflessione sui temi nodali.  La terza di queste azioni è una partnership con cheFare pensata per aumentare ed espandere online il dibattito sulle sfide culturali poste dall’intelligenza artificiale. Qui la serie.

La quarta azione è la produzione di video e di un libro sulle quattro lezioni-spettacoloLa quinta azione sarà la messa in onda durante la Notte di Radio3, la sera prima di ogni lezione-spettacolo, della lezione-spettacolo precedente. La sesta azione è la pubblicazione online delle trasmissioni sui portali di Rai Radio3 (Media partner di Oracoli), Rai Cultura e Rai Scuola e la condivisione attraverso i loro canali social.

Tradizionalmente, il pensiero filosofico ha distinto – nella sua descrizione e comprensione del mondo – tra “soggetti” e “oggetti”: se i primi erano caratterizzati come esseri viventi (umani e al più animali), agenti, senzienti, capaci di pensiero e di decisioni libere, i secondi erano entità passive, non agenti, non senzienti, mere “cose” inanimate.

Negli ultimi decenni, questa rigida distinzione è diventata sempre più porosa grazie alla creazione e alla diffusione dei sistemi di IA: già nel 1949 Norbert Wiener pubblicava un importante studio, intitolato Cybernetics: Control and Communication in the Animal and the Machine, con il quale la cibernetica apriva la strada del machine learning introducendo l’idea che i computer fossero macchine capaci di pensare.

Oggigiorno, la tecnologia algoritmica sta permettendo sempre più alla cibernetica di produrre soluzioni reali in moltissimi campi, come l’image processing, i sistemi di guida autonomatizzata, i sistemi di sorveglianza militari e civili, i sistemi per smart home, la social robotics – per citarne solo alcuni.

Inoltre, il mondo in cui oggi viviamo è segnato in misura decisiva da forme ubiquitarie di collezione (e gestione) dati e, perciò, da un sistema di governance sempre più informato e basato sui dati: in virtù di queste numerose trasformazioni, la ricerca attuale ha progressivamente rielaborato la tradizionale distinzione tra soggetto e oggetto (già esemplarmente decostruita, nella forma dell’opposizione tra natura e cultura, da Bruno Latour nel suo celebre testo Non siamo mai stati moderni, pubblicato in francese nel 1991).

I ricercatori studiano se e come sia possibile incorporare processi di ragionamento responsabile nei sistemi digitali e in che modo i soggetti umani potranno “fidarsi” delle decisioni prese dai sistemi e dai loro programmatori

La crescente pervasività dell’IA e le prospettive di sviluppo nel futuro prossimo, in cui le tecnologie saranno dotate di una sempre maggiore autonomia e capacità decisionale rispetto agli agenti umani e alle istituzioni sociali, rendono più che mai necessaria una ponderata riflessione sul piano etico-filosofico al fine di incorporare una dimensione valoriale nella progettazione di algoritmi per l’IA.

Questa esigenza si fa particolarmente pressante nel caso di sistemi autonomatici – operanti senza controllo e supervisione da parte di agenti umani – progettati per contesti in cui si richiedono decisioni che impattano direttamente la vita umana, come ad esempio le operazioni militari[1] o le istituzioni sociali[2]. In altri termini, una delle sfide più importanti nel settore consiste nello sviluppare sistemi di IA “responsabili”, ossia basati sulla progettazione di algoritmi capaci di internalizzare valori e principi morali e di originare, così, una forma di ragionamento (e di capacità decisionale) “etica”[3].

Al riguardo, la ricerca si focalizza attualmente sui possibili effetti dell’IA sulla vita quotidiana, analizzando il modo in cui i soggetti umani dovranno confrontarsi – nelle loro decisioni – con i sistemi digitali e interrogandosi sulla responsabilità usualmente attribuita, in questo processo, agli ingegneri[4]. I ricercatori studiano come e se sia possibile incorporare processi di ragionamento responsabile all’interno dei sistemi digitali e in che modo i soggetti umani potranno “fidarsi” delle decisioni prese da questi ultimi (e degli sviluppatori che li programmano).

Tuttavia, vi è anche l’altro lato della medaglia: in che modo l’autonomia e il controllo da parte umana sarà impattato (modificato o addirittura sostituito) dai sistemi agenti non-umani? È possibile sviluppare tecnologie responsabili nei campi della social robotics, delle smart homes, dei droni (civili e militari), delle macchine a guida autonoma, delle tecnologie finanziarie etc.?

Come esempio concreto e comune alla maggior parte degli individui nella loro odierna vita quotidiana, possiamo prendere l’insieme di tecniche e pratiche del cosiddetto lifelogging: il termine indica quelle pratiche di self-tracking, ossia di auto-misurazione e tracciamento, condotte mediante sensori e apparecchi digitali (in alcuni casi indossabili, in altri casi funzionanti tramite applicazioni scaricate, ad esempio, sullo smartphone), finalizzate alla collezione di dati relativi alle più svariate attività di vita quotidiana degli individui – dal conteggio delle calorie bruciate in palestra e, in generale, del monitoraggio dei parametri biometrici, ai sistemi di ottimizzazione delle prestazioni psico-fisiche come il sonno, la memoria, etc.

Si tratta di una forma complessa di quantified self, i cui risultati vengono spesso anche condivisi su social networks e piattaforme più o meno specifiche – le quali, a loro volta, possono essere considerate come forme di lifelogging.

Leggi anche Supersfruttamento e taylorismo digitale di Carlo Formenti

Si può dire che le forme di lifelogging stiano diventando (o siano già diventate) parte dell’esperienza quotidiana e vitale della stragrande maggioranza delle persone che vivono nelle società ad alto sviluppo tecnologico.

Oltre a rappresentare, intese in termini filosofici, delle forme di “tecnologie digitali del Sé” (volendo parafrasere Foucault), ossia a costituire forme digitali di percezione, comprensione e trasformazione del Sé (un Sé che diventa, sempre più, un digital Self), la diffusione di queste pratiche pone non pochi problemi di ordine etico. Per citare solo alcuni degli aspetti più controversi: come è noto, il funzionamento di queste tecnologie digitali si basa per lo più sulla raccolta ed elaborazione dei dati personali, che spesso vengono ceduti a terzi per scopi di profilazione e marketing online. La maggior parte dei sistemi implica, per poter funzionare, la connessione online, e incoraggia così una presenza continua e attiva nei canali online che è a sua volta funzionale, nella maggior parte dei casi, a scopi commerciali. Il modo in cui gli algoritmi sono programmati presuppone un “utilizzatore tipo” che si conformi all’uso prescritto, sebbene l’ingegneria algoritmica stia raggiungendo livelli in grado di ridurre le rigidità nell’interazione e restituzione dei risultati.

Accanto a ciò, non si possono dimenticare le enormi potenzialità di questo nuovo regime digitale – per esempio, in campi cruciali come quello medico, nell’istruzione e insegnamento, nell’informazione e comunicazione etc. Rischi e potenzialità, dunque, che si combinano in una dimensione in piena e repentina evoluzione.


[1] Cfr. P. Asaro, On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making, «IRRC», 88 (2012) – consultabile online al sito: https://www.icrc.org/en/international-review/article/banning-autonomous-weapon-systems-human-rights-automation-and.

[2] Cfr. K. Crawford, R. Calo, There Is a Blind Spot in AI Research, «Nature», Vol. 538, 7625 (2016) – consultabile online al sito: https://www.nature.com/news/there-is-a-blind-spot-in-ai-research-1.20805.

[3] V. Dignum, Responsible Artificial Intelligence: Designing AI for Human Values, «ICT Discoveries», 1 (2017).

[4] Cfr. ibid.


Immagine di copertina di Pan Xiaozhen da Unsplash