Il web può generare discriminazione, intervista a Laura DeNardis

Immaginatevi la seguente situazione: è piena notte, state serenamente dormendo in casa vostra quando all’improvviso la luce della stanza si accende. Vi svegliate e la luce inizia a spegnersi e ad accendersi in continuazione. Una voce sconosciuta comincia intanto a urlare. Spaventoso, no? Eppure i film dell’orrore non c’entrano nulla: situazioni simili, e reali, vengono descritte da Laura DeNardis, statunitense docente di Internet Governance all’università di Washington, nel suo ultimo saggio Internet in ogni cosa (che ho tradotto per Luiss University Press). A rendere possibili situazioni da incubo di questo tipo sono infatti gli smart-oggetti della Internet of Things: lampadine intelligenti che si possono manovrare a distanza, videocamere con microfono integrato e tutti gli altri dispositivi (frigoriferi, televisori, assistenti digitali, stereo, lavatrici) connessi alla rete. 

Com’è possibile che questi oggetti si mettano a fare scherzi degni di Ultrahouse 3000, l’episodio di Halloween dei Simpson? Non sono ovviamente i dispositivi smart (o, come preferisce definirli DeNardis, cyber-integrati) a ribellarsi all’essere umano. Al contrario: si è trattato di molestie condotte per via tecnologica da persone in carne e ossa, che avevano mantenuto il controllo dei dispositivi smart anche dopo aver abbandonato la casa in cui era invece rimasto a vivere l’ex partner. 

Dal 21 al 23 ottobre si terrà a Rovereto la quinta edizione del festival organizzato dall’associazione Informatici Senza Frontiere, dedicato all’impatto sociale dell’innovazione tecnologica.

Tre giorni di incontri, dibattiti, conferenze, laboratori per riflettere sulla tecnologia come fattore di inclusione e integrazione per anziani, disabili, giovani, migranti, e per tutte le persone che la travolgente mutazione tecnologica in atto rischia di marginalizzare.

cheFare e Luca Sossella editore propongono un percorso di avvicinamento al festival con una serie di approfondimenti, dialoghi, recensioni che esplorano la frontiera lungo la quale linguaggi digitali e ridefinizione delle identità sociali si incontrano, interagiscono e si modellano reciprocamente.


 Una situazione paradossale, in cui chi resta a vivere nella casa non ha il controllo sugli oggetti connessi che la popolano, dimostrando come chi progetta questi dispositivi non abbia riflettuto abbastanza sugli abusi di cui potrebbero essere veicolo. Ed è possibile che non abbia pensato a questi potenziali abusi anche perché gli ingegneri informatici sono nella stragrande maggioranza dei casi uomini (prevalentemente bianchi), mentre le vittime di molestie sono nella stragrande maggioranza dei casi donne?

“Tutte le composizioni tecnologiche riguardano la specie umana”, spiega Laura DeNardis a cheFare. “Molte pratiche discriminatorie entrano di conseguenza nella progettazione tecnologica: la situazione del mondo reale si traduce così nel mondo virtuale. Se in una casa c’è un dispositivo registrato a nome di un’altra persona – e nella maggior parte dei casi i dispositivi sono intestati a uomini – diventa più difficile spegnere o disattivarlo. In caso di violenze domestiche, emettere delle ordinanze restrittive è meno utile se poi queste persone possono comunque sbloccare da remoto le serrature connesse di casa, facendo sentire insicuro chi vive all’interno, o osservare e sorvegliare l’ex partner, violando gravemente la sua privacy”.

Si potrebbe obiettare che è sufficiente staccare la spina. O che non è necessario avere in casa questi oggetti connessi. Eppure, mano a mano che la diffusione della internet of things avanza (già oggi ci sono circa 22 miliardi di dispositivi smart nel mondo) sarà sempre più difficile non solo evitare che questi oggetti entrino nelle nostre case, ma addirittura essere consapevoli del fatto che alcuni dispositivi sono connessi e possono essere utilizzati per commettere molestie. 

Se la tendenza alla diffusione della IoT è inevitabile, è a maggior ragione necessario limitare il più possibile gli abusi che si possono perpetrare tramite questi dispositivi, già a partire dalla loro progettazione. Ed è anche per questo che è importante che il design della Internet of Things (e più in generale della tecnologia) sia inclusivo, a livello di genere e non solo, e permetta di anticipare problematiche a cui non tutti penseremmo. “Purtroppo da questo punto di vista non abbiamo ancora raggiunto un livello soddisfacente”, prosegue DeNardis. “Certo, le cose sono molto migliorate negli ultimi due decenni, ma rimango ancora scioccata ogni volta che assisto a un esempio di bias insito nel design di un sistema connesso. Da questo punto di vista, credo che gli esempi più scioccanti siano quelli relativi al colore della pelle: ci sono casi di lampadine progettate per accendersi quando qualcuno entra in una stanza (o dispenser automatici di sapone, ndr) che funzionano solo per chi ha la pelle chiara”.

Com’è possibile? Per rispondere a questa domanda, bisogna prima porsene un’altra: chi ha ideato questi prodotti? Se si tratta di un gruppo omogeneo di ingegneri bianchi, inevitabilmente saranno loro a testare il prodotto e sarà quindi più difficile rendersi conto dei possibili malfunzionamenti, di cui invece si sarebbero accorti se il gruppo fosse stato diversificato. “Oggi c’è una maggiore presenza di voci femminili e una maggiore inclusività,  e questo sta finalmente iniziando a fare breccia anche nel design dei prodotti”, spiega DeNardis. “Ma non è nemmeno solo una questione di design: nel caso degli abusi domestici condotti tramite oggetti connessi, la questione riguarda anche le licenze e la facilità con cui si dovrebbe trasferire la titolarità dei prodotti. Credo che qualunque persona ragionevole sarebbe d’accordo nel sostenere che chi vive in una casa deve avere la possibilità di controllare i dispositivi che si trovano al suo interno. Da questo punto di vista, che ha molto a che fare con la privacy, ci sono ancora parecchi progressi da fare”.

Sono proprio esempi di questo tipo che danno una rappresentazione pratica, concreta, di concetti come diversità, inclusività e privacy; concetti che a volte possono suonare soprattutto teorici. E sono questi stessi esempi a rendere difficile accettare che, quasi senza rendercene conto, si stia scivolando in un mondo in cui la privacy viene gradualmente cancellata. “Le persone si concentrano sulle tecnologie che possono vedere, che stanno di fronte a loro, come i social media o un oggetto come Alexa. In questi casi, tra l’altro, c’è ormai una certa attenzione nei confronti della privacy e soprattutto c’è la possibilità di scegliere: di disattivare Alexa, di spegnere il computer o di mettere lo smartphone in un’altra stanza. Le questioni più importanti legate alla riservatezza riguardano però quei dispositivi che non possiamo vedere: oggetti che sono tutti attorno a noi, ma che magari appartengono a un’altra persona o che potremmo non sapere essere connessi”. 

Per esempio, potremmo entrare in una casa ripresa da una videocamera smart senza saperlo o finire inconsapevolmente in un video diffuso sui social. “E potresti anche essere inconsapevolmente ripreso da una telecamera dotata di riconoscimento facciale mentre guidi a Pechino o a Washington”, specifica l’autrice di Internet in ogni cosa. “Questo significa che non possiamo più guardare alla privacy come a una decisione individuale, ma deve essere trattata come un’azione collettiva. Tutto il mondo è fissato coi social media e la disinformazione, ma se sei preoccupato per la sicurezza e per i diritti umani, il fatto che oggi internet possa essere inserito in tutti gli oggetti è molto più carico di conseguenze”.

Sicurezza, privacy, diritti umani: aspetti cruciali della nostra società che sono direttamente influenzati dalla tecnologia e dal suo sviluppo. Ed è proprio per questa ragione che è indispensabile comprendere come non sia solo l’infrastruttura tecnologica a influenzare la politica (com’è il caso del rapporto tra social network e marketing elettorale): molto più in profondità c’è invece il modo in cui la politica influenza direttamente l’infrastruttura tecnologica, la cui composizione ha un enorme impatto sulle nostre vite. “La tesi alla base del mio libro, e in verità di tutto il mio lavoro, è che gli accordi tecnologici sono accordi politici. E questo vale per tutti i livelli dell’infrastruttura, anche quelli più nascosti”, prosegue DeNardis. “Per esempio, il W3C (la ONG che stabilisce gli standard tecnici per il World Wide Web, ndr) sviluppa standard per il web che sono pensati per dare accessibilità alle persone che hanno forme differenti di disabilità, problemi alla vista o all’udito, e questo non è qualcosa da dare per scontato”. 

Sicurezza, privacy, diritti umani: aspetti cruciali della nostra società che sono direttamente influenzati dalla tecnologia e dal suo sviluppo.

Un altro esempio, probabilmente ancora più chiaro, riguarda la crittografia: “Quello, da decenni, è il settore più politicizzato di tutta l’infrastruttura tecnica di internet. C’è una costante tensione tra interessi divergenti su quanto rendere forte la crittografia. È un conflitto perenne: noi vogliamo avere il nostro diritto alla privacy e a poter avere conversazioni private. Che aspetto avrebbe la democrazia se non avessimo la possibilità di discutere privatamente o se non potessimo effettuare transazioni economiche sul web in modo sicuro (e quindi cifrato)? Dall’altra parte, ci sono agenzie d’intelligence e forze dell’ordine che desiderano una crittografia più debole per facilitare la loro raccolta d’informazioni, intercettando per esempio i messaggi scambiati tra le persone. È una tensione tra i bisogni dell’intelligence e il diritto alla privacy: una battaglia che avviene sul campo della progettazione tecnologica. E che spiega alla perfezione perché tutta l’architettura che regge la tecnologia che permea le nostre vite è, alla sua base, politica”.