L’etica nella digitalizzazione

Intervista al Dr. Thorsten Busch, esperto in etica economica

«La tecnologia non è mai neutrale»


La digitalizzazione trasforma la società con modalità imprevedibili. Perché la stessa tecnologia non è assolutamente priva di valore, dice l’esperto in etica economica Dr. Thorsten Busch.


Testo: Peter Sennhauser, Immagini: ©Hannes Thalmann, 04 dicembre 2017




Signor Busch: Cos’è l’etica?


L’etica è la scienza della morale. Si pone la domanda: che cosa devo fare? Cerca le giuste ragioni per agire, nel rispetto dell’individuo e della società.


Esiste un’etica della digitalizzazione?


Sì – il mio account Twitter si chiama proprio così (sogghigna). Ebbene, la digitalizzazione si può vedere attraverso occhiali etici. Esiste ad esempio di «Californian Ideology», l’ethos della Silicon Valley. Qui vivono le persone che fanno la tecnologia, ovvero promuovono la digitalizzazione secondo i loro canoni morali che ci impongono.

Informazioni personali

Il Dr. Thorsten Busch è Senior Research Fellow all’Istituto per l’etica aziendale dell’Università di San Gallo e Affiliated Faculty presso il Technoculture, Art & Games Research Centre Concordia University, Montréal. Si occupa, tra l’altro, di temi quali etica aziendale digitale, ricerca su internet, corporate citizenship nel settore IT, politica e IT, etica dei social network e sostenibilità digitale.


«Le soluzioni tecniche incarnano sempre i valori di chi le ha inventate e di chi le finanzia.»


Quando si parla di trasformazione digitale, si parla di tecnologia: come può la tecnologia riflettere una morale se è neutrale?


Purtroppo, questo è un mito difficile da sfatare ed è esattamente quello che sto cercando di dimostrare. Le soluzioni tecniche incarnano sempre i valori di chi le ha inventate e di chi le finanzia. I venture capitalist della Silicon Valley influenzano con il loro finanziamento la morale di una start-up esattamente quanto i suoi fondatori.

Oltre a questi fatti ci sono anche tutta una serie di pregiudizi e travisamenti. Noi uomini sembriamo credere inevitabilmente che la macchina ne sappia più di noi. Lo dimostrano vecchi risultati di ricerche, come quella sulla correzione ortografica in Word, di cui gli utenti si fidano ciecamente anche se suggerisce errori evidenti.


Ma nel frattempo la tecnologia si sta sviluppando in modo ormai quasi autonomo grazie al «machine learning», che consiste in un algoritmo di apprendimento e grandi quantità di dati. Che cosa può andare storto in senso etico?


Due cose: si possono immettere nella macchina «dati errati». Nella sua fase di apprendimento, la macchina è come un bambino che assorbe e adotta automaticamente i sistemi di valori dell’ambiente che lo circonda. Se adesso utilizzassimo come materiale didattico i discorsi di centinaia di migliaia di americani su Twitter o Facebook, pieni di sessismo e razzismo, questo avrebbe chiare conseguenze...


...come il chatbot di Microsoft «Tay» che in poche ore allenava gli utenti a diventare sputasentenze razzisti e sessisti…


Esattamente: l’algoritmo proietta nel futuro i suoi insegnamenti tratti da vecchi dati. Acquisisce la morale dal materiale didattico.

La seconda zona di rischio è l’algoritmo stesso: siamo proprio noi, in fase di programmazione, a stabile come il software debba gestire i dati. Un algoritmo programmato in modo irresponsabile può causare danni.


Perciò la tecnologia in sé non è affatto «cattiva»?


No, questo non è un presupposto. È sufficiente una prospettiva unilaterale dei decision maker prima dell’impiego della tecnologia. Ecco perché scienziati come Kate Crawford criticano il fatto che la digitalizzazione sia guidata da uomini giovani, ricchi e bianchi. Infatti questo gruppo gioca il ruolo dominante, se non l’unico, nella sperimentazione di ogni nuova applicazione.





Può chiarirmi questo concetto con un esempio?


A Boston, negli USA, fu lanciata un’applicazione per rilevare le buche nelle strade: riconosceva gli scossoni su tratti di strada percorsi regolarmente, come il tragitto verso il lavoro, e comunicava la posizione GPS all’ufficio Infrastrutture. Il risultato non fu naturalmente la riparazione delle buche peggiori che incontrava la maggior parte dei lavoratori nel tragitto casa-lavoro, bensì di quelle presenti sul tragitto del ceto elevato, relativamente abbiente. Perché il presupposto per partecipare al programma era possedere uno smartphone, un’auto e un lavoro fisso.


In questo modo sta dicendo che la morale, quindi l’oggetto dell’etica, è plasmata dalla cultura, per cui il comportamento etico non rappresenta uno standard globale e obiettivo...


...no, l’etica è una prospettiva sulla morale di una società. È possibile giudicare i processi con gli occhiali dell’etica esattamente come li si può osservare con gli occhiali degli economisti o degli avvocati. La morale, però, deve essere più forte del consenso del gruppo.


Quindi, dopo tutto, c’è un criterio superiore?


Sì: se negli Stati americani dell’interno possedere un’arma è trendy, mentre sulle coste è malvisto, l’etica si domanda anzitutto quante persone trovano giusta la situazione prevalente, quindi esamina anche la qualità normativa delle argomentazioni. La base di un dibattito sociale è una solida giustificazione per sostenere che possedere un’arma abbia un senso.


Per tradizione l’Europa affronta le innovazioni in considerazione dei rischi, mentre gli USA ne colgono piuttosto le opportunità. Le nazioni hanno una certa rilevanza?


Questo è abbastanza chiaro e, non da ultimo, ha delle ragioni storiche: in un paese come la Germania, che nel XX secolo è stata sotto il giogo di due dittature i cui strumenti di potere comprendevano il controllo, le persone prestano molto attenzione a che cosa viene memorizzato e da chi viene controllato.


Logicamente nella sua tesi di cinque anni fa ha paragonato le grandi aziende internet agli Stati. Le aziende sviluppano una loro morale individuale?


Le aziende della Silicon Valley hanno tutte una mission e valori morali propri. Quando si inizia a lavorare in Facebook, ad esempio, si riceve un libretto contenente i «Company Values», incluso il mito fondatore, in cui si crede e i cui valori si ritengono importanti.





Tuttavia alle aziende piace sostenere di non prendere alcuna decisione, ma di reagire semplicemente alla domanda.


Steve Jobs ha spesso affermato che i clienti non sanno nemmeno cosa vogliono, per cui Apple deve mostrarglielo. L’economia crea esigenze, quindi crea prodotti come l’iPhone. In questo modo anche le aziende contribuiscono a plasmare la nostra cultura.


Nella cauta Europa, però, vi è un conflitto tra gli interessi individuali sotto forma di protezione dei dati e i vantaggi collettivi della digitalizzazione. Non sarebbe forse immorale non utilizzare una tecnologia utile a causa di effetti negativi isolati?


Infatti la società deve discutere e definire nei processi politici gli ambiti in cui la tecnologia ha valore per l’individuo e quelli in cui ha un valore più grande per la società.


....quindi l’economia deve attendere che la politica le imponga un sistema di valori democraticamente approvato?


No! È proprio questo l’errore perché la regolamentazione è sempre in ritardo. Al contrario, le aziende devono essere molto più aperte nei confronti dei loro azionisti, partecipare al dibattito e dare la giusta rilevanza alle obiezioni, alle critiche e alle preoccupazioni, ad esempio, delle ONG.


Se applichiamo le Sue richieste alla Svizzera, cosa dovrebbero fare le aziende in una democrazia funzionante? Dovrebbero anticipare le decisioni normative?


Ci sono tre livelli per le decisioni in ambito tecnologico. Il microlivello è la decisione personale: se installo Facebook Messenger o «Threema» sul mio smartphone, divento per mia scelta cliente dell’azienda che, oltre a rispettare la protezione dei dati, ne fa, per così dire, il suo modello di business.

Poi c’è il macrolivello, ovvero la politica. Ci auguriamo che i politici comprendano le sfide e infine stabiliscano dei valori nelle loro regolamentazioni.

Esattamente a metà sta il mesolivello che è quello in cui le aziende esercitano la loro attività: da un lato influenzano la politica, dall’altro ne sono influenzate. Lo stesso vale per i consumatori che hanno esattamente quei bisogni che anche l’economia vuole suscitare.

Questi tre gruppi devono trovare un dialogo.





Le aziende devono trovare un dialogo con i loro clienti?


...sì, e con altre aziende! Le aziende di un settore devono discutere e coordinare un codice di condotta per stabilire che cosa si può fare e che cosa invece è da evitare collettivamente per ragioni etiche. Questo succede in ogni settore.


Dall’Illuminismo e dalla Rivoluzione industriale, sono risultati i diritti umani, quale eredità etica di una rivoluzione gnoseologica e tecnologica. Ci si aspetta qualcosa di simile dalla digitalizzazione?


Nelle community di gioco online, già vent’anni fa si discuteva dei diritti di codecisione dei giocatori nella programmazione: io sono assolutamente dell’opinione che potrebbero essere utili dei diritti fondamentali digitali. Il Regolamento europeo in materia di protezione dei dati (EU-RGPD) attualmente è quello che più si avvicina, ma non copre tutte le tematiche. Inoltre occorre un dialogo sociale sull’autodeterminazione informativa.


«Se si desidera la digitalizzazione, è necessario accettare anche gli effetti secondari.»


...fino alla domanda: da quando i dispositivi tecnici con intelligenza artificiale dovranno avere una coscienza e quindi dei diritti?


...Infatti, anche se attualmente questa discussione sembra ancora fantascienza ed è condotta da Hollywood e da ricchi uomini bianchi della Silicon Valley piuttosto che da scienziati o politici.


Che cosa cambierebbe immediatamente in relazione alla digitalizzazione?


Il modo in cui parliamo di tecnologia. Vorrei prendere le distanze dalle promesse di salvezza e chiedere un approccio più differenziato sui vantaggi per tutti e per l’individuo e sui rischi.

Attualmente ho l’impressione che si parli di tecnologia solo in termini assoluti. Se si desidera la digitalizzazione, è necessario accettare anche gli effetti secondari. Tuttavia, possiamo anche progettare la tecnologia in modo diverso, abbiamo sviluppi come lo human centered design, il participatory design, il value-sensitive design. Si tratta di processi per integrare sempre meglio gli standard umani ed etici negli sviluppi tecnici.


Come il movimento di bio e slow food o il fair trade?


Esattamente. Ci sono voluti dieci, vent’anni affinché questi movimenti diventassero una corrente generale e, anche se per la tecnologia non pensiamo in termini di tempo così lunghi, non può certo nuocere avanzare adesso delle richieste e semplicemente indicare un’alternativa: la eco-variante digitale, per così dire.


Digital Manifest

Come membro di digitalswitzerland, anche Swisscom, tra gli altri, partecipa alla realizzazione del "Digital Manifest".





Newsletter

Abbonarsi ora alla newsletter per essere aggiornati su tendenze, news del settore e indici.





Maggiori informazioni