Éthique dans la numérisation

Interview avec Thorsten Busch, spécialiste de l’éthique en économie 

«La technique n’est jamais neutre»


La numérisation transforme la société. Comment exactement, cela n’est pas prédéterminé car la technologie elle-même n’est absolument pas neutre, explique Thorsten Busch, spécialiste de l’éthique en économie.


Texte: Peter Sennhauser, Images: ©Hannes Thalmann, 04 décembre 2017




M. Busch: qu’est-ce que l’éthique?


L’éthique est la science de la morale. Elle traite de la question: que dois-je faire? Elle cherche les bonnes raisons d’agir - du point de vue de l’individu et de la société.


Existe-t-il une éthique de la numérisation?


Oui - mon compte Twitter s’appelle comme ça (il sourit). En fait, on peut voir la numérisation du point de vue de l’éthique. Par exemple, il y a la «Californian Ideology» - l’éthique de la Silicon Valley. Là vivent les gens qui fabriquent la technologie, et qui promeuvent donc la numérisation, selon leurs propres représentations morales, qu’ils nous dictent.

Informations personnelles

Dr. Thorsten Busch est Senior Research Fellow à l’Institut pour l’éthique économique de l’Université de Saint-Gall et Affiliated Faculty au Centre de recherche Technoculture, Art & Games de l’Université Concordia, à Montréal. Ses recherches portent sur des sujets tels que les principes éthiques de l’entreprise numérique, la recherche sur Internet, la citoyenneté d’entreprise dans l’industrie informatique, la politique et l’informatique, l’éthique des réseaux sociaux et la durabilité numérique.


«Les solutions techniques intègrent toujours les valeurs de ceux qui les ont inventées et de ceux qui les financent.»


Quand on parle de transformation numérique, on parle de technologie - comment la technologie peut-elle refléter une morale, puisqu’elle est neutre?


Malheureusement, c’est un mythe qui a la peau dure, et c’est ce que j’essaie de montrer. Les solutions techniques intègrent toujours les valeurs de ceux qui les ont inventées et de ceux qui les financent. Par leur financement, les investisseurs en capital-risque de la Silicon Valley influencent la morale d’une start-up autant que les fondateurs.

Outre ces faits, il y a beaucoup de préjugés et de déformations: nous, les humains, semblons croire inévitablement que la machine en sait plus que nous-mêmes. Mais il existe de vieux exemples de recherche comme celui de la correction orthographique dans Word, à laquelle les utilisateurs font aveuglément confiance, même si elle suggère des erreurs évidentes.


Mais entretemps, la technologie se développe presque de manière autonome. Avec le «Machine Learning», qui consiste en un algorithme d’apprentissage et un grand volume de données. Qu’est-ce qui peut mal tourner, au sens éthique?


Deux choses: vous pouvez alimenter la machine avec de «mauvaises données». Dans sa phase d’apprentissage, la machine est comme un enfant, absorbant et reprenant automatiquement les systèmes de valeur de son environnement. Si vous prenez maintenant comme matériel d’enseignement les discours de centaines de milliers d’Américains sur Twitter ou Facebook, qui sont pleins de sexisme et de racisme, cela a des implications claires...


...comme le chatbot «Tay» de Microsoft, que les utilisateurs ont entraîné en quelques heures à asséner des propos racistes et sexistes...


Exactement, l’algorithme projette dans le futur ce qu’il a appris à partir de données anciennes. Il reprend la morale du matériel d’apprentissage.

La deuxième zone à risque est l’algorithme lui-même - lors de la programmation, nous déterminons exactement comment le logiciel traite les données. Un algorithme programmé de façon irresponsable peut faire de gros dégâts.


La technologie elle-même n’est pas du tout «mauvaise» en soi?


Non, ce n’est pas une condition - une perspective unilatérale des décideurs avant l’utilisation de la technologie suffit. C’est pourquoi des scientifiques comme Kate Crawford critiquent le fait que la numérisation soit menée par des hommes jeunes, riches et blancs. Car ce groupe joue le rôle dominant, sinon le seul, dans l’examen de chaque nouvelle application.





Pouvez-vous illustrer cela par un exemple?


À Boston, aux États-Unis, une application de détection des nids de poule dans les rues a été lancée: elle reconnaissait les chocs sur les trajets réguliers comme les trajets quotidiens pour aller au travail et signalait la position GPS au bureau des infrastructures. Ce ne sont cependant pas les pires nids de poule affectant la plupart des gens qui ont été réparés, mais ceux sur les trajets de travail de la classe supérieure relativement riche. Car la condition préalable à la participation au programme était la possession d’un smartphone, d’une voiture et d’un emploi fixe.


Vous le dites donc vous-même: la morale, objet de l’éthique, est culturelle. Le comportement éthique n’est donc pas une norme mondiale et objective...


...non, l’éthique est une perspective sur la morale d’une société. On peut juger des processus du point de vue de l’éthique, comme on peut les regarder du point de vue de l’économiste ou de l’avocat. La morale doit tenir tête au consensus du groupe, mais pas seulement.


Il y a donc des critères supérieurs?


Oui: s’il est cool de porter des armes à l’intérieur des États-Unis, et que cela est mal vu sur les côtes, alors l’éthique se demande d’abord combien de personnes considèrent que la condition qui prévaut est bonne. Mais ensuite, elle examine également la qualité normative des arguments: la base d’un débat social est un raisonnement argumentatif solide pour l’affirmation selon laquelle il est sensé de porter des armes.


L’Europe a traditionnellement une mentalité du risque face à l’innovation, tandis que les États-Unis l’abordent plutôt avec une mentalité de l’opportunité. Les nations jouent-elles un rôle?


C’est très net et fondé en grande partie sur l’histoire: dans un pays comme l’Allemagne, qui a été frappé au XXe siècle par deux dictatures qui utilisaient la surveillance comme instrument de pouvoir, les gens portent une attention particulière à ce qui est enregistré et surveillé et par qui.


De manière logique, vous avez comparé dans votre dissertation, il y a cinq ans, les grandes entreprises d’Internet aux États. Les entreprises développent-elles leur morale individuelle?


Les entreprises de la Silicon Valley ont toutes un Mission Statement et leurs propres valeurs morales. Lorsque vous êtes embauché chez Facebook, par exemple, on vous donne un petit livret qui explique les «valeurs de l’entreprise», y compris les mythes fondateurs, ce en quoi l’on croit et quelles valeurs on trouve importantes.





Les entreprises aiment pourtant dire qu’elles ne décident rien, mais répondent seulement à la demande.


Steve Jobs a souvent dit que les clients ne savent pas ce qu’ils veulent, et qu’Apple doit le leur montrer. L’économie crée des besoins et crée ensuite des produits comme l’iPhone. Mais les entreprises contribuent ainsi à façonner notre culture.


Dans la prudente Europe, il existe un champ de tension entre les intérêts individuels sous la forme de la protection des données et les avantages collectifs de la numérisation. N’est-ce pas aussi contraire à l’éthique de ne pas utiliser une technologie utile en raison d’effets négatifs isolés?


C’est exactement ce dont la société doit débattre et elle doit déterminer dans des processus politiques la valeur que l’on donne à la technologie à tel endroit pour l’individu et où on lui donne plus de valeur pour la société.


...L’économie doit donc attendre que la politique lui prescrive un système de valeurs démocratiquement approuvé?


Non! C’est tout à fait faux, parce que la réglementation est toujours en retard. Au contraire, les entreprises doivent s’ouvrir beaucoup plus à leurs parties prenantes, participer au débat et accorder aux objections, aux critiques et aux préoccupations des ONG, par exemple, l’importance nécessaire.


Si nous appliquons vos exigences à la Suisse, que devraient faire les entreprises ici, dans une démocratie qui fonctionne? Devraient-elles anticiper les décisions réglementaires?


Il existe trois niveaux pour les décisions technologiques. Le micro-niveau est la décision personnelle: est-ce que j’installe le Facebook Messenger ou «Threema» sur mon smartphone: vous pouvez devenir consciemment le client d’une entreprise qui non seulement défend la protection des données, mais en fait aussi son modèle commercial, pour ainsi dire.

Et puis il y a le macro-niveau: c’est la politique. Ici, nous espérons que les politiciens comprendront les défis et, au final, prescriront des valeurs dans les réglementations.

Entre les deux se trouve le niveau méso, auquel les entreprises opèrent: d’un côté, elles influencent la politique, de l’autre, elles sont influencées par elle. La même chose s’applique aux consommateurs qui ont des besoins, mais chez lesquels l’économie veut aussi susciter des besoins.

Ces trois groupes doivent se retrouver dans un dialogue.





Les entreprises devraient entamer des débats avec leurs clients?


...Oui, et avec d’autres entreprises! On peut se parler dans ce secteur et se mettre d’accord sur un code, sur ce que l’on fait, et ce que l’on exclut collectivement pour des raisons éthiques. C’est ce qui se passe dans chaque secteur.


Les droits de l’homme ont émergé des Lumières et de la révolution industrielle, en tant qu’héritage éthique d’une révolution de la technologie et de la connaissance. Peut-on attendre quelque chose de similaire de la numérisation?


Dans les communautés de jeux en ligne, le droit des joueurs à la co-détermination dans la programmation est en débat depuis vingt ans déjà: je suis d’avis qu’une sorte de droits numériques fondamentaux pourrait nous aider. La norme européenne de protection des données RGPD en est peut-être la plus proche actuellement, mais elle ne couvre pas tous les sujets. Il faut également un dialogue social sur l’autodétermination informationnelle.


«Si l’on veut la numérisation, on doit aussi accepter tous les effets secondaires.»


...jusqu’à la question de savoir à partir de quand les appareils techniques à intelligence artificielle doivent avoir une conscience et donc des droits?


...En effet, même si cette discussion est encore placée sous le signe de la science-fiction et plutôt menée par Hollywood et de riches hommes blancs dans la Silicon Valley que par des scientifiques ou même des politiciens.


Que changeriez-vous immédiatement dans le contexte de la numérisation?


La manière dont nous parlons de technologie. Je prendrais du recul par rapport aux vœux pieux et exigerais un examen plus nuancé: sur les avantages pour tous et pour l’individu et sur les risques.

Actuellement, j’ai le sentiment qu’on n’aborde la technologie qu’en termes absolus: si l’on veut la numérisation, on doit aussi accepter tous les effets secondaires. Mais nous pouvons également concevoir la technologie différemment, nous avons des développements comme les human centered design, participatory design et value-sensitive design. Ce sont des processus visant à incorporer de plus en plus des normes humaines et éthiques dans les développements techniques.  


Comme le mouvement bio et le slow-food ou le commerce équitable?


Précisément. Il a fallu dix ou vingt ans pour que ces mouvements se généralisent, et nous ne pensons pas la technologie en si longues périodes, mais cela ne fait pas de mal d’élever les exigences et de proposer une alternative: la variante écologique numérique, pour ainsi dire.


Digital Manifest

En tant que membre de digitalswitzerland, Swisscom contribue, entre autres, au "Digital Manifest".





Newsletter

Abonnez-vous à la newsletter pour suivre les tendances, les actualités de la branche et les benchmarks.





En savoir plus sur ce thème