Robin Picard est en dernière année à l’Essec et a eu l’occasion de faire parti de notre projet étudiants USI 2019. Ce projet repose sur un principe qui nous est cher : connaître le point de vue et la vision de ceux et celles qui feront notre futur. Nous leur offrons l’occasion unique de participer au deux jours de conférences USI en échange de leur analyse sur un sujet qui leur est cher.

Robin a choisi de partager son intérêt pour l‘éthique en intelligence artificielle, à travers la conférence d’Alexei Grinbaum. Découvrez ici son article !

Le hasard et les robots

robin

Lors de cette édition 2019 d’USI, Alexei Grinbaum nous a présenté une conférence au nom mystérieux : Satanas Ex Machina. Il y aborde un sujet dont on entend souvent parler, mais qui est rarement analysé en profondeur, l’éthique en intelligence artificielle. Il s’agit en effet d’un sujet complexe qu’ont souvent du mal à traiter les chercheurs dans le domaine de l’intelligence artificielle dans la mesure où ce thème se situe en dehors de leur champ d’expertise. Alexei Grinbaum, un physicien, possède au contraire une solide culture philosophique qui lui permet de proposer une approche innovante de la question. 

Le sujet sur lequel se concentre Alexei Grinbaum concerne les dilemmes éthiques impliquant l’intelligence artificielle, comme dans le cas des voitures autonomes. On peut simplement définir un dilemme éthique comme une situation dans laquelle nous sommes confrontés à un conflit de valeurs qui rend la prise de décision difficile. Ce genre de cas de figure existait déjà bien sûr avant l’invention de l’intelligence artificielle. Un des exemples les plus connus de dilemme moral est le « Trolley Problem » de Philippa Foot qui a été popularisé par des auteurs tels que Michael Sandel. Dans cette situation hypothétique, un tramway est sur le point de percuter cinq personnes et l’agent a le choix entre activer l’aiguillage ce qui causerait la mort d’une personne située sur l’autre voie et ne rien faire (et donc laisser le tramway percuter les cinq personnes).  

Les voitures autonomes sont potentiellement confrontées à des cas de figure similaires dans lesquels un choix doit être fait entre tuer un premier groupe de piétons ou en tuer un autre. On a ainsi affaire à une forme de dilemme éthique dans la mesure où le commandement de ne pas tuer nous invite à rejeter toutes les issues, ce qui n’est pas possible. Une question qui se pose alors est de se demander en quoi la présence d’une intelligence artificielle dans le cas de la voiture autonome crée une situation spécifique. On pourrait en effet imaginer que l’approche que l’on devrait adopter face aux problèmes éthiques dans l’intelligence artificielle est exactement la même que pour tous les autres problèmes éthiques standards. Alexei Grinbaum argumente cependant, que bien qu’il n’y ait pas une « éthique nouvelle » spécifique à l’intelligence artificielle, cette dernière introduit une situation unique causée par la nature des agents impliqués.    

Un agent ambigu

Pour comprendre l’importance du nouveau type d’agent que représentent les systèmes d’intelligence artificielle, on peut tout d’abord considérer le problème que pose l’idée d’encoder dans la machine un certain système moral. Comme nous l’a rappelé Alexei Grinbaum, les machines intelligentes peuvent apprendre des choses mais elles ne les comprennent pas de la même manière que le font les humains. Ainsi, une intelligence artificielle pourrait apprendre certaines actions associées à un système moral mais pas ce dernier de manière abstraite comme le faisons. Le problème est alors que, confrontée à une situation jamais vue auparavant, la machine autonome ne sera pas capable d’appliquer de manière cohérente le système moral en question. 

Il faut bien garder en tête en quoi une intelligence artificielle telle qu’une voiture autonome est différente à la fois d’une personne et d’une simple machine. Lorsqu’une personne est confrontée à un dilemme éthique comme celui du tramway, elle fait librement un choix qui engage sa responsabilité. Elle peut tirer le levier ou ne pas le tirer, mais quoi qu’il en soit, c’est elle seule qui choisit ce qu’il se passe au moment où elle agit. Lorsqu’une machine non-autonome est impliquée dans une situation correspondant à un dilemme éthique, la même chose se passe indirectement. Son concepteur a programmé en avance un certain comportement et il est seul responsable de l’action entreprise par la machine. Prenons l’exemple des portes coupe-feu lors des incendies. Il s’agit d’une sorte de dilemme mais lorsque l’incendie se déclenche, aucun choix n’est réalisé. L’action des portes est entièrement déterminée dès la conception par le créateur qui en est responsable.   

Un système d’intelligence artificielle n’est, au contraire, ni une personne ni une simple façade derrière laquelle se cache le choix préprogrammé d’une personne. Ainsi, la machine ne fait pas de choix comme le ferait une personne. Avant qu’elle soit confronté à une situation problématique, la solution qu’elle va adopter est déjà entièrement définie. Mais, en même temps, cette solution n’a pas été réellement choisie par le programmeur lors de la conception de la machine. Alexei Grinbaum parle de l’existence d’une opacité autour de l’intelligence artificielle. L’action réalisée par la machine dans un cas spécifique ne peut pas être liée à un choix unique d’une personne, mais est causée par un ensemble d’éléments séparés les uns des autres. Ainsi, en plus de la programmation de l’algorithme, son entraînement sur des bases de données joue un rôle fondamental. De plus, nous devons bien garder en tête que chaque instance de la machine autonome évolue de son côté une fois créée.   

Cela pose un problème pour le fabricant de machines autonomes qui est incapable d’assurer l’application cohérente d’un système moral qu’il aurait choisi. S’il annonce que ses produits suivront un certain système éthique et que parfois elles ne le font pas, on peut s’attendre à l’expression d’un mécontentement de la part du public. La machine sera accusée de ne pas avoir fait ce qui avait été convenu et il pourrait s’en suivre une perte de confiance. 

alexei-grinbaum

Le hasard comme solution

Pour répondre à cette situation délicate, Alexei Grinbaum propose d’utiliser le hasard pour sortir la machine autonome du champ de l’éthique. Grâce au hasard, le concepteur n’a pas à choisir un système moral que, de toute façon, la machine autonome serait incapable d’appliquer de manière consistante. Ainsi, le choix du hasard souligne bien que la machine autonome n’est pas un individu et qu’on ne peut donc pas s’attendre à ce qu’elle fasse des choix moraux. 

Alexei Grinbaum illustre cet aspect de la question avec un exemple tiré du Livre de Josué qui tient un rôle prépondérant dans son livre. Dans ce récit biblique, les troupes de l’armée de Josué subissent un revers à Aï alors que Dieu avait offert la Terre Promise aux Juifs. Dans l’incompréhension la plus totale, Josué va consulter Dieu et Lui demande la raison de cette défaite. Ce dernier répond « Israël a commis un péché. On a transgressé l’alliance que j’avais établie pour eux » : un des Israélites n’a pas respecté les commandements de Dieu. Josué reçoit donc pour ordre de rassembler le peuple d’Israël et alors, « l’Éternel désignera par le sort » le coupable qui sera mis à mort. Ce qui nous intéresse dans ce passage est l’utilisation apparente du hasard par Dieu. Pour désigner le coupable, Dieu ne dit rien directement à Josué mais le laisser lancer les dés. Bien sûr, les dés désigneront finalement le vrai coupable, Akan, qui était connu de Dieu dès le début. Mais pourquoi alors ne pas directement annoncer sa culpabilité aux hommes ? La raison tient dans la nature de Dieu comme agent. Simplement annoncer à Josué le nom du coupable mettrait Dieu dans une situation de symétrie avec les hommes qui pourraient également dénoncer le fautif s’ils l’avaient vu commettre son méfait. Cela mettrait à mal le statut moral de Dieu. A la place, en utilisant le hasard, il souligne bien qu’il ne prend pas part aux conflits des hommes mais qu’il est au contraire un arbitre qui contrôle leur monde. 

Le cas du système d’intelligence artificiel est similaire, à la différence près que la machine est moins que l’homme alors que dans le récit biblique, Dieu est plus que l’homme. Donner l’impression que la machine fait un choix moral lui donnerait un statut moral comparable à celui d’une personne alors que ce n’est pas le sien. Ici, il est bon de préciser que le hasard dont parle Alexei Grinbaum peut prendre plusieurs formes différentes. Il est possible d’utiliser un générateur de nombre aléatoire pour choisir entre différentes issues par exemple mais on peut aussi considérer que laisser la machine se développer de manière autonome, dans une situation d’opacité, est une forme de hasard.   

Remplacer la transparence par la confiance

L’approche développée par Alexei Grinbaum prend ses distances avec l’idéal de transparence qui est aujourd‘hui prépondérant. Il explique en effet que, dans le cas de l’intelligence artificielle, l’opacité dont nous avons parlé précédemment rend impossible une totale transparence envers le consommateur. Alexei Grinbaum propose à la place de se concentrer sur l’idée de confiance. La machine ne doit pas tromper l’utilisateur en lui annonçant quelque chose qu’elle ne sera pas capable de faire. 

Un exemple bien moins tragique, Google Smart Compose, illustre bien l’intérêt du hasard dans la relation entre l’intelligence artificielle et l’utilisateur. Cette fonctionnalité proposée par Google suggère à l’utilisateur la fin de la phrase qu’il est en train d’écrire. Cependant, il arrive que la machine se trompe de genre lorsqu’elle propose des pronoms personnels. Des personnes se sont ainsi plaintes à Google parce que leur produit avait considéré qu’elles étaient du sexe opposé au leur. Google a donc décidé de désactiver la partie des fonctions de Google Smart Compose qui pouvait potentiellement créer ce problème. Le recours au hasard que recommande Alexei Grinbaum pourrait résoudre cette situation. Si Google Smart Compose décidait de sélectionner au hasard le choix du pronom personnel lorsque le niveau d’incertitude est trop élevé à la place d’essayer de deviner, on pourrait s’attendre à ce que les erreurs soient mieux acceptées des utilisateurs. La machine ne ferait en effet pas de jugement erroné sur le sexe de l’utilisateur puisqu’elle annoncerait clairement qu’elle ne fait pas de jugement du tout et sélectionne simplement ce qui est affiché au hasard. 

Alexei Grinbaum propose donc une solution originale à un problème qui se pose à de nombreux acteurs du monde de l’intelligence artificielle. On peut espérer que d’autres personnes prendront sa suite et traiteront certains des éléments qui n’ont pas été entièrement développés dans son livre. Ainsi, il serait intéressant de réfléchir à la place du choix de la métrique qui permet de déterminer les différentes issues possibles que le hasard départagera et d’aborder la question des interdits absolus qui n’apparaissent pas dans une approche centrée sur la comparaison entre plusieurs issues.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *