Trois points clés pour penser l’intelligence artificielle
Le sujet de l’intelligence artificielle est un piège. On ne saurait vraiment l’aborder dans son entité tant les possibilités d’angles d’attaque, le champ d’opinions contradictoires, les zones d’ombres et les promesses de bouleversements sont nombreux. La seule certitude tient dans la qualité irrévocable du sujet : l’existence de l’intelligence artificielle n’est pas matière à débat comme le réchauffement climatique par exemple. On trouve bien des IA sceptiques, mais jamais sur la réalité même de cette prodigieuse informatique neurologique, ni sur le développement à large échelle de l’internet des objets, du machine learning et de la toute puissante donnée. Si des clivages demeureront toujours – et certains verront le jour – il n’est plus question d’être pour ou contre. Le temps est au questionnement justement, à la découverte des problématiques qui se posent et à la réflexion collective. Dans le champ si vaste d’articles, de talks, de tribunes de visionnaires et de (trop rares) philosophes, USI vous propose trois portes d’entrée pour accéder à l’intelligence artificielle.
Pour Yuval Harari, le danger c’est l’algorithme
Après la fresque incisive de Yuval Harari sur l’évolution de l’Homme, Sapiens, on attendait avec impatience la vision prospective de l’historien sur le devenir de l’humanité. Homo Deus, a Brief History of Tomorrow, sorti en anglais en septembre dernier, propose un point de vue tout aussi implacable. Celui que l’on nomme le “prophète de la Silicon Valley” met en lumière la bascule irrévocable du pouvoir (des gouvernements aux GAFA) et les potentiels désastres économiques et sociaux que pourrait causer l’intelligence artificielle, si nous n’agissons pas rapidement.
Yuval Harari y prophétise tout simplement la fin de l’humanité telle que nous la connaissons. Non pas en déferlante cataclysmique de robots. Mais par un phénomène plus insidieux et déjà bien installé dans notre quotidien : l’avènement de l’algorithme.
Jusqu’ici, toute notre société moderne était bâtie sur l’Homme, unique détenteur du pouvoir, de l’émotion et de l’esprit. L’algorithme et le machine learning changent justement cette donne. Aujourd’hui, nous avons créé une intelligence qui nous comprend mieux que nous-même et que nous alimentons constamment. “When I read a book on Kindle, Kindle is reading me” illustre Harari dans sa récente intervention à la conférence Intelligence Squared. Les données récoltées par Amazon sont autant de renseignements qui constituent le parfait profil du consommateur, exploitable sans fin. Et justement à quelles fins ? De là à ce que l’algorithme nous suggère nos prochaines vacances, nos choix amoureux, de carrière ou même de vote, il n’y a qu’un pas. “The algorithms won’t revolt and enslave us. Rather, the algorithms will be so good in making decisions for us, that it would be madness not to follow their advice.” conclut-il dans Homo Deus. Cette approche de soumission passive est tout aussi effrayante qu’un scénario à la Terminator.
Pour Yuval Harari, ce qui fait notre spécificité est le ressenti, les émotions, peut-être même ce que l’on pourrait appeler l’instinct humain : véritable héritage de centaines d’années d’évolution et de sagesse, ancré en chacun d’entre nous. “Feelings are the best decision making system that we know about”. Mais pour la première fois, nous offrons les clés de notre intériorité à une intelligence informatique suffisamment puissante pour la décrypter en profondeur. Au risque de se laisser entièrement guider. L’un des dangers serait de ne plus suivre nos instincts émotionnels par lesquels naissent les discussions, les désaccords et les débats éthiques aujourd’hui indispensables pour réglementer l’IA.
A lire : Cathy O'Neil - Les algorithmes risquent-ils de créer un monde arbitraire et injuste ?
Comment légiférer sur l'éthique de l’intelligence artificielle ?
L’éthique est pourtant l’un des enjeux cruciaux de l’intelligence artificielle : poser les limites de son utilisation, protéger notre intégrité, soulever des questions auxquelles nous n’aurions jamais pensé. Réglementer l’intelligence artificielle sera probablement le défi le plus complexe de notre “Siècle du Vertige” comme le qualifie Laurent Alexandre lors de sa conférence USI.
Quelle base avons-nous ? Les 3 lois de la robotiques formulées par l’écrivain de science-fiction Isaac Asimov ?
- Un robot ne peut ni porter atteinte à un être humain ni, en restant passif, le laisser dans une situation de danger.
- Il doit obéir aux ordres des humains, tant que cela n’entre pas en conflit avec la première loi.
- Il doit protéger son existence tant que cela n’entre pas en conflit avec les deux premières lois.
Pas besoin d’aller chercher très loin pour savoir que ces lois sont loin d’être applicables à l’intelligence artificielle. On pense tout de suite aux drones militaires, incapables de garantir ne serait-ce que le respect de la première.
“Ethique by design”
Armen Khatchatourov, philosophe et membre de la chaire "Valeurs et politiques des informations personnelles" de l'IMT, travaille justement sur les questions d’encadrement législatif de l’IA. Sa réflexion porte en particulier sur “l’éthique by design”, qui fait écho à la “privacy by design” instaurée dans les années 90 pour protéger les données.
L’éthique by design vise à incorporer les notions d’éthique dès la conception de l’algorithme ou d’une intelligence artificielle. Idéal dirait-on !
La “privacy by design” prend la forme d’un texte établi : le règlement général sur la protection des données. Mais appliquer le même principe à l’éthique nous demanderait de statuer sur un certain nombre de dilemmes auxquels nous n’avons jamais trouvé de solutions . Prenons le cas de la voiture autonome : en cas d’accident, faut-il privilégier le moins de décès possible, l’âge des victimes, le conducteur au profit du piéton… ? Posez la question et vous obtiendrez autant de réponses différentes que de personnes interrogées. Même les philosophes n’ont jamais pu statuer sur ce type de cas de conscience. Impossible dès lors d’intégrer la formule mathématique adéquate. Notons cependant que le gouvernement allemand a déjà entamé des discussions pour tenter de déterminer qui, de la machine ou du conducteur, doit être tenu responsable.
Autre risque d’un texte : il favorise la déresponsabilisation de tous les acteurs concernés. « D’un côté, les ingénieurs et les designers risquent de se contenter d’être en accord avec le texte, explique le philosophe dans l’I’MTech. De l’autre, les consommateurs ne réfléchissent plus à leurs actions et font confiance aux labels attribués par les éventuels régulateurs. »
La conséquence serait aussi de figer la réflexion et d’ôter tout esprit critique, là où une prise de conscience collective est plus que jamais indispensable.
Armen Khatchatourov ne renie pas pour autant l’utilité des pouvoirs publics dans cette affaire : « Un texte normatif n’est sans doute pas la solution à tout, mais s’il n’y pas de débat législatif, témoin d’une certaine prise de conscience collective, c’est encore plus problématique. »
Comme pour les questions politiques, les débats sur les enjeux éthiques de l’intelligence artificielles pourraient-ils prendre la forme d’une démocratie participative ?
L’intelligence artificielle : le poison et le remède de l’emploi
L’une des principales inquiétudes relatives à l’intelligence artificielle est la destruction d’emplois liée à l’avènement du machine learning, de la robotique, du Big Data.
Les chiffres sont légions sur le sujet : 5 millions d’emplois perdus d’ici 2020 selon le Forum économique mondial dans un rapport publié début 2016, pour ne citer que celui-ci.
L’argument est souvent contrecarré par le fait que cette automatisation libérera l’Homme de tâches répétitives au profit de travaux plus créatifs et du développement personnel. Cela étant, le manque d’informations et d’études concrètes sur ces nouveaux métiers alternatifs complique toute possibilité de projection précise.
On retient néanmoins un domaine dans lequel l’intelligence artificielle peut, et joue déjà, un rôle positif sur le développement de l’esprit : la formation et l’éducation. Face à la destruction qu’elle engendre, l’IA offre des alternatives d’apprentissage en continu et à distance. Idéal pour entamer une transition professionnelle ou tout simplement démocratiser l’éducation scolaire à échelle planétaire. Dans une étude publiée l’année dernière, le groupe éditorial Pearson posait les bases d’un nouveau système éducatif intelligent. Notamment avec la mise en place d’un compagnon d’apprentissage : un bot capable de cerner son élève, de s’adapter à son rythme, à son profil psychologique et ses goûts.
“One-to-one human tutoring has long been thought to be the most effective approach to teaching and learning (since at least Aristotle’s tutoring of Alexander the Great!)” révèle le rapport. Mais cette démarche individuelle est intenable en termes de disponibilité humaine et de coûts. Un professeur virtuel offre une solution pérenne, et potentiellement accessible à tous.
Le rapport évoque également des outils d’intelligence artificielle favorisant l’apprentissage en groupe : autre volet essentiel de stimulation de l’esprit. Un algorithme capable de constituer le groupe le plus productif par exemple, en fonction des aptitudes de chacun. La médiation peut également devenir l’une de ses fonctions, pour aider le groupe à trouver une solution à un point bloquant, ou lui proposer une perspective tierce. Regrouper, résumer, analyser les données et les résultats de cette réflexion commune feraient également partie de ses compétences.
Les possibilités ne demandent qu’à s’épanouir, et c’est sans doute dans le domaine de l’éducation que l’intelligence artificielle s'assimile le plus à un outil bienveillant.
Quoi qu’on pourrait encore craindre quelques partis pris insinués dans le code de l’algorithme, susceptibles de manipuler notre réflexion et nos prises de décision. Un sujet qui vaudrait également le coup qu’on s’y intéresse…
Aller plus loin :