Homme – robot: qui imite qui?

Le devenir robot de l'humain

L’intelligence derrière l’«intelligence» artificielle (IA) est suspecte. Certes, nous doutons de moins en moins de ses remarquables capacités techniques. En revanche, nous doutons de plus en plus de… son intelligence.

Publié 01-04-2019

une tête bleue

Par exemple, nous hésitons à parler d'intelligence authentique – au sens fort du terme – quand bien même l'IA de Google nous épate en prenant rendez-vous chez le coiffeur sans nous. Cela nous rend bien sûr service, mais est-ce réellement de l'intelligence?

Le manque de consensus actuel, chez les technophobes comme chez les technophiles - sans oublier ceux entre les deux - nous révèle une chose: l’intelligence, qu’elle soit artificielle ou naturelle, nous invite à la réflexion critique.

De la machine qui imite

Qui imite qui? A priori, on serait tenté de répondre que l’IA imite l'esprit humain, sa démarche, son langage et son raisonnement.

En effet, l'IA faible comme l'IA forte (voir Jacques Baudron pour la distinction) reposent sur des algorithmes permettant à la machine d'agir rationnellement. Qu'elle échoue ou qu'elle parvienne à égaler l'intelligence naturelle - voire qu'elle la dépasse - l'IA a comme point de repère établi l'humain.

C’est ce que le philosophe Pascal Chabot désigne comme une "mimesis opératoire". Chabot ne décortique pas le concept davantage, mais on trouve chez le philosophe Adriano Fabris une démonstration plus détaillée et précise de l'imitation:

«Le concept d’«imitation» (mimesis) est une catégorie dynamique et relationnelle. Il relie deux ou plusieurs éléments qui ont un rapport spécifique entre eux. Il s’agit d’un rapport au sein duquel on reconnaît une primauté à un élément particulier, dans la mesure où celui-ci est pris en tant que modèle […]. En d’autres termes, la «copie» est considérée comme telle dans la mesure où elle ressemble et cherche de plus en plus à ressembler, à quelque chose ou à quelqu’un pris comme «modèle». En ceci consiste donc la dynamique de l’imitation.»

Essentiellement, c’est l’élément imitant (l’IA dans notre cas) qui mime le comportement de l’élément imité (l’humain) selon une méthode programmée. Toutefois, cela va plus loin.

De l’humain qui imite

L’humain aussi peut être amené à imiter l’IA. Supposons qu’il souhaite interagir avec une machine, il doit adapter sa prononciation en vue de se faire comprendre du premier coup par son assistant vocal Siri, Alexa ou Google Home.

Je propose l'adoption d'un nouveau concept pour exprimer cette réalité de l'humain moderne: le technomimétisme.

J’entends par technomimétisme le processus de modification et d’ingénierie par lequel l’humain s’inspire des formes, matières, propriétés, processus et fonctions de la technique plus généralement, et de la technologie (et de l’IA) plus spécifiquement. Il vise l’implantation – consciente et inconsciente – de la logique des machines dans la sphère d’activité du naturel.

L’humain, dans cette conjecture technomimétique, se dirige vers la standardisation et l’homogénéisation de son comportement. Il devra être de plus en plus prévisible – et plus robotisé – afin que l'IA puisse traiter l'information reçue rapidement.

La mise en place d'une lecture technomimétique fait apparaître un "devenir robot chez l’humain". Pourtant, la chose est assez peu étudiée. La contre-intuitivité d'un tel constat y est certainement pour quelque chose. L’ouvrage What Computers Still Can’t Do : A Critique of Artificial Reason de Hubert L. Dreyfus apporte des arguments précis et lucides à ce sujet.

Nouvelles perspectives de réflexion

Considérer les rapports entre l'humain et l'IA de l'angle du technomimétisme contraste avec la plupart des études sur le sujet.

Leur postulat de départ: la machine reproduit ce que la personne fait. La relation inverse est par conséquent inconsciemment négligée. Toutefois, le philosophe Charles Taylor s'est posé la question et s’y est aventuré dans son livre Human Agency and Language.

Il semble qu’une approche dynamique, c’est-à-dire qui est consciente de l’influence mutuelle exercée entre l’humain et la machine, permettra d’étudier la question éthique du développement de l’IA plus pertinemment: le développement technologique (et donc de l’IA aujourd'hui) doit devenir un moyen – de l’épanouissement humain – et non une fin en soi. Les travaux de Martin HeideggerIvan Illich et surtout Gilbert Simondon sur la technologie comme outil de l'humain- et non l'inverse - sont ici essentiels.

Une rencontre curieuse

Revenons à notre question initiale: qui imite qui? Il semble que l’imitation se fait dans les deux sens, mais à différents degrés: l’IA imite l’humain automatiquement, tandis que l’humain imite l’IA (presqu’)automatiquement.

Certes, ce dernier peut encore préserver son indépendance face à la machine, mais pour combien de temps? Il s'agit là d'une question assez préoccupante.

Dans l’optique de pouvoir utiliser efficacement l'intelligence artificielle, l’humain aligne – au début consciemment et ensuite plus inconsciemment – son comportement (et aussi sa pensée) sur le modèle plus standard de l’IA. C’est un humain qui se robotise par anticipation.

Dans cette conjoncture, je constate une dynamique à l'œuvre relativement curieuse: alors que la recherche scientifique sur l’intelligence artificielle pousse (avec grand succès) vers un rapprochement avec l’intelligence naturelle, c’est davantage l’humain qui se rapproche (par technomimétisme) en s’alignant sur les principes de communication et les pratiques de l'IA.

Par exemple, il me semble qu’on assiste aujourd’hui à une tweeterification du langage et des échanges entre les individus, phénomène qui se traduit concrètement par plus ou moins trois tendances :

  1. les discussions tendent à être de plus en plus antagonistes, d’où la recherche de plus en plus fréquente du #clash;
  2. l’argumentation exhaustive et soutenue n’est plus valorisée car seul la #punchline bien placée compte;
  3. la vie se résume de plus en plus à une série d’anecdotes qu’il faut impérativement exposer sous la forme d’un #thread à nos abonnés.

L'humain augmenté (et diminué)

Ce nivellement par le bas (technomimétique) de l’humain n’est pas sans effet. D’une manière générale, en se robotisant, il finit forcément par se déshumaniser. D’une manière précise, il profite du développement de l’IA sur le plan de l’utilité, de l’efficacité, et du rendement, tout en perdant jusqu’à un certain degré des éléments qui le composent dans ce qui fait de lui un être à proprement parler imparfait, et donc pas un robot.

Il y aurait un prix à payer pour tout cela.

Prenons l'exemple de l’oubli. C'est un de ces éléments qui nous caractérisent depuis toujours, que cela nous plaise ou non. Néanmoins, à l’heure de l’IA et du numérique, on oublie jusqu'à l'existence de cette lacune. On pourrait dire que l’humain oublie l’oubli. Aujourd’hui, tout est sauvegardé dans des bases de données et la mémoire devient du coup matérielle, à savoir qu’il devient (presque) impossible d’oublier.

Or, il est assez inquiétant de constater que de tels changements ne sont pas plus discutés. Saluons ici le travail de Doueihi qui explore des mutations aussi subtiles dans ses travaux. À ma modeste connaissance, l'horizon de l'humain augmenté fait couler beaucoup plus d'encre que celui de l'humain diminué, et pourtant…

Ainsi, il me semble que l’humain qui imite un peu trop (et de trop près) l’IA s’engage peut-être dans une voie sans issue, celle d'une humanité à la fois augmentée et diminuée, tout dépendant du point de vue.

 

Et c’est sur cette observation que s’achève notre brève réflexion critique sur l’éthique, le développement de l’IA, et le technomimétisme de l’homme.

Je propose qu’on s’empare davantage de la question car elle nous concerne tous. À vrai dire, le développement de l'IA n'est pas seulement l'affaire des «experts» et des investisseurs.

 

À nous tous d'en juger.

  307