Vive l’intelligence artificielle coopérative!

Pourquoi entrainer l’intelligence artificielle à la compétition avec l’homme ? Entrainons là plutôt à la collaboration !

Publié 14-10-2019

A l’heure ou l’intelligence artificielle est en train de bouleverser et de perturber nos vies à l’instar de ce qu’a fait le web depuis la fin des années nonante, cette vague déferlante de l’intelligence artificielle (avec le machine learning, le deep learning…) annonce de grands changements socio-technico-économiques.

La société prend conscience du risque de voir l’homme devenir un simple faire-valoir face au développement (parfois sauvage) et à la suprématie des intelligences artificielles (de l’intelligence artificielle faible à la super intelligence…).

De grands scientifiques de notre époque mettent en garde contre le danger que peuvent représenter toutes les formes de l’intelligence artificielle tout en reconnaissant les bienfaits de l’intelligence artificielle mais ils précisent comme condition sine qua non qu’elle se doit d’être robuste[1].

Dans son livre posthume Stephen Hawking[2] précise que « L’avènement d’une IA superintelligente peut donc être la meilleure ou la pire des choses. Le risque n’est pas la malveillance, mais la compétence. La machine atteindra tous ses buts, mais si ces buts ne sont pas en accord avec les nôtres, il y aura un conflit d’intérêts ».

Et d’autant plus lorsque la rupture dite de la « singularité technologique » sera atteinte. Ce terme est le nom que les écrivains et les chercheurs en intelligence artificielle ont donné au passage de l’IA faible à l’IA forte[3].

Face à ce défi, les institutions humaines en appellent à l’éthique[4] dans le développement, le déploiement et l’usage de l’intelligence artificielle dite responsable.

L'IA contre ou en collaboration avec l'humain?

Aussi, on en vient à se demander pourquoi l’homme continue-t-il à organiser des confrontations, des duels avec l’intelligence artificielle. A titre d’exemples:

Ces confrontations ne sont pas nouvelles, il suffit de se rappeler:

Nous devons remonter à l’année 1950, soit 6 ans avant l’invention du terme de l’intelligence artificielle, pour trouver dans l’article d’Alan Turing « Computing Machinery and Intelligence »[5] (dans lequel il énonce le test de Turing dont l’appellation exacte est le jeu de l’imitation)[6], une des explications à cette logique de compétition.

Il faut être conscient que si nous développons et entraînons l’intelligence artificielle avec un esprit de compétition contre l’homme, c’est comme si nous l’éduquions à avoir comme ultime but de dépasser l’homme. En inculquant un esprit de compétition entre l’homme et l’intelligence artificielle, il ne faudra pas s’étonner qu’elle finisse par supplanter définitivement l’homme. Nous l’aurons façonnée pour atteindre cette finalité.

De nombreux économistes, sociologues ont démontré l’efficacité économique, sociale et organisationnelle de la coopération[7]. Nous voyons apparaître dans de nombreux secteurs de nouveaux modèles coopératifs qui remportent de grands succès : économie collaborative, économie du partage…

Nous pouvons citer comme illustration d’une coopération efficace entre l’homme et la machine intelligente, la collaboration entre les médecins et l’intelligence artificielle dans la détection/interprétation des tumeurs qui est beaucoup plus efficace lorsque l’homme s’associe avec l’intelligence artificielle, chacun diminuant les marges d’erreurs de l’autre…[8]

Le professeur Ken Goldberg de l’université de Berkeley parle de “multiplicity”[9], ce concept illustre  l'idée que les humains et les machines interagissent déjà ensemble : à titre d’exemple, vous vous laissez guider vers votre destination par votre GPS ou (Google Maps), ou vous vous laissez conduire par les algorithmes de votre voiture semi-autonome.

Il donc est grand temps d’arrêter ces duels stériles entre l’homme et l’intelligence artificielle. Organisons des rencontres collaboratives entre l’homme et la machine intelligente. Eduquons nos intelligences artificielles à la collaboration avec l’homme.

La règle "0"

Interrogeons-nous pour savoir s’il ne faudrait pas largement questionner la société quant à la nécessité ou pas, d’édicter une règle éthique (la règle 0)[10] pour construire une intelligence artificielle responsable, qui s’inscrit dans une relation de coopération entre l’homme et l’intelligence artificielle et ce, à tous les stades, de la conception à l’utilisation.

Ce principe essentiel s’ajoutera à d’autres principes éthiques[11] qui sont en train d’être mis en œuvre et qui sont soutenus par l’Union Européenne[12] dans le cadre d’une intelligence artificielle responsable à savoir la loyauté[13], la vigilance, les principes d’ingénierie (la transparence et l’intelligibilité, le droit à une intervention humaine, le droit à la joignabilité et le concept de «redevabilité »). Ces autres principes éthiques visent à réduire les risques de dilemmes, de biais, de discriminations[14] et d’exclusions (bulle d’enfermement et bulle filtrante)[15].

Si demain, nous voulons encore avoir, selon l’expression de Chris Anderson[16],un monde fait d’atomes et de bits, alors éduquons nos machines intelligentes aux modes collaboratifs sinon le monde pourrait être fait uniquement de bits ou de qubits[17].

 

  412