Et si l'intelligence artificielle risquait de nous détruire par accident?

Un robot menaçant devant une petite armée de robots. Copyright de l’image Getty Images
Image caption Un expert en intelligence artificielle dit que des robots bien intentionnés pourraient encore se retourner contre nous.

De Stephen Hawking à Elon Musk, certains des plus grands esprits du monde dans le domaine de l'intelligence artificielle s'inquiètent du fait que l'IA représente une menace existentielle pour notre espèce.

Mais selon un nouveau livre, ce ne sont pas les robots qui prennent conscience d'eux-mêmes et se révoltent contre leurs maîtres humains qu'il faut craindre, mais les machines qui deviennent si bonnes pour poursuivre les objectifs que nous leur avons fixés, que nous finissons par être anéantis en leur fixant par inadvertance les mauvaises tâches.

Le professeur Stuart Russell de l'Université de Californie, Berkeley, est l'auteur de "Human Compatible : AI and the Problem of Control", et un expert sur les progrès rendus possibles par l'apprentissage machine.

Lire aussi:

"Le scénario hollywoodien décrit toujours la machine devient spontanément consciente et décide ensuite qu'elle déteste les êtres humains et qu'elle veut tous nous tuer", a-t-il déclaré à la BBC.

Mais les robots n'ont pas de sentiments humains, donc "ce n'est pas du tout le bon point à prendre en compte".

"Ce n'est pas vraiment une mauvaise conscience. C'est la compétence dont nous devons nous préoccuper - juste la compétence dans la poursuite d'un objectif que nous avons mal spécifié."

'Trop compétent'

Copyright de l’image Getty Images
Image caption Les robots sont de mieux en mieux capables d'accomplir les tâches que nous leur confions.

Dans une interview accordée à l'émission Today de la BBC, il a donné un exemple hypothétique de la menace réelle que l'IA pourrait représenter.

Imaginez que nous disposions d'un puissant système d'IA capable de contrôler le climat de la planète et que nous voulons utiliser pour ramener les niveaux de CO2 dans notre atmosphère aux niveaux préindustriels.

"Le système se rend compte que la façon la plus simple d'y parvenir est de se débarrasser de tous les êtres humains, parce que ce sont eux qui produisent tout ce dioxyde de carbone en premier lieu ", a dit le professeur Russell.

"Et vous pourriez dire, eh bien, vous pouvez faire tout ce que vous voulez, mais vous ne pouvez pas vous débarrasser des êtres humains. Alors, que fait le système ? Ça nous convainc d'avoir moins d'enfants jusqu'à ce qu'il n'y ait plus d'êtres humains."

L'exemple sert à mettre en évidence les risques associés à l'intelligence artificielle agissant selon des instructions auxquelles les humains n'ont pas pensé.

La superintelligence

Selon le Centre d'étude du risque existentiel de l'Université de Cambridge, au Royaume-Uni, la plupart des systèmes d'IA actuels sont des applications "étroites", spécifiquement conçues pour s'attaquer à un problème bien défini dans un domaine précis.

Un moment marquant pour ce domaine est venu en 1997, lorsque l'ordinateur Deep Blue a battu le champion du monde en titre aux échecs Garry Kasparov dans un match de six parties.

Copyright de l’image Getty Images
Image caption La victoire de Deep Blue sur Garry Kasparov aux échecs a été un jalon dans le développement de l'intelligence artificielle.

Mais malgré l'exploit, Deep Blue a été spécialement conçu par les humains pour jouer aux échecs et serait perdu dans une simple partie de dames.

Ce n'est pas le cas avec les progrès ultérieurs de l'intelligence artificielle.

Le logiciel AlphaGo Zero, par exemple, a atteint un niveau de performance surhumain après seulement trois jours de jeu Go contre lui-même.

Utilisant l'apprentissage profond, une méthode d'apprentissage machine qui utilise des réseaux neuronaux artificiels, AlphaGo Zero a exigé beaucoup moins de programmation humaine et s'est avéré être un très bon joueur de Go, d'échecs et de shogi.

Lire également:

Ce qui est peut-être alarmant, c'est qu'il était entièrement autodidacte.

"Au fur et à mesure qu'un système d'IA devient plus puissant et plus général, il peut devenir super-intelligent - supérieur à la performance humaine dans de nombreux ou presque tous les domaines ", explique le Centre des risques existentiels.

Et c'est pourquoi, selon le professeur Russell, les humains doivent reprendre le contrôle.

'Nous ne savons pas ce que nous voulons'

Copyright de l’image Getty Images
Image caption Selon le professeur Russell, les humains doivent reprendre le contrôle de l'IA avant qu'il ne soit trop tard.

Il soutient que le fait de donner à l'intelligence artificielle (IA) des objectifs mieux définis n'est pas la solution à ce dilemme, parce que les humains eux-mêmes ne sont pas sûrs de ce que sont ces objectifs.

"Nous ne savons pas si nous n'aimons pas les choses avant qu'elles n'arrivent ", dit-il.

"Nous devrions changer toute la base sur laquelle nous construisons les systèmes d'IA ", dit-il, en nous éloignant de l'idée de donner aux robots des objectifs fixes qu'ils poursuivent ensuite.

"Au lieu de cela, le système doit savoir qu'il ne sait pas quel est l'objectif."

"Et une fois que vous avez des systèmes qui fonctionnent de cette façon, ils s'en remettent aux êtres humains. Ils vont commencer à demander la permission avant de faire les choses, parce qu'ils ne sont pas sûrs que c'est ce que vous voulez."

Et surtout, dit le professeur Russell, ils seraient "heureux de se laisser éteindre parce qu'ils veulent éviter de faire des choses que vous n'aimez pas".

Le génie dans la lampe

Copyright de l’image Getty Images
Image caption Dans'2001 : Une odyssée de l'espace' (1968), un ordinateur très performant se rebelle contre les plans visant à l'éteindre.

"La façon dont nous construisons l'IA est un peu comme la façon dont nous pensons à un génie dans la lampe. Vous frottez la lampe, le génie sort et vous dites : " J'aimerais que cela arrive ", dit le professeur Russell.

"Et si le système d'IA est suffisamment puissant, il fera exactement ce que vous demandez et vous obtiendrez exactement ce que vous demandez."

"Le problème avec les génies dans les lampes, c'est que le troisième souhait est toujours : "S'il vous plaît, annulez les deux premiers souhaits, parce que nous n'avons pas été capables de spécifier correctement les objectifs."

"Une machine poursuivant un objectif qui n'est pas le bon devient, en fait, un ennemi de la race humaine - un ennemi beaucoup plus puissant que nous."