Ouvert aux commentaires.
Qu’en est-il de l’Intelligence Artificielle ou « IA » ? Où en sommes-nous ? Existe-t-elle même ? et si la réponse était « Oui », n’aura-t-elle qu’une influence modeste sur notre vie quotidienne ou constituera-t-elle – ou constitue-t-elle déjà – une authentique révolution ?
Les deux opinions se rencontrent bien sûr parmi les personnes peu informées mais, de manière plus surprenante, on les entend aujourd’hui également dans la bouche d’experts. Certains d’entre eux affirment que nous sommes proches de la « Singularité », le moment où les machines seront devenues à ce point plus intelligentes que nous qu’elles ne chercheront plus à nous consulter, et où nous, êtres humains complètement déboussolés, leur confieront des décisions essentielles pour notre avenir. D’autres spécialistes déclarent que l’expression « intelligence artificielle » à son stade actuel d’avancement, n’est rien de plus que du battage médiatique.
Qui a raison, qui a tort ? S’agit-il simplement d’une de ces questions du type « verre à moitié vide ou verre à moitié plein ? », où c’est le tempérament de celui qui s’exprime, morose ou enthousiaste, qui détermine son opinion ?
Pour répondre à la question, examinons les faits. Et pour commencer, une brève histoire de l’IA.
En 1957, Frank Rosenblatt met au point sur un ordinateur IBM le premier logiciel s’efforçant de mimer un réseau de neurones tel qu’il existe dans notre cerveau. Il l’appelle « perceptron ». Ce logiciel permet de reconnaître un objet. Après une période d’apprentissage durant laquelle la machine dit si oui ou non une image représente, par exemple, un chien, et où on la corrige en cas d’erreur, la machine cesser de se tromper.
En 1969, Marvin Minsky, membre du petit groupe qui en 1956, au Dartmouth College, avait inventé le terme d’Intelligence Artificielle, et Seymour Papert, célèbre pour avoir inventé le langage de programmation Logo permettant aux enfants de se familiariser avec l’informatique, publient conjointement le livre Perceptrons visant à prouver que ces réseaux de neurones artificiels sont sans avenir car incapables de faire certaines opérations élémentaires (le ou « exclusif » : soit X, soit Y, mais pas les deux). La recherche sur ces outils s’interrompt. On parlera plus tard pour cette période, d’« hiver de l’IA ». En 1986, un livre intitulé Parallel Distributed Processing (traitement distribué parallèle), publié par David Rumelhart et James McClelland, relance la recherche sur les réseaux neuronaux. Les progrès dans l’usage de ceux-ci seront désormais constants. L’IA est véritablement lancée.
Ne s’était-il rien passé durant l’« hiver de l’IA ». Si, mais elle progressait dans une autre voie, appelée « symbolique », mobilisant des méthodes statistiques essentiellement, de la gestion de base de données ainsi que la logique formelle, un modèle de la logique humaine qui l’assimile à un objet mathématique (un « treillis orthomodulaire »).
La grande surprise des années 1980, 1990 ce fut cela : que la technique qui émergerait comme la plus efficace ce n’était pas l’une des plus pointues du point de vue mathématique, mais la simulation d’un réseau neuronal comme celui que constitue notre cerveau, c’est-à-dire la solution que la nature avait découverte avec nous, « animaux pensants », comme l’approche pertinente pour produire de l’intelligence : la capacité à résoudre des énigmes et à ne pas s’arrêter devant l’obstacle mais inventer alors des stratégies alternatives.
Où en sommes-nous aujourd’hui ? Nous savons désormais combiner efficacement la simulation du fonctionnement du cerveau humain (en tirant parti de la capacité de l’ordinateur à représenter des objets où un très grand nombre d’éléments sont interconnectés), et les procédures symboliques (en tirant parti de la vitesse de l’ordinateur : de l’ordre du million de fois plus rapide que le cerveau humain).
La robotique nous a remplacés d’abord dans le travail de force, ensuite dans les tâches réclamant une très grande précision, éventuellement à l’échelle microscopique, l’IA nous remplace petit à petit dans le travail intellectuel.
Les objections à l’idée même que l’on pourrait produite de l’intelligence « artificielle » tombent l’une après l’autre devant la succession de nouveaux exemples de réalisations particulièrement spectaculaires.
Les progrès les plus convaincants aux yeux du grand public sont bien sûr ceux portant sur des jeux familiers. Un exemple : le poker. En janvier 2017, l’Intelligence Artificielle Libratus gagnait 1,7 millions de dollars (heureusement fictifs) en battant quatre champions de poker incontestés. En juillet 2019, un nouveau logiciel, appelé Pluribus, battait cette fois les meilleurs champions de poker dans des parties à six joueurs. Les programmeurs avaient ici complété le réseau neuronal par des fonctions où la capacité massive de calcul jouait un rôle décisif. L’IA simule ainsi au hasard à partir de l’état présent du jeu des milliers de coups dont elle mesure pour chacun son efficacité. Elle n’attribue à aucun des cinq joueurs auxquels elle s’affronte une stratégie particulière mais en simule quatre différentes pour chacun d’entre eux.
Conséquence de tels succès, les objections à l’Intelligence Artificielle que l’on trouve aujourd’hui se sont réduites à deux. La première consiste à dire que les programmes sont spécialisés, et que, par exemple, l’IA qui gagne aux échecs ne peut pas vous servir à boire, ce qui a conduit un ingénieur facétieux à fabriquer un robot qui vous sert du café pendant qu’il vous bat aux échecs. La réponse globale à cette objection est bien entendu l’exemple du smartphone, un mini-ordinateur où une multitude de fonctions ont été combinées en un seul appareil, rien n’interdisant bien entendu de faire à l’avenir exactement la même chose avec des applications d’IA, comme le GPS aujourd’hui qui intègre repérage, navigation, calculs de distances et de temps, et commentaire vocal.
La deuxième objection consiste à affirmer qu’il manque toujours « quelque chose d’essentiel » à la machine, dont nous disposons nous, êtres humains, et qui lui fait encore défaut ou qui lui manquera toujours à elle, par exemple, l’« intuition », le « sentiment », la « conscience », etc.
Pour ce qui est de la conscience, ma formation de psychanalyste m’a convaincu que la quasi-totalité, pour ne pas dire la totalité, des tâches intelligentes que nous effectuons ne nécessitent pas la présence d’une conscience, une instance qui me semble en fait associée au mécanisme de la mémoire, à son inscription et à la remémoration, plutôt qu’à la prise de décision, à propos de laquelle il a été prouvé dès les années 1970 que son sentiment succède à l’acte posé plutôt qu’il ne le précède, soulignant le caractère illusoire du rôle de la conscience dans la décision.
Pour ce qui est de l’intuition et de sa nécessité, le jeu oriental de go nous offre une intéressante réponse. Les revues spécialisées insistaient jusqu’en 2016 sur le fait que le nombre de combinaisons possibles sur le goban, le tablier à 361 emplacements sur lequel le jeu se déroule, dépassait la capacité de calcul d’un ordinateur. Pour gagner au go, ainsi allait la rumeur, il fallait impérativement mobiliser une qualité propre à l’humain seul : l’intuition. Or, rien n’y fit : cette année là l’application AlphaGo battit les champions l’un après l’autre. Les programmeurs interrogés expliquèrent bien qu’ils n’avaient codé nulle part de l’« intuition » : celle-ci était apparue d’elle-même, comme une conséquence de l’apprentissage, un mystère qui n’en est pas un en réalité puisque c’est exactement de cette manière-là que l’intuition apparaît précisément chez nous.
Pour ce qui est de l’émotion dont la machine aurait un besoin impératif pour devenir « vraiment » intelligente, la réponse que je peux apporter à cette objection est aisée, il se fait en effet qu’à l’époque où j’étais chercheur en intelligence artificielle, de 1987 à 1990, l’originalité du logiciel ANELLA que j’avais mis au point était précisément qu’il avait pour moteur une dynamique d’affects, autrement dit que c’était l’émotion qui guidait son comportement.
L’acronyme ANELLA était pour Associative Network with Emergent Logical and Learning Abilities, c’est-à-dire « Réseau associatif à propriétés émergentes de logique et d’apprentissage », ma contribution au projet d’Intelligence Artificielle Connex des British Telecom.
Le logiciel, qui répondait aux questions de son utilisateur, assemblait les mots appartenant à son vocabulaire en fonction des valeurs d’affect associées à des paires de mots. Par exemple, quand on atteignait « pomme » en provenance de « poire », « pomme » avait une certaine valeur d’affect, mais une autre si l’on avait abouti à « pomme » à partir d’« Adam ». Ces valeurs étaient définies en fonction des réponses qu’ANELLA avait reçues auparavant de ses interlocuteurs : évaluant l’intérêt de la personne pour le message qu’elle lui avait fourni. C’est cela qui lui permettait de juger comme pertinentes ou non dans le contexte d’une conversation particulière, les informations qu’elle avait stockées en mémoire. Si l’information qu’elle avait proposée avait été appréciée, elle la plaçait « en haut de sa pile », et elle la présenterait en premier lors d’une conversation ultérieure.
Le simple fait de donner à la machine le moyen de simuler l’émotion créait une dynamique d’apprentissage et guidait une association entre les mots prononcés qui apparaissait logique, confirmant ce que les psychologues ont pu observer : que la logique émerge spontanément des associations que nous faisons entre les mots que nous prononçons, qu’elle n’est pas la mise en œuvre d’un calcul.
C’était bien entendu moi qui avais programmé ANELLA, pour que si une notion inconnue apparaissait dans ce que lui disait son interlocuteur, qu’elle recherche l’information qui lui permettrait de la connecter à un élément existant dans sa base de données, associée à une valeur d’affect, pour étendre son domaine de connaissance.
L’instruction était du type : « Si un mot est utilisé qui n’est pas encore stocké en mémoire, poser la question ‘Est-ce que je peux relier ce mot à quelque chose que je sais déjà ?’, à ce qui constitue déjà notre connaissance commune ». C’est-à-dire que le désir était inscrit dans le code : si une notion n’est pas reconnue, faire en sorte qu’elle puisse être inscrite dans la base de données du système. Ce qui est bien sûr exactement ce que font les enfants devant un mot inconnu : « Ça veut dire quoi ? ». J’avais instruit ANELLA pour qu’elle puisse faire la même chose.
On m’a souvent objecté au fil des années : « Oui mais, c’est de la simulation ! », or personne ne l’ignore, ce mot de « simulation » signifie simplement que c’est une machine qui le fait, il n’a pas de signification au delà de cela. Quand c’est de nous qu’il s’agit, on ne dit pas que c’est de la simulation : je ne vais pas vous dire « Vous simulez le fait de réfléchir ! », mais quand il s’agit d’une machine on dit que c’est de la simulation.
Donc, là aussi, pour l’émotion, comme pour l’intuition ou la conscience, certains affirment : « On ne pourra jamais faire ça ! » Et la réponse est, pour l’intuition : « On l’a déjà fait ! ». Pour l’émotion : « Si ! Cela a déjà été fait en IA : et même à la fin des années 1980 ! On n’en a pas encore trouvé l’usage, ce qui est une autre question, mais on y reviendra certainement un jour ! ». Quant à la conscience, j’ai déjà dit ce que j’en pensais : « Même nous, humains, n’en avons pas vraiment besoin : notre corps prend en général les bonnes décisions, avant même de nous avoir consultés ! ».
Laisser un commentaire