Ouvert aux commentaires.
L’intelligence artificielle entre mythe et révolution ?
Qu’en est-il de l’intelligence artificielle ou « IA » ? N’aura-t-elle qu’une influence modeste sur notre vie quotidienne ou constituera-t-elle une authentique révolution ?
Les deux opinions se rencontrent bien sûr parmi les personnes peu informées mais, plus surprenant, on les entend aujourd’hui également dans la bouche d’experts. Certains d’entre eux affirment que nous sommes proches de la « Singularité », le moment où les machines seront devenues à ce point plus intelligentes que nous qu’elles ne chercheront plus à nous consulter, et où nous, êtes humains complètement déboussolés, leur confieront des décisions essentielles pour notre avenir. D’autres spécialistes déclarent que l’expression « intelligence artificielle » à son stade actuel d’avancement, n’est rien de plus que du battage médiatique.
Qui a raison, qui a tort ? S’agit-il simplement d’une de ces questions du type « verre à moitié vide ou verre à moitié plein ? », où c’est le tempérament de celui qui s’exprime, morose ou enthousiaste, qui détermine son opinion ?
Pour répondre à la question, examinons les faits. Et pour commencer, une brève histoire de l’IA.
En 1957, Frank Rosenblatt met au point sur un ordinateur IBM le premier logiciel s’efforçant de mimer un réseau de neurones tel qu’il existe dans notre cerveau. Il l’appelle « perceptron ». Ce logiciel permet de reconnaître un objet. Après une période d’apprentissage durant laquelle la machine dit si oui ou non une image représente, par exemple, un chien, et où on la corrige en cas d’erreur, la machine cesser de se tromper.
En 1969, Marvin Minsky, membre du petit groupe qui en 1956, au Dartmouth College, avait inventé le terme d’intelligence artificielle, et Seymour Papert, célèbre pour avoir inventé le langage de programmation Logo permettant aux enfants de se familiariser avec l’informatique, publient conjointement le livre Perceptrons visant à prouver que ces réseaux de neurones artificiels sont sans avenir car incapables de faire certaines opérations élémentaires (le ou « exclusif » : soit X, soit Y, mais pas les deux). La recherche sur ces outils s’interrompt. On parlera plus tard pour cette période, d’« hiver de l’IA ». En 1986, un livre intitulé Parallel Distributed Processing (traitement distribué parallèle), publié par David Rumelhart et James McClelland, relance la recherche sur les réseaux neuronaux. Les progrès dans l’usage de ceux-ci seront désormais constants. L’IA est véritablement lancée.
Ne s’était-il rien passé durant l’« hiver de l’IA ». Si, mais elle progressait dans une autre voie, appelée « symbolique », mobilisant des méthodes statistiques essentiellement, de la gestion de base de données ainsi que la logique formelle, un modèle de la logique humaine qui l’assimile à un objet mathématique (un « treillis orthomodulaire »).
Où en sommes-nous aujourd’hui ? Nous savons désormais combiner efficacement la simulation du fonctionnement du cerveau humain (en tirant parti de la capacité de l’ordinateur à représenter des objets où un très grand nombre d’éléments sont interconnectés), et les procédures symboliques (en tirant parti de la vitesse de l’ordinateur : 1 million de fois plus rapide que le cerveau humain).
La robotique nous a remplacés d’abord dans le travail de force, ensuite dans les tâches réclamant une très grande précision, éventuellement à l’échelle microscopique, l’IA nous remplace petit à petit dans le travail intellectuel.
Quelques illustrations de la puissance de l’IA actuelle par rapport à notre propre intelligence.
Le logiciel AlphaGo a battu les champions humains au jeu de Go. Il a appris en rejouant des milliers de parties dont le déroulement avait été enregistré. Son successeur, AlphaZero, est plus fort qu’AlphaGo. Il a appris le jeu en se défiant lui-même, à partir seulement des règles du Go. Il a découvert ainsi des stratégies gagnantes inconnues des humains, soulignant qu’il y a chez nous une culture du « bien jouer » contenant une bonne part de préjugés. Par contraste, la machine a un jeu qui apparaît « audacieux » et adopte des stratégies jugées naïves – apparemment donc à tort – par la tradition entourant le Go.
Dans Pluribus, un logiciel ayant récemment battu dans des parties à six, les meilleurs champions de poker, les programmeurs ont complété le réseau neuronal par des fonctions où une capacité massive de calcul joue un rôle décisif. L’IA simule ainsi au hasard à partir de l’état présent du jeu des milliers de coups dont elle mesure l’efficacité. Elle n’attribue pas aux cinq joueurs qui lui sont opposés une stratégie particulière mais en simule 4 différentes pour chacun d’entre eux.
Autre supériorité sur nous, la machine n’est pas limitée dans le multi-tâche : la capacité à réaliser des tâches en parallèle. Dans une partie récente, AlphaStar, l’IA battant les champions du jeu vidéo StarCraft, a instantanément redistribué ses troupes en cinq unités distinctes parfaitement coordonnées, sidérant le champion humain qui l’affrontait.
Alors, l’intelligence artificielle : mythe ou révolution ? À chacun de juger.
Laisser un commentaire