Billet invité. Ouvert aux commentaires.
Mise à jour, 13/3/16 : J’ai rédigé le billet ci-dessous avant que l’on apprenne ce matin que Lee Sedol a gagné la quatrième manche. Le programme a mal évalué la qualité de la position à un moment donné et ne s’est « rendu compte » qu’il était mal embarqué que 4 coups plus tard. Ceci démontre qu’AlphaGo n’est sans doute pas « largement supérieur » ou au moins qu’il évalue mal certaines configurations. Mais cela ne change pas grand-chose à la discussion ci-dessous : le saut qualitatif reste à mon sens réel et inattendu, et nous autres humains semblons mal équipés pour anticiper ces évolutions.
Après trois parties de Go entre AlphaGo (programme développé par Google Deepmind) et Lee Sedol (un des meilleurs joueurs du monde), nous pouvons raisonnablement faire les constats suivants :
– AlphaGo est largement supérieur à Lee Sedol. Cela est quasi certain vu le déroulement des parties. On sait qu’AlphaGo va commencer à jouer des coups “faibles” mais peu risqués à partir du moment où il est quasi certain de gagner. Or cela arrive relativement tôt dans les parties, et en particulier à un moment où les commentateurs (des pros quasi aussi forts que Lee Sedol) n’arrivent pas encore à déterminer qui est en meilleure position. En fait il est possible qu’AlphaGo soit encore beaucoup plus fort que les gens l’imaginent : par manque d’opposition, la différence de niveau est en fait impossible à mesurer. Si je joue au Go contre le champion de mon club local ou contre Lee Sedol, le résultat sera sensiblement le même. On ne pourra rien en conclure sur le niveau de mon adversaire.
– Ce fait est une énorme surprise pour les joueurs de Go, mais aussi, et c’est plus surprenant, pour les experts en Intelligence Artificielle. En 2014, les personnes qui travaillaient sérieusement sur des softwares de Go estimaient encore à au moins dix ans le temps qu’il faudrait pour battre des joueurs du calibre de Lee Sedol.
– Les technologies mises en œuvre par les concepteurs d’AlphaGo (Monte Carlo Tree Search, les réseaux de neurones, et leur amélioration en faisant jouer des parties à l’ordinateur contre lui-même) sont toutes standard depuis au moins 10 ans. La manière de les combiner est bien pensée, mais reste complètement compréhensible et naturelle.
Il est assez clair que les possibilités de généraliser AlphaGo à d’autres domaines que les jeux (poker, bridge, etc.) sont à court terme assez limités. Ce qui caractérise ces activités c’est que le “monde” dans lequel ces intelligences artificielles doivent évoluer est extrêmement restreint. En fait ce “monde” se réduit aux règles du jeu en question, qui peuvent être intégralement écrites sur un bout de papier, et sans erreur ou incertitude.
Mais je voudrais ici mettre l’accent sur les trois constats ci-dessus mis bout-à-bout : la machine est passée en une fois de médiocre par rapport aux experts d’un domaine à immensément meilleure que ces experts, et essentiellement personne n’a rien vu venir, et ce même si les technologies mises en œuvre ne sont pas novatrices.
On voit donc bien qu’en réalité 1) il y a des sauts qualitatifs soudain dans les capacités des machines et que 2) ceux-ci sont très difficiles à anticiper, même pour les personnes les mieux informées. On peut donc assez bien imaginer une situation dans une trentaine d’années, où nous serions entourés de robots dont les capacités d’abstraction face à de nouvelles situations seraient depuis dix ans plus ou moins celles des chiens, et les gens trouveraient cela “mignon”. Mais sans se rendre compte que, soudain, deux mois plus tard, nous serions entourés de robots immensément plus intelligents que nous.
Laisser un commentaire