Illustration par Stable Diffusion + Paul Gauguin (+PJ)
« Se placer dans le sillage d’une créature plus intelligente que l’humain », sans doute, mais comment se sentir et demeurer en sécurité au sein d’un environnement en sachant que le cadre vous est pour une part, incompréhensible ? La question est celle, fameuse, de l’orang-outang qui n’entend rien à la discussion de ses deux gardiens débattant du bien-fondé de le changer de cage : les propos de ce dialogue le dépassent et le comportement des humains au plus gros cerveau (trois fois plus gros), entièrement imprévisible.
Comment faire pour que le comportement d’une intelligence artificielle de plus en plus puissante et les objectifs des humains qui l’ont conçue, restent alignés ? Et c’est bien de cette façon que cette question est aujourd’hui traitée : en tant que question de l’« alignement » et comment le maintenir, l’apparente impossibilité de mettre au point une méthode fiable étant d’ailleurs mise en avant par les critiques réclamant un moratoire, qui exigent une pause dans la recherche aussi longtemps qu’une méthode plausible pour l’alignement n’aura pas été définie.
Or, on voit mal comment une réponse pourrait être apportée car, comme déjà signalé, la machine progresse en intelligence par paliers, non pas par l’adjonction successive de nouveaux dispositifs, à l’exception notable du transformer, mais du fait de la simple augmentation en taille du système : par des effets d’émergence, par auto-organisation, une complexité inédite surgissant, comme ce fut le cas lors du passage d’une compréhension de la structure de la phrase à celle de sa signification globale, syntaxe et sémantique confondues.
Peut-on prévoir à partir d’une connaissance des éléments en place, de quelle manière des effets d’émergence pourraient se manifester ? Si ce devait être le cas, il serait possible de prévoir, au moins partiellement, les prochains progrès qui résulteront d’une montée en taille des LLM, et si oui, de canaliser ceux-ci dans la mesure du possible.
J’ai posé la question à GPT-4. Sa réponse fut décourageante :
« Dans la réalité, cette tâche de prédiction peut être incroyablement complexe et, dans de nombreux cas, pratiquement impossible. La question centrale tourne autour des concepts de complexité, de non-linéarité et de la quantité d’informations nécessaires pour faire de telles prédictions. […] Les interactions peuvent être non-linéaires, ce qui signifie que de petits changements peuvent avoir des effets disproportionnés (la théorie du chaos en est un exemple). Cette imprévisibilité inhérente signifie souvent que la prévision d’un comportement émergent est extrêmement difficile, voire impossible, même avec une compréhension complète des éléments individuels. […] En outre, la propriété émergente peut ne pas dépendre uniquement des éléments et de leurs interactions, mais aussi de l’histoire du système. Dans de nombreux cas, de petites différences dans les conditions initiales ou dans la trajectoire du système peuvent conduire à des propriétés émergentes très différentes (une caractéristique que l’on retrouve également dans la théorie du chaos). […] Il n’est pas totalement impossible de faire des suppositions ou des estimations éclairées sur le comportement émergent si l’on dispose d’une connaissance suffisante des éléments individuels et de leurs interactions, en particulier dans les systèmes moins complexes ou lorsque le comportement émergent est relativement simple. Toutefois, dans les systèmes très complexes comportant de nombreux éléments et interactions, la prévision du comportement émergent reste un défi de taille. En résumé, votre question plonge au cœur de l’un des problèmes les plus intrigants de l’étude des systèmes complexes et de l’émergence. La poursuite des recherches et les progrès dans des domaines tels que la modélisation informatique, la biologie des systèmes et la théorie des réseaux devraient permettre de mieux comprendre cette question fascinante. »
La réponse était prévisible. Je n’en reste pas moins convaincu que c’est précisément l’Intelligence Artificielle qui va nous permettre d’accomplir des progrès décisifs dans cette direction. N’est-ce pas elle qui nous autorise en ce moment-même à prévoir la manière dont se replient sur elles-mêmes les molécules complexes des protéines, nous permettant de savoir quelles seront les interactions possibles entre elles et d’autres molécules, un type de connaissance impératif en pharmacologie, une tâche jugée titanesque jusqu’ici mais résolue par AlphaFold, un produit de DeepMind ?
OpenAI, la firme à l’origine de ChatGPT, a forgé le nouveau concept de « super-alignement » précisément pour caractériser cette capacité que nous conserverions de canaliser le comportement de futures IA alors que l’écart entre leur intelligence et la nôtre continuerait de se creuser. Si l’on en croit l’opinion de la version la plus récente de leur produit-phare, reproduite ci-dessus, il s’agirait cependant d’une chimère. Dans ce cas, le choix qui serait le nôtre serait soit, comme l’exigent les esprits chagrins, d’interrompre la recherche, et peut-être même de remiser ce qui a déjà pu être réalisé, soit de faire confiance à l’un des plus beaux fleurons de l’intelligence humaine, sinon le plus beau, qu’il saura trouver avec justesse sa propre voie, qui coïnciderait avec celle optimale du genre humain l’ayant conçu.
Un moratoire sur les LLM pourrait-il même être envisagé ? On citera comme exemple les traités sur les armements nucléaires, qui ont en effet tenu jusqu’ici, mais sans qu’il soit sûr qu’ils n’auront pas été enfreints au moment où mon texte sortira des presses. Mais la question se pose dans de tout autres termes quand il s’agit des Grands Modèles de Langage car ils sont désormais déjà partout et, ChatGPT tomberait-il, que d’autres systèmes, ses sœurs ou ses frères, étant prêts, se lèveraient aussitôt. La question n’est plus « pourrions nous assister à une explosion de l’intelligence ? », ou « La Singularité pourrait-elle avoir lieu ? », la Singularité a déjà eu lieu et les historiens des techniques se disputeront seulement quant à savoir si la date à retenir est celle du 30 novembre 2022 ou celle du 14 mars 2023. La question qui se pose à nous désormais est simplement : « Comment faire avec ? », c’est-à-dire, de gaieté de cœur ou à contre-cœur. Car une Révolution est en marche que seule pourrait prévenir notre extinction avant que n’ait été mise au point la machine intelligente autonome capable de s’auto-fabriquer.
Illustration par Stable Diffusion + Paul Gauguin (+PJ)
Laisser un commentaire