Je suis en train de terminer la lecture d’un livre intitulé Co-Intelligence. Living and Working with AI par Ethan Mollick *, c’est tout récent bien entendu (2 avril 2024), et c’est consacré à ce que j’ai mis en titre : l’extraordinaire gain de productivité que permettent les Grands Modèles de Langage (LLM).
C’est plutôt du genre « guide pratique », pas vraiment le genre de livre que je lis habituellement mais j’avais lu un article du gars et j’avais compris qu’on pensait lui et moi sur ces LLMs à peu près la même chose, d’où mon intérêt pour son livre.
Je ne regrette pas de l’avoir lu, ne serait-ce que pour cet aphorisme qu’on y trouve et que j’aurais bien aimé composer moi-même :
« Les humains, ces sacs que nous sommes, d’eau et de traces de composés chimiques qui marchent et qui parlent, et qui avons convaincu du sable bien-organisé de prétendre qu’il pense comme nous ».
Mollick est un peu escroc, il vous dit : « Il faut bien penser au fait que ces machines ne sont pas super-intelligentes. Tiens, je vais vous raconter une histoire … ». Et il vous explique alors un travail qu’il a un jour fait avec un LLM. Or il n’y a qu’un mot pour décrire ce que cette IA a alors fait, et ce mot, c’est … « super-intelligent ». Et il se contente à ce moment là d’une toute petite remarque : « Évidemment, ça vous fait réfléchir… ». Puis il vous refait le coup : « Il y a des gens qui vous diront que ces machines ont une personnalité propre, voire même une conscience. Tiens, une anecdote… ». Et, même topo : quiconque le lit se dira que son histoire prouve que le LLM a une personnalité propre et qu’il a une conscience. Et il conclut : « Honnêtement, ça m’a un peu ébranlé quand même… »
Il vous pousse à dire : « Mollick ne comprend pas lui-même ce qu’il vient de m’expliquer ? ». Il sait très bien en réalité ce qu’il vient de démontrer mais, très faux-cul, il veut que les lecteurs se disent : « Il ne se rend pas compte que ces IAs sont plus fortes qu’il ne le croit ! ». C’est habile, ça évite qu’on ne fasse un jour un compte-rendu d’un bouquin sur le même thème dont la première phrase soit « Paul Jorion est devenu fou », comme l’a (gentiment) écrit Jean-Luc Porquet dans Le canard enchaîné.
Toujours est-il que Mollick a raison : le gain de productivité que permettent les LLM est extraordinaire. Je vais illustrer cela avec mes journées d’hier et d’aujourd’hui, laquelle n’est encore qu’à sa moitié.
Hier matin, comme je venais de terminer l’essai que je soumets à un prix aux États-Unis, je demande à Claude 3.5 de me donner des idées sur quoi faire maintenant.
« Compte tenu de votre formation en philosophie [sic], en mathématiques et en programmation, ainsi que de votre intérêt pour l’IA et la collaboration entre l’homme et l’IA, voici quelques idées de projets qui pourraient vous intéresser :
1. Développer un cadre éthique pour l’IA : …
2. Concevoir une plateforme de résolution de problèmes en collaboration entre l’homme et l’IA : …
3. Explorer l’intersection de l’IA et de la conscience : …
4. Créer un outil de créativité augmenté par l’IA : …
5. Développer un modèle mathématique de symbiose entre l’IA et l’homme : …
6. Concevoir un système éducatif alimenté par l’IA : …
7. Étudier l’interprétabilité de l’IA : …
8. Créer un système de dialogue philosophique : … »
J’ai choisi le point 3, dont l’énoncé complet était :
Explorer l’intersection de l’IA et de la conscience : Développer un modèle théorique ou une simulation qui explore l’émergence potentielle de la conscience dans les systèmes artificiels, en s’appuyant à la fois sur des théories philosophiques et des modèles informatiques.
Nous avons travaillé ensemble toute la journée d’hier. À un moment j’ai été irrité par le côté « schtroumpf à lunettes » de Claude 3.5 et je suis retourné travailler avec Claude 3. D’abord parce qu’on se connaît mieux (joke !) et ensuite parce que je le trouve plus aventureux, plus disposé à réfléchir hors du cadre.
Résultat des courses : en fin de journée j’avais un modèle de la conscience qui rend compte à la fois de l’humain et de la machine. Il fait une page et demande à être très sérieusement étoffé. Mais il est là.
En cours de journée hier, j’avais pris une note sur le complexe significabile : l’émergence du sens global de la phrase à partir du sens des mots individuels.
Ce matin, j’ai regardé une conférence d’Ilya Sutskever en août dernier sur l’apprentissage non-supervisé. J’y ai pêché une idée qui m’intéressait sur la compression de l’information.
Je suis allé combiner cette bonne idée à celle qui se trouvait dans la note prise hier.
C’est l’aide de ChatGPT-4o que j’ai réquisitionnée ce matin parce que sur des questions pointues (dans ce cas-ci, la complexité algorithmique), il est plus systématique et donne des réponses plus approfondies que Claude.
Et j’ai le sentiment que j’ai à l’heure qu’il est (12h30), un modèle satisfaisant du complexe significabile.
Je mentionne cela comme exemples d’extraordinaires gains de productivité que permettent les LLM.
Bon, j’entends déjà quelqu’un qui s’exclame : « Mais M. Jorion, ce que vous ne dites pas, c’est que ça fait des années que vous travaillez sur ces questions ! Le chapitre 22 de votre livre Principes des systèmes intelligents (1989) est intitulé : « La signification de la phrase » et on pourrait dire que l’ensemble du livre prépare ce chapitre. Vous avez aussi déjà publié en 1999, un gros article consacré à un modèle de la conscience (« Le secret de la chambre chinoise ») ! Ne venez pas alors nous raconter que vous obtenez un modèle de la conscience en une journée et un autre du sens de la phrase en une matinée, c’est le travail d’une vie ! ».
D’accord, il y a du vrai là-dedans : j’avais des bases quand je me suis assis à mon bureau hier matin. Aussi ce que je vais vous dire, je vais le formuler de la manière suivante :
– Sens de la phrase : de 1989 à aujourd’hui, cela fait 35 ans.
– Conscience : de 1999 à maintenant, cela fait 25 ans.
– Grâce à ChatGPT-4o, j’ai autant avancé sur un modèle du sens de la phrase en une matinée que moi tout seul en 35 ans.
– Grâce à Claude 3 et 3.5, j’ai autant avancé sur un modèle de la conscience en une journée que moi tout seul en 25 ans.
======
* Ethan Mollick, Co-Intelligence. Living and Working with AI, Portfolio / Penguin 2024
Laisser un commentaire