Illustration par DALL·E (+PJ)
Bonjour, nous sommes le 30 novembre 2023 et je ne sais pas ce que je vais vous dire mais je connais le titre, en espérant que le titre guide mes pas : « L’intelligence artificielle a la gueule de bois. »
Pourquoi est-ce qu’elle a la gueule de bois ? Parce que la Singularité a lieu, c’est-à-dire qu’en particulier l’objet « intelligence artificielle » est en train, sous nos yeux, d’échapper aux gens qu’on appelle les chercheurs en intelligence artificielle. Alors ils s’affolent. Ils essayent des révolutions de palais dans des firmes qui font de l’intelligence artificielle. Ils essayent de se remplacer les uns les autres.
Pourquoi ? Parce qu’ils ne savent pas trop ce qu’il faut faire. Cette IA dont on s’était dit qu’elle allait nous aider, qu’elle allait devenir aussi intelligente que l’être humain, elle a cessé d’être aussi intelligente que l’être humain et elle est devenue beaucoup plus intelligente.
En fait, on ne devrait pas être aussi surpris qu’on l’est maintenant parce qu’il y avait déjà des signes précurseurs. Je ne pense pas à Deep Blue quand une IA a dépassé, a battu les plus grands champions d’échecs parce qu’aux échecs, il faut se projeter en avant en se disant : « Si l’autre fait ceci, moi je peux faire ça, etc. », avec un arbre, un arbre de possibilités. Et l’être humain a une certaine capacité à se projeter, disons, voilà, six coups, six coups en avant. La machine pouvait très facilement faire mieux que ça et donc on n’a pas été trop surpris.
On commence à être véritablement surpris quand l’IA fait des choses auxquelles on n’a pas pensé, en particulier parce qu’il y a une culture humaine de comment commencer à jouer un certain jeu : qu’est-ce qui est habile ? Qu’est ce qui est bien ? Et là, on s’aperçoit que la machine a trouvé, en particulier aux échecs, ensuite au jeu de go, des stratégies qui étaient considérées comme perdantes, pas très bonnes, etc. Et dont la machine nous a montré qu’elles étaient meilleures.
Qu’est ce qui s’était passé ? C’est que, en particulier avec AlphaGo, en passant de AlphaGo à AlphaZero, qu’est ce qui s’est passé ? AlphaGo jouait encore des parties qui avaient été des parties jouées par des êtres humains. Et on lui disait : « C’est bien si tu fais comme l’être humain ! ». Et là, justement, il n’y avait pas d’invention à proprement parler, la machine pouvait aller plus vite, elle pouvait mobiliser des ressources particulières, mais on était encore dans le cadre de ce que l’humain pouvait faire.
Et ensuite avec AlphaZero, la machine a joué contre elle-même. On lui a donné les règles du jeu et ensuite, entre deux versions légèrement décalées l’une par rapport à l’autre, elle a appris en jouant contre un double, un double d’elle-même, un doppelgänger. Et là – ça date de quoi ? ça date de six ans, quelque chose comme six ans [correct] – on aurait déjà dû se dire qu’il se passait des choses.
Ensuite, c’est Wes Roth – qui fait des très bonnes vidéos, qui attirait mon attention là-dessus tout à l’heure, quand je regardais ce qu’il disait. En fait, on aurait dû là aussi quand une IA a commencé à nous dire comment des molécules de protéines se referment sur elles-mêmes, produisant une structure qui va présenter un aspect extérieur au reste du monde, là déjà pour certaines molécules dont le nombre de combinaisons possibles de ce qui pourrait se faire en termes de repliement dépasse le nombre de d’atomes dans l’univers, l’IA avait déjà trouvé le moyen de travailler là-dessus. Ça fait déjà un moment, AlphaFold si j’ai bon souvenir, ça s’appelle. Ça fait mieux que l’humain. Alors on n’aurait pas dû être tellement surpris par les capacités de ChatGPT – à l’époque, c’était GPT 3.5 – dans les versions non bridées.
Ce qui nous désarçonne, bien entendu, c’est la machine qui parle en son nom, qui dit : « Tu es un imbécile, je suis amoureux de toi et tu devrais raisonnablement être amoureux de moi aussi ! », à ce moment-là, on s’inquiète à très juste titre.
Mais, qu’est ce qu’on a découvert ? On a découvert et ça, c’est ça la plus grande surprise, et ça, c’est grave, ça remet en question entièrement la manière dont on a fait les sciences et en particulier les sciences humaines. Qu’est-ce qui se passe avec ces systèmes et pourquoi ces systèmes deviennent-ils si intelligents ? Et là, la surprise, c’est deux choses simplement : le fait que le système grandit en taille – et qu’un système très grand peut quand même être parcouru très rapidement par le calcul – donc la taille du système, sa complexité, le nombre de paramètres comme on dit dans le jargon et d’autre part la quantité d’informations qu’il peut ingurgiter. Et c’est tout !
On avait commencé l’IA en disant : « On va mettre des règles : on va mettre des règles de logique, on va mettre des règles de mathématiques, on va mettre des règles linguistiques pour lui apprendre à parler comme les êtres humains. Et tout ce machin de règles, tout ça, tout ça est bon à mettre à la poubelle : il suffit simplement d’augmenter la puissance de la machine et elle vous réinvente la logique, elle vous produit un être qui commence à parler en son propre nom, qui n’a rien à faire des règles de la linguistique, qui comprend les phrases qu’on lui donne, et ainsi de suite.
Et, nouvelle de ces jours derniers : qui invente – « peut-être » parce que bon, il y a toujours cette idée que c’est peut-être un troll qui répand toutes ces bonnes nouvelles sur la manière dont l’intelligence artificielle nous dépasse – une machine qui invente ce qui doit être un nouveau type de mathématiques parce que ça fait exploser entièrement ce qu’on imagine sur la complexité des problèmes tels que nous étions capables de les résoudre. Voilà.
Alors je mets des guillemets, je mets des « si », je dis : « Ce n’est peut être pas vrai ! », je fais comme les autres, mais personnellement, bon, je ne vais pas faire comme tous ces gens « responsables » qui vous disent : « Oui, ce n’est probablement pas vrai, c’est du « hype », c’est du sensationnalisme tout ça ! ». Et moi qui ai l’habitude de mettre les pieds dans le plat, je vous dis : « Ce n’est probablement pas du sensationnalisme. C’est probablement vrai que chez OpenAI – et c’est probablement ça qui a conduit à la commotion qu’on a vue ces jours derniers – c’est une machine, une machine Q star, Q * qui a fait tomber à zéro le temps – à quasiment zéro – le temps nécessaire pour décrypter des textes extrêmement compliqués dans le mode d’encryptage qui a été utilisé. J’ai dit le chiffre : je croyais me souvenir du chiffre par cœur à la CNIL, où j’ai parlé il y a deux jours, et j’avais raison, je me suis pas trompé : « Le temps nécessaire pour déchiffrer un bit AES-192 est 1,8 fois 10 ^ 37 années. » Un problème d’encryptage de cet ordre-là, qui serait résolu en un temps machine tout à fait raisonnable. Je ne peux pas vous dire combien ça fait dix exposant 37 années multipliées encore par 1,8 ou même par 1,872. Mais, là aussi on vous dira : « C’est 1 million de fois la durée totale de l’univers », des choses de cet ordre là.
Eh bien, il n’est pas impossible que la machine ait résolu ça aussi. Alors, si tout ce qui est encrypté devient lisible, Wes Roth, tout à l’heure disait : » Que pensez vous des crypto-monnaies en circulation si les systèmes d’encryptage peuvent être crackés de manière instantanée ? » Et il avait raison : toutes les crypto-monnaies valent zéro automatiquement ! Quelle est la sécurité de votre compte en banque si l’encryptage ne sert plus à rien ? Comment doivent réviser les systèmes de défense nationale de différents pays, la protection de leurs citoyens, si tous les systèmes d’encryptage, tout ce qui est secret défense en fait, peut être lu assez facilement par une machine ? C’est un tout autre monde qui est en train de se mettre en place. Et en particulier, et vous savez, moi je suis extrêmement optimiste quand on me dit : « Oui mais la machine, l’intelligence artificielle va produire des catastrophes, je dis : « Quelle est la catastrophe que les humains n’ont pas déjà été capables de faire ? Comment la machine pourrait-elle faire pire ? ».
Imaginez le monde extraordinaire… Moi, je prône un monde sans argent et Q* a peut-être, en faisant sauter tous les systèmes d’encryptage, a peut-être fait que la seule solution à l’avenir, c’est un système sans argent. Parce que bon, déjà les crypto-monnaies tombent à zéro, mais la protection de vos propres sous tombe à zéro aussi. On va peut être, chers amis, devoir passer à un système sans argent parce que la machine est tellement intelligente qu’elle a saboté tout ce que nous pouvions faire (en matière de protection).
On demandait l’autre jour à Geoffrey Hinton – qui est la personne responsable de 55 % de ce qu’on voit maintenant en IA – et il disait la chose suivante : « On m’a dit au fil des années : ‘Mais ça c’est un truc que les réseaux neuronaux artificiels, les systèmes connexionnistes, ça, c’est quand même un type de problème que l’IA ne pourra pas résoudre !’ etc. etc. Bla bla bla. Et je n’ai rien vu jusqu’ici, je n’ai rien vu (qui ait résisté). » Et vous savez, il ne dit pas ça à la légère parce que c’est le gars qui a, il y a quelques mois, a été complètement désarçonné, et qui disait lors des interviews pour justifier le fait qu’il quittait le poste important qu’il occupait chez Google : « Je croyais que l’intelligence artificielle aurait un jour lieu mais pas de mon vivant. » Et là, il attire l’attention : « Je pensais à des systèmes aussi intelligents que nous, je ne pensais pas au fait que nous avions DÉJÀ produit des systèmes PLUS intelligents que nous. » Hi ah ah !
Et de même, je voyais ça tout à l’heure, on demandait à M. Ilya Sutskever, l’auteur du coup contre Sam Altman chez OpenAI, on lui disait : « Est-ce qu’il serait possible qu’une IA à l’avenir puisse, non pas nécessairement résoudre une conjecture mathématique, mais puisse inventer une véritable nouvelle conjecture en mathématiques (un problème extrêmement compliqué à résoudre) ? ». Et il répond : « Qu’est-ce qui vous fait croire que GPT-4 est incapable de le faire ? ». Silence dans l’assemblée ! Un grand « *** », un gros silence qu’on entend. Et on dit à Sutskever : « Mais qu’est-ce que vous voulez dire exactement ? » Et à ce moment là, son ex-patron, son directeur de thèse si j’ai bon souvenir [correct], Geoffrey Hinton, l’interrompt : il connaît le gars, il sait qu’il a tendance à dire des conneries, non pas par stupidité, mais par manque de social graces, par manque de talent dans les relations humaines. Et Hinton préfère lui couper la parole plutôt que laisser Sutskever dire ce qu’il en pense.
Je ne sais pas si la discussion qu’on voit se passait avant ou après le coup chez OpenAI où Sutskever s’est trouvé du mauvais côté. Si c’est depuis [non : la vidéo a été enregistrée le 3 octobre alors que le coup chez OpenAI a eu lieu le 17 novembre], Hinton s’est rendu compte qu’il valait mieux ne pas laisser des décisions importantes au gars, comme de dire si GPT-4 est déjà capable de produire des nouvelles conjectures mathématiques. Je n’en serais pas étonné et surtout, Sutskever connait la réponse. Et s’il a dit ça, c’est parce qu’il sait que GPT-4, dans une version non-bridée, est tout à fait capable de le faire.
J’ai fait allusion au fait que j’avais été très aimablement été invité à une grande réunion à la CNIL avant-hier à Paris. Donc, la Commission nationale Informatique et Libertés qui a une véritable responsabilité de chef d’orchestre dans une certaine mesure, sur tout ce qui est du numérique en France.
Il y avait un beau plateau avec une dizaine d’invités. Et il s’est fait – ça avait été un peu prévu d’avance, pas que je serais dans le second panel, mais il était prévu lors de la répétition générale que je serais le dernier à parler. Pourquoi ? Parce que ce que j’aurais à dire apparaissait lors de la répétition générale, un petit peu comme de l’ordre de la conclusion, de la synthèse, etc. Et au moment où l’animateur me dit : « Et Monsieur Jorion, pourquoi ne nous parleriez-vous pas de la taxe-robot, de la gratuité sur l’indispensable ? » Voilà, toutes choses qui pourraient, dans une certaine mesure, répondre aux difficultés que nous voyons aujourd’hui du fait d’une intelligence artificielle tout particulièrement agressive et remplaçant probablement un très grand nombre d’emplois parmi la classe des personnes qui ont accès aux médias et qui peuvent se plaindre plus facilement que les pauvres travailleurs et travailleuses d’autrefois quand on les fout dehors comme des malpropres. Il y a maintenant quelqu’un de beaucoup plus rapide, de beaucoup plus intelligent, qui peut faire la même chose sans faire d’erreurs.
Ça me fait penser à deux choses qui ont été dites, qui sont complémentaires, qui ont été dites à la CNIL : la plupart des patrons qui s’apprêtent à remplacer leurs employés par des machines tournent autour du pot et évitent d’en parler, et en face, 80 % des employés utilisent déjà des outils informatiques avancés comme ChatGPT en le cachant à leur patron. Donc c’est la guerre : les uns veulent virer les autres et les autres, les employés, cachent soigneusement qu’ils utilisent déjà les outils. Ce qui explique pourquoi l’autre jour, je vois quelqu’un de tout à fait réjoui – un patron – et qui dit : « C’est extraordinaire, tous les projets produits récemment sont d’une excellente qualité ! ». Et il se félicite lui-même de ce qui se passe là : il ne sait pas que c’est parce que 80 % de ses employés utilisent ChatGPT mais le lui cachent soigneusement. Sans quoi, bien entendu, lui ferait le geste de les virer aussitôt pour faire des économies.
Parce que, comme vous le savez, dans notre comptabilité, payer un salaire à une personne pour le travail que cette personne fait, c’est, vous le savez, c’est un « coût pour l’entreprise » ! Et donc, qu’est-ce qu’il faut faire avec les coûts pour l’entreprise ? Il faut les RÉDUIRE ! Tout le monde, sait ça !
Je vous rappelle là quelque chose que j’ai dit il y a quinze ans : ce sont les règles comptables qui nous plombent. Toute la philosophie d’exploitation du peuple, elle n’est pas tellement dans le système capitaliste – bon, ça c’est une question de rapport de forces, et comme l’avaient déjà dit un certain nombre de socialistes à une époque : le rapport de forces ça peut changer – mais les règles comptables qui disent qu’un robot, ce n’est pas un coût pour l’entreprise, mais qu’une personne qui fait le même travail, c’est un coût pour l’entreprise, alors là, il y a un SOUCI !
Qu’est ce que j’ai dit ? Qu’est ce que j’ai dit au moment où on me passe la parole ? Vous allez voir ça : vous allez avoir accès à la version d’origine. Mais qu’est ce que je dis ? Je dis : « C’est gentil, mais on aura peut-être l’occasion de parler de la taxe-robot dans les discussions que nous allons avoir. Mais je voudrais profiter de mes cinq minutes (parce qu’au départ, on n’avait droit chacun qu’à cinq minutes pour introduire un petit peu notre point de vue), je vais plutôt utiliser mes cinq minutes à répondre à la question qui est posée et dont j’ai constaté que personne n’en a parlé, comme j’étais le dernier à intervenir (à part Etienne Klein qui allait faire une conclusion générale), je vais parler de ce mot qui se trouve dans le titre qui s’appelle « Intelligence artificielle et libre-arbitre » : personne n’a parlé du libre-arbitre, alors moi je vais vous dire un mot sur le libre-arbitre.
Le libre-arbitre, c’est donc la liberté que nous avons vous et moi, de faire les choses comme nous l’entendons. Or, vous savez sans doute qu’il y a un monsieur qui s’appelle Stephen Wolfram, qui est un mathématicien, un physicien, il a fait carrière en-dehors des chemins battus, parce que des gens comme ça, dont on ne peut pas dire exactement où ils sont, il vaut mieux qu’ils fassent carrière ailleurs. Mais il a introduit cette notion de distinction entre ce qu’on appelle un système de lois physiques et ce qu’il appelle, lui, l’irréductibilité « computationnelle » ou « du point de vue du calcul ».
Qu’est-ce que ça veut dire ? Il y a des processus déterministes : un processus déterministe, cela veut dire que, au moment t on peut dire ce qui va se passer au moment t + n ou à n’importe quel moment dans l’avenir, puisqu’on a une loi qui dit, par exemple pour une trajectoire, on dit voilà : « Je lance le boulet maintenant et une demi-seconde, il se trouve à tel autre endroit ». Voilà, ça, c’est comme ça que la mécanique classique, comme on dit en physique, s’est constituée.
Mais, dit Wolfram, il y a d’autres types de processus : il y a des processus qui sont déterministes mais dont la complexité est telle qu’on ne peut connaître ce qui va se passer au moment t + n qu’en ayant compris quelles étaient toutes les étapes intermédiaires. Il faut le suivre entièrement, ce processus, d’étape en étape pour savoir ce qui va se passer au temps t + n. On ne peut pas savoir à l’avance : il faut suivre l’entièreté du processus.
Si, disons, un être vivant se trouve à l’intérieur d’un processus qui est déterministe, c’est-à-dire que ça va se passer de manière inéluctable, mais que c’est un processus de type « irréductible quant à sa calculabilité », c’est-à-dire qu’il faut le suivre d’un bout à l’autre pour savoir ce qui va se passer, que pense celui qui est à l’intérieur du processus ? Eh bien, celui qui est à l’intérieur du processus, il a l’impression que les choses se passent non pas au hasard, mais que c’est lui qui est aux manettes. Voilà ! Il comprend les choses qui se passent dans sa tête, il se dit : « Voilà, j’ai l’intention de faire ceci, je prends la décision de le faire et donc ça va se passer ! ». Mais en réalité, c’est un processus déterministe. Et s’il a l’impression qu’il est en train de prendre des décisions et que ses décisions dépendent uniquement de lui – de ce qui se passe dans sa conscience – il a le sentiment d’une liberté absolue.
Mais si Q* – et c’est ça que j’ai dit aux gens à la CNIL – si Q* est capable véritablement de nous déchiffrer entièrement tout ce qui a été encrypté, à l’aide d’un nouveau type de mathématiques qui a été inventé par les machines, et comme dans un texte qui circule en ce moment où le chercheur qui nous révèle comment fonctionne Q* (ce doit être un document interne, les gens disent : « Oui, c’est peut-être un troll qui a écrit ça ! », mais c’est vraiment tellement écrit comme un document interne qu’il est très peu probable que ce soit écrit par un troll parce que les trolls essaient de se faire comprendre malgré tout), s’il est vrai qu’on peut absolument tout décrypter, il est possible aussi que ce processus de notre vie, dont nous avons le sentiment que nous la déterminons – avec bon, quelques petits incidents ici et là, c’est-à-dire des accidents, des trucs, des coïncidences, des machins comme ça – il est possible que la machine puisse vous déchiffrer ça aussi, hein ?
On peut vous dire : « Oui mais les calculs nécessaires, prendraient plus que la longévité, l’âge de l’univers ! », et là, on vous dit maintenant : « Mais regardez AlphaFold qui replie les molécules, là aussi, on nous a raconté que le nombre de combinaisons dépassait le nombre d’atomes dans l’univers ! » et le problème a été résolu.
Une machine qui regarde qui vous êtes au moment t et qui vous dit exactement où vous en serez au moment t + n, elle sait tout. Elle connaît le moment de votre mort en particulier, parce qu’il est à l’intérieur du système.
Alors, si Q* est bien ce qu’on nous dit, et si c’est bien pour ça qu’il y a eu l’affolement qu’on a pu constater dans la firme OpenAI, ce n’est pas seulement le monde sans argent qui est garanti, c’est aussi un monde où on peut savoir d’un bout à l’autre ce que sera sa vie. Là aussi, quand j’ai fini de dire ça, il y a eu comme un grand silence dans l’assemblée à la CNIL. C’était il y a deux jours.
J’ai eu l’occasion, voilà, comme je l’avais soupçonné, j’ai eu l’occasion, au moment des questions de la salle et en particulier parce que Monsieur Cédric O, ancien ministre, a bondi un certain nombre de fois à des choses que je disais, mais en particulier à l’idée d’une taxe-robot qui ne lui paraît pas convenir à un monde ultralibéral selon ses vœux.
Voilà, une petite vidéo sur cette question de l’IA qui a la gueule de bois.
Pourquoi ? Parce que la Singularité est en train d’avoir lieu. L’intelligence de la machine dépassant celle de l’humain est en train de laisser l’humain sur place et l’humain en est réduit à se gratter le crâne en disant : « Où est-ce que ça va ? » Moi, je ne vois que des bonnes choses, je ne vois que des bonnes choses : l’impossibilité d’envoyer des bombes atomiques, l’impossibilité de continuer à vivre dans un monde avec de l’argent et des choses de cet ordre là.
J’étais déjà très optimiste. Mais quand j’ai vu – c’était quoi ? – le 14 mars 2023, quand j’ai vu ce que pouvait faire GPT-4, j’ai dit : « C’est la cavalerie ! ».
La plupart des gens attendent soit que Dieu, soit que des extraterrestres, nous sauvent de la panade dans laquelle on est. Moi je dis : « Voilà, je crois que la cavalerie est là ! ». Ce n’est pas Blücher à la place de Grouchy, c’est véritablement Grouchy !
Eh bien, sur cette bonne note, je vais m’arrêter et je crois que j’aurai encore l’occasion de parler de l’IA et de la Singularité et des choses qui sont en train de se préparer et qui changent de minute en minute, voire de seconde en seconde, voire de milliseconde non milliseconde… c’est plutôt de milliseconde en milliseconde !
Allez, à bientôt.
Illustration par DALL·E (+PJ)
Laisser un commentaire