Illustration par DALL·E (+PJ)
Claude CASTELLUCIA :
Je pense que c’est un point de vue un peu différent.
Donc pour vous, l’utilisation de l’IA, si j’ai bien compris, ce n’est pas juste une transition, mais c’est vraiment une vraie révolution. Et si j’ai bien compris, lors de la préparation, il faut bien entendu former les gens à cette transition, mais aussi compenser la perte de leur travail par une taxe-robot.
Vous avez pas mal travaillé sur la taxe-robot, donc l’idée est intéressante. Est-ce que vous pouvez nous expliquer en cinq minutes en quoi ça consiste?
Début à 3h13m00s
Paul JORION :
Vous faites allusion au fait qu’effectivement nous avons fait une répétition générale. C’était exactement il y a un mois et on s’était mis d’accord sur le fait que je parlerais de cette taxe-robot qui permettrait de financer la disparition des emplois et en particulier un projet qui me tient à cœur, c’est celui de la gratuité pour l’indispensable dans une société où le travail va maintenant véritablement disparaître.
Mais je voudrais faire autre chose parce que je voudrais attirer votre attention sur la rapidité et la taille – vous y avez fait allusion – la rapidité et surtout la taille de la révolution qui est en cours dans ce qu’on appelle parfois la Singularité.
Il se fait que, en un mois, le paysage a véritablement changé. Il se passe tellement de choses, tellement vite – et c’est pour ça que j’ai pris la liberté de ne pas approfondir ce que vous venez de dire – parce que ça me donne l’occasion de parler de ce mot qui est là, le mot sous l’égide duquel nous parlons aujourd’hui et dont personne n’a rien dit, qui est le libre-arbitre.
Voilà donc je me disais : « Si quelqu’un parle du libre-arbitre, je ne le ferai pas. Mais si je suis le dernier et que personne n’a rien dit, j’en dirai un mot. »
C’est une petite fable, c’est une petite fable rapide. Et comme vous savez, dans la fable, ce qui est important, c’est la morale de l’histoire.
Vous allez voir la morale de l’histoire.
Il y a une notion que vous connaissez sans doute de l’école, ou si vous êtes de véritables physiciens comme il y en a ici dans la salle, vous connaissez cette notion d’entropie.
Je n’entre pas dans les détails, mais c’est cette idée qui nous vient de la thermodynamique ou de la mécanique statistique qu’un système organisé a tendance à se désorganiser. Il y a une tendance, il y a une dérive, qui va vers la désorganisation. Et il se fait qu’il y a un scientifique qui s’appelle Monsieur Stephen Wolfram, qui est à la fois un physicien et un mathématicien qui est connu des geeks et des nerds parce qu’il a inventé un outil extrêmement pratique qui s’appelle Mathematica.
Et à propos de cette entropie, récemment, M. Wolfram a dit la chose suivante : « Est-ce qu’il ne s’agit pas d’une illusion ? »
Est-ce que ce n’est pas parce que nous, êtres humains, le fait est que quand nous décrivons un système, nous ne pouvons pas passer une infinité de temps à définir, à décrire un système? Nous sommes obligés de décrire nécessairement un système assez simple. Et si on regarde évoluer ce système d’ordre physique, la probabilité est effectivement extrêmement élevée qu’à l’état suivant qu’on verra au temps t + n, il sera moins organisé qu’au moment t où nous sommes.
Je lui ai proposé un terme – ce n’est pas dans mes habitudes d’inventer des concepts – c’est la première fois que j’en invente un. Je lui ai dit : « Est ce qu’on ne pourrait pas parler à ce propos là d’un artefact épistémique ? »
Ce qui veut dire que c’est parce que nous réfléchissons que nous voyons apparaître quelque chose, c’est lié à notre nature d’observateur.
Il m’a répondu « Oui ». Et je lui ai posé la question à ce moment-là : « Est ce que le libre-arbitre, ce n’est pas la même chose ? » Il me répond là aussi « Oui. »
Pourquoi est ce qu’il me répond ça ?
Parce qu’il a introduit, lui, une notion au titre assez compliqué qui est l’irréductibilité computationnelle. C’est peut-être un terme très long, mais ça nous dit simplement qu’il y a des choses qui sont irréductibles du point de vue du calcul qu’il faut faire.
On a, vous le savez, il y a des lois, des lois de physique qui nous permettent de dire si on décrit un système à tel moment, on peut par une équation, une fonction qui va nous décrire ce qui va se passer, dire ce qui va se passer à un moment ultérieur : il y a une certaine nécessité là-dedans.
Mais, dit-il, il y a d’autres processus qui sont déterministes aussi, où tout va se passer selon un scénario préétabli, mais où pour savoir ce qui va se passer, il faut décrire tous les stades intermédiaires pour arriver à ce sur quoi on débouche.
Alors la question, c’est nous. Si nous sommes à l’intérieur d’un système déterministe, mais où on ne peut pas savoir ce qui va avoir lieu sans être passé par toutes les étapes, quel serait notre sentiment intérieur?
C’est que nous décidons de ce qui se passe, c’est qu’il y aurait un véritable libre-arbitre.
C’est ici qu’intervient la révolution.
Vous avez entendu parler de la révolution de palais qui a eu lieu récemment – on a parlé Monsieur Sam Altman tout à l’heure – M. Sam Altman à la tête de OpenAI – qui produit ChatGPT et qui a été renversé. Et puis la quasi unanimité des travailleurs et des travailleuses de cette entreprise l’a fait revenir.
On n’a pas compris. On n’a pas compris ce qui s’était passé mais il y a eu des fuites. Il y a des fuites, ça date de quoi ? de 72 h ou de 48 h. Les gens nous disent la chose suivante : la génération suivante de ChatGPT, qu’on appelle Q* (Q star), la lettre Q avec une étoile, apparemment, elle permet de calculer en des temps tout à fait faisables des processus dont on imaginait qu’ils demanderaient une quasi infinité de temps. Il y a un processus en particulier qui, pour le calculer, ce serait 1,8 fois dix à la puissance 37 années.
Or, il semblerait que par un nouveau type de mathématiques inventé par la machine – c’est la rumeur qui circule – il serait possible de faire ce type de calcul dans des temps quasi immédiats.
Quelles sont les conséquences de ça ? Vous l’avez compris : tout ce qui est encrypté à l’heure actuelle serait en fait interprétable de manière immédiate.
Alors, la morale de l’histoire?
Cette irréductibilité computationnelle qui est le fait qu’on ne peut pas… voilà, il faudrait passer par tous les stades du processus. Si ce type de calcul est possible pour l’encryptage, il doit être possible aussi pour des processus de ce type-là.
Alors, la morale de l’histoire, c’est la chose suivante.
Ça se passe il y a une douzaine d’années. On me demande de participer à un panel – c’est une firme d’intelligence artificielle, il faut le préciser – parmi les questions qu’on me pose, on me pose la question suivante : « Est-ce que vous allez réagir positivement ou négativement au scénario suivant ?
Vous allez dans un centre commercial pour acheter quelque chose. Et à ce moment là, Siri, le fameux Siri, vous dit à l’oreille, il vous dit la chose suivante : « Et maintenant que tu as terminé ton achat, tu vas te rendre au magasin de chaussures qui est là, tout au fond à droite, tu vas te rendre à la troisième rangée, tu vas regarder l’étagère numéro deux et tu vas acheter la paire de chaussures qui se trouve là. »
Vous allez répondre en disant : « Mais je n’ai aucune intention d’acheter cette paire de chaussures ! etc. »
Et à ce moment là, Siri vous dit : « Si tu ne le fais pas, dans 21 jours, tu vas te rendre dans ce magasin pour le faire, alors fais-le tout de suite ! ».
La morale de l’histoire, c’est que si ce qu’on dit en ce moment – et moi je n’ai aucune preuve que ce ne soit pas vrai – si ce qu’on me dit en ce moment sur la révolution qui a eu lieu avec ce nouveau produit Q* est vrai, à ce moment là, ce scénario sur lequel on me demandait d’émettre une opinion, en fait, il se réalisera.
Illustration par DALL·E (+PJ)
P.S. Merci à Romain Vitorge !
Laisser un commentaire