Retranscription de Où en est l’Intelligence Artificielle ?, le 26 juin 2022
Bonjour, nous sommes le dimanche 26 juin 2022 et aujourd’hui, je vais tenter de répondre à la question : Où en est aujourd’hui l’Intelligence Artificielle ?
Vous avez peut-être vu ça, ça a un peu amusé les journaux, c’était quoi, il y a une semaine – 10 jours. Il y a un chercheur chez Google qui travaille sur des systèmes de dialogue avec les machines, qui a prétendu, un M. Lemoine qui a dit que la machine avait atteint maintenant la conscience, qu’il était clair qu’elle avait une conscience. Il a même été question que cette IA prenne un avocat pour défendre son statut humain, réclame la personnalité juridique. Je n’ai pas réagi tout de suite. Si, j’ai réagi tout de suite : j’ai ri…
Pourquoi est-ce que j’ai ri ? Non pas que cette tâche ne soit pas intéressante. J’ai moi-même aidé à rédiger un texte pour obtenir des financements pour un projet dans ce sens-là, mais c’est parce que je sais à partir de quoi parle ce monsieur. Je sais que les méthodes utilisées pour produire le système avec lequel il dialoguait, et qui l’a convaincu qu’il avait une conscience et qu’il était très très intelligent, et qu’il fallait maintenant défendre ses droits, je connais les méthodes qui sont utilisées pour produire le discours de cette machine, de cette Intelligence Artificielle et je sais que, je suis personnellement convaincu que ce n’est pas sur cette voie-là, ce n’est pas là qu’on va trouver de la conscience.
On peut trouver de la conscience et j’ai déjà travaillé sur cette question-là de manière indirecte et j’y travaille en ce moment mais ce qui m’a fait rire : je savais qu’il cherchait midi à 14 heures. C’est un monsieur un peu mystique. Sa compagnie l’a viré si j’ai bien compris, parce qu’il insiste un petit peu trop. Son enthousiasme était prématuré. Il a vu la machine qui dialoguait avec lui, qui lui répondait, mais d’une certaine manière, on n’avait pas fait, dans ce système [ELIZA] qu’il utilisait, on n’avait pas fait de progrès depuis que M. Joseph Weizenbaum – c’était quoi, dans les années 70 [1964-66] – avait une machine qui, quand l’interlocuteur disait, racontait des trucs sur sa mère, la machine répondait : « Mais parlez-moi aussi de votre père ».
Bon, voilà, c’est à ce niveau-là. C’est plus sophistiqué mais c’est toujours dans la même voie, c’est-à-dire que, maintenant, on vous dit : on a mis un trillion, mille milliards de mots dans la machine. On ne parle pas de mots parce qu’il n’y en n’a pas autant mais de phrases qui ont été prononcées, de discours, etc. et la machine produit un discours qui ne peut pas imaginer quoi que ce soit puisqu’il joue sur des corrélations de textes qui lui ont été mises en boîte, il les a « apprises » si vous voulez mais ce n’est pas apprendre comme moi j’appelle apprendre quand je parle d’Intelligence Artificielle.
Bon, alors, du coup, pas mal d’articles sur : « Où en est l’IA ? » En fait, les gens qui ont répondu un peu violemment à ce M. Lemoine, y compris ses employeurs, ont dit : « On est encore très loin d’arriver à faire des choses de cet ordre-là ». D’ailleurs, on a fait à ce moment-là une liste assez complète de choses qui apparaissent comme des goulets d’étranglement encore en IA. Bon, mon sentiment, c’est que ces goulets d’étranglement n’en sont pas. Ça m’a conduit à relire ces jours-ci un livre que j’ai publié en 1989, en novembre 1989. Le voici sous la forme, sous sa forme actuelle : « Principes des systèmes intelligents » aux Editions du Croquant.
Ce n’est pas l’édition originale. Pourquoi ce tableau de Paul Klee ? Eh bien, parce qu’on m’avait présenté très aimablement un projet de couverture et comme je savais que l’éditeur, la personne qui s’occupait de cette maison d’édition s’intéressait tout particulièrement à la peinture et avait fait des choix tout à fait intéressants d’Edward Hopper et de… je ne sais plus, ça devait être un des Bruegel, de la famille Bruegel, pour un de mes livres, etc. et j’ai dit : « Écoute, ce circuit imprimé que tu me proposes sur la couverture, je trouve qu’il ressemble à un tableau de Klee. Pourquoi est-ce qu’on ne mettrait pas le tableau de Klee à la place ? », ce qu’on a fait.
Donc, ça, c’est la réédition de 2012, donc, 2012 et 11, 23 ans plus tard, le livre est reparu et on est 10 ans plus tard de la nouvelle édition. De quoi s’agissait-il ? Il s’agit d’un livre où je décris le projet d’Intelligence Artificielle que je réalise à cette époque-là pour les British Telecom qui ont un projet d’Intelligence Artificielle qui s’appelle Connex et auquel on m’a demandé de participer. Et je sors tout à fait de la boîte comme on dit, je sors complètement du cadre. Je dis : « Je vais prendre le modèle psychanalytique pour faire une machine intelligente ». Ça ne surprenait pas la personne qui m’avait recruté parce que c’est en m’entendant parler de ça à un colloque qui l’avait conduit à m’aborder et à me proposer de faire partie de son équipe naissante à Ipswich, au siège de British Telecom. Donc, ce n’était pas une surprise pour lui. Lui, il avait reconnu, M. [Robert] Linggard avait reconnu qu’il y avait là quelque chose qui l’intéressait. Il ne savait pas ce que ça pourrait donner. Ce n’était pas du tout dans la voie de l’IA de l’époque et ça ne l’est toujours pas, ça ne l’est toujours pas.
Alors, qu’est-ce qui s’est passé depuis ? Il s’est passé que je me suis dit : « Un jour, on retrouvera la voie que j’ai annoncée parce que c’est la seule qui pourra marcher. On va continuer pendant des années à aller dans des voies de garage et un jour, un jour, on se tournera vers mon livre ». Je m’étais dit que ce serait après ma mort : qu’on retrouverait ça après ma mort, et que ce n’était pas mauvais qu’il y ait une deuxième édition, un deuxième tirage : comme ça quelqu’un, un jour, trouverait ça. Il s’est fait que ça a été retrouvé alors que j’étais toujours en vie. C’est Luca Possati de l’Université de Porto au Portugal qui a retrouvé « Principes des systèmes intelligents ». Il l’avait trouvé d’ailleurs avant que j’aie l’occasion de le rencontrer, lui, en tant que visiteur à l’Université Catholique de Lille et il a publié un livre où il y a un petit chapitre consacré à « Principes des systèmes intelligents », ce qui a conduit les personnes de Elif Lab à Milan de me contacter il y a à peu près un an et demi en me disant : « On avait préparé un projet et puis, on apprend par Luca que vous êtes le pionnier dans ce domaine » et on me dit des choses très aimables, on me dit : « On a ce sentiment d’étrange inquiétude, d’inquiétante étrangeté, dont parle Freud, qu’en lisant votre livre, on s’aperçoit que, voilà, les choses qu’on croyait inventer se trouvaient déjà là ».
Ça a conduit du coup à ce qu’on fasse, les gens d’Elif Lab et moi, un projet commun qu’on a présenté aux Institutions européennes pour obtenir un financement et là, catastrophe à leurs yeux, et rengaine aux miens, on s’est trouvés à voir notre projet jugé par des personnes qui appartiennent sans doute à l’Intelligence Artificielle mais, je dirais, à deux générations ou trois générations avant celle dont nous parlons, qui est à l’avant-garde, qui est en dehors du cadre, qui est autre chose, et là, j’ai eu la même surprise que quand j’ai vu le premier compte-rendu de mon livre « Comment la vérité et la réalité furent inventées ? », où j’avais passé 20 ans à faire l’archéologie de ces deux notions qui nous paraissent tout à fait évidentes parce que nous savons ce qu’est la vérité et la fausseté – encore qu’on commence à hésiter un peu ces jours-ci – et que nous savons ce que c’est la réalité objective. Non, non : ce sont des notions qui sont nées dans notre culture. La gestation a été difficile. Ça a été une naissance au forceps : ça a été de grandes bagarres entre les sophistes, Platon et Aristote de l’autre côté. Ça a été des bagarres au Moyen-âge. Des universités ont été fermées. On a pensé faire venir les troupes pontificales pour remettre de l’ordre pendant qu’on résolvait ces questions donc l’invention de la vérité et de la réalité n’est pas une découverte : ça n’a pas été un long fleuve tranquille. Alors, quand je vois le premier compte-rendu de ce livre et qu’il y a une personne qui me dit : « Mais de quoi ça parle », etc. et je regarde, et quelqu’un me dit : « Regardez, regardez ce paragraphe-là » dans son compte-rendu et où cette personne dit : « Mais pourquoi Jorion parle-t-il soudain de comptabilité ? », j’ouvre les yeux comme des soucoupes : je suis sûr que le mot « comptabilité » n’apparaît nulle part dans ce livre ou si, peut-être, s’il y a une allusion, je dirais, à la naissance de la banque moderne, peut-être dans une note en bas de page. Eh bien non, cette personne avait lu « comptabilité » là où il était mis … « compatibilité », voilà.
C’est un peu l’idée qui m’est revenue quand j’ai lu les critiques de notre projet, je me suis dit : « Bon, il y a des gens qui sont prêts – la preuve, l’équipe de Milan – et puis, il y a des gens qui sont encore… », C’est peut-être un truc un petit peu constant, je dirais, pour juger de la qualité des projets, des nouveaux projets, des projets innovants, on ne trouve peut-être pas nécessairement des gens innovants pour émettre un avis là-dessus.
Ce qui s’est passé récemment avec ce monsieur qui dit qu’il a trouvé la conscience dans une machine, c’est que plusieurs articles ont donc été consacrés au fait que quels sont ces goulets d’étranglement ou (« goulots d’étranglement » puisqu’on fait l’erreur) ? Qu’est-ce qu’il faut encore résoudre ? Et à ce moment-là, ce que j’ai fait – c’était il y a plusieurs semaines – j’ai repris mon propre ouvrage. Il y a des gens que ça épate ça, l’idée que quelqu’un pourrait lire son propre livre (et ceux qui ont écrit des livres et qui les relisent savent de quoi je parle : ça, je dirais, c’est mon bagage freudien qui m’encourage à reconnaître les choses comme ça), quand on écrit un livre, il y a la part que la conscience dirige et il y a toute la part de l’inconscient et dans la part de l’inconscient (comme ça vient d’un endroit qui n’est pas facilement accessible), quand on relit une partie qui a été écrite par l’inconscient, on la découvre peut-être. Pourquoi ? Parce que ce n’est pas venu à la conscience encore. Et j’ai eu une conversation de ce style-là il y a pas trop longtemps avec Emmanuel Todd et on comprend de quoi on parle. Tout particulièrement, dans ce livre, il y a un dernier chapitre dont j’avais gardé le souvenir. Je me suis dit : « Là, j’ai quand même peut-être mis un peu n’importe quoi » parce que je ne savais pas comment terminer. Donc j’avais une sorte de remords à propos de ce dernier chapitre en me disant : « Ça cale peut-être à cet endroit-là ! ». Et je viens de le relire ce matin. Et c’est un phénomène comme celui que je viens de dire. Je vais le formuler de cette manière-là (et les gens qui ne comprennent pas qu’on puisse apprendre quelque chose en lisant ses propres livres, bon, ils vont pousser des hauts cris), je vais dire la chose suivante : dans ce dernier chapitre, ma pensée dépassait ce que je savais, c’est-à-dire que c’était plus malin que moi à l’époque où je l’ai écrit. Là aussi : « Comment est-ce possible ? ». Eh bien non, si vous êtes un peu familier avec la psychanalyse, vous comprenez ça parfaitement. La pensée dépassait… Les mots me sont venus, les citations. J’ai parlé de [Joseph] Sneed, je parle de [Wolfgang] Stegmüller et, en fait, j’appelle ce chapitre : « La signification de la phrase » et ça explique ce qu’est la signification de la phrase même si je n’avais pas compris à l’époque ou j’avais l’impression que j’étais un petit peu à côté de la plaque. Eh bien, maintenant, je considère que non, non, ce livre s’était clos sur lui-même de la manière qu’il fallait.
Résultats des courses, c’est la chose suivante : c’est que donc, relisant, faisant la liste de tout ce dont on nous dit que ce n’est pas encore résolu en intelligence artificielle, j’ai relu mon propre livre en me disant : « Y a-t-il la solution à tous ces problèmes dans ce livre ? » et c’est ça qui justifiait que je fasse une vidéo ce matin. La réponse est oui, il y a réponse à tout. Bien sûr, c’est dans l’ordre des degrés d’élaboration, je dirais, plus ou moins avancé.
Quand j’ai fait le projet ANELLA qui, donc, a été celui que j’ai fait pour British Telecom : Associative Network with Emergent Logic and Learning Abilities, je le dis lentement en français, en traduction : Réseau associatif aux propriétés émergentes de logique et d’apprentissage, eh bien, il y a là exactement tout ce qui manque dans l’IA actuelle, celle qui s’est faite uniquement à partir de techniques de deep learning, en utilisant des réseaux neuronaux artificiels plus ou moins domestiqués parce que, ce qu’il y a dans mon livre, c’est un réseau neuronal mais, si vous voulez, il est entièrement domestiqué : il ne joue pas du tout sur les propriétés brutes, sur les effets non-linéaires qu’on obtient quand on utilise un « perceptron », puisque c’est le nom de l’objet au départ. Quand on utilise ça, non, c’est un réseau, c’est un réseau neuronal qui est compatible, on peut le déposer sur une carte qui serait celle des véritables connexions de neurones et on pourrait le mettre, l’implémenter comme on dit en informatique, le réaliser de cette manière-là.
Et donc, j’ai le sentiment non seulement que M. Luca Possati avait fait une bonne chose en ressuscitant mon projet, que l’équipe de Elif Lab à Milan avait bien vu le potentiel que cela a maintenant. Pourquoi est-ce que c’est différent maintenant qu’en 1987 à 1989, quand j’ai fait ce truc ? C’est parce que c’est beaucoup plus simple, ça va beaucoup plus vite parce qu’il y a des tas de bibliothèques, en programmation. Il y a des modules ici et là. On peut connecter à des API : des bibliothèques où on va simplement rechercher un livre sans se préoccuper même de comment la bibliothèque est organisée. Quand je devais faire un graphe, quand je devais faire une représentation en 3 dimensions du graphe que la machine avait produit comme étant sa mémoire, ANELLA, eh bien je faisais partiellement à la main parce qu’il aurait fallu produire tout un logiciel de représentation en 3D d’un réseau et ça n’existait pas, en tout cas c’était pas facile à trouver : il y avait peut-être quelqu’un quelque part qui avait fait ça mais les communications n’étaient pas [avant l’Internet] ce qu’elles sont maintenant. Maintenant, on regarde, pof, on trouve ça, c’est-à-dire que c’est beaucoup plus facile de le faire maintenant. Ce qui manquait, il manquait non seulement l’accès à des bibliothèques, à des modules qui seraient du préfabriqué, auxquels on peut simplement se rattacher. Et la puissance des machines n’était pas là, la puissance des machines n’était pas là. Ce que je demandais n’était pas extraordinaire mais il fallait déjà à l’époque [de 1987 à 1989] attendre un peu que… bon, quand ANELLA n’avait qu’une centaine de mots à sa disposition, il ne fallait pas attendre mais dès qu’il y avait un problème de scalabilité comme on dit maintenant, « scalability », un problème d’échelle, c’est-à-dire que dès qu’on passait à des choses plus réalistes comme avoir 30 000 mots, ça commençait à ramer. Ce n’est plus le cas : le hardware et le software, les logiciels autour, permettent de faire ça beaucoup plus rapidement.
Alors, qu’est-ce qu’on s’est dit ? Qu’est-ce qu’on s’est dit ? Qu’est-ce qu’on s’est dit Manuel Guérin et moi ? On s’est dit : « Eh bien, on va le faire nous-même », voilà. On va faire des choses : au départ, ça coûte relativement pas cher. On peut le faire avec nos propres moyens, lancer la machine. On va montrer ça à des gens, on va montrer des choses qui vont les convaincre. Il y aura l’effet Waouh tout de suite parce que l’effet Waouh, il était déjà dans ANELLA avec 500 [P.J. hmm… j’exagère peut-être à la bisse] lignes de code. Les gens disaient : « Comment est-ce possible qu’un truc comme ça… Cen’est pas possible, on disait, qu’avec 500 lignes de code, ce machin paraisse aussi intelligent ». Oui, mais ce machin paraissait aussi intelligent parce qu’il avait une histoire, parce qu’il s’intéressait, du coup, à certaines choses que l’interlocuteur lui disait et se désintéressait d’autres. Il ne se répétait jamais. Il avait « compris » que si on lui posait une question et qu’il avait donné quelque chose et qu’on lui reposait la même question, il savait que la première réponse n’était pas la bonne [P.J. simplement parce que les valeurs d’affect avaient baissé sur ce qui venait d’être énoncé, qui avait perdu du coup de sa pertinence] et la fois suivante, quand il reparlait avec cet interlocuteur, il avait constitué avec cet interlocuteur un savoir partagé et l’interlocuteur disait : « Il est tellement intelligent d’avoir un savoir partagé ! ».
Bon, c’est le problème qu’on a maintenant, c’est que non seulement les gens qui produisent de l’IA mais aussi leurs utilisateurs ne comprennent pas de quoi il s’agit : ou bien on fait une machine qui est comme un être humain et cette machine aura une histoire, et il se fera que certaines de ces machines qui auront une histoire seront des racistes et l’interlocuteur ne tombera pas de sa chaise en disant : « Ah, regardez, regardez, il a dit quelque chose de raciste, etc. L’Intelligence Artificielle a dit quelque chose de raciste ! ». Mais oui ! c’est parce qu’on a essayé de faire comme un humain et figurez-vous, tout le monde n’est pas comme vous qui, bien entendu, n’avez aucune prédisposition de ce côté et donc, les gens qui, de nos jours, sont des interlocuteurs de choses qu’on organise comme ça (ce ne sont pas les bonnes méthodes, je vous l’ai dit), et comme on ne répète que des choses, finalement, (recomposées ou pas), que des choses qui ont déjà été dites, c’est quand même toujours de l’existant et donc, eh bien, il est possible qu’une instance d’un de ces systèmes, que ses règles politiquement correctes ne soient pas exactement les mêmes que vous.
L’utilisateur veut une IA aussi intelligente, aussi belle, aussi morale que l’utilisateur. Et si on ne lui offre pas ça, il se met à pousser des cris de putois. Il ne se rend pas compte que si on essaye de reproduire de l’humain, on va produire de l’humain avec tous ses travers. Donc, on a compris ce que ces gens-là veulent : c’est du complètement aseptisé, c’est du truc où, quel que soit le dictionnaire de règles de politiquement correct qu’on puisse inventer, l’IA ne déborde jamais du chemin, ne se trouve jamais en dehors de ça. Elle ne dira jamais… En fait, elle offrira toujours son portrait à tout utilisateur, son portrait confirmera exactement les idées qui sont les siennes, ce qu’on recherche bien entendu sur les réseaux sociaux où on ne va pas se mettre à un endroit où tout ce qu’on trouve vous énerve. Mais il faut savoir ça.
Il faut savoir ça : quand on fait AlphaGo, AlphaGo qui va gagner, contre tous les grands joueurs de Go. Bon, alors, nous, les profanes, on se dit : « Ils ont inventé une machine qui s’appelle AlphaGo et puis cette machine, c’est un Terminator : il va jouer contre les gens et il va gagner au Go ». Mais non, ce n’est pas comme ça qu’ils ont fait ! D’abord, ils ont fait jouer des AlphaGo entre eux mais il y en avait qui devenaient bons et d’autres qui restaient pas terribles. Puis, ils ont fait des AlphaGo qui ont appris uniquement en jouant avec eux-mêmes. Mais encore là, tous ces AlphaGo ont une histoire, une histoire personnelle : ils ont appris dans un ordre particulier et ça a fait une différence. Alors, quand on fait le grand tournoi contre les joueurs humains, on ne prend pas un AlphaGo comme ça qu’on est allé chercher dans le placard et on le met… Non, on prend le meilleur qu’on a, on prend le meilleur qu’on a ! Est-ce que celui-là, il ne sera pas un peu plus raciste que le moins bon ? Mais ça n’a pas d’importance qu’il soit un peu plus raciste puisqu’on joue au Go, vous voyez ce que je veux dire.
Vous voyez l’image que je propose ? Si vous jouez contre un type au tennis. Bon, vous jouez avec un très bon joueur, ça vous fait plaisir. Le coup d’après, vous jouez avec un nul et on perd vraiment son temps parce que, voilà, du coup, on joue mal aussi parce qu’on joue avec un nul. Il se fait que celui qui joue bien, il a des opinions politiques abominables : c’est vraiment une ordure ce gars quand il sort du terrain de tennis. Celui qui gâche la partie parce que, eh bien, il est vraiment en-dessous de tout, il a les opinions politiques exactement comme les vôtres : il pense, sur tout, de la même manière mais on joue au tennis. On joue au tennis et c’est autre chose : on s’en fout du reste à ce moment-là. Il faudrait que, dans l’attitude des gens vis-à-vis des IA, on tienne compte de ça.
Moi, j’ai compris ça. Alors, mes ANELLA individuelles, elles auront des personnalités individuelles puisqu’elles apprennent les choses dans un certain ordre et comme je l’expliquais dans le livre, une ANELLA qui aurait d’abord appris à devenir médecin et qui aurait appris à devenir ingénieur après et une qui serait devenue d’abord ingénieur et après médecin, si on leur pose des questions d’ingénierie et après de médecine, elles ne donneront pas la même réponse parce que ça se sera inscrit à des endroits différents, parce que ça ce sera construit à partir de modèles qui étaient déjà un peu différents les uns des autres.
Ça, il faut le savoir, mais bon, si on veut produire une machine qui est consciente d’elle-même et qui répond aux besoins, voilà, de tous les utilisateurs, on sait très bien, Manuel et moi, on sait – et François qui fait de la programmation pendant ce temps-là en arrière-plan – on sait très bien ce qu’on va faire : on va faire nos machines qui ont une histoire et on a un modèle freudien (ça ne nous dérange pas du tout nous) et on va leur donner un Surmoi. Et le surmoi, qu’est-ce que c’est ? Le surmoi, c’est le « social intériorisé » de Durkheim. C’est cette instance avec tous les droits et devoirs que nous ont donnés nos parents, les maîtres d’école, les parents, les grands-parents, toute la culture autour de nous. C’est le système qui filtre, qui fait que tout ce qui sort de l’inconscient n’est pas bon à dire : « toute vérité n’est pas bonne à dire », voilà, et ça, on le sait. Et donc, quand on aura, voilà, des clients qui nous diront : « Il ne faut surtout pas qu’il y ait le moindre dérapage par ici ou par là ! », on le mettra, parce que c’est facile ça : ça, ce n’est pas une question d’auto-organisation. S’il y a une règle qui dit : « On ne peut pas dire des choses qui supposent une inégalité fondamentale entre les hommes et les femmes », bon, si la machine vient avec un truc qui ne passe pas le test, eh bien, on ne le verra pas en sortie, voilà. Et ça, cette approche-là, c’est ce qu’on appelait des « systèmes-experts » et ça, ça existe depuis très longtemps et je suis sûr que ça s’est perfectionné depuis.
Donc, voilà : qu’est-ce qui nous a conduits à créer cette compagnie ? C’était le soupçon que j’avais que « quand je relirais ça [Principes des systèmes intelligents] – et je l’ai relu maintenant de bout en bout et c’est plein de rouge, et de vert, et de trucs – j’aurai le sentiment (c’était un test que je faisais), est-ce qu’il y a certains de ces goulets d’étranglement qui se trouvent encore que mon bouquin n’a pas résolus ? » Voilà.
Alors, vous me direz : « Maintenant, personne n’a besoin de votre Société Pribor puisque tout ça est dans le bouquin : il suffit d’acheter le bouquin et on peut faire exactement la même chose que vous ». Oui, mais mon expérience qui est que les gens ne comprennent rien à ce que je raconte[rires], me rassure sur ce plan-là : ils auront besoin de mon explication. Encore que, pas tout à fait, parce que, par exemple, il y a une méthode, voilà, une méthode de résolution des problèmes par descente de gradient et là, je l’ai dit, c’est quelqu’un qui a attiré mon attention là-dessus, qui avait lu mon livre et qui connaît les travaux de Yann LeCun, quand c’est sorti il y a quelques mois, voilà, dans une présentation de Yann LeCun, qu’il avait utilisé cette méthode de gradient qui, à ma connaissance et la connaissance de mon lecteur, on n’avait jamais vu nulle part, ce lecteur m’a dit tout de suite : « Hé, regardez, il est en train de mettre en œuvre ANELLA ! ».
Bien, et oui, bien sûr, bien entendu, ce livre, il est disponible depuis 1989 mais le fait est que, à part Luca Possati qui dit : « Ça existe, et c’était une bonne idée ! », personne n’en a encore rien tiré. Alors, si tout le monde maintenant se dit que c’est une bonne idée, eh bien, il y aura la Société Pribor qui sera là aussi et à laquelle on pourra s’adresser. Bien entendu, on aura le choix d’acheter le bouquin et d’essayer de bricoler ça de son côté, sans me demander mes conseils, mais au moins, nous serons en train de le faire et si on veut, on pourra me demander « qu’est-ce ça veut dire exactement quand vous dites ceci ou quand vous dites cela ? », voilà.
Voilà mon petit point sur l’avenir de l’Intelligence Artificielle. C’est vrai que c’est calé à de nombreux endroits mais ce n’est pas qu’on ne connaisse pas ce qu’il faut faire et, en particulier, il y a un livre où on vous donne la solution, à mon avis, de la quasi-totalité (en tout cas de ce que j’ai pu voir, de la totalité) des problèmes qui se posent encore. C’est simplement qu’il faudrait que ces gens prennent l’habitude de penser hors du cadre, out of the box, et que quand ils voient ce qu’il se passe, qu’on leur propose en dehors du cadre, qu’ils ne se grattent pas le crâne et lisent le mot comme étant « comptabilité » alors qu’il est écrit « compatibilité ». C’est ça le problème quand on lit, je dirais, mon livre sans éventuellement, je dirais, un peu d’explications de moi, c’est qu’on va lire dans un mot, on va lire autre chose que ce qui est écrit, voilà.
Bon, c’est très excitant. Ça prend beaucoup de mon temps et, bien entendu, ça explique un peu pourquoi… Quand on me dit : « Vous faites surtout des vidéos en ce moment », oui, eh bien, je fais surtout des vidéos parce que ça va plus vite que d’écrire de longs textes et pourquoi ? c’est parce que je suis en train d’écrire de longs textes mais ce sont des spécifications, des cahiers des charges, pour la manière dont on veut avancer avec Pribor.
Alors, Pribor, pourquoi Pribor ? Ça a un petit air, voilà, un petit air, je dirais, des années 50 comme nom d’une société. En fait, c’est Manuel qui a trouvé ça, Pribor, c’est le nom actuel de la ville où est né Sigmund Freud. Ça s’appelait autrement, ça avait un nom allemand à l’époque où lui est né dans un pays qui était l’Autriche [Freiberg in Märhen]. Aujourd’hui, la ville de Pribor est en Tchéquie mais ça nous a paru amusant d’appeler, voilà, de donner un nom à la fois qui a un petit air, voilà, de science des années 50 mais qui, en réalité, est le nom de la ville de naissance de Sigmund Freud.
Je ne crois pas que ce sera la dernière fois que je parlerai de ce genre de sujet. L’actualité, malheureusement, m’oblige à parler de choses autrement plus sinistres mais bon, j’essaye quand même de placer ici et là mon plan C. Mon plan C étant, comme vous le savez, j’en parle en particulier dans ce livre sur le transhumanisme et le posthumanisme, mon plan C étant d’être prêt au moins au fait qu’il y ait des machines intelligentes à une époque où peut-être que la manière dont nous sommes conçus, voilà, à base de carbone, que ce soit pas assez résistant pour l’environnement qui se sera développé dehors.
Allez, à bientôt !
Laisser un commentaire