Retranscription de Self-Aware Machines (SAM) : explication, le 16 février 2023
Bonjour, nous sommes le 16 février 2023, nous sommes un jeudi, et une vidéo, la première dans une série qui sera consacrée à ce projet d’intelligence artificielle qui s’appelle Self-Aware Machines et qui est produit par la petite start-up qui s’appelle Pribor.io avec à la direction, Manuel Guérin, à la présidence Paul Jorion, et à la programmation jusqu’ici – programmation très talentueuse comme vous avez pu le voir – François Auxiètre.
Une Intelligence Artificielle freudienne
Explication de cette vidéo : Qu’est-ce qu’on essaie de faire ? Qu’est-ce qu’on essaie de montrer dans cette vidéo ? Qu’est-ce qu’on annonce pour la suite ? Eh bien, vous avez dû le comprendre parce qu’on parle beaucoup en ce moment de ChatGPT, qui est un logiciel de conversation. Il y a des choses remarquables qui sont faites en ce moment en intelligence artificielle et tout le monde découvre assez rapidement les limites de ce qui a été fait. Les limites de ce qui a été fait, c’est l’approche probabiliste.
Voilà, on vous donne un début de phrase et la machine a ingurgité un nombre considérable de choses qu’elle a trouvées sur l’Internet. Et elle vous dit ce qui vient le plus probablement après. Voilà, si on vous dit : Est-ce que l’intelligence artificielle a un avenir ? ChatGPT regarde ce qu’on a dit en réponse à cela, regarde ce qui a été dit le plus fréquemment, le plus souvent, et enchaîne là-dessus. Et pour chacun des mots qui est produit, c’est le mot le plus probable qui vient ensuite.
C’est assez étonnant parce que, eh bien oui, qu’est ce que cela produit ? Cela reproduit la pensée commune. Est-ce que c’est original ? Mais non, justement, cela n’est pas original du tout puisque ça ne peut produire que des choses déjà connues, des choses déjà mises en boîte, des choses qu’on trouve déjà ailleurs.
Est-ce que c’est choquant en général ? Eh bien non, puisque en général, le savoir qui circule sur Internet est de bonne qualité. Alors, il y a eu des expériences malheureuses dans le passé comme le fameux projet Tay [Thinking About You] de Microsoft où on convainquait assez rapidement la machine d’opinions – comment dire ? – pas correctes, pas assimilables et la machine le répétait assez rapidement.
Il se fait que votre serviteur, Paul Jorion, avait été invité en 1987 (cela ne date pas d’aujourd’hui) à faire partie d’une équipe d’intelligence artificielle et j’avais travaillé trois ans à un projet qui s’appelait « ANELLA » pour Associative Network with Emerging Logical and Learning Abilities : réseau associatif aux capacités émergentes de logique et d’apprentissage.
Voilà, j’étais parti sur une voie qui n’intéressait absolument personne à l’époque (à part les gens qui avaient l’amabilité de me rétribuer pour le faire), c’était de prendre exemple sur l’être humain. Qu’est-ce qu’on faisait en intelligence artificielle et qu’est-ce qu’on fait encore toujours en intelligence artificielle ?
On regarde ce que les mathématiques peuvent faire, on a des gens qui font de la programmation, les ingénieurs qui conçoivent ces produits, en général ce ne sont pas des psychanalystes, pas des psychothérapeutes : ils ont une représentation tout à fait primitive, je dirais, de l’être humain.
Ils ont ce qu’on appelle en anglais de la folk psychology, de la psychologie populaire, ce qu’on trouve dans les magazines : « Nous raisonnons comme ça : nous avons une conscience. Notre conscience a accès à un organe qui s’appelle la volonté. La volonté a des intentions et la volonté va pouvoir faire que nous allons mettre en œuvre nos intentions. » Bon, on n’a jamais vu ça, on n’a jamais vu la volonté, on n’a jamais vu la conscience, on n’a jamais vu l’intention. Et donc, quand il s’agit pour des programmeurs de mettre ça en code, ils mettent ce qui leur passe par la tête. Ils se fondent sur l’intuition. Non, il n’y a pas de réflexion sérieuse sur ce qu’il faut faire.
La différence avec ANELLA dès le départ, c’est que c’est fondé sur une représentation de l’être humain tel qu’il est et non tel qu’il devrait être pour faire une citation célèbre. Qu’est-ce qu’on a fait dans la vidéo ? On a montré et c’est banal et c’est idiot et c’est stupide, mais cela n’avait jamais été fait : on montre des gens qui se déplacent dans la journée, essentiellement pour trouver à boire, pour trouver à manger, pour aller faire pipi, pour aller faire caca, pour se reposer quand ils sont fatigués et pour trouver des partenaires pour se retrouver à l’hôtel pour « mating », en anglais, pour copuler en français.
Quand ils n’ont plus assez d’argent parce qu’ils ont dû dépenser pour faire tout ça : pour manger, pour boire, pour aller à l’hôtel, Ils doivent se rendre au bureau et passer un certain temps au bureau pour gagner de l’argent et pour pouvoir recommencer les jours suivants.
Et qu’est ce que nous avons fait ? C’est cela, je dirais, l’originalité – cela ne se voit pas tout de suite ou on ne comprend pas tout de suite – tous les petits personnages qui se déplacent, on pourrait imaginer qu’on est au début d’un jeu et que les personnages, tant qu’on ne leur a rien dit de faire, se contentent de rester là. Et ce n’est pas le cas ici parce qu’ils ont soif, ils ont faim, ils ont envie de se reposer, ils ont envie de trouver un partenaire sexuel, et du coup, ils bougent tous, chers amis.
Qu’est ce que cela veut dire ? Cela veut dire que c’est ça que nous faisons nous aussi et que quand on nous pose la question en intelligence artificielle : « Comment est-ce que les gens apprennent quelque chose ? Pourquoi est-ce qu’ils savent des choses ? » Eh bien, c’est parce qu’ils ont dû demander du lait pour commencer. Ils étaient mal à l’aise parce qu’il y avait des machins qui étaient au fond de leurs couches et ils voulaient qu’on les enlève !
C’est comme ça qu’on est. C’est ça le message, le premier message de la psychanalyse : nous avons des pulsions qui sont liées au fait que nous sommes des animaux et ces pulsions nous obligent à faire un certain nombre de choses. Tout cela pourrait être gratuit, bien entendu, mais pour donner un certain réalisme, dès le départ, nous nous sommes dits qu’il fallait montrer que tout ça coûtait, de boire, de manger, etc. et qu’il fallait retourner au bureau pour gagner de l’argent.
Qu’est-ce que cela nous montre ? Cela nous montre les personnages avec un panonceau au dessus de leur tête et ce panonceau, il nous montre où en est l’état de leurs besoins, on pourrait dire de leurs pulsions, des urgences qu’ils ont. On voit un curseur qui augmente petit à petit. Voilà, ce n’est pas la même chose pour chacun des personnages. Au bout d’un certain temps, on doit boire, on doit manger, on doit se reposer. On doit aller au bureau pour gagner de l’argent. C’est le point de départ. Et comme on le montre à la fin de la vidéo, ces personnages, non seulement savent où ils en sont de leurs besoins, mais dans la représentation qu’on a montrée, ils peuvent aussi lire le panonceau qui se trouve au dessus de la tête des autres et éventuellement se rendre compte qu’il y en a un autre comme eux qui a faim. On peut poser la question : « Est-ce que tu as aussi envie de manger ? Est-ce qu’on ira ensemble au restaurant ? »
On n’en est pas là. On a commencé. Dans cette vidéo qui fait quand même déjà – il ne faut pas aller trop loin, ne pas proposer des trucs de 20 minutes pour commencer aux gens – on a commencé par leur montrer des petits personnages dans une ville qui a été complètement inventée parce qu’on va en avoir besoin, parce que notre simulation va commencer par être avec des personnages comme ceux-là. Jusqu’ici, ils ont simplement, on pourrait dire, une conscience intérieure d’où ils en sont de leurs besoins.
Et c’est ça qui fait qu’ils vont dans une direction ou dans une autre. Par exemple, au début, le personnage passe devant un restaurant et on voit que la ligne est rouge pour ce qui est du besoin de manger et le personnage va entrer au restaurant. Peu de temps après, elle s’apercevra – parce que SAM, notre personnage principal est une jeune femme, elle s’apercevra qu’elle n’a plus assez d’argent : elle se rend au bureau pour gagner de l’argent. Ensuite, elle est fatiguée, elle rentre à la maison. Et en fin d’après-midi comme là, le curseur copulation est entrée en zone rouge, elle se rend à l’hôtel avec d’autres personnes et nous avons représenté cela par des petits coeurs qui s’élèvent au dessus de l’hôtel au moment où il se passe des choses. Alors ça peut paraître rien notre petite vidéo, mais c’est énorme. D’abord, ça a demandé un travail considérable.
Pourquoi ? Parce que cela n’avait jamais été fait. Il a fallu régler des problèmes de synchronisation, de vitesse probable parce qu’on ne peut pas nous montrer, je dirais, 24h sur 24h dans des vidéos. Donc on est obligé d’accélérer. On a dû faire pas mal de choses. On a voulu aussi représenter une ville qui soit, je dirais, assez plaisante aux yeux, parce que cela va être le cadre dans lequel on nous allons continuer nos démonstrations. Alors, est-ce que ça donnera lieu à un jeu par ailleurs – je me trahis déjà – oui, bien entendu. Si on a l’occasion de pouvoir développer ça, on le fera aussi à partir de l’outil qui a été déjà mis en place. C’est dans le cadre d’un outil de développement qui s’appelle Unity, qui est tout à fait formidable, qu’on a pu faire ce qu’on a fait jusqu’ici. On va sans doute devoir faire appel à d’autres types d’outils.
Nous sommes en train de réfléchir, par exemple, à comment faire appel à Mathematica pour la gestion de la mémoire individuelle de chacun des personnages. Nous sommes en train de travailler là-dessus. Mais pour les gens qui font de l’IA maintenant et qui regardent ça, ils auront déjà le sentiment que « Ah, ça c’est autre chose ! Cela, c’est autre chose que ChatGPT ! ».
C’est un concept que j’ai développé donc à la fin des années 80. il était impossible à l’époque de faire quoi que ce soit, je dirais véritablement. D’abord on épuisait rapidement la mémoire des ordinateurs individuels dont on disposait. Ensuite, les outils graphiques n’étaient absolument pas à la hauteur. Mais en fait, il n’existaient pas. Si je voulais représenter un cube et lui faire subir une rotation, il fallait que j’écrive toutes les équations, ce qui demandait pas mal de cosinus, de tangentes, etc. Ce n’était pas facile. Maintenant, tout cela existe, on peut y faire appel.
Nous allons continuer dans cette direction là, mais nous espérons qu’avec cette vidéo, telle qu’on l’a montrée – cela ne s’adresse peut être pas, je dirais – au public en général qui se dira : « Bon, c’est des personnages, c’est un jeu vidéo, on ne sait pas trop de quoi cela parle. » Cela s’adresse essentiellement aux spécialistes, à nos collègues, nos confrères et consœurs en intelligence artificielle, en leur disant : « Regardez, on a la piste pour sortir de l’ornière dans laquelle on est ! » Je ne dis pas que ChatGPT, c’est une ornière : c’est déjà très important, c’est déjà imposant, mais il n’y a aucune création là dedans : ça vous montre uniquement ce qui est le plus probable. C’est l’opinion la plus consensuelle possible et il n’y a pas d’invention. Il n’y a pas de création là dedans.
Nos personnages, ils sont mus par des pulsions, ils sont mus par l’affect. Et comme j’avais déjà pu le montrer dans ANELLA, c’est l’affect, comme l’avait déjà suggéré Freud, bien longtemps avant moi, c’est l’affect qui se trouve à l’arrière-plan, non seulement dans le sentiment, mais notre désir d’apprentissage et de notre capacité à produire des phrases qui sont logiques, sans que ce soit simplement respecter des règles de logique. Alors, par ailleurs, ces personnages, vous allez le voir, vont acquérir une histoire. Ils vont acquérir petit à petit un savoir. Ce ne seront pas des robots comme ceux de Tay qu’on peut convaincre rapidement que Hitler finalement avait raison, etc. Non, ce seront des personnages qui auront une véritable personnalité et dont le système moral n’aura pas été inscrit comme des règles morales mises les unes après les autres, non, ce sera comme dans notre cas, ce sera parce qu’on leur a appris les choses dans un certain ordre et on aura découvert le monde d’une certaine façon, avec des punitions et des récompenses. Des gens qui vous disent « Ceci, c’est bien » et d’autres qui vous disent « Ceci, c’est mal ». C’est comme cela que ces personnages vont évoluer.
J’espère que nous vous avons mis en appétit et que vous suivrez avec intérêt les péripéties ultérieures de notre programme, de notre recherche à Pribor.io dans le domaine des Self-Aware Machines, des machines conscientes d’elles-mêmes. La première étape, elle est là, sous vos yeux. Les autres sont en route.
Laisser un commentaire