Comment donner une volonté à un robot

Parce que je me dis que cela pourrait intéresser certains d’entre vous qui n’auront pas le désir d’aller fouiller dans la discussion qui a lieu en ce moment à propos de ma vidéo d’hier, je donne à cet échange davantage de visibilité.

Jean Szrogh

Une chose encore. Pour qu`un ordinateur prenne une décision contrevenant a sa programmation, il doit avoir une motivation propre, ce qui nécessite au préalable que cet ordinateur acquiere la conscience de soi. Cette derniere peut-elle naitre de la matiere constituant l`ordinateur? Si la conscience de soi chez l`humain nait de la matiere constituant son cerveau, alors l`ordinateur pourrait en principe accéder a la conscience. Si, par contre, la conscience de soi chez l`humain (ou d`autres especes vivantes) n`est pas le produit de la matiere mais, comme le prétendent les religions, le fait d`un apport extérieur dit « divin », alors l`ordinateur restera ordinateur. La question de la prise de pouvoir des « robots » parait donc en rapport étroit avec la question (la plus grande des questions), sinon de l`existence de Dieu, du moins de la conscience de soi comme dépassant le niveau des protéines composant le cerveau. Cette question est loin d`etre résolue a ce jour sur notre petite planete aussi nous est-il difficile de dire des choses intelligentes dans ce domaine.

  • « ce qui nécessite au préalable que cet ordinateur acquière la conscience de soi. »

    Non absolument pas : il suffit qu’il mime une dynamique d’affect. C’est ce que j’avais réalisé dans mon projet ANELLA pour British Telecom, voyez Principes des systèmes intelligents (1989 ; 2012).

  • Je suis parti à la recherche d’un article plus technique sur ANELLA, présenté à British Telecom dans un colloque interne en janvier 1990. Je l’ai retrouvé, ça s’appelle : An alternative neural network representation for conceptual knowledge.

    Pour voir comment on mime l’émotion dans une machine, voir la partie The dynamics of a P-Graph neural network.

  • Lucas

    L’humanité des robots serait réduite alors a une dynamique d’affect, et eux, auront – ils aussi le pouvoir de modifier cette dynamique? Ou tout bonnement de lier leurs intellects a cette dynamique?

  • Aucun problème : certains robots disposeront d’un logiciel dont la fonctionnalité est de modifier les logiciels réglant la dynamique d’affect des robots.

    Même moi je pourrais vous écrire ça : 1) le logiciel de la dynamique d’affect (celui-là d’ailleurs je l’ai écrit en 1989), 2) un logiciel dont la fonctionnalité est de modifier le précédent.

    Une fois que 2) est écrit, rien ne s’oppose à ce qu’un robot l’utilise, quitte à modifier sa propre dynamique d’affect une fois content du résultat obtenu.

    J’avais noté qu’il est très facile de rendre ANELLA paranoïaque en ne lui permettant d’utiliser qu’une partie de son réseau mnésique. On pourrait programmer un robot de telle manière qu’il puisse tirer des réactions des autres qu’il est jugé trop paranoïaque, et réparer sa dynamique d’affect à partir de là.

    • Jean Szrogh

      Si c`est l`humain, par sa programmation, qui fait mimer l`affect par la machine, cet affect n`est-il pas des lors sous le controle de l`humain? Si par contre c`est la machine qui, de sa propre initiative, mime l`affect, c`est donc qu`elle a sa propre motivation (et donc possede la conscience de soi) et, dans ce cas, quel besoin aurait-elle de mimer l`affect? Cela dit, l`affect en tant que constituant de la motivation suffit-elle pour qu`il y ait motivation amenant une décision? Un poisson peut etre capable d`affect puisqu`il réagit a un stimulus de douleur mais a-t-il pour autant la conscience de soi qui seule peut l`amener a une décision consciente (par opposition a un mode de conduite inconscient c`est-a-dire instinctif)? L`exemple du poisson m`est venue en tete car il se trouve que HAL (l`ordi de 2001 Odyssée…) signifie poisson dans la langue d`origine (le hongrois) de von Neumann, un des papas de la cybernétique…

    • Je n’aurais pas dire « mime », j’aurais du dire « possède ». J’ai dit « mime » pour exprimer que cela ne fonctionne pas avec des « nerfs » et des « hormones » mais avec des compteurs qui additionnent et soustraient pour reproduire une dynamique d’affect.

      De toute manière, lisez mon article de 1999 pour vous convaincre que la conscience de soi même chez nous ne prend aucune décision : c’est un cul-de-sac dont la fonctionnalité est de créer une mémoire synchrone, mais ça n’a aucun rapport avec des « intentions » ou une « volonté ».

Partager :

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta