Retranscription de « DEVENONS-NOUS DES MACHINES ? », le 29 mai 2012. Merci à Olivier Brouwer ! Ouvert aux commentaires.
Interviewer (Pascal Hérard) – Les algorithmes d’apprentissage automatisé, ceux qui sont basés sur les réseaux de neurones, la question qu’on se pose, parce que ça va être en lien avec ce dont on va parler, est-ce qu’ils sont proches des processus mentaux du cerveau humain ? Ou est-ce que c’est totalement différent ? Est-ce que le cerveau humain travaille d’une manière similaire, parallèle, à ces réseaux de neurones et ces algorithmes d’apprentissage, ou est-ce qu’on est vraiment sur quelque chose qui n’a rien à voir ?
Paul Jorion – Mais je crois qu’on ne connaît pas la réponse. Ce qu’il y a, c’est que, dans les toutes premières techniques d’intelligence artificielle, on a mis l’accent sur des méthodes mathématiques qu’on connaissait, des tentatives de formaliser la logique, des choses de cet ordre-là, et on avait misé [sur le fait] que l’intelligence artificielle allait fonctionner en fonction de ce que nous pensions, de manière générale, sur le calcul. Mais, assez rapidement, au début des années 1950, certains chercheurs ont pensé à l’idée d’essayer de mimer le fonctionnement du cerveau humain, c’est-à-dire de créer ce qu’on a appelé des neurones formels et des réseaux de neurones formels, c’est-à-dire la manière dont on comprenait la façon dont l’information circule dans des réseaux de neurones, qui sont les constituants de notre cerveau. Et pendant assez longtemps, on n’a pas vraiment exploré cette voie parce qu’il y avait quelques blocages, en particulier il y avait certains types de problèmes qu’on ne pouvait pas résoudre de cette manière-là, et puis surtout, on manquait de [la] puissance de calcul qui permettait de vérifier si on pouvait utiliser cette méthode de simulation du cerveau plutôt que d’utiliser des méthodes de type purement mathématique. Mais, récemment, on s’est aperçus de la puissance qu’ont ces réseaux de neurones formels en particulier, parce qu’on travaillait au début avec deux couches de neurones, et maintenant, on peut utiliser des centaines de couches de neurones, parce qu’on a la possibilité de le faire. Et donc, on a le sentiment qu’avec ces méthodes-là, on est en train de simuler le fonctionnement du cerveau, mais on n’est pas entièrement sûr que nous fonctionnons de cette manière-là.
Int. – Oui, alors, justement, ça me pose, [à] moi, la question sur la capacité humaine dans la réflexion, et en fait, est-ce qu’on peut, à un moment, penser qu’un être humain peut réduire sa réflexion en n’utilisant que certaines données d’information qu’il trie, en fait, qu’il choisit, et puis que cet être humain, en ayant trié ces informations de départ, en arrive à un traitement logique qui était un peu établi, qui est récurrent, qui est un peu toujours le même, pour aller vers une sortie d’information pour aller vers une réponse sur sa réflexion de départ, c’est-à-dire quelque chose qui serait un processus un petit peu mécanique, mais qui serait similaire, en fait, à ce que pourrait faire une machine. Est-ce qu’une réflexion humaine peut aussi se réduire, enfin arriver à ce type de procédé ?
PJ – [Quand on] entre sur du pur calcul, alors on pourrait dire oui. Parce que ce que ces réseaux de neurones formels arrivent à faire est de l’ordre, purement et simplement, de ce que nous appelons de l’induction, de la déduction, c’est-à-dire du calcul logique. Or, l’être humain – et là c’est, je dirais, la personne qui a une formation en psychanalyse qui vous parle – est une personne qui est essentiellement agie par deux mécanismes : un mécanisme de type purement calcul comme celui qu’on est en train de simuler, mais aussi [une] dynamique émotionnelle. Et c’est pour ça qu’à l’époque où moi j’ai fait de la recherche en intelligence artificielle – c’était il y a très longtemps : c’était à la fin des années 1980 – j’ai tout de suite, dans les projets que j’ai faits, j’ai tout de suite introduit cette double logique : à la fois de type mathématique et de type émotionnel. Et j’étais assez épaté, mes collègues, d’ailleurs, aussi, par le fait que cette double approche émotion-logique était beaucoup plus performante que les approches de type purement calcul. Au point, d’ailleurs, qu’une des surprises que j’ai eues (et c’est pour ça que j’ai appelé mon système [ANELLA] « à propriétés d’apprentissage et de logique émergentes »), c’est qu’une dynamique d’émotions reproduit de la logique par elle-même, sans même devoir introduire du calcul.
Int. – Ah ah, voilà, là on arrive à quelque chose d’intéressant ! Dans le même temps, on sait que la pensée humaine – et ce que vous décrivez, c’est quand même un processus assez complexe, si on sort du pur calcul… Mais pourtant, et là, c’est un petit peu, de ma part, une observation très subjective, mais j’ai l’impression qu’on observe de plus en plus d’individus qui semblent réduire leurs réflexions à des démonstrations logiques assez simplifiées. Alors, je pense, évidemment, à des hommes politiques par exemple, qui ne font entrer en jeu que certaines variables dans leurs processus logiques, et qui semblent ne pas pouvoir faire plus. Il y a des sujets comme l’économie, l’immigration, la politique sociale, et d’ailleurs on parle de « logiciel politique », c’est fréquemment entendu ! Et qu’est-ce que vous pensez de cette forme – enfin, moi j’appelle ça un blocage analytique – mais qui prime, en fait, aujourd’hui, dans la sphère, on va dire, de réflexion politique, économique ou autre ?
PJ – Eh bien, c’est-à-dire qu’en fait, l’habitude qu’on a prise, c’est de considérer que l’émotion est une sorte de parasitage. Que le fait que nous ayons des sentiments parasite nos processus de calcul. Du coup, le politicien, l’économiste « objectif » essaye, comment dire, de « dé-subjectiviser » sa réflexion, essaye d’éliminer la composante émotionnelle, et, par conséquent, essaye de rester dans le domaine du pur calcul. C’est le travers, bien entendu, de la « science » économique actuelle, c’est de mettre [entre parenthèses le fait] qu’il s’agit d’êtres humains, et de considérer qu’il s’agit simplement de lois de type physique comme celles qui régleraient, je dirais, la mécanique céleste entre des planètes indifférentes les unes aux autres alors que, nous le savons, nous sommes des êtres humains, et nous agissons en fonction d’un certain nombre de principes, qui ne sont pas simplement la concurrence, mais qui sont essentiellement la solidarité, le fait d’anticiper le comportement des autres, le sentiment des autres. Ça nous fait une différence de savoir si quelqu’un souffre quand on lui dit quelque chose ou si ça lui fait plaisir, et tout ça est mis entre parenthèses, en disant que le monde – que le monde économique en particulier, que le monde politique – serait quelque chose où le sentiment, où la satisfaction ou l’insatisfaction sont tout à fait indifférentes, alors que si l’on pense à un économiste comme Keynes, il nous avait déjà dit, dans les années 1930. Il nous a dit : « La solution des problèmes humains n’est jamais une solution de type purement économique ». La solution purement économique pourrait être qu’il y ait un taux de chômage de 30% de la population, mais la solution politique, c’est-à-dire celle qui concerne véritablement les hommes et les femmes en termes d’insatisfaction, de ressentiment, de souffrance, la solution, là, elle n’est pas de cet ordre-là. Elle est de l’ordre du plein emploi, qui n’est peut-être pas la solution, d’un point de vue économique, la plus optimale, mais du point de vue des êtres humains, c’est ça qui compte, bien entendu, parce que cette science économique, elle n’est là que pour nous servir et non pas pour nous asservir dans l’autre sens.
Int. – Alors on en arrive, mais c’est très intéressant parce que ça veut dire que la pensée complexe dont a parlé longuement Edgar Morin est très lointaine, aujourd’hui dans la réflexion, on va dire, générale. Moi, je me pose la question de pourquoi. Est-ce qu’on peut mettre en rapport l’utilisation massive des ordinateurs, pour réfléchir, pour la réflexion, en lien avec cette simplification de la pensée, puisque c’en est une, puisque justement, les émotions sont retirées, les sentiments, ce que vous venez d’expliquer, ça signifie quand même qu’on se rapproche d’acteurs humains qui pensent un peu « machine ». Alors, est-ce que l’utilisation des machines, des statistiques, je ne sais pas, est en lien avec cette simplification de la pensée qui se généralise un peu ?
PJ – C’est-à-dire que nous avons inventé des machines – et au début, on appelait ça simplement des outils – pour nous rendre service. Mais nous n’avons pas été des génies, je dirais, absolus, dès le départ, et donc, nous avons dû adapter notre comportement aux machines que nous inventions. Depuis que nous avons inventé des outils, depuis que nous avons inventé des machines, nous avons essayé que notre comportement devienne complémentaire à ces machines, et nous avons dû nous adapter au fait que ce soit au départ des choses assez primitives, comme le moulin à vent. Le meunier a dû entièrement calquer son comportement sur celui du moulin qu’il avait autour de lui, et la plus belle caricature que nous connaissons de cela, elle nous a été offerte par Charlie Chaplin dans ce film des années 1930 qui s’appelle : « Les temps modernes », où il nous montre des hommes qui sont simplement des rouages à l’intérieur d’une mécanique, avec des effets comiques évidemment, tout à fait considérables, au moment où on s’aperçoit que l’homme ne parvient pas à être un rouage purement et simplement.
Int. – Eh bien oui, tout à fait. On arrive à la fin de ce début de réflexion sur cette problématique de l’homme un peu machine. Les neurosciences, appliquées à l’informatique, de plus en plus, et particulièrement sur les plate-formes en ligne de type réseaux sociaux, utilisent à plein les biais cognitifs du cerveau humain. On le sait de plus en plus, on a des retours. Est-ce qu’on peut imaginer que des cerveaux manipulés – parce que c’est ça – et qui sont mis sous contrainte de plus en plus forte par ces techniques d’influence cognitive, peuvent se modifier à terme et devenir plus mécaniques, donc plus proches de la machine, au final, dans leur capacité de réflexion ? Je parle bien, donc, des utilisateurs « addicts » aux plate-formes diverses et variées des entreprises californiennes.
PJ – Oui, tout à fait, il y a ce qu’on appelle le « big data », qui est une manière de pouvoir prévoir nos comportements à partir de nos comportements passés, et de nous donner des instructions qui nous permettront d’agir de telle ou telle manière. Mais il faut réfléchir à deux aspects de la question. L’un, c’est que ça nous évoque bien entendu le 1984 de Orwell, c’est-à-dire des machines autour de nous qui nous donnent des ordres et nous devenons, en fait, des subordonnés purement et simplement, des esclaves de cette machine. Mais il faut bien penser aussi que si ce « big data » fonctionne, par exemple dans le cas de Facebook ou des choses comme Twitter, qui récoltent des informations sur nous, c’est aussi parce que ça nous rend service. Nous sommes des « êtres de souci », nous sommes des êtres d’anxiété et d’angoisse, parce que nous ne pouvons pas faire autrement, pour nous donner des buts dans l’avenir, que de nous donner des soucis par rapport à des choses à faire. Et si les machines, autour de nous, enlèvent cette difficulté pour nous d’avoir à tout moment, de penser à ceci ou cela, à des millions de choses auxquelles il faut accorder des priorités de telle et telle manière, nous allons le vivre aussi comme un soulagement.
Int. – Oui, un soulagement, mais qui, quand même, retire des capacités cognitives élémentaires qu’avant, on utilisait tout le temps. Le truc le plus classique, c’est retenir des numéros de téléphone, par exemple, mais qui est un exercice mnémotechnique important et intéressant. Il y a plein d’autres exercices mentaux comme ça, et de types de réflexions et de cognitions, qui disparaissent au fur et à mesure que les machines nous assistent et prennent le relais, et en plus, nous incitent, nous incitent et nous influencent, puisqu’on sait qu’effectivement, elles utilisent des parties du cerveau qui sont soumises plus ou moins fortement à des stimuli.
PJ – Oui, mais enfin, on peut critiquer ce que vous venez de dire aussi, en disant que bien sûr, nous sommes moins forts maintenant, parce que le moulin à vent nous a retiré la charge d’agir la meule nous-mêmes – il fallait être très fort pour le faire – et par conséquent… Prenons un autre exemple…
Int. – Oui mais le moulin n’utilisait pas des techniques et des technologies qui passaient sur des biais cognitifs du cerveau. Ils n’allaient pas chercher à influencer notre cerveau. Et là, on est sur cette influence des outils des plate-formes, qui utilisent énormément de systèmes tout à fait réfléchis dans des laboratoires, ils élaborent énormément de techniques pour pouvoir faire [en sorte] que l’utilisateur relance des messages, se reconnecte, etc., etc. Il y en a toute une liste, qui touchent à plusieurs parties du cerveau, et c’est des techniques qui sont éprouvées.
PJ – Bien sûr, bien entendu, mais dans mon nouveau livre [« Défense et illustration du genre humain »], qui sort, par coïncidence aujourd’hui (Int. – Ah ah !), il y a un chapitre que j’ai appelé : « Le big data remplacera-t-il le surmoi ? » Alors, le surmoi, en psychanalyse, c’est cette force qui nous tyrannise un peu : « Il faut faire ceci ou cela », comme nous avons des devoirs, pour faire des choses en conformité avec ce que nos parents voulaient que nous fassions, et des choses de cet ordre-là. Mais c’est une tyrannie aussi ! C’est une tyrannie aussi. Bien sûr, il y a une perte de compétence, qui est associée au fait que la machine nous remplace. J’ai fait partie, moi-même, de la première génération de gens qui ont écrit des logiciels qui calculaient le prix d’une obligation, en fonction des accès sur les marchés, en fonction des modifications des taux d’intérêt, des choses de cet ordre-là. Et au moment où j’ai commencé à faire cela, il y avait autour de moi des gens qui calculaient le prix d’une obligation avec une règle à calculer : ça prenait vingt minutes. J’ai fait partie des gens qui ont écrit tout ça en lignes de programmation, ce qui a fait que, par la suite, il suffisait à des personnes de pousser sur un bouton. Alors, vous allez me dire : « La personne qui pousse sur un bouton, elle ne sait plus du tout comment on calcule le prix d’une obligation. (Int. – Oui !) Vous avez entièrement raison. Ce savoir a disparu puisqu’il suffit de pousser sur un bouton. La personne qui devait utiliser la règle à calculer, elle comprenait entièrement ce que c’était l’impact du temps, ce que c’était, l’impact des taux avoisinants, du prix d’émission et des choses de cet ordre-là. Alors que la personne qui, après, utilise les logiciels que nous avons mis au point, cette personne n’a besoin d’aucun savoir, elle doit savoir simplement sur quel bouton appuyer. Mais, donc, il y a une déperdition, il y a ce que mon ami [Bernard] Stiegler appelle une « prolétarisation », mais ça va en même temps avec un soulagement extraordinaire, et avec une augmentation de ce qu’on appelle la productivité. Si, maintenant, le calcul du prix d’une obligation se fait en un dixième de seconde, eh bien, en une seconde, je peux faire dix opérations, alors qu’il me fallait dix fois vingt minutes pour le faire autrefois.
Int. – Bien entendu, mais dans cette idée-là, ça veut dire que, à terme, l’être humain n’est plus qu’un rouage lui-même mécanisé dans une société entièrement automatisée, c’est-à-dire qu’on est d’accord que pour la créativité par exemple, l’imaginaire, tout ce qui est de l’ordre de l’imagination, commence quand même à être un peu écrasé par ces procédures et ces procédés qui, effectivement, prennent en charge à la place de l’être humain.
PJ – Mais à partir du moment où nous inventons l’ordinateur – et ça ne date pas d’aujourd’hui puisque c’est la fin des années 1930, eh bien, nous mettons le doigt, effectivement dans un engrenage où nous allons produire des machines qui seront plus intelligentes que nous. Le problème n’est pas tellement avec le big data, mais il est dans ces logiciels que nous voyons maintenant, qui jouent au jeu de go, dont on nous disait que puisqu’il faisait intervenir de l’intuition, il ne pourrait jamais gagner contre un être humain, ou ces [ordinateurs] qui gagnent au Poker contre les plus grands champions alors que nous disions : « Mais une machine ne comprendra jamais ce que c’est le bluff ! », nous sommes en train d’être dépassés de manière magistrale, pas simplement en termes de vitesse, mais en termes d’intelligence par ces machines. C’est pour ça que certains, [à propos de] l’intelligence artificielle, parlent de la « singularité », c’est-à-dire le moment où les machines commenceront à discuter entre elles, et nous ne le comprendrons plus, nous ne comprendrons plus ce qu’elles font, de la même manière – et l’image, je la trouve excellente – qu’un chimpanzé qui voit l’intéraction de deux êtres humains qui décident de quelque chose par rapport au chimpanzé n’a pas la moindre idée de ce qui va se passer, parce qu’il ne peut pas se représenter le processus de décision des deux êtres humains qui sont autour de lui.
Int. – Donc, pour finir, ma question d’origine sur cette émission : « devenons-nous des robots, nous-mêmes, les êtres humains ? », qu’est-ce que vous pouvez répondre ou conclure sur cette question pour l’instant, même [de manière] provisoire ?
PJ – Eh bien, la réponse n’est pas évidente, elle est ambivalente dans la mesure où c’est en mimant de plus en plus l’humain par des réseaux de neurones formels que nous arrivons à améliorer le fonctionnement de la machine. Donc il y a un processus, en fait, je dirais de convergence. C’est en rendant les machines de plus en plus comme nous que nous pouvons maintenant les améliorer, et donc, ça va demander effectivement que nous, nous allions un peu à leur rencontre, comme nous le voyons maintenant. Parce que dans ces problèmes de « deep mind », et des choses de cet ordre-là, nous voyons des illusions. La machine a des illusions. Parfois, elle confond deux images d’une manière qui nous paraît tout à fait extraordinaire. Il y a un exemple en ce moment même, qui est discuté sur l’internet, sur la manière dont on peut avoir des illusions auditives. On demande aux gens si ils entendent ceci ou cela [Yanny ou Laurel], et la moitié des êtres humains entendent une chose, et l’autre [moitié] entend une autre. Nous aussi, nous aussi, nous sommes victimes d’illusions. Ce ne sont pas les mêmes que celles que nous voyons apparaître en ce moment chez les ordinateurs, mais c’est un processus, je dirais, qui existe depuis toujours : nous créons des machines, nous devons nous adapter à ces machines, parce qu’elles ne sont pas complètes, elles ne sont pas totales, mais en même temps, elles nous aident à aller bien plus loin que nous n’étions autrefois. Pas nécessairement non plus, je dirais, dans le domaine simplement de l’intelligence et des choses de cet ordre-là. On le sait bien : nous vivons dix ans, vingt ans de plus, facilement, dans un très grand confort, par rapport aux générations précédentes, parce que cette technologie est là.
Int. – Bon. Eh bien écoutez, c’est une conclusion ! Bonne continuation à vous, merci beaucoup, au revoir.
PJ – Je vous en prie. Merci, au revoir.
Laisser un commentaire