Dans un article de Morgane Tual dans Le Monde du 9 mai intitulé Pourquoi Google se sert de romans à l’eau de rose pour améliorer une intelligence artificielle, on peut lire ceci :
[Selon] deux chercheurs de Georgia Tech, Mark Riedl et Brent Harrison, […] la littérature peut inculquer des valeurs morales à des programmes d’intelligence artificielle. « Nous n’avons pas de manuel rassemblant toutes les valeurs d’une culture, mais nous avons des collections d’histoires issues de ces différentes cultures », expliquent-ils dans leur article de recherche publié en février. « Les histoires encodent de nombreuses formes de connaissances implicites. Les fables et les contes ont fait passer de génération en génération des valeurs et des exemples de bons comportements. (…) Donner aux intelligences artificielles la capacité de lire et de comprendre des histoires pourrait être la façon la plus efficace de les acculturer afin qu’elles s’intègrent mieux dans les sociétés humaines et contribuent à notre bien-être. »
Il ne vient semble-t-il à l’esprit de personne, en Intelligence Artificielle contemporaine, d’utiliser l’approche beaucoup plus économique que j’avais mise au point dans mon projet ANELLA (Associative Network with Emergent Logical and Learning Abilities) pour British Telecom à la fin des années 1980 : associer à des couples de mots (pomme / Adam ; père / colère, etc.) des valeurs d’affect dynamiques (susceptibles de se modifier dans un contexte de conversation en fonction de la réaction de l’interlocuteur) pour que la machine interagisse avec un utilisateur en fonction de sa propre dynamique d’affect.
Pourquoi tourner ainsi autour du pot depuis 35 ans ? Est-ce parce qu’un robot doté de sa propre émotivité, de ses propres passions, ferait vraiment peur ?
===========================
Sur tout ceci : Principes des systèmes intelligents (1989 ; republié en 2012).
1) On peut utiliser des bombes nucléaires pour stériliser l’entrée d’abris souterrains (au sens galeries bien bouchées, comme au sens…