Je poursuis la publication des chapitres de Principes des systèmes intelligents. Qu’est-ce qui nous pousse à causer ?
L’affect et la pertinence
À quoi peut nous servir de savoir que chez l’homme les valeurs d’affect trop élevées attachées à certains signifiants interdisent l’accès à certaines parties de la mémoire ? Cette observation est capitale pour la guérison des névrosés, mais elle ne présente qu’un intérêt limité pour la mise au point des systèmes intelligents : il s’agit là, comme pour l’association matérielle, de quelque chose de l’ordre du « ratage », dont il vaudrait mieux épargner les effets à un système intelligent.
En réalité l’affect a partie liée avec la pertinence et avec les choix qui se présentent à l’occasion du parcours d’un réseau mnésique. En voici une illustration. Quelqu’un reçoit une lettre du percepteur lui réclamant une somme importante au titre d’arriérés d’impôts. Accompagnant cette lettre est une note manuscrite lui disant de ne pas s’inquiéter : il s’agit d’une erreur qui a déjà été enregistrée. Comme un numéro de téléphone est mentionné, la personne décide d’appeler tout de même la perception – jugeant qu’on n’est jamais trop prudent dans ce genre d’affaires. La préposée est malheureusement absente pour quelques jours. Durant toute la journée, la personne demeure cependant « soucieuse». Ayant décidé d’analyser sa préoccupation, elle constate la chose suivante : quel que soit l’objet qui retienne son attention à un moment donné, sa « pensée » parvient à chaque fois à parcourir une suite d’enchaînements associatifs qui débouchent sur l’idée d’« impôts ». À ce moment-là, ses associations s’interrompent, et elle ressent l’affect : elle souffre, elle est « soucieuse ». Si elle est en compagnie, ses conversations subissent le même processus : elle rapportera l’anecdote, une, deux, de multiples fois, et si elle se rend compte alors qu’elle ennuie son entourage en manifestant ainsi son souci, elle s’aperçoit que les autres sujets qu’elle parvient à évoquer tournent cependant tous autour de sa préoccupation : elle parle du taux de change du dollar, d’administrations kafkaïennes, et ainsi de suite.
Autre exemple. Une personne ouvre le réfrigérateur : il n’y a plus de beurre. Il faut qu’elle en achète. Elle fera cela à dix-huit heures en revenant du bureau. Pourtant plusieurs fois dans la matinée, elle se souvient qu’elle doit acheter du beurre. Son attention peut être captée par bien d’autres choses, la « bille » parvient cependant toujours à « rouler » jusqu’à « beurre ». Quand la bille est au fond du trou, elle se souvient qu’elle a « l’intention-d’acheter-du-beurre » : « avoir l’intention de… », c’est précisément cela (nous reparlerons de l’intention au chapitre 14).
Qu’il s’agisse du souci ou de l’intention, la même image s’impose d’un paysage où un objet tend vers le point le plus bas. C’est la même image que Freud utilisait dans le passage cité plus haut, celle d’un paysage aux vallées inondées et aux chemins escarpés. Imaginons le réseau mnésique de cette manière: comme « déposé » sur un paysage avec ses collines et ses vallées. Imaginons aussi que la « valeur d’affect » indique une profondeur et non une altitude : les valeurs élevées désignent non des pics, mais des dépressions (le mot est tout à fait approprié). Certains signifiants sont associés à des valeurs si élevées qu’ils se trouvent « sous le niveau de l’eau », la vallée est ennoyée dit Freud : pour se déplacer d’un signifiant qui se trouve sur une rive à un signifiant qui se trouve sur l’autre, il faut désormais descendre ou remonter la rivière jusqu’à ce que se présente un pont, ou, s’il s’agit d’un lac, il faut tout simplement en faire le tour. Mais il n’y a pas que des vallées inondées : il y a aussi des signifiants associés à des valeurs qui leur permettent de demeurer au-dessus le niveau de l’eau, comme c’est le cas pour le « souci » ou pour l’« intention », et quel que soit le point de départ des associations, les enchaînements déboulent toujours vers la « dépression » que ces préoccupations creusent temporairement dans le paysage.
Dynamique de la pertinence
Rappelons brièvement où nous en sommes arrivés par rapport à notre objectif général. Nous avons commencé par envisager le discours comme une façon de parcourir l’espace des mots d’une langue. Nous avons ensuite découvert un moyen de restreindre l’espace des parcours possibles en traçant au sein de cet espace des chenaux privilégiés constituant ce qui a été appelé un réseau mnésique. Mais ce réseau lui-même contient de nombreux carrefours, et si l’on entend déterminer un parcours précis, il faut encore que l’on dispose d’un principe de choix à la bifurcation. La question que l’on est maintenant en droit de se poser est la suivante : et si ce principe était tout simplement la gravité ? C’est-à-dire, et s’il suffisait de suivre la « pente » que dessinent sur le paysage du réseau mnésique, les valeurs d’affect associées aux signifiants, jusqu’à atteindre l’un des minima de ce paysage ?
Évidemment, une fois arrivé au point le plus bas, il ne s’agirait pas d’y rester bloqué indéfiniment : il faut que d’une manière ou d’une autre la machine soit relancée – seul le dépressif reste prisonnier de sa dépression. Il faut qu’une relaxation, un soulagement intervienne chaque fois que les choses ont été dites : que le fait de les avoir dites permette au système de passer au point suivant de l’ordre du jour : « Ça m’a fait du bien d’en parler ! », dit-on. Dans les termes de Freud :
« … les représentations sont des investissements – essentiellement des traces mnésiques –, tandis que les affects et les sentiments correspondent à des processus de décharge dont les manifestations finales sont perçues comme des sensations. » (Freud 1968 [1915] : 84.)
Et c’est pourquoi il ne suffit pas d’envisager une dynamique d’affect, il faut encore considérer le rôle joué par ce qu’on pourrait appeler une dynamique de pertinence qui lui serait liée.
Il faut imaginer ceci – qui s’accorde parfaitement avec ce que l’on sait de la cure psychanalytique – que les signifiants qui se « bousculent au portillon » pour être prononcés (ceux qui se présentent d’abord comme les plus pertinents), sont ceux dont la valeur d’affect est la plus élevée parmi ceux qui sont accessibles (c’est-à-dire dont la valeur d’affect n’est pas trop élevée). Mais la pertinence d’un mot diminue aussitôt qu’il a été prononcé. Donc, si le principe de génération de l’enchaînement associatif est la préférence à chaque bifurcation pour le signifiant associé à la valeur d’affect la plus élevée parmi ceux qui s’offrent au choix, il faut alors que celui qui vient d’être prononcé devienne aussitôt moins attractif pour les enchaînements ultérieurs, c’est-à-dire que sa valeur d’affect diminue.
Pour qu’un système intelligent « ne se répète pas » dans le cadre d’une conversation particulière, il faut donc qu’une dynamique de ce type soit à l’œuvre : que la valeur d’affect diminue pour chacun des arcs parcourus à chaque fois qu’il l’est. Ces baisses successives permettent ainsi à la valeur d’affect de constituer de manière instantanée, une mesure de la pertinence à court terme.
Mais s’il n’y avait pas de remise à jour des valeurs d’affect à la fin d’une conversation particulière, cela impliquerait que dans le cadre d’une série de conversations, le système intelligent aurait de moins en moins tendance à proposer à son interlocuteur les enchaînements les plus appréciés, les plus demandés, c’est-à-dire les plus pertinents. Comme ceux-ci constituent en réalité le savoir le plus « sûr » (nous reviendrons sur ceci à propos de la vérité), il faut au contraire que le système intelligent les présente en premier lieu à chaque nouvelle session. Autrement dit, il faut que le succès d’un enchaînement soit enregistré et se traduise à la fin d’une session par un accroissement de la valeur d’affect des arcs parcourus, définissant pour les signifiants du réseau mnésique leur pertinence à long terme.
15 réponses à “PRINCIPES DES SYSTÈMES INTELLIGENTS (1989), chapitre 12 (III), réédition en librairie le 23 novembre”
Génial… Je vois un plateau mouvant fait de dénivelés et de canyons qui changeraient d’altitude au fur et à mesure que la discussion avancerait… pour revenir à son état le plus « judicieux » une fois la tache accomplie
C’est tout bonnement Génial…
Et comme ça, en plus, plus besoin de la faire souffrir pour imiter l’affect humain… bravo
Quand est-ce qu’on en crée une….?
Cette image m’avait également enthousiasmé !
[…] Blog de Paul Jorion » PRINCIPES DES SYSTÈMES INTELLIGENTS (1989), chapitre 12 (III), réédition e…. […]
Un sujet d’affect et de pertinence :
Le bulletin n¤69 du leap lu 600 fois (seulement) ce soir à 22heures. Qu’ en penser?
Le deuil.
J’en ai peur.
Çà , cela m’effraie un peu , pourquoi ? Je ne sais pas encore …je pense à un bouquin de je ne sais plus qui (Dick peut-être) dans lequel est évoqué le problème lié à la communication intégrale et permanente entre les cerveaux , insupportable !
Une humanité augmentée , peut-être , mais dans quel but ? Il faudra bien s’interroger sur toutes les implications de ces nouvelles technos … en aurons nous le temps ?
Bonne remarque, surtout lorsque l’on sait que le temps, est bien souvent, pour ne pas toujours, le résultant de la modification de nos champs de conscience.
(M’en fou un robot n’aura jamais d’âme et ne risque pas d’en obtenir jamais.)
Vous… vous devez être chasseur de tête dans une grande société très importante… vous avez le nez pour dénicher les grands esprits…
Dans le but de survivre… c’est vrai, c’est un peu mesquin mais qu’est-ce que vous voulez…? y’en a qui aimerait bien que l’humanité ne soit pas écrasée par sa propre bêtise…
Bonjour Paul,
Désolé pour votre rhumb’… et bravo pour les ventes…
Alors, je ne veux pas vous prendre plus la tête qu’elle ne l’est déjà mais j’ai repéré dans la conception de ce réseau mnésique posé sur un paysage de « dénivelés mouvants », comme une légère faille…
Rien qui ne remette en question la pertinence du principe que je trouve génial, mais dans son application concrète…
Si je reprends l’image du chemin qui descendrait tout naturellement la pente vers les « points » les plus judicieux, je suis obligé de constater qu’à chaque carrefour, s’il y a deux chemins qui bifurquent pour descendre à des altitudes différentes (l’un plus bas que l’autre), et même si le pourcentage de la pente est plus élevé chez l’un que chez l’autre, il y a fort à parier que, comme les deux descendent, on se retrouve dans certain cas à voir l’IA devant choisir au petit bonheur la chance telle ou telle voie… puisque, à se niveau du parcours (au carrefour), elle ne saura (l’IA), lequel des deux chemins descendra en fin de course le plus bas…
Imaginons une bille qui arrive à un carrefour et qu’elle doive choisir, non pas entre deux chemins mais entre 4, 12, 120 ou 12 000 chemins différents descendant tous… comment être sûr qu’elle prenne celui qui ira le plus bas…? et si nous disons qu’elle prendra celui le plus bas parce qu’il aura le plus grand % de dénivelé, on part du principe qu’elle « sentira » le dénivelé avant d’être dans la pente ce qui ne peut se faire que si on lui indique, et quitte à lui indiquer quelque chose, pourquoi ne pas lui indiquer directement le chemin qu’elle doit prendre… (le chemin à plus fort pourcentage)
Il n’y a donc pas, à l’intérieur d’un système Intelligent, un problème de reconstitution d’un parcours sur un réseau mnésique mais bien de savoir comment « graduer » les milliards de chemins possibles… comment les graduer mais surtout comment trouver une mesure suffisamment fine ( et je dirais à multiple facettes) pour que cette intelligence puisse auto-réévaluer sa propre pertinence et tenir compte des différents champs de « réflexion »…
Ce qui est vrai « financièrement » ne l’est plus « fraternellement »…
Alors bien sûr, comme on a dit que le paysage est mouvant et qu’après avoir emprunté un chemin, celui-ci perdra de sa pertinence (son % de dénivelé) il est sûr qu’elle en empruntera un autre… mais on ne règle pas le problème de hiérarchie des « champs de reflexions »… On se retrouve avec encore ce problème de hiérarchie… et des champs de reflexion, il y en a des centaines…. Et j’ai bien peur qu’au final, on se retrouve avec une machine qui accorde à tous les chemins le même % et nous dise:
-« P’t’être bien qu’oui, p’t’être bien qu’non »
Alors j’ai pensé à une Intelligence qui serait « divisée » en trois… « la sainte trinité »
Et que les trois intelligences évoluant sur trois paysages identiques seraient elles-même évaluées (auraient une « gravité » différente, un % de dénivelé, d’attraction) influant l’une sur l’autre…
Il y aurait:
– celle qui suit une logique pure (mathématique)
– celle qui suit une logique « humaine »… c’est à dire qui tiendrait compte de valeurs relatives (comme le partage, la fraternité, l’empathie…)
– et une troisième qui jouerait le rôle d’arbitre
Mais c’est surtout l’idée de découpler l’intelligence en « domaines de compétence » qui me semble le plus pertinent… pas la définition de ces domaines… là, je n’y ai pas trop réfléchi
C’est à peu près cette question que je me posais hier. Si le plus bas est le plus pertinent, et s’il faut passer par plusieurs arêtes pour tomber sur le plus bas, l’on se retrouve dans le cas du jouer d’échecs qui doit anticiper plusieurs coups pour trouver le meilleur de rang N. Si donc ce système intelligent doit fonctionner en explorant des tonnes de combinaisons, il sera au final aussi bête que Big Blue. Et s’il choisit au hasard à chaque bifurcation, jusqu’à trouver un « plus bas » relatif, ce hasard sera-t-il analogue à celui qui a lieu dans l’esprit humain ?
Un gradient : la ligne de plus forte pente !
Ok mais imaginons un carrefour qui propose deux lignes:
ligne A (forte pente) ligne B (pente plus douce)… et que la ligne A conduise à un cul-de-sac alors que la ligne B conduise à des centaines d’autres carrefours…
L’IA prendra toujours en premier la voie A (parce que son gradient est plus élevé) avant que de revenir et de prendre la voie B… la voie B n’aura donc jamais aucune chance de relever son gradient pour dépasser celui de la voie A… alors qu’il est évident pourtant que la voix A à beau être plus pentue, elle ne débouche sur aucun carrefour, contrairement à la voix B
voilà pourquoi je disais que le problème était de
Alors maintenant que j’ai lu la suite j’imagine que ce que je dis correspond aux…
« deux valeurs distinctes stocker simultanément en une même localisation » et que
« …rien n’interdit d’associer à un arc du réseau mnésique non pas une valeur unique, mais un vecteur dont les valeurs se transforment selon leur loi propre. »… mais du coup, je n’y comprends plus rien… Dès que ça devient mathématique abstrait… je disparais… j’ai pas le bagage…
Dommage
Mais je continue à penser qu’il ne faut pas simplement que le gradient se modifie en fonction des degrés de « frayage » mais indique également la quantité de carrefour « possibles » qui seront proposés sur son chemin…
Chemin court vs chemin long… et non pas uniquement chemin déjà frayé vs chemin in-emprunté…
Je relis…
» Mais la pertinence d’un mot diminue aussitôt qu’il a été prononcé. »
Freud: « Répétition, pulsion de mort. »
Les mots qui ne posent pas problème dans le discours en cours ne sont pas ou peu répétés. En terme de dynamique, le point de vue adopté ici, ce sont des attracteurs ponctuels.
Mais il y a des mots clé, des mots pavillon qui posent problème et reviennent périodiquement dans le discours. En terme de dynamique on n’a pas d’attracteur ponctuel, on tourne autour du pot. C’est typiquement le cas pour le mot « intelligence » (ou « intelligent ») dont le nombre d’occurences, par exemple au chapitre 2, est impressionnant! On peut imaginer des dynamiques plus compliquées lorsqu’on hésite entre deux mots pavillon, façon âne de Buridan, décrites par des attracteurs plus compliqués (Lorenz par exemple).
Thom a proposé un modèle dynamique pour la mémoire dans SSM (2ème ed.) pp. 329 et 330. L’idée de départ est la compétition entre résonances esquissée dans l’appendice de « Topologie et signification » (MMM).