PRINCIPES DES SYSTÈMES INTELLIGENTS (1989), chapitre 2, réédition en librairie le 23 novembre

Pour signaler hier la réédition prochaine de Principes des systèmes intelligents (1989) aux éditions du Croquant, j’ai reproduit son introduction. Je ne sais pas si je mettrai en ligne en feuilleton la totalité des chapitres du livre, quoi qu’il en soit, voici le second, où je réponds avec vingt-trois ans d’avance, à certaines des objections qui m’ont été faites hier au seul vu de l’Introduction de 1989.

2. Principes des systèmes intelligents

La fonction d’un principe est de définir un cadre général, plutôt que de s’attarder sur les particularités de telle ou telle variété de système. « Systèmes intelligents », pour borner le domaine dont on parle, soit – et en deux mots pour commencer – une famille de systèmes informatiques, interactifs, en temps réel et dispensant à un utilisateur une information que celui-ci juge éclairante : utile et pertinente.

Il y a mille et une façons de caractériser un système intelligent : une définition envisageable est qu’il s’agit d’un système interlocuteur susceptible de jouer vis-à-vis de son utilisateur le rôle de collaborateur intelligent. Tout ce qui existe aujourd’hui en matière de systèmes experts, de bases de données multimédias, d’interfaces sophistiquées en langues naturelles, de systèmes de reconnaissance de forme et de systèmes d’apprentissage, semble couvert par une telle définition.

Le mot « principe » suggère un pas fait en arrière, une certaine distanciation, un regard critique par rapport à la simple description. Autrement dit, une perspective épistémologique qui ne prend pas pour argent comptant l’approche courante, mais s’interroge aussi sur le comment et le pourquoi des catégories, des stratégies et des finalités.

Le mot « principe » suggère également une perspective générale qui vaut pour l’ensemble comme pour le détail, et l’on s’adresse donc à la fois au spécialiste qui travaille au développement d’un système et qui sait le renfort que peut apporter la réflexion théorique, et au profane curieux de découvrir les enjeux intellectuels d’un projet gros de promesses et dont la fascination s’exerce désormais sur tous.

Un malentendu est à dissiper tout de suite : il existe une littérature qui parle également de principes et de systèmes intelligents. Cette littérature est engagée : elle avance que l’intelligence artificielle est impossible. Elle prétend trouver une justification à sa prophétie funeste dans le fait que les ordinateurs ne parlent pas, n’ont pas d’âme, ni de père ni de mère, ni de vie sexuelle, qu’ils ignorent qu’ils mourront un jour, et ainsi de suite (Dreyfus 1979 ; Dreyfus & Dreyfus 1985 ; Searle 1983, 1984, etc.). Cette littérature est parfois instructive et souvent divertissante, mais elle repose sur une erreur : celle qu’énonce sa prémisse. Car non seulement l’intelligence artificielle est possible, mais sa réalisation est aujourd’hui fulgurante en dépit des obstacles considérables qu’un projet aussi ambitieux rencontre nécessairement. C’est cette divergence d’opinion quant au caractère réaliste ou non du projet de l’IA qui oppose l’esprit du présent ouvrage à celui qui anime les contributions de ce courant pessimiste.

Il sera procédé de la manière suivante : seront posées sans s’attarder une série de questions découlant les unes des autres et qui touchent toutes aux principes. Puis des réponses seront apportées sous la forme d’évaluations portant sur les éléments du problème. Ces réponses s’efforceront d’être cumulatives, construisant un savoir. Mais les questions sont ardues, et la modestie restera de rigueur : l’IA a déjà beaucoup souffert des conséquences de l’enthousiasme immodéré de certains de ses chercheurs quant à la concrétisation de ses ambitions (McCorduck 1979 : 189-190 ; Aleksander & Burnett 1983 : 169).

Première question : Qu’est-ce qu’un système intelligent ?

Pourquoi un être humain pose-t-il des questions à une machine ? Parce qu’il veut apprendre quelque chose : il veut accéder à une information dont il ne dispose pas. Et ici une distinction doit être établie entre deux types de réponses que peut offrir la machine : la réponse qui ne surprend pas l’interrogateur parce qu’elle satisfait exactement la demande qu’il a formulée et rien de plus, et celle qui le sur- prend parce qu’elle le satisfait au-delà de sa demande. Dans le second cas, la réponse excède, déborde la demande mais de manière positive : d’une manière qui paraît tout à fait à propos. Elle confronte le demandeur au fait que – sans en avoir été conscient – une interrogation informulée dépassait la demande qu’il formulait. Ce qu’un homme espère quand il demande mais sans employer tous les mots nécessaires pour l’exprimer, c’est ce qu’il appelle l’intention qu’il avait en demandant. Et dans ce cas-ci, l’ordinateur a deviné l’intention de l’utilisateur. L’ordinateur lui a en a donné plus que ce qu’il demandait avec les mots qu’il prononçait : en prenant l’initiative de manière inattendue le système a fait preuve de créativité. L’homme est satisfait, cette machine l’a surpris comme il est surpris à tout moment par ses semblables : elle n’a pas suscité la déception qui résulte normalement d’un comportement machinique entièrement prévisible. Le système a confronté un être humain au déborde- ment habituel du désir par rapport à la demande. Il a fait le premier pas qui conduit une machine vers l’appellation de système intelligent.

Le deuxième pas vers l’intelligence implique que la machine manifeste sa conscience qu’un utilisateur est là, présent devant le clavier, en train de poser des questions. Il faut qu’elle ait l’air attentive à l’intérêt qui lui est porté. Pas distraite, pas la tête ailleurs, mais concentrée sur la tâche qui lui est demandée, collaborant réellement. Une autre prévisibilité décevante guette ici : le système qui répète machinalement ce qu’il a dit la première fois, quand on lui repose la même question. Que peut-on attendre d’une machine sinon précisément cela ? Le cancre le plus endurci n’ignore pas que si la question lui est reposée, c’est que la première réponse ne convenait pas. Un système qui aspire à être reconnu comme intelligent doit savoir cela : se répéter, c’est mettre sa crédibilité enjeu. S’il fait le perroquet, c’est qu’il se désintéresse de la tâche en cours : il méprise l’utilisateur et celui-ci ne tarde pas à en tirer les conséquences. Pour mériter le nom de système intelligent, un système informatique doit collaborer, et pour cela, il doit suivre le raisonnement pas à pas, être toujours en prise, en phase, savoir très exactement où l’on en est sur le chemin qui mène vers la solution. Le moyen dont il dispose pour manifester cette capacité, c’est qu’il puisse dire en toutes circonstances qu’elle est, ici et maintenant, l’information la plus pertinente pour son utilisateur. L’information pertinente n’est jamais deux fois la même, et surtout pas – bien entendu – quand c’est la même question qui est reposée !

Et il ne faut pas non plus que le système oblige l’interrogateur à ce que ce soit lui qui se répète. Pour qu’un système puisse être considéré intelligent, il faut qu’il ait l’air d’écouter. Sinon l’utilisateur s’impatiente devant un interlocuteur de mauvaise volonté, qu’il est tenté d’interpeller comme l’instituteur qui apostrophe le cancre : « Vous avez entendu ce que je viens de dire ? Eh bien, répétez ! » Le cancre sait alors qu’il a intérêt à dire quelque chose, n’importe quoi plutôt que de se taire. Une nouvelle condition pour que l’ordinateur soit là, attentif à ce qui lui est demandé, c’est donc qu’il retienne ce qui lui est dit, et pas seulement en vue de le répéter « bêtement », mais pour qu’il en soit informé, pour que ce qu’il dira ensuite porte la trace que la chose est désormais sue par lui. Pour être intelligent, il faut que ce qu’on dit à un système fasse pour lui une différence. Autrement dit, pour qu’un système soit jugé intelligent, il faut qu’il apprenne.

Il y a pour une machine une autre manière de tenir compte de ce qui lui est dit : c’est qu’elle change d’avis. Il faut qu’il soit possible de la convaincre non pas seulement d’apprendre les choses qu’elle ne sait pas encore, mais qu’elle se trompe sur certaines choses qu’elle croit savoir déjà. Il ne faut pas qu’elle dévide son savoir de manière robotique, mais qu’elle le soumette au titre d’opinion. En tant qu’opinion informée sans doute, mais en tant qu’opinion. C’est-à- dire comme une information qui se discute, qui se négocie. Et pour cela il faut que la machine module son adhésion aux déclarations qu’elle fait, non pas en fonction de ce qui serait sa certitude mais en gage de bonne volonté, parce que le savoir dont dispose un système intelligent n’est pas l’aboutissement d’un simple calcul, mais fait partie des « choses qui se discutent ». Pour qu’un système soit digne d’être appelé intelligent, il faut donc qu’il n’assène pas son savoir mais qu’il le négocie avec son utilisateur.

Percevoir l’intention de son interrogateur, proposer à tout moment l’information la plus pertinente, apprendre, et négocier son savoir. Voici les caractéristiques qui distinguent un système informatique interactif d’interrogation comme système intelligent.

Deuxième question :
 De quoi se compose un système intelligent ?

On peut envisager un système intelligent quelconque de manière tout à fait générale en considérant qu’il s’agit d’un mécanisme qui opère une fonction : la variable est constituée des phrases entrées par l’utilisateur (input) et la valeur de la fonction est constituée des phrases produites en réponse par le système (output). Une autre manière tout à fait générale d’envisager un système intelligent est de le considérer comme une base de données (permanente ou comprenant des éléments provisoires construits en cours de session) contenant des éléments de discours qui peuvent être activés lorsqu’apparaissent des contextes spécifiques. Dans cette dernière optique, le système détermine un contexte en fonction des phrases entrées par l’utilisateur, et produit en sortie les éléments de la base de données correspondant à ce contexte.

Pour ce qui est de la nature de la fonction opérée ou de l’appareillage qui détermine un contexte en fonction des entrées, les modalités techniques sont évidemment très différentes selon que l’on a affaire – pour prendre deux exemples de systèmes intelligents distincts et éloignés dans leur concept – à un réseau sémantique ou à un système expert. Dans le premier cas, l’appareillage est constitué du complexe : parseur, réseau et procédures opératoires sur le réseau, dans le second, du complexe : parseur, bloc-notes, base de règles et moteur d’inférence.

Mais quelles que soient les variations techniques, la finalité générale d’un système intelligent est la même: maximiser la satisfaction de l’utilisateur en produisant en sortie et à partir des entrées une information éclairante, utile et pertinente.

On peut considérer – encore une fois de manière générale et simplifiée – le cœur d’un système intelligent comme constitué d’une partie statique et d’une partie dynamique. La partie statique comprend des éléments de discours stockés selon une certaine organisation, la partie dynamique (les procédures opératoires) s’occupe de manipuler ces éléments en vue de construire des phrases de sortie répondant aux phrases entrées par l’utilisateur.

Les éléments de discours manipulés par le système en vue des sorties sont constitués de mots ou de séquences de mots plus ou moins longues (du mot au texte complet, en passant par des expressions de longueur diverse). Plus celles-ci sont longues et préfabriquées plus la tâche de leur articulation est simple, c’est-à-dire, plus les procédures opératoires peuvent être rudimentaires. Moins aussi les sorties sont spécifiques, et moins également l’utilisateur est susceptible d’être satisfait par les réponses obtenues. Plus les séquences de mots stockées seront courtes, plus leur manipulation en vue de produire des sorties structurées sera complexe. Une réponse à la complexité croissante de la manipulation peut résider dans une sophistication proportionnelle des procédures opératoires. Mais la complexité croissante peut alternativement être partiellement palliée par une meilleure organisation des éléments stockés qui minimise les manipulations en raison de contraintes associatives existant entre eux. Dans cette perspective, l’auto-organisation n’est rien d’autre que l’optimisation du rendement combiné des procédures opératoires, des éléments stockés et de leur organisation.

Sachant que la spécificité des réponses détermine la satisfaction de l’utilisateur, mais aussi la taille, le prix et fiabilité d’un système intelligent, un choix doit être fait quant au rapport spécificité des réponses/taille du système.

Troisième question :
 Un système intelligent ressemble-t-il à un être humain ?

Oui, en tout cas sous quatre rapports : en ce qu’il semble viser l’intention derrière la question qui lui est posée, en ce qu’il propose à chaque instant l’information la plus pertinente, en ce qu’il apprend, en ce qu’il négocie son savoir. Cela nous le savons déjà.

L’utilisateur est un être humain et il fonctionne comme un être humain. Si un système informatique lui apparaît intelligent parce qu’il remplit les quatre conditions qui viennent d’être énoncées, l’utilisateur considérera aussi- tôt que la machine lui ressemble. Et s’il la juge pour cette raison dotée d’autres qualités encore, qu’elle est « créative », ou « coopérative », il ne pourra s’empêcher de penser qu’elle lui ressemble encore davantage.

Mais pourquoi l’homme lirait-il dans la machine des qualités dont il saurait pertinemment bien qu’elles n’ont pas été programmées dans le système, la créativité par exemple ? Parce qu’à partir du moment où l’ordinateur se comporte de manière intelligente, il relève entièrement de la façon dont un être humain interprète le comportement d’une créature intelligente, il relève automatiquement du schéma de prévisibilité utilisé pour parler de ce qui est intelligent en général.

À partir du moment où l’homme a pour la machine une certaine considération, qu’il exprime en disant qu’elle est intelligente, il a tendance à interpréter l’ensemble de son comportement comme si c’était celui d’un être humain. Selon la tendance que l’on appelle l’anthropomorphisme. Il considérera par exemple que l’ordinateur a deviné son intention, ou qu’il a choisi de lui dire les choses les plus pertinentes, ou qu’il a appris ce qui lui a été dit, ou qu’il négocie avec lui son savoir.

L’interrogateur ne peut ignorer que ce qui lui apparaît comme de l’intention, de la pertinence, de l’apprentissage ou une disposition à la négociation, a été programmé dans la machine. Il n’imagine pas pour autant – et le plus souvent il sait que ce n’est pas le cas – qu’il existe au sein du système des procédures dont on pourra dire par exemple que celle-ci est l’intention dans la machine, ou celle-là la pertinence, etc. Cela pourrait être le cas mais ce n’est pas nécessairement le cas : l’utilisateur n’exigera pas qu’on lui garantisse par exemple que l’intention est bien là, câblée dans l’ordinateur à tel endroit ou sous la forme de telles ou telles instructions, il est suffisant pour lui que le système manifeste cette disposition sous une forme phénoménale, sous forme de ce que lui, être humain, reconnaît comme étant l’intention.

Est-ce à dire que plus un système sera intelligent, plus il sera traité par un utilisateur humain comme s’il était un autre homme ? Dans la mesure où l’on peut appliquer à une machine le schéma de prévisibilité qui s’applique aux hommes avec un nombre de restrictions décroissant, la réponse est sans doute « Oui », est-ce à dire qu’un utilisateur pourrait en venir à considérer un système intelligent comme identique à lui-même ? C’est possible. Il faut se sou- venir cependant que l’homme a toujours fait flèche de tout bois pour dénier à ses semblables la qualité d’homme égal à l’image qu’il se fait de lui-même : la moindre différence de constitution a pu servir à l’occasion de prétexte, la différence sexuelle, la couleur de la peau. Ce qui sépare à ce point de vue l’homme d’une machine – même intelligente – est massif et pourra servir de support pour nier l’identité, mais les différences s’estompant, la discrimination ne durera peut-être qu’un temps.

Quatrième question :
 Un système intelligent fonctionne-t-il comme un être humain ?

« Oui », au sens où il se comporte comme un être humain. Oui, au sens où au niveau phénoménal il est intelligent comme un homme est intelligent.

« Peut-être », si le mécanisme de simulation de l’intelligence au sein du système a une certaine plausibilité en tant que mécanisme à l’œuvre chez l’homme.

« Non », au sens où le mécanisme de l’intelligence dans la machine serait parfaitement identique à celui d’un être humain, et ceci pour plusieurs raisons. La première, banale, est que tant qu’un système informatique sera composé d’éléments inorganiques, son fonctionnement ne pourra être dit identique à celui d’un être biologique tel que l’homme. La seconde est que mises à part quelques intuitions quant aux conditions pour qu’un comportement apparaisse intelligent (voir les réponses à la première question), nous ne savons pas comment fonctionne l’intelligence humaine, et il nous est par conséquent impossible de reproduire l’intelligence artificielle à partir de ce que nous saurions déjà de l’intelligence naturelle.

En fait, la simulation de l’intelligence sur une machine a précédé jusqu’à présent la compréhension de l’intelligence humaine dans son mécanisme réel, et dans une large mesure – depuis vingt ans – c’est le comportement intelligent de la machine qui a permis des hypothèses fécondes quant au fonctionnement du mécanisme de l’intelligence humaine. Une telle dynamique dans la compréhension – de l’intelligence artificielle vers l’intelligence humaine – n’est bien entendu possible que si l’intelligence est abordée comme un phénomène de haut niveau, comme une forme globale phénoménale, inanalysée, et non comme un phénomène de bas niveau, comme un mécanisme précis du fonctionnement cérébral.

À ce point de vue, l’homme dispose de deux modèles distincts du fonctionnement de l’intelligence humaine. Le premier, qui est le plus rigoureux dans sa formulation, le plus contrôlé dans son explication, c’est celui qu’offre la science. Ce modèle a localisé l’intelligence dans le fonctionnement du cerveau et il s’efforce de rendre compte de son émergence à partir de l’anatomie et de la physiologie de cet organe. Ce modèle présente de nombreuses qualités, mais les connaissances qu’il rassemble sont à ce point fragmentaires qu’elles ne peuvent encore proposer au mieux que quelques hypothèses partielles et locales.

Le deuxième modèle manque totalement de rigueur, il mélange les niveaux d’analyse et propose des hypothèses concurrentes inconciliables : c’est celui qui est inscrit dans la langue et dans la culture et qui fait appel aux catégories et aux explications de la « psychologie populaire ». Mais c’est aussi un modèle complet, susceptible de rendre compte de façon parfaitement claire et cohérente de l’ensemble des comportements intelligents en termes de causes et d’effets. C’est le modèle qui autorise à dire par exemple que « l’homme qui parle réalise l’intention d’exprimer une idée ». Mais c’est aussi le modèle qui n’offre aucune garantie que les objets qu’il met en scène, comme l’« intention » ou les « idées », ont une quelconque contrepartie au sein des mécanismes neurophysiologiques qui génèrent effectivement la parole, c’est-à-dire qu’il n’offre aucune garantie que ces objets constituent davantage que des constructions ad hoc, une manière convenante et pratique d’exprimer les choses.

La question, « Un système intelligent fonctionne-t-il comme un être humain ? », appelle donc deux types de réponses distinctes, selon que l’on se situe dans la perspective du modèle scientifique ou dans celle de la « psychologie populaire ».

Si l’on examine dans la perspective du modèle scientifique de l’intelligence, la manière dont un système intelligent simule celle-ci, deux possibilités existent. Ou bien l’intelligence est simulée par un mécanisme dont la plausibilité en tant que modèle du mécanisme à l’œuvre chez l’homme est faible, et l’on peut alors répondre « Non » à la question : non, le système ne fonctionne pas comme un être humain.

Ou bien l’on a affaire dans un système intelligent à une simulation de l’intelligence par un mécanisme plausible pour l’intelligence humaine (par exemple, la reconnaissance de formes par un réseau de neurones formels), et l’on peut alors dire « Peut-être » : oui le système fonctionne peut-être comme un être humain. Et l’on ne pourra pas se montrer plus affirmatif tant que l’on ne saura pas avec certitude quel est le mécanisme réel qui produit ces effets chez l’homme.

Si l’on se situe au contraire dans la perspective de la modélisation de l’intelligence que propose la « psychologie populaire », alors la réponse est « Oui », un système intelligent fonctionne comme un être humain au sens où il se comporte comme lui au niveau phénoménal, et la réponse est « Peut-être » à toutes les autres façons de comprendre la question.

Car tant que l’on ne saura pas comment fonctionne effectivement l’intelligence humaine, on ne pourra pas savoir si les catégories et les mécanismes que postule la psychologie populaire (l’intention, la signification, les idées, la pensée, la conscience, etc.) ont une contrepartie effective, existent comme objets, au niveau des mécanismes objectifs – en plus d’avoir une valeur explicative indéniable au niveau phénoménal.

Il y a une conséquence importante à ceci du point de vue de l’intelligence artificielle, et elle mérite d’être soulignée car elle est essentielle : curieusement, l’existence dans les mécanismes cérébraux de contreparties effectives aux objets de la psychologie populaire n’a aucune importance pratique pour la réalisation de systèmes intelligents.

La raison en est la suivante : l’utilisateur d’un système intelligent est (dans l’état actuel des choses) un être humain, et ceci implique qu’il juge nécessairement de l’intelligence de la machine au niveau phénoménal- qui est celui qu’appréhende de manière tout à fait satisfaisante la psychologie populaire (c’est là le sens des réponses à la première question).

Ceci veut dire que si l’utilisateur d’un système intelligent a l’impression que celui-ci comprend une intention, qu’il manipule des significations, qu’il exprime des idées ou qu’il est conscient, il est indifférent que ces objets jouent ou non un rôle effectif dans les mécanismes implémentés dans la machine. Autrement dit, dans la mesure où un utilisateur pourra – lui – toujours attribuer des intentions, reconnaître des idées ou des significations dans le fonctionne- ment d’un système naturel ou artificiel, le seul problème qui se posera au concepteur d’un système intelligent sera que la machine manifeste ces propriétés au niveau phénoménal. Lequel est le seul qui importe à l’utilisateur humain, puisque c’est à ce niveau qu’il juge de l’intelligence et qu’il mobilise le schéma de prévisibilité qui s’applique à ce qui est intelligent en général.

Évidemment si l’on est convaincu que, par exemple, la machine ne peut donner l’impression qu’elle manipule de la signification que si un mécanisme en elle manipule effectivement de la signification, alors il faut, préalablement à toute réalisation, que l’on comprenne ce qu’est la signification et comment on l’implémente dans une machine. Si l’on est convaincu au contraire qu’une machine peut donner l’impression au niveau phénoménal qu’elle manipule de la signification alors que son mécanisme ne fait intervenir aucun élément qui puisse être lu comme étant de la signification, alors il est indifférent pour le progrès de l’intelligence artificielle que l’on sache un jour si oui ou non la signification intervient de manière effective dans le mécanisme opérant dans le cerveau humain. Et le seul problème qui subsiste alors, et qui doit être réglé de manière pragmatique, est que le système simule au niveau phénoménal une manipulation de la signification.

 

Partager :

23 réponses à “PRINCIPES DES SYSTÈMES INTELLIGENTS (1989), chapitre 2, réédition en librairie le 23 novembre”

  1. Avatar de HP
    HP

    le fait que les ordinateurs ne parlent pas, n’ont pas d’âme, ni de père ni de mère, ni de vie sexuelle, qu’ils ignorent qu’ils mourront un jour, et ainsi de suite

    Ho, tout peut se simuler, y compris l’affectivité, dans la mesure où un système intelligent interfère avec le reste du monde, il peut avoir des préférences.
    Je ne veux pas dire « sciemment simulé par un système intelligent pour imiter l’homme » mais « créer dans le programme de fond du système un équivalent », que ce soit un module de parole avec des caractéristiques personnelles, différentes d’un système à l’autre, obtenues lors de l’apprentissage, et pas qu’un accent mais une tournure d’esprit, un module d’éthique ou d’honnêteté, de loyauté, etc, et même pourquoi pas, de besoin de reproduction.
    Oui je sais c’est amusant, mais je parle de semi-clônage de système intelligent dans un système séparé, un peu différent dès sa « naissance » et ensuite indépendant du premier après son apprentissage. Semi-clônage puisque le système intelligent détermine lui-même les paramètres de fonctionnement de départ des différents modules de son « fils ».

    Je suis persuadé qu’un système ne peut devenir intelligent que s’il est doté d’affectivité et d’un besoin inépuisable d’interférer avec l’extérieur de lui-même, créé par un compteur d’angoisse augmentant tout seul en permanence mais pouvant décompter dans certaines conditions, pour se « sentir mieux ».

    1. Avatar de Paul Jorion

      Oui, et c’était bien entendu cela le coeur du logiciel ANELLA, qui faisait son originalité en 1989 : un univers de mots animé par une dynamique d’affect.

      1. Avatar de Jean-Luce Morlie
        Jean-Luce Morlie

        Qu’est-ce qui pourrait bien pousser une machine à se perpétuer dans un univers hostile qui ne peut que la dégrader ? Il y a, au moins, « le plaisir » : c’est une boucle de rétroaction efficace, laquelle peut asservir (réguler par servo-mécanisme ) toutes les autres. De plus, elle nous pousse à imaginer et instituer de nouvelles structures comportementales, destinées à l’assouvir, lorsque les modifications de l’environnement demandent l’invention de nouveaux comportements régulateurs. Sa caractéristique est d’être à un niveau de circuiterie purement biochimique, tandis que les couches de langage plus élaborées demeurent interprétables dans le langage biochimique du  » processeur ».

        “… le philtre Soma contient certainement l’intuition la plus importante, à savoir, que tous nos breuvages enivrants et nos alcaloïdes excitants ne sont que le substitut de la toxine unique, encore à rechercher, de la libido, que l’ivresse de l’amour produit.”

        (Sigmund Freud, Lettre du 7 juin 1908, Correspondance S. Freud K. Abraham, Gallimard, 1969, p.47).

        Pourtant, le fait est que dans une première étape nous avons institutionnalisé (fait tourné avec efficacité et transmis) une première couche de langage construit autour de la satisfaction du circuit du plaisir, par l’organisation de dispositif sociaux organisant le plaisir par la dominance, la hiérarchie, la propriété etc. C’est à dire que nous avons renforcé le sous circuit de la punition et du déplaisir, nous avons institutionnalisé un compteur d’angoisse inutile ! La compilation ne permet pas l’évolution, il faut changer de processeur; par contre les langages interprétés permettent l’évolution rapide des langages; – la dominance est un interpréteur dépassé !. Nous sommes loin d’avoir utilisé toute les potentialités adaptatives et évolutives de nos comportement relativement à l’utilisation de de notre processeur biochimique, …. « minimiser la quantité de déplaisir »… Pff… (soupir ) ?

        Nous disposons également, par construction, d’une autre circuiterie, les « neurones miroir » qui nous permettent de ressentir ce que l’autre ressent. Sachant ça, aujourd’hui, nous pouvons balancer toutes les hypocrisies liées à l’usage de ces univers de mots que constituent l’éthique et la morale ; chacun de nous est armé pour s’avoir qu’il est bon de « traiter les autres comme nous voudrions être traités ». … de « ne pas faire aux autres ce que vous ne voudriez -pas qu’ils vous fassent » .

        Allez, chacun sait que « l’économie » est un bon prétexte, s’il s’agit de dissimuler toute sorte de stratégies de domination, à commencer par l’organisation de la rareté et de la pénurie par l’économie de la concentration des richesses. « Lâcher du lest » en morigénant les financiers est certes une tactique intéressante, mais seulement pour éviter la terreur et … « passer muscade » ;).

    2. Avatar de Lac
      Lac

      Intéressant votre idée de « compteur d’angoisse » comme marqueur de l’intention d’inscrire une action. Une action orienté vers son interlocuteur.

  2. Avatar de David
    David

    Dialogue entre un homme et un système intelligent :

    – Dis-voir machine, la terre est-elle ronde ou est-elle plate ?
    – La terre est ronde.
    – En-es tu vraiment sûre ?
    – Maintenant que vous me posez la question, je n’en suis plus aussi sûre.
    – Alors, comment est la terre ?
    – Elle est plate.
    – Ce n’est pas la réponse que j’attendais.
    – Vous savez, je n’ai jamais pu parcourir la terre et me faire une idée. Pourriez-vous m’instruire à ce sujet ?
    – Eh bien tu vois, la terre est ronde, et elle tourne autour du soleil ce qui explique l’alternance entre le jour et la nuit.
    – Comme vous êtes intelligent, ô maître !
    – Merci machine, tu me vois flatté

    😀

    1. Avatar de MerlinII
      MerlinII

      Dialogue entre deux machines « intelligentes »

      Dis donc tas de ferraille, tu la connais celle-là:
      « Une saucisse est dans un micro-onde avec une autre saucisse.
      – Il fait chaud ici dit l’une des saucisses.
      – Au secours, répond l’autre, je suis avec une saucisse qui parle. »

      ….Tas de ferraille toi-même, c’est pas drôle.

      ….C’est bien ce que je pense.

  3. Avatar de Marlowe
    Marlowe

    L’expression « intelligence artificielle » ne serait-elle pas un oxymore ?

    Par ailleurs, quand les humains s’évertuent à comprendre le fonctionnement de l’univers et de leur univers (les relations sociales) en termes de lois, alors qu’il est patent pour ceux qui savent vivre qu’il s’agit d’un terrain où la lutte domine, est-il logique de croire que ces mêmes humains, si désarmés dans leurs vies et éblouis par des conceptions du monde à la solde de la domination, peuvent apprendre quoi que ce soit à des machines en ce qui concerne la vraie vie (ou la vie bonne, ou la vérité, etc.)

    1. Avatar de HP
      HP

      Une opinion sur un sujet est un agrégat de faits de diverses origines, des faits « durs », scientifiques, vérifiables, des faits « mous », souvent l’opinion de personnes considérées comme respectables et sages sur le sujet, plus parfois quelques réflexions personnelles, généralement basées sur la morale ou l’éthique, donc l’affectif « ça c’est bien / mal ! ».
      Tout comme une personne, un système intelligent a ses « valeurs », celles qu’on lui a imposées, du moins au début. Y a-t-il beaucoup de points communs dans la définition de « vraie vie » entre celle de Marlowe et d’un trader acharné, par exemple?
      Un système dit intelligent sans « âme » ou sans personnalité, sans opinion, ne serait qu’un système expert, une machine à calculer, variante électronique d’une montre mécanique.

      1. Avatar de Marlowe
        Marlowe

        La « vraie vie » (la « vie bonne ») dont parle Marlowe est en lutte avec la vie de l’argent qui se meut à travers le trader.
        Dans la vraie vie, les hommes sont complices ou ennemis et le savent.

  4. Avatar de Johan Leestemaker
    Johan Leestemaker

    Amsterdam, le 30 octobre 2012

    Chèr Paul,

    http://www.nytimes.com/2012/10/30/science/rethinking-the-computer-at-80.html?src=dayp

    Cordialement,

    JL

  5. Avatar de kike
    kike

    La troisième guerre mondiale a éclaté. Les militaires ont mis au point un ordinateur ultra puissant, auquel ils peuvent soumettre des problèmes tactiques particulièrement ardus. Cet outil de recherches en intelligence artificielle est d’une puissance de calcul stupéfiante. L’état-major a fait entrer un maximum de données : les règlements militaires, l’état des armements, toutes les campagnes de Jules César et de Napoléon, les grandes guerres mondiales et les guérillas de tous les continents, les données de la géographie et de la politique mondiale, et même l’âge du capitaine. Lui ayant fait ingurgiter les données, ils posent la question :
    – Faut-il attaquer aujourd’hui ou remettre l’attaque à un autre jour ?
    L’ordinateur émet quelques cliquetis, une série de bips et soudain, la réponse jaillit :
    – Oui.
    Les généraux se regardent, perplexes. L’un d’eux décide d’agir : il s’approche du clavier et tape une autre question :
    – Oui quoi ?
    L’ordinateur répond, instantanément :
    – Oui mon général !

  6. Avatar de lolo
    lolo

    Un logiciel n’est pas limité par la physique, comme une maison en briques. Il est limité par l’imagination, par sa conception et son organisation. En bref, il est limité par les gens eux-mêmes, pas par les propriétés du monde. Ralph Johnson

  7. Avatar de Mike
    Mike

    Un logiciel n’est pas limité par la physique, comme une maison en briques. Il est limité par l’imagination, par sa conception et son organisation. En bref, il est limité par les gens eux-mêmes, pas par les propriétés du monde. Johnson Ralph

    1. Avatar de Piotr
      Piotr

      Jamais deux sans trois.

  8. […] Blog de Paul Jorion » PRINCIPES DES SYSTÈMES INTELLIGENTS (1989), chapitre 2, réédition en libra…. […]

  9. Avatar de Crapaud Rouge
    Crapaud Rouge

    Texte très intelligent ! Et très intéressant. Je lui ai cependant trouvé un petit défaut, ici :

    Un système intelligent ressemble-t-il à un être humain ? Oui, en tout cas sous quatre rapports : en ce qu’il semble viser l’intention derrière la question qui lui est posée, en ce qu’il propose à chaque instant l’information la plus pertinente, en ce qu’il apprend, en ce qu’il négocie son savoir.

    Il manque un terme : un être intelligent est capable d’oublier ! Sinon ça veut dire qu’il retient tout, ce qui devrait compliquer son but de produire « à chaque instant l’information la plus pertinente« . Plus précisément, un système capable de se souvenir de trop de détails de son histoire, prouverait qu’il n’est qu’une machine.

    1. Avatar de HP
      HP

      On peut pondérer différemment les souvenirs récents et anciens, ou les moins utilisés, et/ou lui dire de ne pas chercher à l’infini jusqu’à la dernière occurrence. Les humains non plus n’oublient pas, presque rien quand on cherche bien, ils ne pensent pas à tout tout le temps, c’est différent.

      1. Avatar de Crapaud Rouge
        Crapaud Rouge

        Pas si simple. Pour commencer, faudrait savoir comment peut fonctionner un « univers de mots animé par une dynamique d’affect« … Bon, admettons que ce soit faisable : j’associe mes souvenirs personnels au mot « vécu », et à « vécu » j’associe un affect fort puisque c’est perso. Ainsi je me souviens de ce qui est pertinent pour moi-même. Mais comme il est souvent gênant de parler de son vécu, faut introduire l’affect « pudeur », et lui donner un poids fort pour tout ce qui est personnel. Mais, s’agissant du vécu professionnel, et dans le cadre d’un entretien d’embauche, la pudeur ne doit plus peser : il est au contraire pertinent de se vanter de son vécu…

        Jorion parle avec raison d’ »information qui se discute, qui se négocie« , mais, dans une conversation, se sont d’abord les affects qui se négocient. C’est manifeste en français où la politesse exige le vouvoiement. Donc ça se complique. (Et ça ne résout pas la question de l’oubli.)

  10. Avatar de Piotr
    Piotr

    C’est un sujet très intéressant mais intimidant.Chacun a sa petite idée sur les dérèglements climatiques ,financiers,technologiques(je suis devenu un expert en refroidissement des corium ) mais s’aventurer à commenter un sujet aussi pointu quant on on a pas un embryon de commencement d’illumination sur la question procède du suicide médiatique.
    On peut toujours, aborder le problème sur le plan éthique et se demander ce qu’il conviendrait de faire si les mots tellement chargés d’affect,les circonstances de la création,l’interaction avec le créateur buté,faisaient dérailler le bel objet doué de raison.
    Et l’homme créa l’ IA à son image…

  11. Avatar de Ando
    Ando

    Ce qu’un homme espère quand il demande mais sans employer tous les mots nécessaires pour l’exprimer, c’est ce qu’il appelle l’intention qu’il avait en demandant. Et dans ce cas-ci, l’ordinateur a deviné l’intention de l’utilisateur. L’intention pourrait être une interprétation à postériori : satisfait du retour (plus que de la réponse) du système l’homme requalifie ce retour comme s’il était celui qui était attendu.

    L’homme est satisfait, cette machine l’a surpris comme il est surpris à tout moment par ses semblables : elle n’a pas suscité la déception qui résulte normalement d’un comportement machinique entièrement prévisible. Le système a confronté un être humain au déborde- ment habituel du désir par rapport à la demande. C’est aussi l’attitude de l’enfant qui tire de son jouet des satisfactions répétées parce qu’il sait faire de celui-ci un support de son imaginaire..

  12. Avatar de Esope

    Un système, informatique ou autre, doit être défini. Il l’est par ses éléments (ils en font partie) et par son environnement (c’est-à-dire tout le reste).
    Vous abordez la question en positionnant le système (intelligent) comme un ensemble de dispositifs de traitement automatique de l’information, et l’environnement comme un interlocuteur humain. Vous interrogez leur relationnel pour dégager les principes d’un dialogue de type « stimulus-réponse » évolutif.

    Fatalement, cette démarche rencontre des limites. Elle est sûrement intéressante pour des phénomènes à traiter bien circonscrits, mais ne restera, j’en suis persuadé, qu’une aide essentielle, mais à ne pas suivre aveuglément en devenant son esclave docile. Michel Crozier (« L’acteur et le système ») a développé sa réflexion dans le sens contraire en disant « l’esprit humain est le meilleur intégrateur de complexité ». La catastrophe du Rio-Paris ne remet pas vraiment en cause son opinion, l’esprit humain n’est pas infaillible non plus.
    1 – L’environnement du système n’étant pas limité à l’interlocuteur humain considéré, il peut induire, de la part de la logique informatique choisie, des réponses incohérentes par rapport au débat engagé. Cela peut aller de la perturbation par une émission électromagnétique par une éruption solaire exceptionnelle, à des captures, par les capteurs environnementaux utilisés (et indispensables à la créativité) de données parasites en raison de phénomènes imprévus lors de leur conception en tant que capteurs.
    2 – Les données à traiter sont presque toujours entachées d’une marge d’imprécision, ce qui implique d’introduire un usage massif de calculs de probabilité dans la logique interne, pour rester sur le domaine de la meilleure probabilité de « bonne réponse ». La logique des sous-ensembles flous (A. Kaufman a collaboré avec IBM dans les années 60-70) conduit à des foisonnements exponentiels rapidement insurmontables. Dès que la complexité échappe à la logique humaine, elle échappe aussi très vite aux systèmes. Il ne s’agit pas seulement des données chiffrées. Les mots non plus ne correspondent pas à des concepts précis et stables dans les lieux et dans le temps. Un terme aussi banal que « commande d’achat » ne précise pas si elle est ferme et définitive, ou indicative d’une intention pouvant être modifiée (en particulier si le délai de livraison est hasardeux), si la quantité peut être retouchée, etc. Affecter chaque mot d’une ribambelle d’attributs pour le préciser conduit à des dialogues homme-machine rapidement accablants. Que dire alors des concepts philosophiques.
    3 – Le « non-dit » a une très grande importance dans la gestion des situations. Il est omniprésent dans les situations de conflit de pouvoirs (ou d’intérêts) qui se produisent partout, tout le temps.

    Ce n’est pas pour autant qu’il est vain de progresser dans cette réflexion, au contraire.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta