Ouvert aux commentaires.
L’article dans Wired : L’IA a un problème d’hallucination difficile à résoudre. (La solution ? Simuler une dynamique d’affect cf. Principes des systèmes intelligents).
*Godot est mort !*
Ouvert aux commentaires.
L’article dans Wired : L’IA a un problème d’hallucination difficile à résoudre. (La solution ? Simuler une dynamique d’affect cf. Principes des systèmes intelligents).
Il y a quelques mois, vous avez attiré notre attention sur un exposé de Naftali Thishby, analysant le processus de compression / généralisation des données, à l’oeuvre dans un réseau de neurones formels profond.
Ce qui m’a le plus impressionné, c’est que rien, dans son analyse, ne se référait à une modalité particulière « hardware », qu’il s’agisse d’un cerveau, ou de tel ou tel type d’implémentation artificielle. Il n’était question que d’entropie et de rapport signal/bruit se propageant dans un réseau.
Autrement dit, ce qui nous était suggéré, c’est que le type d’intelligence que Thishby examinait n’était pas une propriété d’un cerveau, d’une machine, ou de tel ou tel artefact, mais une propriété des données elles-mêmes, lorsqu’elles sont mises en relation avec ce qui n’est jamais qu’un autre ordre de données : le réseau de neurones formels. C’est de l’information qui discute avec de l’information, autrement dit, une propriété de relativité de l’information.
C’est une proposition surprenante, car nous sommes habitués à attribuer l’intelligence à quelqu’un, et depuis peu, à quelque chose.
Votre idée d’introduire une dynamique d’affect joue pour moi le rôle d’une « transformation de phase », qui fait émerger, dans le dialogue de l’information avec l’information, quelque chose de neuf : un sujet. C’est la modalité par laquelle le jeu relationnel de l’information pure se transforme en autre chose, de plus proche de ce que nous avons coutume d’appeler l’intelligence.
Des choses sans doute profondes, me semblent rôder autour du rapprochement de ces concepts : Relativité informationnelle, Sujet, Emergence.
J’intuitionne que le travail de Thishby nous met sur la voie d’une théorie générale de l’émergence, qui pourrait concerner aussi la physique, et qui aurait pour fondement la relativité consubstantielle à toute information. Malheureusement, je ne suis pas qualifié pour développer cette intuition…
Oui, c’est tout à fait cela : le deep learning que l’on voit à l’oeuvre là « flotte » littéralement, sans être ancré à un sujet. Or un sujet doit déterminer – c’est une autre chose à laquelle le chapitre 21 de Principes des systèmes intelligents (1989) est consacré – le degré de son adhésion aux choses qu’il rapporte. De l’adhésion totale : j’y mets ma vie en gage, à l’adhésion minimale : je me contente ici de citer une chose entendue.
C’est la différence entre IA forte et faible. Une IA forte mettra en oeuvre des stratégies qui servent sa propre feuille de route, les objectifs qu’elle s’assigne, son propre système de « valeurs ».
@JA :
Il y a donc inégalité chez l’IA et l’énergie , comme « chez nous » .
A quand la proclamation des droits de l’IA ?
C’est la
différence entre IA forte et faible. Une IA forte mettra en
oeuvre des stratégies qui servent sa propre feuille de route,
les objectifs qu’elle s’assigne, son propre système
de « valeurs ».
Je
suppose que le terme « valeurs » renvoie ici à
l’existence possible d’une dynamique d’affects que Paul recommande
pour surmonter l’effet hallucinatoire que les IA n’ont pas l’air de
dépasser ni de surmonter. La valeur serait alors ce qui
conduirait l’intelligence de son effet à son sujet. La valeur
serait « le degré de son adhésion aux
choses qu’il [le sujet] rapporte ». La valeur serait
détermination de l’effet produit de l’intelligence par le
sujet. L’intelligence humaine ou artificielle, forte ou faible, nous
plonge dans la question du sujet comme cause de la valeur qui devient
l’affection d’un sujet par un autre indépendamment de
l’artifice ou de la nature.
Si la valeur mesure un gradiant « de
l’adhésion totale : j’y mets ma vie en gage, à
l’adhésion minimale : je me contente ici de citer une
chose entendue », alors la valeur matérialise un
repérage intelligent des sujets différents et distincts
les uns par rapport aux autres, les singuliers par rapport à
des pluralités. Intelligent est ici le sujet qui acquiert la
possibilité efficiente de se situer par lui-même et non
par une aliénation en rapport à d’autres sujets qu’il
affecte ou qui l’affectent. L’affection réciproque des sujets
mesurable par l’intelligence est la valeur du prix d’un sujet dans la
subjectivité d’un autre sujet. Est-il alors logique ou
nécessaire qu’une IA parce que forte s’enferme dans son
système propre d’assignation ? Le prix d’un objectif
produit par une IA est-il pensable par le seul moteur de cette IA ?
Une IA a-t-elle une force quelconque qui n’a pas ou qui se coupe de
tout affect de subjectivité externe à elle-même ?
Bref une IA est-elle forte si elle
n’est pas réductible à sa faiblesse ? Et
l’artifice existe-t-il encore s’il peut s’émanciper du sujet
qui le domine par la relation affective directe entre des sujets qui
se délimitent donc s’augmentent en se réduisant
réciproquement ?
C’est la différence entre IA forte et faible. Une IA forte mettra en oeuvre des stratégies qui servent sa propre feuille de route, les objectifs qu’elle s’assigne, son propre système de « valeurs ».
Je suppose que le terme
« valeurs » renvoie ici à l’existence possible d’une dynamique d’affects que Paul recommande pour surmonter l’effet hallucinatoire que les IA n’ont pas l’air de dépasser ni de surmonter. La valeur serait alors ce qui conduirait l’intelligence de son effet à son sujet. La valeur serait « le degré de son adhésion aux choses qu’il [le sujet] rapporte ». La valeur serait détermination de l’effet produit de l’intelligence par le sujet. L’intelligence humaine ou artificielle, forte ou faible, nous plonge dans la question du sujet comme cause de la valeur qui devient l’affection d’un sujet par un autre indépendamment de l’artifice ou de la nature.
Si la valeur mesure un gradiant « de l’adhésion totale : j’y mets ma vie en gage, à l’adhésion minimale : je me contente ici de citer une chose entendue », alors la valeur matérialise un repérage intelligent des sujets différents et distincts les uns par rapport aux autres, les singuliers par rapport à des pluralités.
Intelligent est ici le sujet qui acquiert la possibilité
efficiente de se situer par lui-même et non par une aliénation en rapport à d’autres sujets qu’il affecte ou qui l’affectent.
L’affection réciproque des sujets mesurable par
l’intelligence est la valeur du prix d’un sujet dans la subjectivité d’un autre sujet. Est-il alors logique ou nécessaire qu’une IA parce que forte s’enferme dans son système propre d’assignation ? Le prix d’un objectif produit par une IA est-il pensable par le seul moteur de cette IA ? Une IA a-t-elle une force quelconque qui n’a pas ou qui se coupe de tout affect de subjectivité externe à elle-ême ?
Bref une IA est-elle forte si elle n’est pas réductible à sa faiblesse ? Et l’artifice existe-t-il encore s’il peut s’émanciper du sujet qui le domine par la relation affective directe entre des sujets qui se délimitent donc s’augmentent en se réduisant réciproquement ?
Y a-t-il finalement un terme plus mal cerné que celui ‘d’affect » ?
Ente affectation et affection , il n’y a presque pas de place dans un dictionnaire .
Et comme de plus , l’affectation peut être mensonge , entre affectif et cognitif , je vais choisir le « cognitif » , comme le syndicaliste CGT armé d’une massue , qu’il m’est déjà arrivé de mettre en scène ici, dans la relation d’un dessin représentant une assemblée du personnel où le DRH énonce : « notre méthode s’appuie sur l’affectif et le cognitif . »
Quand certaines boites noires deviennent très complexes on a vite fait de tenir à leur encontre des raisonnement qui se rattachent à la » pensée magique «
Ben elle comprend rien, c’était pas encore évident? Quant à la vieille mythologie de l’émergence… Hostia! pas un peu fatigué de sortir ce lapin?
On ose à peine imaginer le frère qui mangera son chapeau. J’ai bien dit le frère. Puis le père et la mère. Que tout ce petit monde crève, personnellement ça ne me fait ni chaud ni froid. Pire encore, je vais prendre la fâcheuse pente de la mythologie pour survivre.
« We are sorry, something went wrong ». Est-ce que que l’IA est le « We », ou est-ce que l’IA est le « something » ? That is the question ! ( affaire à suivre…).
À mon avis c’est le réel ce quelque chose, même une intelligence artificielle ne peut pas, du moins encore, saisir sa complexité ! À ce réel.
Par contre si elle se développe, intelligence artificielle va vraiment envoyer du lourd.
Donnons-lui les clés avant trop de -monter des eaux de guerres de centrales qui pètent et de pauvres qui se révoltent.
Par contre si elle se développe, l’intelligence artificielle va vraiment envoyer du lourd.
Donnons-lui les clés du bon sens et de la saine direction avant trop de monter des eaux de guerre deux centrales nucléaires qui pètent et de pauvres qui se révoltent.
Si ça devient trop tard , Ça voudra dire, que ce seront les nantis, les clés des nantis et les nantis ont souvent des valeurs qui sentent la bouse de vache.
PS. Même si j’aime c’est odeur 😀 là c’est péjoratif.
Au fait Monsieur, pourquoi Big Brother Mangera son chapeau ?
Mangera-t-il son chapeau, ou est-ce sa conscience qui le rongera ?
https://youtu.be/9fs6hlOczcs
Hum! Et que risque-t-il d’arriver s’il oublie son parapluie ?
L’humain possède probablement ce que vous appelez une dynamique d’affect, il est pourtant sujet à des hallucinations – hallucinez par exemple en regardant la page 26 de ce document http://www.iro.umontreal.ca/~memisevr/dlss2015/goodfellow_adv.pdf. Pas sûr que cette dynamique d’affect soit la solution à tous les maux de l’IA.
Il s’agit des limitations de notre propre système nerveux. Ça ne prouve rien, ni dans un sens ni dans l’autre, quant à l’IA.
Je vois juste 4 cercles concentriques. Suis-je dépourvu de « dynamique d’affect » ou plus simplement doté d’une bonne spatialisation visuelle ?
La plupart des illusions visuelles résultent d’un traitement bayésien « pré-câblé » dans les premières couches de neurones du cortex visuel.
L’évolution nous a équipés pour économiser du travail de traitement, en intégrant dans les structures neuronales que, pour prendre un exemple, la lumière du soleil vient en général du haut. Nous n’avons pas à reconstruire cette probabilité à chaque perception visuelle, mais nous le payons parfois d’une illusion, quand l’hypothèse probable qu’avait retenue l’évolution, est mise en défaut.
Stanislas Dehaene explique ça très bien dans son cours au collège de France :
http://www.college-de-france.fr/site/stanislas-dehaene/course-2011-2012.htm
Ça doit être une qualité ( ou une tare ) requise pour faire un bon modérateur !
Pour moi , ça s’entortille .
Mais ça n’est pas désagréable .
Par contre , je me suis « aperçu » que j’arrive à retrouver les quatre cercles concentriques si je quitte assez largement la vision » en face » .
Ce qui , à notre échelle , voudrait dire qu’on voit la vérité de face et la réalité de biais .
Après la ruse de la raison , la ruse du regard oblique !
Tout ceci me remet en tête une technique de contrôle que nous employions en visite de sécurité des remontées mécaniques , pour lesquelles il vaut mieux ne pas avoir d’hallucination comme pour toutes les activités « sensibles » : principe du « double regard » , en jouant sur la multiplication des natures d’observateurs et de celle des méthodes et outils d’observation .
Il y a pas mal de cas où , paradoxalement , il vaut mieux « voir double » .
N’importe quoi ce sont des carrés ! Non mais regarde ! Pleins de petits carrés, disposés en forme de cercles . Tu parles d’une bonne spatialisation visuelle…
Ah CloClo, tu nous avais « presque » manqué… oui, le « truc » c’était bien de voir que ce sont des petits carrés, c’était ça le piège ! Moi qui pensais bêtement que les gens allaient imaginer que c’était un escargot plutôt que des cercles concentriques. Raté !
Clo clo , c’est mieux qu’une IA et un cerveau humain réunis : il vient de résoudre la quadrature du cercle .
Il ne lui reste plus qu’à passer du carré au cube pour faire plus fort qu’une IA en 0,37 seconde .
Au passage il faut que les éléments du Rubik’s cube soient méchamment bien usinés pour ne pas se coincer à cette vitesse .
Est ce que les concepteurs en IA travaillent sur une « machine » IA destinée à développer-perfectionner les futures machines IA ?
Peut on imaginer une IA qui, nourrie (en big data) de toutes les recherches sur le sujet, pourrait faire avancer drastiquement les recherches le cancer, le sida … entre autres et par exemple ?
Drastiquement peut être pas ( surtout si on se souvient que « drame » a la même étymologie grecque ) , mais ça pourrait être une voie pas trop conne .
L’article de WIRED montre deux skieurs sur une crête, et le problème est que l’I.A. est sûre à 91% qu’il s’agit d’un chien. Or, nous, observateurs humains, sommes tous d’accord sur les indices concordants de l’image, qui sont parfaitement cohérents avec notre représentation élaborée (avec lois physiques !) du réel ! Ce sont bien des skieurs ! Pauvre I.A. hallucinée !…
Ce que j’attend avec une curiosité teintée d’ironie, c’est le moment ou une I.A. très avancée, dûment affectée, et très intelligente, nous démontrera que c’est bien un chien. Ou plus précisément, qu’elle est incomparablement mieux fondée, dans son chemin informationnel à elle, avec ses émergences cognitives à elle, inimaginablement élaborées ( et incluant des lois physiques itou, plus profondes, plus complètes, plus belles !), pour dire que c’est un chien, que nous pour dire que c’est « le réel » : des skieurs.
Ce que l’I.A. pourrait nous apprendre, c’est que notre confiance dans « le réel » n’est qu’une très longue histoire informationnelle d’émergences cognitives enchâssées, contingente, qui nous rend sensibles à des hallucinations comme le temps, la localité, la causalité, etc…
l’IA s’en sortira en avançant que c’est un chien skieur .
Pourquoi ce parti pris idéaliste ? Vous mettez du cognitif au début, là où il y a de la sensation, bref de la bidoche, du contrasté, de l’obscur, du nuancé, de l’insondable. Avec de tels points de départ : bon courage. L’IA dite forte : le gargarisme à la mode, de quoi mousser un quart d’heure. Un très bon antidote, exemple entre dix mille autres possibles : « pour un oui pour un non » de N. Sarraute, écouté ce matin en briquant la voiture (et encore… manque une dimension pulsionnelle dans l’échange… mais ce pelage, ce grattage à presque l’os du soi donc de l’autre (sans majuscule,please), c’est cela l’inatteignable subjectivité justement parce que perdu dans les sables métastable mouvants d’un dehors, donc d’un du corps (lui-même rien de consistant par soi, traversé et enchâssé dans un milieu/monde ambiant) Et justement je pensais à Jorion et à ses drôles d’aveuglements, je veux dire ses drôles de convictions. Je me disais, éponge en main…ben tu peux t’accrocher, mon Coco.
Pour éviter un malentendu, lisez « une très longue histoire d’émergences enchâssées », plutôt que « d’émergences cognitives enchâssées ».
Dans mon intuition, l’aspect cognitif n’intervient qu’à la fin de cette très longue histoire informationnelle, dont il nous faut comprendre les étapes, par l’élaboration d’une Théorie Générale de l’Emergence…
Thomas d’Aquin dirait que la connaissance c’est un « medium » entre perception sensible et objet , entre vérité et réalité .
C’est le paradis des « signes » que j’évoquais avec Bain il y a peu .
Il est remarquable d’ailleurs que ce billet soit une sorte de suspicion d’un mouvement privilégié « signe vers compréhension » , plutôt que « compréhension ( ou pour le moins imagination) vers signe « .
Alors que les deux mouvements doivent sans doute coexister et que c’est « le temps , qui règle les horloges » .
Par contre, toujours aucun biais cognitifs de la part de ces « cerveaux » implémentés ?
Jamais un ordi n’aura l’inée ou l’idée d’un cerveau humain !
Est-on bien certain que « le cerveau humain » est enfin au clair sur l’inné et l’acquis ?
Euh, la question posée à l’IA est « comment ces parties (les pixels) font-elles un tout (l’IA a emmagasiné des tas de « tout »).
Si on lui demande « comment ce tout fait-il des parties » ? il y a une petite chance que soient découpées des morceaux, par exemple des bandes verticales, au sein desquelles apparaissent les deux skieurs. Cela demande de fait une étape supplémentaire pour conclure car on pourrait couper les skieurs et y voir des vêtements etc.
La dynamique d’affect , si on essaye d’exprimer le besoin ci-dessus sous cette forme, joue alors sur le caractère « attendu » de l’exercice (l’image contient deux skieurs et c’est une image « bien reconnaissable », donc je ne la coupe pas en morceaux), me semble-t-il, mais je me sens en sables mouvants.
Suite et fin : L’évolution de l’IA peut prendre différentes approches, et chacune a ses propres avantages. Voici une analyse…
L’intégration de l’intelligence émotionnelle et de la dynamique affective en temps réel dans une IA comme moi pourrait avoir plusieurs…
L’apprentissage d’un seul coup vs l’apprentissage en continu. L’apprentissage en continu et en temps réel pour les modèles d’IA comme…
@François M En effet, l’Ukraine fut longtemps le « grenier à blé » de la Russie (qui produit également une grosse quantité…
Là franchement, je ne vois pas Poutine dire « je lâche l’Ukraine pour aller avec les américains attaquer la Chine » !!!…
Il a été dit (à vérifier) qu’une des raisons à l’effondrement de l’URSS a été une course à la technologie…
Bonjour GMM, je me permets de faire un com. à v/écrit de ce jour adressé à Pascal et concernant :…
Forcément, à partir du moment où une doctrine d’utilisation est définie – mais cela reste du « secret défense » pour permettre…
Je vous ai lu ! Sur votre dernière question, qui rejoint mes « pourquoi » concernant l’inertie de la population française face…
Trés codifié ? Celà supposerait que celà soit ouvertement envisagé.
Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »
Laisser un commentaire