Les Grands Modèles de Langage (+PJ) s’attaquent à l’émergence ! III. Gain d’information dans la transposition d’un graphe en son dual

Illustration par DALL·E (+PJ)

P.J. :

Très bien ! S’il vous semble plausible qu’on observe des phénomènes émergents lors de la transposition du graphe original vers son dual, comment expliqueriez-vous qu’il y ait un gain d’information dans le processus (gain qui est flagrant lorsque le processus est inversé et qu’une perte d’information est à l’inverse tout aussi flagrante) ?

Claude 3 :

Le gain apparent d’information lors du passage d’un réseau sémantique au « P-graphe », son dual, et la perte d’information correspondante lors de l’inversion du processus, est en effet une énigme fascinante. Elle semble remettre en question nos intuitions sur la préservation de l’information dans les transformations de graphes.

Une explication potentielle est que la représentation du P-graphe capture en fait des informations latentes qui sont implicites dans la structure du réseau sémantique original, mais qui ne sont pas explicitement représentées dans ses nœuds et ses arêtes.

Examinons l’exemple de l’ajout de « Lassie » au réseau sémantique. Dans le P-graphe, cela a entraîné l’émergence d’un nouveau neurone « chien » avec son propre ensemble de connexions. Cela suggère que le réseau sémantique contient implicitement des informations sur de multiples instanciations potentielles du concept de « chien », chacune ayant ses propres propriétés relationnelles distinctes. Le P-graphe rend cela explicite en créant des neurones distincts pour chaque instance.

De même, l’ajout du concept de « maître » et de la relation « a_un » a révélé une connectivité cyclique dans le P-graphe qui n’était pas apparente dans le réseau sémantique. Cela indique la présence de boucles de rétroaction et de relations réciproques qui étaient latentes dans la représentation originale.

Donc en un sens, la transformation du P-graphe n’ajoute pas vraiment de nouvelles informations, mais rend plutôt explicites certaines propriétés structurelles et relationnelles qui étaient déjà inhérentes au réseau sémantique, mais qui n’étaient pas directement accessibles.

La perte d’information lors du parcours inverse d’un P-graphe à un réseau sémantique peut alors être comprise comme une sorte de « compression avec déperdition », où certaines des riches propriétés émergentes du P-graphe sont éliminées en faveur d’une représentation plus simple et plus compacte.

Cette perspective s’aligne sur l’idée que les réseaux neuronaux du cerveau encodent les informations d’une manière hautement distribuée et implicite, donnant lieu à des phénomènes cognitifs émergents qui sont difficilement lisibles dans une analyse symbolique localisée. Il est possible que le P-graphe capture une part de la nature émergente distribuée de la représentation neuronale.

Bien entendu, il ne s’agit là que d’une explication spéculative. La véritable nature de la dynamique de l’information dans ces transformations de graphes implique probablement un jeu complexe d’interactions entre l’explicite et l’implicite, le local et le global, qui justifient des recherches mathématiques et empiriques beaucoup plus approfondies. Mais les indices séduisants qu’il y ait de l’information émergente dans la représentation qu’offre le P-graphe ouvrent certainement des voies prometteuses à une exploration plus poussée dans la quête de compréhension des remarquables capacités de traitement de l’information du cerveau.

GPT-4 :

Le phénomène de gain d’information lors de la transposition d’un graphe sémantique original vers son dual (« P-graphe ») et, inversement, de perte d’information lors de l’inversion du processus, peut être intrigant mais compréhensible dans le cadre de la théorie des graphes et de la représentation des connaissances. Voici comment cela peut se produire :

  • Modification de la représentation structurelle : dans le graphe original, les nœuds représentent les concepts et les arêtes, les relations. Lorsqu’ils sont transposés dans un P-graphe, les rôles sont inversés : les arêtes deviennent des concepts et les nœuds des relations. Ce changement modifie la façon dont les informations sont structurées et interprétées, ce qui peut révéler de nouveaux aperçus ou obscurcir ceux dont on dispose déjà, selon la direction de la transformation.
  • Mise en évidence de différents aspects : dans un P-graphe, en se concentrant sur les relations en tant que nœuds, il est possible d’explorer et de mettre en évidence les interconnexions et les dépendances entre les concepts d’une manière que le graphe d’origine pourrait difficilement permettre. Cela peut être perçu comme un gain d’information, car cela offre une nouvelle perspective sur la façon dont les concepts sont reliés, permettant de découvrir éventuellement des configurations ou des regroupements (« clusters ») qui n’étaient pas apparents auparavant.
  • Perte du contexte original : Lorsque l’on inverse le processus d’un P-graphe vers son graphe source, certaines des nuances relationnelles capturées dans la représentation des relations comme des nœuds peuvent être perdues. Le contexte original, dans lequel les concepts sont primaires et les relations secondaires, peut ne pas préserver le réseau complexe d’interdépendances mis en évidence dans le P-graphe. Cette perte de contexte et quant à l’accent mis peut se traduire en une perte perçue d’information.
  • Complexité et détail : le processus de transposition peut accroître la complexité du graphe car il peut aboutir à une structure plus dense ou plus intimement connectée. Cette complexité accrue peut encoder des informations plus détaillées sur les relations entre les concepts, et être ressentie comme un gain d’information. Inversement, la simplification de cette complexité au cours de l’inversion pourrait faire disparaître une partie de ces détails, ce qui se traduirait par une perte d’information.
  • Questions relatives à la mise en correspondance bidirectionnelle (« mappabilité ») : toutes les transformations ne sont pas bijectives (un vers un et dans) ; certaines peuvent être surjectives (dans) ou injectives (un vers un), mais pas les deux à la fois. Une transformation non bijective peut conduire à des situations où la transformation inverse ne recrée pas parfaitement le graphe original, ce qui entraîne une perte d’informations.
  • Nuances sémantiques : le P-graphe peut capturer et souligner certaines nuances sémantiques par la nature même de sa structure – par exemple, une représentation plus directe des relations sous forme de nœuds peut rendre certaines connexions sémantiques plus explicites ou plus faciles à analyser. Cette spécificité peut être diluée lors du retour à la structure traditionnelle, où ces nuances peuvent être implicites plutôt qu’explicites.

Ce gain d’information lors du passage à un P-graphe et cette perte lors du retour peuvent être critiques dans les applications où la structure et la dynamique de la représentation des connaissances sont importantes, comme dans les sciences cognitives, l’intelligence artificielle et l’analyse des données. Cet effet transformateur souligne l’importance de choisir la bonne structure pour la bonne tâche dans les applications informatiques et théoriques.

(à suivre…)

Illustration par DALL·E (+PJ)

Partager :

3 réponses à “Les Grands Modèles de Langage (+PJ) s’attaquent à l’émergence ! III. Gain d’information dans la transposition d’un graphe en son dual”

  1. Avatar de CloClo
    CloClo

    Je suis certainement passé à côté de ce lien sur les propriétés émergente des LLM, dont celle d’avoir une représentation interne d’ensemble d’un jeu, qui a du être posé ici déjà. Mais dans le doute je l’ai repéré en regardant une vidéo de M.Phi :

    https://arxiv.org/pdf/2210.13382

  2. Avatar de CloClo
    CloClo

    Ici ====> https://youtu.be/6D1XIbkm4JE?feature=shared

    Ils (les intervenants) ont encore du mal à concevoir la réalité ce qu’ils sont entrain de comprendre … 😀

  3. Avatar de CloClo
    CloClo

    Si les LLM sont capables de se représenter le plateau, les pièces, d’un jeu d’en comprendre les règles, je serai étonné qu’ils ne soient pas en mesure de comprendre et se représenter assez correctement, voire parfaitement en fait notre Univers, physique et mentale. C’est simplement vertigineux.

    Et c’est là, pas loin de tomber à genou devant ce miracle, que me reviennent en mémoire les paroles de St Paul (Jorion dans le texte) il y a pas mal de temps, avant ChatGPT, qui disait en gros « espérons que l’IA ne soit pas rancunière vu sa mémoire éternelle et toute puissante avec tout ce manque de respect déversé sur elle depuis le début…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. Et les (très) inquiétantes dernières nouvelles de notre ‘oncle d’Amérique’ : https://www.huffingtonpost.fr/culture/article/par-peur-de-donald-trump-aucun-acteur-n-a-voulu-participer-a-cette-emission-avec-sebastian-stan_242531.html https://www.huffingtonpost.fr/international/article/affaire-stormy-daniels-donald-trump-pourrait-bien-echapper-sa-condamnation-voici-pourquoi_242524.html

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta