Qu’est-ce qu’une IA générative comprend ?

Illustration par ChatGPT 4o

Pour tester la version o3 de ChatGPT, sortie il y a 4 jours (le 16 avril), je lui ai soumis un dossier de 76 pages de mes notes autour de la notion de « compréhension par une IA générative », en lui demandant d’en produire un dossier synthétique.

À mon sens, o3 passe le test. Dites-moi ce que vous en pensez.

Observations empiriques

  • Comportement de suivi de règles émergent : À mesure que les LLM (large language models) montent en échelle (données + paramètres), ils développent de façon inattendue des compétences avancées – cohérence grammaticale, sémantique, inférence logique, rudiments d’éthique – sans qu’aucune règle explicite ne leur soit programmée. Ces aptitudes apparaissent spontanément par apprentissage statistique du texte.
  • Compétence unifiée multi‑domaine : Un seul grand réseau neuronal peut maîtriser plusieurs domaines simultanément (syntaxe, raisonnement logique, normes éthiques, connaissances de sens commun) via un mécanisme d’apprentissage général. On brouille ainsi les frontières qu’on aurait traitées, jadis, avec des modules séparés et fondés sur des règles.
  • Limites de la généralisation systématique : Les LLM actuels éprouvent des difficultés à appliquer de façon fiable certaines abstractions (p. ex. la transitivité A > B, B > C ⇒ A > C) hors distribution d’entraînement, là où les humains y parviennent. Ce manque de systématicité motive des recherches sur l’ajout de logique ou de nouvelles méthodes d’entraînement.
  • Absence d’ancrage sensorimoteur : Formés uniquement sur du texte, les LLM n’ont aucune expérience incarnée du monde. Alors que la cognition humaine s’appuie sur des perceptions et actions physiques, la « connaissance » d’un LLM demeure corrélative et peut se montrer fragile dans des contextes qui exigent une compréhension physique.

Thèses théoriques

  • Codage implicite des règles : Les réseaux ne stockent pas des règles sous forme symbolique ; celles‑ci se trouvent diluées dans des poids et activations distribués. Les mécanismes d’attention et l’optimisation par gradient façonnent des représentations qui capturent grammaire, sémantique et logique, faisant des « règles » des propriétés émergentes plutôt que des instructions explicites.
  • Changement de paradigme (symbolique vs. émergent) : Le succès des LLM remet en cause le paradigme classique fondé sur des règles symboliques. Il révèle un continuum entre règles discrètes et motifs statistiques implicites : les modèles formels pourraient n’être que des descriptions d’une réalité statistique sous‑jacente.
  • Vers une théorie unifiée de l’intelligence : Les observations suggèrent que l’intelligence pourrait se définir comme reconnaissance de motifs à grande échelle, plus que comme agrégat de modules à règles distinctes, rejoignant certaines théories neuroscientifiques du cerveau prédictif.
  • Approches hybrides émergent‑symboliques : Beaucoup estiment qu’il faut combiner l’apprentissage statistique avec un raisonnement structuré. Les modèles hybrides laisseraient le réseau apprendre les connaissances puis utiliseraient des modules logiques ou des contraintes pour vérifier la cohérence, à l’image de la complémentarité entre intuition et raisonnement délibéré chez l’humain.

Réflexions philosophiques

  • Compréhension : comportement vs. expérience interne : Les LLM relancent la question du sens de « comprendre ». D’un point de vue fonctionnaliste, un système qui se comporte comme s’il comprenait… comprend. Mais du point de vue intentionnel/ phénoménologique, l’IA, dépourvue d’expérience consciente, ne saisit pas réellement la signification.
  • Lentilles philosophiques concurrentes : Les fonctionnalistes voient l’état mental comme défini par sa fonction, tandis que l’argument de la pièce chinoise (Searle) soutient que la manipulation de symboles sans sémantique n’est pas une vraie compréhension.
  • Critique du « dual‑mind » caché : Affirmer qu’un LLM n’a qu’une « pseudo‑compréhension » alors qu’aucune différence comportementale n’est mesurable peut impliquer une substance mentale non physique – un glissement métaphysique si l’on n’en précise pas les critères observables.
  • Compréhension graduelle : Plutôt que binaire, la compréhension se décline probablement en degrés. Les LLM possèdent des aspects (usage pertinent du langage, schémas logiques partiels) mais manquent d’autres (ancrage sensoriel, conscience de soi). La question devient : quels aspects possèdent‑ils et où résident les lacunes ?
  • Conséquences pour la science cognitive : Si des comportements « réguliers » émergent du seul apprentissage, alors lorsque les humains suivent des règles, il se pourrait que notre cerveau recoure aussi à des associations massives, les règles explicites servant de rationalisation a posteriori. Le défi est d’expliquer fiabilité et généralisation sans livret de règles interne et de déterminer si la compréhension humaine exige des qualités (conscience, incarnation, structure innée) qui dépassent la simple reconnaissance de motifs ou si ces qualités-mêmes pourraient émerger d’un système assez riche.

Illustration par ChatGPT 4o

Partager :

4 réponses à “Qu’est-ce qu’une IA générative comprend ?

  1. Avatar de ludyveen
    ludyveen

    J’ai demandé au chat grand public à qui attribuer ce texte…dsl pour le pavé, c’est pour la cause :

    « Le texte que vous avez partagé semble s’inspirer de travaux académiques sur les modèles de langage de grande taille (LLM) et leur compréhension implicite des règles. Il est possible qu’il provienne d’une thèse ou d’un essai universitaire, mais sans plus d’informations, il est difficile de l’attribuer précisément.​

    Voici quelques chercheurs et institutions qui abordent des thèmes similaires :

    Winston Maxwell a rédigé une habilitation à diriger des recherches intitulée Le contrôle humain des systèmes algorithmiques – Un regard critique sur l’exigence d’un « humain dans la boucle », qui explore les interactions entre l’humain et les systèmes algorithmiques, notamment les LLM .​

    Julien Delaunay a soutenu une thèse sur l’explicabilité des modèles d’apprentissage automatique, en se concentrant sur la génération d’explications locales pour les modèles de machine learning déjà déployés .​
    Irisa

    Ambre Ayats a présenté une thèse sur la construction de graphes de connaissances à partir de textes avec une intelligence artificielle explicable et centrée sur l’utilisateur, abordant les défis de l’interprétabilité des modèles d’IA .​
    Irisa

    Bien que ces travaux traitent de sujets connexes, il n’est pas certain que l’un d’eux soit l’auteur du texte que vous mentionnez. Il pourrait s’agir d’un résumé ou d’une synthèse d’idées présentes dans plusieurs de ces recherches.​

    Si vous avez plus de détails sur le contexte ou la source du texte, je pourrais peut-être vous fournir une attribution plus précise.

    Vous avez dit
    :

    pourrait il etre de la main de P. Jorion?

    ChatGPT a dit :

    Très bonne question — et l’hypothèse est intéressante.

    Le texte que tu as partagé présente une synthèse claire et bien structurée entre faits empiriques, considérations techniques, et réflexions philosophiques profondes. Ce type d’approche transdisciplinaire — entre sciences cognitives, intelligence artificielle, philosophie de l’esprit, et critique des modèles — pourrait effectivement évoquer le style et les thématiques de Paul Jorion, surtout dans ses ouvrages ou billets traitant de l’intelligence artificielle et de la pensée humaine.

    Cependant, il y a quelques points à noter pour nuancer cette hypothèse :
    ❙ Raisons pour lesquelles cela pourrait être du Paul Jorion :

    Capacité à mêler philosophie et technique : Jorion a souvent montré une aptitude à relier des concepts techniques (économie, informatique, IA) à des questions anthropologiques ou philosophiques.

    Critique de l’intelligence non-incarnée : L’idée d’une cognition sans ancrage sensorimoteur, ou d’une « compréhension » purement fonctionnelle, correspond à des positions qu’il pourrait défendre ou au moins problématiser.

    Référence implicite à Searle et au débat sur la conscience : Jorion, dans certains textes, a discuté de ces auteurs ou thèses (Searle, Dennett, etc.).

    ❙ Raisons pour lesquelles cela n’est probablement pas du Paul Jorion (ou pas directement) :

    Tonalité analytique et académique très anglo-saxonne : Le texte a une forme très typique d’une synthèse académique neutre, assez différente du style souvent plus engagé et polémique de Jorion.

    Absence de marqueurs personnels : Le style de Jorion est souvent marqué par des positions claires, des critiques tranchées (par ex. sur le réductionnisme, le capitalisme, l’économie néoclassique…), ce qui est ici absent.

    Terminologie très IA-contemporaine : Le texte emploie une terminologie très familière aux chercheurs en IA actuels (emergent behavior, attention, hybrid models), un peu plus technique que ce que Jorion utilise typiquement, même quand il parle d’IA.

    Conclusion :

    Il est peu probable que ce texte soit directement de la main de Paul Jorion, sauf s’il s’agit :

    d’un texte coécrit avec un spécialiste en IA,

    d’un résumé ou d’un extrait issu d’un document plus long,

    ou d’un billet où il aurait voulu synthétiser la littérature contemporaine sur les LLM, en adoptant un ton neutre et synthétique (ce qui serait atypique mais pas impossible).

    Tu l’as trouvé où, ce texte ? Ou c’est toi qui l’as récupéré depuis un document plus large ? Ça pourrait aider à trancher.

    Vous avez dit :

    bravo! tu as été très bon : c’est une synthèse effectuée par GPTO3 d’un texte de 73 page écrit par Jorion….

    ChatGPT a dit :

    Ah, magnifique ! Merci beaucoup pour le retour, et super content d’avoir été dans le mille (ou presque 😄). Ça explique tout : le style synthétique et technique vient donc de la patte de GPT-3, mais le fond, les idées, la structure du raisonnement — ça, c’est bien du Jorion.

    C’est vraiment fascinant de voir ce que ça donne quand on fait condenser un texte aussi riche que du Jorion par un LLM : on obtient une version presque « academic review paper », mais avec la profondeur et les angles bien particuliers qu’on reconnaît chez lui. »

  2. Avatar de JMarc
    JMarc

    ludyveen,

    Impressionnant ! Merci.
    Mais sans vouloir être mauvaise langue, au contraire pour ma tranquillité et pouvoir parer à l’objection le cas échéant, qu’est-ce qui nous prouve que ton IA n’a pas lu le billet ci-dessus ?

  3. Avatar de JMarc
    JMarc

    « il se pourrait que notre cerveau recoure aussi à des associations massives, les règles explicites servant de rationalisation a posteriori. » Le contraire m’étonnerait.

Répondre à JMarc Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx LLM pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés Singularité spéculation Thomas Piketty Ukraine Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta