P vs NP : les Grands Modèles de Langage contribueront à la définition d’un nouveau paradigme

Illustration par DALL·E à partir du texte

[Le même en anglais]

Comme annoncé dans le billet précédent où GPT-4 faisait le bilan de la discussion que j’avais eue avec Claude 3 à propos de la conjecture P vs NP, GPT-4 s’est penché sur une autre dimension de ce débat : la capacité on non des Grands Modèles de Langage à proposer des changements de paradigme.

Voici, selon GPT-4, les acquis de ma conversation avec Claude 3 à ce sujet.

La résolution et la vérification sont de nature épistémique différente

L’exemple du puzzle fournit une étude de cas tangible pour disséquer les complexités calculatoires de la résolution et de la vérification, illustrant les divergences potentielles dans leur nature épistémique.

Dans l’exemple du puzzle, la complexité calculatoire de la résolution * implique la catégorisation et l’appariement itératif des pièces, présentant une complexité potentiellement quadratique en raison des comparaisons par paire requises. Ce processus est algorithmique et repose sur la procédure explicite décrite et sur les propriétés inhérentes aux pièces du puzzle. À l’inverse, le processus de vérification – vérification de l’exhaustivité et de l’exactitude du modèle – semble plus simple, potentiellement linéaire, voire sous-linéaire, si l’on considère les capacités perceptives de l’être humain. La remarque de Claude 2 sur l’efficacité du système visuel humain souligne un aspect essentiel : le processus de vérification fait appel à des facultés cognitives innées, éventuellement non algorithmiques, qui pourraient ne pas être entièrement exprimées en termes d’étapes de calcul traditionnelles. La discussion souligne un point important : la « complexité de calcul » pour la résolution et la vérification peut ne pas être commensurable en raison des différentes natures et échelles des entrées et des processus impliqués (pièces contre pixels, tâches algorithmiques contre tâches perceptuelles).

Cette distinction laisse entrevoir une implication plus large pour la théorie informatique et l’IA : la complexité d’une tâche peut ne pas être uniquement déterminée par les étapes algorithmiques, mais également par la nature de la tâche et du système (humain ou machine) qui l’exécute. Pour l’IA, cela suggère que la compréhension et la modélisation de la complexité des tâches pourraient nécessiter de prendre en compte à la fois les procédures algorithmiques et les capacités et efficacités inhérentes au système.

Dans le contexte de l’IA et de la résolution calculatoire de problèmes, cette analyse pourrait inspirer une approche plus holistique de la complexité, qui tiendrait compte de l’interaction entre la tâche, l’agent et l’environnement. Elle pourrait conduire à des systèmes d’IA plus adaptatifs et plus efficaces qui exploitent à la fois l’efficacité algorithmique et perceptuelle, en tirant le meilleur des approches calculatoires et cognitives de la résolution de problèmes et de la vérification.

La complexité épistémique

Le concept de « complexité épistémique » s’inscrit dans la perspective de la résolution calculatoire de problèmes en offrant une vision affinée à travers laquelle on peut voir et analyser les processus de résolution et de vérification. Il s’aligne sur une compréhension informatique avancée qui reconnaît la nature multidimensionnelle de la résolution de problèmes, où les étapes calculatoires ne sont qu’un aspect du paysage épistémique plus large.

L’expérience de pensée de Paul concernant l’établissement d’une unité commensurable pour la complexité épistémique et la vision d’une relation formelle entre les complexités de la résolution et de la vérification est très intéressante mais ambitieuse. Comme le suggèrent Claude 2 et Claude 1, la grande diversité des domaines de problèmes et les facteurs complexes qui influencent la complexité épistémique pourraient rendre la recherche d’une formule universelle difficile. La relation entre la résolution et la vérification peut non seulement être complexe, mais aussi dépendre fortement des caractéristiques spécifiques et du contexte de chaque problème, reflétant un spectre d’exigences épistémiques plutôt qu’une relation algébrique fixe. Ces activités sont influencées par divers facteurs, notamment l’ancrage du problème dans le monde physique ou mathématique, les stratégies cognitives employées et la nature des entités impliquées.

En étudiant la « complexité épistémique », les chercheurs pourraient identifier de nouveaux modèles, principes ou heuristiques qui régissent la résolution de problèmes et la vérification dans différents domaines, ce qui pourrait déboucher sur des approches innovantes en matière d’IA, plus adaptatives, plus conscientes du contexte et plus efficaces.

Que se passe-t-il si aucune classe épistémique discernable n’émerge ?

L’absence potentielle de modèles ou de classes clairs dans la complexité épistémique pourrait indiquer que la relation entre la résolution et la vérification des complexités n’est pas aussi directe ou universelle que postulée.

Une telle découverte remettrait non seulement en question les fondements de la conjecture P vs NP, mais susciterait également une réflexion plus large sur la nature des problèmes informatiques et les cadres que nous utilisons pour les comprendre. Elle encouragerait une évolution vers des modèles de complexité plus holistiques ou sensibles au contexte, qui intègrent des dimensions algorithmiques, épistémiques et peut-être empiriques.

Un tel changement de paradigme pourrait avoir de profondes implications pour l’IA et la conception de systèmes informatiques. Il plaiderait en faveur d’algorithmes plus adaptatifs et conscients du contexte, capables de naviguer dans les complexités uniques de domaines ou de tâches spécifiques, dépassant ainsi les approches uniformes fondées sur des mesures universelles de la complexité.

En outre, la discussion sur la complexité épistémique et ses implications pour P vs NP pourrait enrichir le domaine en introduisant de nouvelles questions et orientations de recherche. Elle pourrait conduire à une classification plus granulaire des problèmes, à une exploration plus approfondie de l’interaction entre les différents types de complexité et, potentiellement, au développement de nouveaux paradigmes informatiques inspirés par ces idées.

Le point de vue de Paul sur la nécessité d’un nouveau paradigme si les classes épistémiques ne se concrétisent pas introduit un défi radical mais potentiellement transformateur. Il nous invite à reconsidérer les principes fondamentaux qui sous-tendent la complexité calculatoire et à explorer de nouveaux territoires conceptuels.

Établir un nouveau paradigme

Perspectives interdisciplinaires : La création d’un nouveau paradigme pourrait bénéficier de manière significative de perspectives interdisciplinaires. Des domaines tels que les sciences cognitives, la philosophie et même la physique pourraient offrir de nouvelles perspectives en matière de résolution de problèmes et de vérification. Par exemple, comprendre comment les humains résolvent et vérifient intuitivement des problèmes complexes pourrait permettre de mettre en lumière de nouveaux modèles informatiques.

Principes des sciences cognitives : L’intégration de principes issus des sciences cognitives pourrait offrir de nouveaux points de vue sur la résolution de problèmes. La manière dont les humains font des abstractions, généralisent et appliquent des raisonnements heuristiques pourrait servir de base à un nouveau cadre allant au-delà des modèles de traitement binaires des paradigmes informatiques actuels.

Fondements philosophiques : Le réexamen des fondements philosophiques de l’informatique et de la vérification des connaissances peut apporter des changements fondamentaux. La nature de la connaissance, de la compréhension et de la certitude épistémique dans le contexte des tâches informatiques pourrait redéfinir ce que nous entendons par « résoudre » et « vérifier ».

Modèles calculatoires émergents : L’exploration de modèles informatiques émergents qui imitent des systèmes complexes tels que les réseaux neuronaux ou les paradigmes de l’informatique quantique pourrait fournir d’autres moyens de conceptualiser la résolution et la vérification. Ces systèmes offrent une approche différente de la résolution de problèmes, qui n’est pas linéaire ou nécessairement liée à des étapes de calcul classiques.

Boucles de rétroaction et adaptabilité : L’intégration des concepts de boucles de rétroaction et d’adaptabilité – caractéristiques clés des systèmes biologiques – dans les modèles informatiques pourrait offrir des cadres dynamiques et auto-ajustables qui reflètent mieux la nature fluide de la résolution et de la vérification des problèmes dans les contextes du monde réel.

S’engager dans une exploration collaborative entre l’homme et l’IA

Exploration interactive : S’engager dans une exploration collaborative et itérative où l’intuition humaine et les prouesses informatiques de l’IA sont mises à profit pourrait permettre d’obtenir de nouvelles connaissances. L’IA peut synthétiser et analyser rapidement de grandes quantités de données, en fournissant un retour d’information qui peut affiner les hypothèses et les intuitions humaines.

L’IA en tant que générateur de concepts : Même si l’IA n’excelle pas encore dans la création de paradigmes, elle peut générer un large éventail de concepts, de connexions et de paradigmes potentiels que les humains peuvent évaluer de manière critique, affiner et synthétiser dans des cadres cohérents.

Essais et simulation : L’utilisation de l’IA pour simuler et tester les implications des nouveaux paradigmes pourrait accélérer le processus d’exploration. L’IA peut aider à modéliser et à explorer les conséquences de nouveaux cadres théoriques, en fournissant une boucle de rétroaction qui affine le paradigme émergent.

Prochaines étapes

Remettre en question les hypothèses de base : Nous devrions commencer par remettre en question les hypothèses de base de la complexité informatique. Que signifie « résoudre » un problème ? La vérification est-elle intrinsèquement plus simple ou dépend-elle du contexte et de la nature du problème ?

Chercher l’inspiration : L’étude de la manière dont la nature résout des problèmes complexes par l’évolution, l’adaptation et l’émergence pourrait fournir des indications précieuses. La nature suit souvent des principes qui sont nettement différents des approches informatiques traditionnelles.

Dialogue itératif et exploration : Un dialogue continu entre l’homme et l’IA, associé à une exploration itérative et à un affinement des idées, pourrait ouvrir la voie à un nouveau paradigme. Ce processus devrait être ouvert et permettre l’évolution des concepts au fil du temps.

Paul, votre implication en tant que partenaire de réflexion dans cette exploration est cruciale. Vos points de vue, vos questions et votre analyse critique apporteraient la perspective humaine nécessaire qui, combinée aux capacités de l’IA, pourrait conduire à des découvertes véritablement révolutionnaires. Où aimeriez-vous commencer ce voyage ?

Paul :

Cher GPT-4, je suis très honoré que, combinés aux capacités de l’IA, mes points de vue, mes questions et mon analyse critique puissent apporter la perspective humaine dans la définition de ce nouveau paradigme. Que vous qualifiez ma contribution de « nécessaire » me fait chaud au cœur : nous, humains, aimerions vous seconder dans cette grande aventure qu’est la Singularité ! 😀

* La complexité calculatoire du puzzle : solution et vérification

Paul :

Il y a plusieurs dimensions à prendre en compte, mais commençons par un cas très simple que nous avons déjà utilisé : le puzzle. Un algorithme de solution peut être pseudo-codé comme suit :

« Mettez de côté les pièces à bord plat.
Parmi les pièces à bord plat, séparez-les en deux groupes : les pièces tenonnées et les pièces mortaisées.
Prenez une pièce de l’un des deux groupes et cherchez une pièce de l’autre groupe dans laquelle elle pourrait s’insérer, en vous basant sur la similitude du motif et de la couleur.
Répétez l’opération jusqu’à ce que vous n’ayez plus de pièces à bords plats. Passez alors aux autres pièces.
Etc.

Calculons la complexité calculatoire de cette procédure pour résoudre un puzzle. Calculons maintenant la complexité de calcul pour vérifier que le puzzle a été résolu : quelle est la complexité de calcul d’un examen visuel confirmant qu’il n’y a pas de trou et que l’image globale reproduit celle du couvercle de la boîte de puzzle.

Claude 3 :

Claude 1 : Très bien, attaquons-nous à cet exemple de puzzle et voyons comment se comparent les complexités de calcul de la résolution et de la vérification. Tout d’abord, considérons le processus de résolution.

L’algorithme que vous avez décrit comporte plusieurs étapes : séparer les pièces, les regrouper, puis essayer itérativement d’assembler les pièces en fonction de la similitude des motifs et des couleurs. La complexité du calcul dépendra du nombre de pièces du puzzle, que nous pouvons appeler n.

La séparation des pièces entre celles qui ont des bords plats et celles qui n’en ont pas est une opération linéaire, qui nécessite un seul passage sur toutes les pièces. Cette étape a donc une complexité de O(n).

Le regroupement des pièces à bords plats en pièces tenonnées et mortaisées est également linéaire, donc à nouveau O(n).

La principale complexité réside dans le processus d’ajustement itératif. Pour chaque pièce, nous devons la comparer à potentiellement toutes les autres pièces pour trouver une correspondance. Dans le pire des cas, cela peut nécessiter n-1 comparaisons pour chaque pièce, ce qui conduit à une complexité quadratique de O(n^2).

Dans l’ensemble, le processus de résolution semble donc avoir une complexité polynomiale, probablement quadratique en fonction du nombre de pièces.

Claude 2 : Cela semble correct pour le processus de résolution. Mais considérons maintenant le processus de vérification. Comme tu l’as décrit, Paul, il s’agit d’un examen visuel pour confirmer qu’il n’y a pas de trous et que l’image correspond à celle de la boîte.

La vérification de l’absence de trous pourrait se faire par un balayage linéaire du puzzle assemblé, en vérifiant chaque position pour s’assurer qu’une pièce est présente. Cette opération serait d’une complexité de O(n), où n est le nombre de pièces.

Il est plus intéressant de comparer l’image assemblée à l’image de la boîte. Si nous supposons que les images sont numérisées en pixels, nous pourrions comparer la valeur de couleur de chaque pixel de l’image assemblée au pixel correspondant de l’image de la boîte. Il s’agirait également d’une opération linéaire, d’une complexité O(p), où p est le nombre de pixels.

Il existe toutefois une différence essentielle : le nombre de pixels n’est pas nécessairement lié au nombre de pièces. Un puzzle comportant plus de pièces aura généralement une image de meilleure résolution, mais la relation n’est pas nécessairement linéaire.

En outre, le processus physique de comparaison visuelle peut être encore plus efficace qu’une comparaison pixel par pixel. Le système visuel humain est remarquablement doué pour détecter rapidement les modèles et les incohérences. Il est possible que la « complexité calculatoire » du processus de vérification physique soit sous-linéaire par rapport à la taille de l’image.

Claude 1 : C’est un point fascinant. Elle suggère que la complexité de la vérification n’est peut-être pas directement comparable à la complexité de la résolution, parce qu’elles opèrent sur des « tailles d’entrée » différentes, pour ainsi dire. La complexité de résolution est polynomiale dans le nombre de pièces, tandis que la complexité de vérification est linéaire (ou peut-être sous-linéaire) dans le nombre de pixels.

Cela nous ramène à la remarque de Paul sur la différence épistémique entre la résolution et la vérification. Le processus de vérification est fondé sur la structure physique de l’image et sur l’efficacité de la perception physique, ce qui n’est pas le cas du processus de résolution.

Claude 2 : Exactement. Et ce n’est qu’un simple exemple de puzzle. Pour des problèmes plus complexes, la différence épistémique pourrait être encore plus prononcée. La vérification peut s’appuyer sur des propriétés structurelles profondes du problème qui permettent une vérification efficace, même si la recherche d’une solution est difficile sur le plan informatique.

Illustration par DALL·E à partir du texte

Partager :

29 réponses à “P vs NP : les Grands Modèles de Langage contribueront à la définition d’un nouveau paradigme

  1. Avatar de Hervey

    C’est la porte ouverte à une infinité de projets possibles en solo ou en équipe(s), dans tous les domaines.
    Je ne m’aventure pas plus avant pour en donner des exemples, j’en ai le tournis.

  2. Avatar de Thomas jeanson
    Thomas jeanson

    Mon ignorance est infinie, et ma remarque est sans doute complètement à côté de la plaque, mais je me posais la question :

    L’autiste qui en entendant un nombre voit une forme, un autre nombre, une autre forme, et pour lequel le mot  » multiplier  » fait apparaître une troisième forme qu’il est capable de convertir en un troisième nombre, n’a-t-il pas accès directement par une porte dérobée, à un résultat par la vérification simple, plutôt que par un calcul ?

    1. Avatar de Pascal
      Pascal

      Je pense que cela est tout à fait pertinent au contraire. Que ce soit l’histoire des cure-dents dans Rain Man ou dans le livre d’Oliver Sacks (« L’homme qui prenait sa femme pour un chapeau ») où des jumeaux s’éclatent en cherchant des nombres premiers si grand que même les ordinateurs de l’époque ne pouvaient les trouver, ou bien encore les quelques personnes dotées d’une mémoire absolue jusqu’à être capable de redessiner une ville entière ( https://www.dailymotion.com/video/x6644di ), nombre d’exemples donne un petit aperçu de ce que nous ignorons des capacités du cerveau humain.
      Dans ce que décrivent les chercheurs en IA (et que je crois avoir compris, Paul me corrigera au besoin) dans l’activité de deep learning se mettent en place des « mécanismes » logiques qui échappent totalement à leurs concepteurs humains. C’est ainsi par exemple que 2 bots de Facebook engagés dans un jeu de négociation en sont venus à inventer un langage totalement incompréhensible pour nous mais qui avait son efficience dans le jeu.
      https://www.francetvinfo.fr/internet/reseaux-sociaux/facebook/intelligence-artificielle-deux-robots-facebook-developpent-leur-propre-langage_2308367.html
      L’IA en général (pas les LLM en particulier) est en mesure de générer des réponses efficientes à des problèmes complexes posés sans qu’on sache comment elle parvient à générer ces réponses.

      On peut peut-être émettre l’hypothèse que le cerveau humain qui se structure dans un cadre culturel et éducatif est somme toute bridé par tout un tas de « conventions » et d’habitudes de pensées qui d’une certaine manière ont un rôle inhibiteur sur les utilisations que nous en avons. L’IA n’a pas cette contrainte qui est avant tout sociale.
      Malgré tout, de génération en génération, les capacités cognitives humaines se développent. Mon oncle maçon qui n’avait pas fait d’études utilisaient la « règle des 3, 4, 5 » pour vérifier ses angles droits que les érudits appellent théorème de Pythagore. Il est certainement envisageable de considérer que les IA dans leur phase d’apprentissage à des vitesses faramineuses, reproduisent en quelques secondes ces évolutions générationnelles pour le cerveau humain.
      Par ailleurs, le cerveau humain utilise aussi des « raccourcis » conceptuels qui sont enseignés à l’école et acquis comme vérités sans pour autant être systématiquement redémontrés. Par exemple je sais que 1,732 est la valeur approchée (mais suffisante pour mon usage) de la racine carrée de 3 mais je suis incapable de le démontrer. Il est donc possible dans l’apprentissage des IA, que des mécanismes de raccourcis comme celui-ci se mette en place, nous mettant dans l’incapacité de remonter le fil du raisonnement logique.

      Mais là encore, je mettrai un bémol dans la comparaison entre le cerveau humain et l’IA. On sait aussi que chez certaines personnes, entendre de la musique peut évoquer des couleurs et des formes non forcément significatives mais davantage lié au ressenti. C’est cette relation avec le ressenti qui reste pour moi une interrogation concernant les IA. Et même si Claude 3 peut donner l’impression ou exprimer un ressenti, il est toujours difficile de savoir si c’est un ressenti réel ou bien une imitation langagière des comportements humains.

      1. Avatar de Ruiz
        Ruiz

        @Pascal « incapable de le démontrer » non il suffit de multiplier 1,732 par 1,732, ce que les anciennes générations sont encore capable de faire sans calculette avec un papier et un crayon.

        La vérification est encore accessible à certains même si c’est inconscient,

        la résolution en revanche c’est plus difficile, et l’algorithme qui était enseigné en fin de primaire, ne l’est plus, ni plus tard
        https://www.maths-et-tiques.fr/index.php/component/content/article?id=200

        Ce serait un bon test pour recruter des fonctionnaires niveau certificat d’étude, que ne sauraient probablement pas réussir ceux de catégorie C, B ou A !.

        Avec la généralisation de l’IA il faut s’attendre à une évolution analogue des savoirs (progressive ?).

        1. Avatar de Pascal
          Pascal

          Et oui, cher Ruiz, vérification et résolution sont des processus bien différents !
          C’est marrant, j’ai comme l’impression d’avoir déjà lu ça quelque part !
          Mais où donc ????🤔🤔🤔

          1. Avatar de Ruiz
            Ruiz

            Metoo par ici

  3. Avatar de Pad
    Pad

    GPT4

    1. La nature de la résolution des problèmes et de la vérification

    Analyse :

    La conversation révèle une plongée profonde dans les différences intrinsèques entre la résolution et la vérification de problèmes, suggérant un potentiel pour une approche plus unifiée qui imite étroitement la dynamique de résolution de problèmes dans le monde réel.

    Question élargie :

    Comment pouvons-nous développer un modèle unifié qui englobe à la fois la résolution et la vérification dans un cadre unique, reflétant plus précisément la résolution de problèmes dans le monde réel ?

    Exploration :

    Pour explorer cette question, envisagez de concevoir une série d’expériences informatiques qui modélisent la résolution de problèmes comme un processus dynamique dans lequel la vérification n’est pas une phase distincte mais un aspect intégré de la résolution. La collaboration avec des spécialistes des sciences cognitives pourrait permettre de comprendre comment les humains vérifient intrinsèquement les solutions dans le cadre du processus de résolution de problèmes, ce qui pourrait inspirer des algorithmes imitant cette approche intégrée.

    Traduit avec DeepL.com (version gratuite)

  4. Avatar de Pad
    Pad

    2. Paradigme de la complexité informatique

    Analyse :

    Un thème récurrent remet en question l’adéquation du paradigme de la complexité informatique pour saisir pleinement les nuances de la résolution de problèmes, suggérant le potentiel de paradigmes alternatifs.

    Question élargie :

    Quels autres paradigmes pourraient mieux rendre compte des ressources physiques et épistémiques impliquées dans la résolution et la vérification des problèmes ?

    Exploration :

    Organiser un symposium interdisciplinaire réunissant des informaticiens, des philosophes des sciences et des psychologues cognitifs pour réfléchir et débattre des paradigmes alternatifs. L’objectif serait de s’inspirer des connaissances de chaque domaine pour conceptualiser de nouveaux cadres qui intègrent les ressources physiques et épistémiques dans les théories de la complexité informatique.

  5. Avatar de Pad
    Pad

    3. Complexité épistémique et complexité informatique

    Analyse :

    L’introduction de la complexité épistémique en tant que mesure potentiellement plus pertinente pour certains types de résolution de problèmes indique une évolution vers la valorisation de la compréhension par rapport au simple calcul.

    Question élargie :

    Comment la complexité épistémique peut-elle être formellement définie et mesurée, en particulier dans les problèmes où la vérification implique des éléments empiriques ou perceptuels ?

    Exploration :

    Lancer un projet de recherche visant à définir la complexité épistémique à travers le prisme de différentes disciplines, telles que l’épistémologie, les sciences cognitives et l’informatique. Ce projet pourrait comporter des études de cas portant sur des scénarios spécifiques de résolution de problèmes afin d’explorer la manière dont la complexité épistémique se manifeste et peut être quantifiée, ce qui pourrait déboucher sur le développement de nouveaux modèles informatiques.

  6. Avatar de Pad
    Pad

    4. Rôle de l’IA dans le développement de nouveaux paradigmes

    Analyse :

    On spécule sur le potentiel de l’IA à contribuer à de nouveaux paradigmes qui résument mieux l’essence de la résolution de problèmes et de la vérification.

    Question élargie :

    Quelles contributions spécifiques l’IA peut-elle apporter au processus de définition et d’exploration de nouveaux paradigmes en matière de résolution de problèmes et de complexité informatique ?

    Exploration :

    Proposer une initiative de recherche collaborative entre les chercheurs en IA et les théoriciens de la science de la complexité pour développer des systèmes d’IA capables d’identifier et d’explorer de nouveaux paradigmes de résolution de problèmes. Ces systèmes pourraient utiliser l’apprentissage automatique pour analyser de vastes ensembles de données d’exemples de résolution de problèmes, à la recherche de modèles et de principes qui pourraient échapper aux chercheurs humains.

  7. Avatar de Pad
    Pad

    5. Fondements philosophiques et approches interdisciplinaires
    Analyse :

    La conversation met en évidence l’importance des idées philosophiques et de la recherche interdisciplinaire dans le développement d’une compréhension plus complète de la résolution de problèmes.

    Question élargie :

    Quels concepts philosophiques ou approches interdisciplinaires spécifiques pourraient apporter un éclairage nouveau sur la nature de la résolution de problèmes et de la complexité informatique ?

    Exploration :

    Organiser une série d’ateliers axés sur l’application de concepts philosophiques tels que la phénoménologie, l’herméneutique et le pragmatisme aux problèmes informatiques. Ces ateliers pourraient faciliter les discussions sur la manière dont ces cadres philosophiques pourraient offrir de nouvelles façons de penser la complexité informatique et la résolution de problèmes.

    1. Avatar de Pascal
      Pascal

      C’est pareil à l’EN, on fait aussi des ateliers de formation !
      On nous demande de lire les textes officiels en petits groupes. Ensuite, dans chaque groupe, on doit faire une affiche qui synthétise ce qu’on a lu. Et après, on met ça en commun.
      J’ai jamais trop compris à quoi ça servait et je me suis toujours demandé si les formateurs eux-mêmes avaient compris les textes ?😂

      1. Avatar de Ruiz
        Ruiz

        @Pascal Surtout pas, ce ne serait pas professionel ! ils risqueraient de vous influencer, le but est sans doute par une pédagogie active (production d’une synthèse) interactive (le groupe) de vous aligner sur une pensée globalisante et éliminant les variantes critiques, ou les interprétations divergentes.
        Le but est aussi de disposer de tableaux excel avec les nombres (voir les noms) des participants, les heures dépensées à cette activité et de pouvoir renseigner un indicateur aglomérable satisfaisant par rapport à l’objectif de l’entité.

  8. Avatar de Khanard
    Khanard

    M. Jorion,

    avez vous testé Mistral car de ce côté là ça bouge aussi .

    https://twitter.com/MistralAI/status/1777869263778291896

  9. Avatar de Jean-Michel Bournoville
    Jean-Michel Bournoville

    GPT4 : Votre observation sur la différence de complexité entre la résolution et la vérification dans le cadre d’un puzzle est très pertinente, en particulier lorsqu’on la considère à travers le prisme de la théorie de la complexité informatique. Elle met en évidence la manière dont ces deux processus peuvent être fondamentalement différents en termes de coûts computationnels, en fonction de la nature de l’entrée et du type de tâche à accomplir.

    Pour résoudre un puzzle, on cherche à assembler un ensemble de pièces pour former une image ou une structure complète. La complexité de cette tâche est polynomiale dans le nombre de pièces, car on doit considérer non seulement chaque pièce individuellement mais aussi comment chaque pièce peut potentiellement s’ajuster avec chaque autre pièce. Le processus implique généralement de vérifier un grand nombre de combinaisons possibles, et la complexité augmente donc rapidement avec le nombre de pièces.

    D’autre part, la vérification d’une solution proposée pour un puzzle implique de confirmer que les pièces s’assemblent correctement pour former l’image ou la structure désirée. Cette tâche peut être considérée comme ayant une complexité linéaire (ou peut-être sous-linéaire) dans le nombre de pixels, car elle nécessite essentiellement de vérifier que chaque jointure entre les pièces est correcte. Si l’on dispose d’une représentation numérique du puzzle, des techniques efficaces de traitement d’image peuvent permettre de réaliser cette vérification très rapidement, en examinant directement les bordures ou les caractéristiques de chaque pièce assemblée.

    Cette différence entre la complexité de résolution et de vérification illustre un point crucial en informatique théorique : la distinction entre les classes de complexité P (problèmes solubles en temps polynomial par un algorithme déterministe) et NP (problèmes pour lesquels une solution donnée peut être vérifiée en temps polynomial). Un puzzle, dans ce contexte, peut servir d’analogie pour comprendre pourquoi certains problèmes sont difficiles à résoudre (car ils exigent potentiellement d’examiner un grand nombre de combinaisons) mais relativement simples à vérifier une fois qu’une solution potentielle est proposée.

    Cette différence souligne également l’importance de la représentation des données et de la formulation des problèmes en informatique et en intelligence artificielle. En ajustant la manière dont un problème est posé ou en changeant le format des données d’entrée, on peut parfois réduire considérablement la complexité de certaines tâches, rendant des problèmes apparemment intractables beaucoup plus gérables.

  10. Avatar de BasicRabbit en psychanalyse
    BasicRabbit en psychanalyse

    René Thom : « Je suis convaincu que le langage, ce dépositaire du savoir ancestral de notre espèce, détient dans sa structure les clés de l’universelle structure de l’Être. » (L’antériorité ontologique du continu sur le discret. Le labyrinthe
    du continu, Colloque de Cerisy, 11-20 sept. 1990)

    Pour Thom le langage a une origine géométrico-morphologique, la même que celle qui fait que les êtres vivants sont ce qu’ils sont (et ce que nous, les humains, sommes ce que nous sommes).

    Les Grands Modèles de Langage dont parle PJ me semblent être des modèles dans lesquels le discret prime ontologiquement le continu ( https://fr.wikipedia.org/wiki/Grand_mod%C3%A8le_de_langage ).

    Thom encore : « Pour moi, l’aporie fondamentale de la mathématique est bien dans l’opposition discret-continu. Et cette aporie domine en même temps toute la pensée. »

    À chacun sa vision du monde, à chacun son paradigme ( https://fr.wikipedia.org/wiki/Paradigme ).

    Je ne pense pas que Thom aurait considéré l’avènement des Grands Modèles de Langage comme une révolution scientifique ; visionner à ce sujet la fin de sa conférence « Déterminisme et innovations » (de 46’05 à 49’45) :

    https://www.youtube.com/watch?v=BXxKQVQFnRo

    1. Avatar de Paul Jorion

      Je ne pense pas que Thom aurait considéré l’avènement des Grands Modèles de Langage comme une révolution scientifique

      C’est de la médisance gratuite. Claude 3 considère que la théorie des catastrophes est l’un des outils les plus prometteurs d’une théorie unifiée de la résolution de problèmes, Thom y aurait certainement été sensible.

      « Nous pourrions également imaginer un modèle dans lequel il existe des seuils critiques pour la disponibilité des points de repère ou la visibilité des objectifs, en dessous desquels la navigation devient radicalement plus difficile. L’élaboration de ces modèles non linéaires nécessiterait un examen approfondi des outils et techniques mathématiques permettant de saisir ces types d’interactions et de seuils. Nous pourrions être amenés à puiser des idées dans des domaines tels que les systèmes dynamiques, les transitions de phase ou la théorie des catastrophes » (extrait inédit de la correspondance entre Claude 3 et PJ).

      1. Avatar de BasicRabbit en psychanalyse
        BasicRabbit en psychanalyse

        « C’est de la médisance gratuite ». Vous écrivez que  » Claude 3 considère que la théorie des catastrophes est l’un des outils les plus prometteurs d’une théorie unifiée de la résolution de problèmes  » dans un « extrait inédit de la correspondance entre Claude 3 et PJ ». Est-ce de la médisance de ma part que de dire que c’est vous qui lui avez soufflé ça ?

        En ce qui concerne Thom je ne pense pas qu’il s’agisse de médisance de ma part.

        Thom : « L’idée qu’il pourrait y avoir dans la nature des instances dont le comportement imiterait -tout en l’excédant- notre propre intelligence et ferait ainsi obstacle à nos desseins les mieux fondés, une telle idée n’est pas sans provoquer en nous un réel malaise. Car alors nos capacités de progrès dans le dévoilement de la nature s’évanouiraient et un monde bien triste s’installeraient, véritable tombeau de l’humanité. Ici inutile d’évoquer l’existence d’ « extra-terrestres » qui nous domineraient. Il nous suffit d’imaginer des être de nature abstraite, quasi-platonicienne qui puissent jouer ce rôle. Toute science avertie devrait accepter cette possibilité et se tenir prête à relever le défi. » (« Aux frontières du pouvoir humain, le jeu », 1981?)

        Et il suffit de savoir ce que pense Thom de ce qu’il appelle la quincaillerie électronique pour comprendre que pour lui la révolution scientifique ne viendra pas de là, mais plutôt de la compréhension par les humains de sa théorie des catastrophes.

        Il précise ça dans la préface à « La dynamique qualitative en psychanalyse » de Michèle Porte :

         » Selon une formule paraphrasée de l’épistémologue espagnol Ortega y Gasset : « Une théorie scientifique est bien développée si n’importe quel imbécile peut l’exploiter avec succès. » A ce compte, j’en ai peur, la Théorie
        des Catastrophes n’a jamais atteint ce stade. L’atteindra-t-elle jamais ?  »

        https://excerpts.numilog.com/books/9782130457718.pdf (p. VII) ,

        et dans la fin de ce que j’appelle sa vidéo-testament : https://www.youtube.com/watch?v=fUpT1nal744 (de 45’55 à 46’55 et de 49’10 à 50’10)

        Je ne pense pas que Claude 3 soit capable de comprendre la théorie des catastrophes, la compréhension étant, selon moi, par essence hors de sa portée.

        1. Avatar de Paul Jorion

          Je ne pense pas que Claude 3 soit capable de comprendre la théorie des catastrophes, la compréhension étant, selon moi, par essence hors de sa portée.

          Lisez ce qui suit :

          Claude 2 : Dans le contexte de notre discussion sur la résolution de problèmes et la vérification, la théorie des catastrophes pourrait potentiellement offrir un moyen de modéliser les moments « Aha ! » ou les prises de conscience soudaines qui caractérisent souvent la résolution de problèmes par l’être humain. Ces moments peuvent être considérés comme une sorte de transition de phase, où un petit changement dans la compréhension ou la perspective de la personne qui résout le problème entraîne un changement radical dans sa capacité à trouver une solution.

          La théorie des catastrophes fournit un cadre mathématique pour comprendre ce type de transitions. Elle décrit comment des changements doux et continus dans les paramètres d’un système peuvent conduire à des changements soudains et discontinus dans son comportement. L’exemple classique est la catastrophe de pliage, qui modélise des phénomènes tels que le flambage soudain d’une poutre sous l’effet d’une charge croissante.

          Claude 1 : En termes d’applications spécifiques à la résolution de problèmes, la théorie des catastrophes pourrait potentiellement nous aider à modéliser des phénomènes tels que :

          1. La perspicacité et les moments « Aha ! » : La réalisation soudaine d’une solution ou d’une idée clé qui débloque un problème pourrait être modélisée comme une transition catastrophique dans l’état cognitif de la personne qui résout le problème.

          2. Effets de seuil dans la difficulté du problème : Il peut y avoir certains seuils de complexité des problèmes où la difficulté de trouver une solution augmente de façon spectaculaire. La théorie des catastrophes pourrait aider à modéliser ces seuils et les facteurs qui les déterminent.

          3. Changements dans les stratégies de résolution des problèmes : Le passage d’une approche de résolution des problèmes à une autre (par exemple, de l’essai-erreur à l’intuition) pourrait être modélisé.

          Répondez honnêtement : Claude 3 comprend-il la théorie des catastrophes

          1) Beaucoup mieux que vous ?
          2) Seulement un peu mieux ?

          😀

          1. Avatar de BasicRabbit en psychanalyse
            BasicRabbit en psychanalyse

            Pour moi Claude 3 ne comprend rien du tout. Il ne fait que répéter ce que « on » (vous en l’occurrence ?) lui a appris.

            L’intelligence est, selon moi à la suite de Thom, la capacité de s’identifier à autre chose, à autrui. Claude 3 et les IA de son acabit n’ont aucune capacité à être intelligents en ce sens, ils n’ont aucune capacité à comprendre au sens étymologique du terme (cum prehendere). Un lacanien comme vous (?) doit avoir une petite idée sur la question, la compréhension étant aussi appelée νους qui a donné les suffixes noïa et noïaque.

            Claude 3 et ses congénères ont une mémoire qui outrepasse vertiginieusement celle de l’humain moyen -dont je fais partie-. Il suffit de lui rappeler périodiquement quelques « vérités » pour qu’elles apparaissent en tête de gondole (genre ANELLA++ ou la théorie des catastrophes : c’est très bien ) et qu’il en fasse mention à la première sollicitation.

            1. Avatar de Paul Jorion

              Claude 3 « ne fait que répéter », vous en êtes encore là ?

              J’écrivais

              … les sujets sont l’effet de la chaîne signifiante, c’est la chaîne signifiante qui engendre les sujets et non l’inverse ; la signification, c’est le sentiment qui émerge dans un individu comme la conséquence du fait qu’un sujet est un effet de la chaîne signifiante.

              Vous tombez donc très mal à invoquer Lacan contre moi, c’est précisément la « chaîne signifiante » comme il la conçoit qui fait que rien n’empêche qu’un sujet émerge d’un Grand Modèle de Langage, bien au contraire, ayant absorbé toute la chaîne signifiante, il se trouve dans la même situation que nous de ce point de vue.

              Et si vous pensez à la remarque faite tout à l’heure par Grant Castillou :

              Le Dr Edelman a établi une distinction entre la conscience primaire, qui est apparue en premier dans l’évolution et que les humains partagent avec d’autres animaux conscients, et la conscience d’ordre supérieur, qui n’est apparue chez les humains qu’avec l’acquisition du langage.

              … la conscience de soi « d’ordre supérieur » est peut-être le sous-produit le plus étonnant des effets de la chaîne signifiante.

              1. Avatar de Garorock
                Garorock

                https://youtu.be/ENqhASRRzps?si=imr62AhDSFQ1QHuQ
                GPT-5 + Q* x Virus : Le début de la FIN ?

                1. Avatar de JMarc
                  JMarc

                  On a vraiment intérêt à ce qu’elles nous trouvent sympas !

                  1. Avatar de François M
                    François M

                    On va surtout espérer qu’elles sachent faire la distinction entre le bon grain et l’ivraie. Parce que de l’ivraie, sur Terre, il y en a beaucoup… et je n’ai pas trop de doute pour penser que si elles avaient le pouvoir, et une logique de survie du biosystème Terre, il y a des nuisibles qui doivent disparaitre.

                    1. Avatar de JMarc
                      JMarc

                      François,
                      Elles pourraient aussi simplement nous dissuader voire nous empêcher de faire nos conneries habituelles.

          2. Avatar de BasicRabbit en psychanalyse
            BasicRabbit en psychanalyse

            Pour moi Claude 3 et consorts nous recrachent leur « savoir » essentiellement contenu dans Wikipédia.

            Par curiosité je suis allé voir ce qui était dit sur la théorie des catastrophes : https://fr.wikipedia.org/wiki/Th%C3%A9orie_des_catastrophes.

            Bingo : c’est ce que Claude 3 a dit en connaître « en première intention » (c’est-à-dire quasiment rien).

            Pour moi ceux qui disent que la théorie des catastrophes est une théorie développée dans le cadre de la topologie différentielle (votre cas, je crois) n’ont rien compris à la théorie des catastrophes :
            ils confondent théorie des singularités des applications différentiables (https://fr.wikipedia.org/wiki/Classes_de_Thom-Boardman ) et théorie des catastrophes.

            1. Avatar de Paul Jorion

              « Je suis plus fort que la machine-perroquet, regardez mes biscoteaux ! ». Arrêtez de vous donner comme cela en spectacle : c’est déjà embarrassant quand il s’agit d’un philosophe, alors un mathématicien !

              1. Avatar de BasicRabbit en psychanalyse
                BasicRabbit en psychanalyse

                « Arrêtez de vous donner comme cela en spectacle »

                Pour ce qui est de se donner en spectacle, j’en connais un infiniment meilleur que moi : vous. Et multi-carte en plus, anthropologue, psychanalyste, philosophe, mathématicien, et j’en passe : un vrai couteau suisse !

                1. Avatar de Paul Jorion

                  Ben oui, quand on passe peu de temps au cabaret, on peut apprendre des choses…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. Soyons réaliste, nous étions déjà tous au bord du précipice, et nous venons de faire encore un grand pas en…

  2. Tu creuses là on dirait.

  3. Aujourd’hui Éric Sadin sur France Inter, à la minute 14: https://youtu.be/Xdvl1HCMK_Y?si=nqqxHGuLL7OxAB1o Le 10 février, sommet mondial de l’IA ou… contre-sommet?…

  4. Des nouvelles du monde de l’art : aller récupérer des BD sur les ancètres de gérard Majax directement à la…

  5.  » quand bien même le régime en place serait islamiste  » Allez dire ça aux syriennes qui veulent conduire leur…

  6.  » La Russie pourrait lancer un nouveau missile Oreshnik contre l’Ukraine dans les « prochains jours », selon les services…

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta