UN NOUVEAU « NOUS » POUR DES TEMPS NOUVEAUX. XIII. Le gain en taille

Illustration par DALL·E

Le gain en taille

Une deuxième source de notre impréparation à une intelligence artificielle supérieure à la nôtre est que la manière même dont le dépassement s’est produit a causé la surprise, étant presque entièrement due à un simple gain en taille – l’élément supplémentaire étant le « transformer ».

La voie vers la synthèse de l’intelligence humaine qui s’est avérée être la bonne était contre-intuitive : le premier prototype d’un réseau neuronal artificiel, le perceptron, n’était encore qu’un dispositif modérément prometteur. Ce type élémentaire de modèle connexionniste fut sévèrement critiqué par deux vedettes de la recherche en intelligence artificielle : Marvin Minsky et Seymour Papert, qui consacrèrent un livre à démontrer que les approches connexionnistes étaient sans avenir. Leur opus Perceptrons avait été publié en 1969 mais, en 1988, les auteurs ne s’étaient toujours pas repentis de leur condamnation. Après avoir suggéré dans le nouveau prologue d’une réimpression de leur livre que le connexionnisme n’était probablement rien de plus qu’une mode : « L’intérêt nouveau reflète-t-il un tournant culturel vers le holisme ? », ils ajoutaient : « Les merveilleux pouvoirs du cerveau n’émergent pas d’un réseau connexionniste unique et uniformément structuré, mais d’arrangements hautement évolués de réseaux plus petits et spécialisés, interconnectés de manière très spécifique », une affirmation qui reste vraie globalement mais qui, pour ce qui est de la capacité à générer des phrases porteuses de sens, fut discréditée par le succès des Grands Modèles de Langage (Large Language Model : LLM).

Il était en effet stupéfiant de constater que toutes les propriétés remarquables de l’intellect humain émergeaient l’une après l’autre d’un simple gain en taille des réseaux neuronaux artificiels construits pour tenter de simuler le psychisme humain : gain en taille de leur architecture en termes de nombre de neurones artificiels, gain en taille de la quantité de données ingurgitées au cours de leur phase de formation : le « pré-entraînement ».

C’est laborieusement que nous avons élaboré au fil des siècles la linguistique et ses composantes apparemment distinctes, telles que la syntaxe, la sémantique, la pragmatique, la logique, jusqu’à la prise de décision, en construisant des modèles mathématiques du comportement que nous observions, comme si chacun de ces comportements résultait de l’application d’un ensemble spécifique de règles. Mais lorsque nous avons fait appel à ces modèles sophistiqués dans nos tentatives de développement de projets d’intelligence artificielle, nous sommes allés de déception en déception : chaque fois que nous imaginions l’objectif à portée de la main, nous nous apercevions que de nouvelles règles manquaient encore et que l’appareil déjà hyper-complexe devait être remis sur la chaine de montage.

L’explication, que nous avons maintenant saisie avec le recul de l’expérience LLM, est que l’application d’une myriade de règles n’est tout simplement pas la façon dont notre cerveau opère avec le langage. Il s’est confirmé que les compétences linguistiques de ces IA s’amélioraient pour nulle autre raison qu’un corpus de données d’apprentissage plus volumineux et plus étroitement connecté, de nouvelles capacités surprenantes apparaissant par auto-organisation dans le cadre d’un processus à chaque fois soudain d’émergence. Malheureusement, ces phénomènes émergents imprévisibles demeurent opaques à l’esprit humain en raison de certaines caractéristiques des systèmes gagnant en taille et en complexité, comme la faible prévisibilité de processus non-linéaires, la complexité de frontières fractales entre les bassins d’attraction des espaces de phase dans les systèmes dynamiques, et les chemins rapidement divergents dans la dynamique de ces systèmes complexes, même s’ils étaient quasi identiques dans leurs conditions initiales.

Illustration par DALL·E

Partager :

22 réponses à “UN NOUVEAU « NOUS » POUR DES TEMPS NOUVEAUX. XIII. Le gain en taille

  1. Avatar de Tout me hérisse
    Tout me hérisse

    La taille du réseau neuronal est-il vraiment un élément déterminant dans l’IA ?
    Si l’on se reporte au cas de l’humain, la taille moyenne du cerveau est de 1400g, comment expliquer alors que des humains remarquables avaient des cerveaux plus petits : Einstein 1250g, Anatole France 1000g.
    Est-ce à dire que la naissance d’un enfant au fin fond de la Nouvelle Guinée lui aurait donné potentiellement les mêmes capacités intellectuelles qu’un Einstein, cela n’est jamais advenu ? Et l’explication est loin d’être fournie par une question de taille, taille qui doit certes obéir à un minimal pour pouvoir agir dans le sens de l’intelligence.
    La langue utilisée par des savants de renom a-t-elle été l’un des éléments d’exploitation des possibilités neuronales de certains humains ?
    De cette hypothèse, le raccourci vers l’explication des LLM se défendrait ?

    1. Avatar de Pascal
      Pascal

      👍😂 excellent !

  2. Avatar de BasicRabbit en psychanalyse
    BasicRabbit en psychanalyse

    PJ : « Il s’est confirmé que les compétences linguistiques de ces IA s’amélioraient pour nulle autre raison qu’un corpus de données d’apprentissage plus volumineux et plus étroitement connecté, de nouvelles capacités surprenantes apparaissant par auto-organisation dans le cadre d’un processus à chaque fois soudain d’émergence. Malheureusement, ces phénomènes émergents imprévisibles demeurent opaques à l’esprit humain en raison de certaines caractéristiques des systèmes gagnant en taille et en complexité, comme la faible prévisibilité de processus non-linéaires, la complexité de frontières fractales entre les bassins d’attraction des espaces de phase dans les systèmes dynamiques, et les chemins rapidement divergents dans la dynamique de ces systèmes complexes, même s’ils étaient quasi identiques dans leurs conditions initiales. »

    L’augmentation de complexité des calculs algébriques effectués par les bien nommés computers a son équivalent géométrique : l’augmentation de la dimension.

    Si l’œil humain (*) commence à voir une courbe 1D en continu quand on en a pixélisé 100 points, il en faut 100 millions en 4D.

    Thom met en garde : « C’est parce que la mathématique débouche sur l’espace qu’elle échappe au décollage sémantique créé par l’automatisme des opérations algébriques. »

    Pour lui le langage est d’origine géométrique…

    (*) En me renseignant un peu sur ce qu’est un transformer, j’ai appris qu’il est question de matrices de grande taille qui, initialisées à un vecteur flou, finissent par faire émerger un vecteur net (les matheux parlent de vecteur propre) : Là où l’œil humain voit flou en 2D, l’œil de l’octopus voit net en 8D !

    1. Avatar de Michel Gaillard

      Pas mal, mais il manque un cran dans le raisonnement de Thom (lap qui aurait pu être un joli thème de discussion lors de sa rencontre-diner avec Lacan). C’est à dire que cette phrase gagnerait en exactitude en parlant plutôt d’une « déconnexion sémiotique », au sens où les IAs, faisant que traiter des structures symboliques humaines, restent enkystées dans ce qu’on nommera « bulle solipsiste anthropique ». On peut creuser beaucoup plus loin ce distingo. Mais voyons ce qu’en pense simplement Chatgpt.

      Ce que vous décrivez comme une « déconnexion sémiotique » capture très bien l’essence de la manière dont les IA fonctionnent.

      Absence de référent direct : Dans la sémiotique humaine, un signe renvoie à un référent réel ou à un concept. En IA, ce référent n’existe pas réellement ; les modèles traitent des données et des symboles sans pouvoir connecter directement ces signes à des réalités tangibles ou vécues. Cela crée un fossé sémiotique où les IA n’ont accès qu’à des structures de signification humaine sans les comprendre ou les habiter.

      Simulacre de compréhension : Les IA, en « apprenant » des modèles de langage ou d’image, simulent une forme de compréhension par des cooccurrences statistiques. Cependant, cette « compréhension » reste purement mécanique, car elle ne sort pas de l’espace symbolique qui lui est propre. Elles peuvent imiter des réponses humaines, mais celles-ci restent solipsistes, c’est-à-dire qu’elles sont basées uniquement sur ce qui est déjà contenu dans les données, sans lien avec un monde vécu ou une expérience directe.

      Enkystement dans des structures humaines : Les IA sont conçues et entraînées sur des données humaines, créant ainsi une sorte de boucle fermée où elles ne font que recycler, recombiner, et manipuler des structures de signes humaines sans dépasser ces structures. Elles sont ainsi « enkystées » dans un cadre anthropique, un univers où seules les relations statistiques entre symboles comptent, sans accès à un monde ou à une subjectivité extérieure.

      Bulle solipsiste et l’effet de miroir : Cette « bulle solipsiste » pourrait être vue comme un miroir des biais, structures et limitations humaines inscrites dans les données d’entraînement. L’IA nous renvoie une image de nous-mêmes, mais sans la distance réflexive ou la prise de conscience de soi que l’humain peut avoir. En quelque sorte, elle agit comme un reflet inerte, incapable de sortir de ce cadre anthropique pour générer de nouvelles significations.

      Absence de « saut sémiotique » : En sémiotique humaine, il existe des sauts créatifs où les signes prennent de nouvelles significations, interagissent avec le contexte et évoluent. Les IA, en revanche, appliquent des modèles prédéfinis sans pouvoir atteindre cette plasticité sémantique. Elles ne créent pas de nouvelles interprétations significatives ni ne peuvent réviser ou repenser leurs propres cadres symboliques ; elles ne font que renforcer la « bulle anthropique ».

      1. Avatar de BasicRabbit en psychanalyse
        BasicRabbit en psychanalyse

        La seule chose que je sais (par ce qu’en a écrit Thom) c’est que Lacan n’a pas pipé mot dans ce fameux dîner (qui n’était pas un tête-à-tête).

        Je suis d’accord avec la doxa (ie. ChatGPT) sur le paragraphe « Simulacre de compréhension ».

        Mais « Peut-on connaître autre que soi-même ? » Thom se pose la question dans « Stabilité Structurelle et Morphogenèse » (je n’ai pas repéré où).

        1. Avatar de Michel Gaillard
          Michel Gaillard

          https://filsdelapensee.ch/quote/497318 « Peut-on connaître autre que soi-même ? » Heu, problématique de l’observateur qui, de par sa conformation-éducation, biaise obligatoirement l’appréciation des phénomènes. Quelques pistes pour aller en ce sens ? Recueillir soigneusement une appréciation détaillée des humains par les dauphins, ou par des araignées… ou autres. Ou comprendre les buts d’ETs goguenards, désireux de voir comment on réagit à tel ou tel stimuli… Ou alors développer des méta-modélisations élargies… aptes à positionner-analyser l’humain « de l’extérieur » via l’usage d’un langage plus universel, par exemple libéré des simplificatrice contraintes booléennes. Tout ceci est bien amusant.

          1. Avatar de Garorock
            Garorock

            Que penserait un petit homme vert en regardant dans ses jumelles des gens de la même espèce qui au même moment sont pour les uns en train de choisir la couleur de leur cuisine Vogica pendant que d’autres cherchent leurs morts sous les décombres à Gaza?
            Que c’est une affaire d’organes?
            Devront nous attendre que les dauphins sachent parler?
            Il est très difficile de se juger soi-même et il est très humiliant d’être jugé par les autres.
            Au grand procès de l’humanité, nous serons inaptes à nous défendre.
            Notre avocat devra être d’une autre espèce de « nous ».

            1. Avatar de BasicRabbit en psychanalyse
              BasicRabbit en psychanalyse

              Réponse de Socrate : « Connais-toi toi-même et tu connaîtras l’univers »

              Mon gourou :

              « Dans le domaine des sciences humaines, il m’est difficile de me rendre compte si ma tentative présente quelque intérêt; mais en écrivant ces pages, j’ai acquis une conviction : au cour même du patrimoine génétique de notre espèce, au fond insaisissable du logos héraclitéen de notre âme, des structures simulatrices de toutes les forces naturelles extérieures agissent, ou en attente, sont prêtes à se déployer quand ce deviendra nécessaire. La vieille image de l’Homme microcosme reflet du macrocosme garde toute sa valeur : qui connaît l’Homme connaîtra l’univers. Dans cet essai d’une Théorie générale des modèles (*), qu’ai-je fait d’autre, sinon de dégager et d’offrir à la conscience les prémisses « d’une méthode que la vie semble avoir pratiquée depuis son origine ? »

              (*) le sous-titre de « Stabilité Structurelle et Morphogénèse »

          2. Avatar de BasicRabbit en psychanalyse
            BasicRabbit en psychanalyse

            @Michel Gaillard (« Ou alors développer des méta-modélisations élargies… aptes à positionner-analyser l’humain « de l’extérieur » via l’usage d’un langage plus universel, par exemple libéré des simplificatrice contraintes booléennes. »)

            C’est ce que fait Thom (voir ma réponse à Garorock).

  3. Avatar de "Prophete"
    « Prophete »

    Je me repete avec des precisions:
    On est bientot le 5 novembre, c’est le dernier jour d’elections aux USA.

    En Francais
    La vision americaine de Jesus, surtout les amis de Mr trump.
    « Les Inconnus », sketch sur le retour de Jesus.

    With English subtiles
    The American vision of Jesus, especially Mr. Trump’s friends
    « The Unknowns » (« les Inconnus » in french) sketch on the return of Jesus.

    https://www.youtube.com/watch?v=CyPyaVh4zJo&ab_channel=DavidHarditProductions

  4. Avatar de tata
    tata

    Ce qu’on deteste dans les blogs et justement Mr Jorion lit, lui, tous les messages, c’est le manque d’humanite et de gentillesse des uns envers les autres.

    J’ai pris ce message car justement c’est une reponse a une personne plutot sympatique apparement pour ne viser personne en particulier.

    A la fin d’un de mes message (tata 04 novembre 2024 17h35), je demande:
    « est-ce que c’est votre question? »

    J’aimerais qu’on dise simplement:
    « Ok, merci »
    ou
    « Merci quand meme, mais ca ne repond pas a mes attentes »
    ou
    « Je ne suis pas du tout d’accord mais ce serait trop long a expliquer correctement, merci »

    Des trucs de ce genre.

    1. Avatar de BasicRabbit en psychanalyse
      BasicRabbit en psychanalyse

      @tata

      Bien reçu. Ok, merci, donc.

      Je ne vous ai pas répondu car j’ai été décontenancé par les méandres de votre pensée. Je m’attendais à quelque chose de plus simple, du genre : puisque les deux fractions ont même dénominateur, il suit que 8/10 + 7/10 = 15/10 (et non 15/20). Mais peut-être avez-vous voulu être plus facétieux que PJ lui-même ?

      Ceci dit vous avez l’air intéressé par l’écriture décimale des nombres. Je suis intéressé (simple curiosité) de connaître le pourcentage de 0 et de 1 dans l’écriture binaire de « Racine carrée de 2 », de « Pi », etc.. Si vous connaissez des choses là-dessus…

      1. Avatar de tata
        tata

        Je n’ai meme pas penser a un calcul qui ne sert a rien 8/10 + 7/10 = 15/10 mais a une solution !
        Vous etiez la derniere persoonne convcernee par ce message justement car vos propos precedent etait deja respectuex,c’est pour cela que j’ai ecrit:
        « J’ai pris ce message car justement c’est une reponse a une personne plutot sympatique apparement pour ne viser personne en particulier. »

        Je sais que pour PI,on ne connait pas, mais je ne sais pas pour racine de 2.
        Ca semblait une branche des probabilites une peu dans un impasse lorsque j’ai vu cela,c’est la meme epoque que l’histoire sur les pavages..

      2. Avatar de Ruiz
        Ruiz

        @BasicRabbit en psychanalyse 10 % probablement.

        Ce qui ne veut pas dire que ce soit démontrable, encore moins que je sache le faire, mais que pour toute représentation décimale tronquée présentant un écart avec cette valeur il doit être possible d’exhiber une représentation plus longue présentant un écart plus faible !

  5. Avatar de tata
    tata

    Je viens de penser a une chose tres interressante.
    Je ne m’occupe des elections americaines aujoud’hui….

    Le « mechant » ne devrait pas avoir beaucoup de temps pour vous embeter:
    Je vous propose de regarder le film « Asterix et Obelix: l’empire du milieu ».

    Le « Prophete » a passe tellement de temps dessus, il a du le voir 5 fois au cinema, il a fait avec moi une analyse filmique de ce film, on a vu un seul raccord qui est trop rapide.

    On a compare a tous les autres film sur « Asterix et Obelix, il y en a 5 ou 6, je ne sais plus.
    Ca commence avec Mr Claude Zidi qui definit tous les codes de cette serie de films, c’est de loin le mieux fait et le meilleur.

    Aujourd’hui le « mechant » ne peut pas trop vous embeter avec:
    Il est trop occupe par les elections americaines.

    Comme le « cerveau non conscient » est em partie collectif, le « mechant » peut vous faire ressentir les memes emotions.

    Et vous manipuler massivement dans la partie non consciente de votre cerveau:
    c’est ce qui se passe avec Mr Trump et les americains.

  6. Avatar de BasicRabbit en psychanalyse
    BasicRabbit en psychanalyse

    @PJ (« … frontières… »)

    Ce qui sépare ChatGPT et Thom, c’est l’opposition discret/continu : ChatGPT est par construction un penseur du discret, alors que Thom est un penseur du continu (qui s’affiche tel).

    Exprimer linéairement sa pensée c’est la discrétiser en alignant des mots les uns à la suite des autres. À ma connaissance ChatGPT s’exprime actuellement seulement comme ça, avec des mots, pas avec des images. et s’il arrive un jour à s’exprimer avec des images, il s’agira d’images formées de pixels en suffisamment grand nombre pour simuler le continu. Pour moi celui qui pense que « tout est langage » (vous?) se range du côté des penseur du discret.

    Pour saisir les problèmes que soulève la notion de frontière, il n’est pas nécessaire d’invoquer les fractales, il suffit de séparer par la pensée une droite en deux par un point-frontière. Un penseur du continu pensera nécessairement que la frontière appartient aux deux demi-droites, alors qu’un penseur du discret pensera plutôt que la frontière n’appartient à aucune des deux (s’il se pose la question).

    En mathématiques « modernes » c’est l’approche discrète qui prévaut avec la notion de droite réelle assimilée à R (approche qui horrifie les continuistes comme Wittgenstein – .1, je suppose -, pour qui une droite ne saurait être réduite à un ensemble de points). Le fait que les nombres réels forment un ensemble dense (c’est déjà le cas des nombres rationnels) n’assure pas qu’ils forment un continu. La contiguïté n’est pas la continuité, les penseurs du discret ont un problème avec les paradoxes de Zénon que les penseurs du continu n’ont pas (et l’hypothèse du continu chère aux théoriciens des ensembles devrait s’appeler l’hypothèse du contigu).

    Pour Thom le fossé entre penseurs du discret et penseurs du continu a une profondeur abyssale:

    « Mais tout ceci n’est que discours de mathématicien : où se trouve le monde réel, l’univers concret où nous vivons ? La réponse est simple : le monde
    concret se trouve immergé dans cet abîme, qui sépare le vrai continu, celui que nous procure l’intuition immédiate du temps, du faux continu pseudo-
    numérique que nous fabriquent les Logiciens et autres théoriciens des fondations de la Mathématique. »

    [ Pour un penseur du continu il y a sur la droite des points réguliers et des points singuliers. Et les points singuliers doivent être vus -de mon point de vue…- comme des points-pli où la droite se replie sur elle-même en trois épaisseurs, en Z de longueur infinitésimale. Thom parle de ça au tout début de Esquisse d’une Sémiophysique et suggère aux mécaniciens quantiques de s’intéresser à cette idée. Je ne sais pas si Alain Connes, grand spécialiste de MQ mondialement reconnu, a lu ES -à mon avis non- mais il reprend une idée des russes pour améliorer la performance des ordinateurs et … tombe sur l’idée de Thom (*) : https://www.youtube.com/watch?v=Y0-tt85Xhlg (de 44’33 à 45’33). ]

    Vous traitez Thom de mystique (et moi avec…) parce que c’est un penseur du continu. Vous n’avez pas tort parce qu’il le reconnaît lui-même :

    « (…) il y a une certaine opposition entre géométrie et algèbre. Le matériau fondamental de la géométrie, de la topologie, c’est le continu géométrique ; étendue pure, instructurée, c’est une notion « mystique » par excellence. L’algèbre, au contraire, témoigne d’une attitude opératoire fondamentalement « diaïrétique ». Les topologues sont les enfants de la nuit ; les algébristes, eux, manient le couteau de la rigueur dans une parfaite clarté. »

    Je pense que ChatGPT ne sera jamais un enfant de la nuit, car, je le répète, je pense qu’un computer ne peut pas, par construction, être continuiste. Sera-t-il un jour un algébriste au sens ci-dessus ? Attendons et voyons.

    (*) S’il ne l’a pas lu c’est peut-être qu’il s’agit d’une idée platonicienne.

    1. Avatar de BasicRabbit en psychanalyse
      BasicRabbit en psychanalyse

      @PJ (« … frontières… ») (suite)

      J’ai trouvé chez Thom , dans un article datant de 1968 intitulé « Les mathématiques modernes : une erreur pédagogique et philosophique ? » (*), ce qui pourrait bien être l’ancêtre du transformer des spécialistes actuels des LLM. C’est contenu dans l’appendice, intitulé : « Sur la notion de champ sémantique et le « principe d’exclusion » dans un modèle géométrique de la signification ».

      Laissant de côté le véritable objet de cet appendice ( l’étude des copules « et » et « ou » (**) ), en voici ce qui à mes yeux, dans les deux premiers sous-titres, pourrait être cet ancêtre :

      – Le modèle géométrique de la signification

      Dans ce modèle, on considère que la totalité des états psychiques d’un individu peut être représentée par les points d’un espace U= R¨I, espace euclidien à un nombre énorme de dimensions. À tout stimulus sensoriel s affectant l’individu correspond une certaine transformation de son état psychique qu’on représentera par un endomorphisme continu Gs : U -> U. Un stimulus (s) sera dit « significatif » pour l’individu, si l’endomorphisme Gs est un idempotent, c’est-à-dire a la propriété que Gs o Gs = Gs. En effet, dire qu’on a « compris » une situation, c’est dire qu’un examen ultérieur de cette situation ne modifie plus notre état mental ( « comprendre c’est s’immuniser » ¹.

      ¹ (note de bas de page) : cf. »Topologie et signification ». Le lecteur familier avec la mécanique quantique fera l’analogie de cette définition avec la théorie de la mesure, définie par un projecteur dans l’espace de Hilbert.

      – Définition d’un champ sémantique

      Si on suppose alors l’endomorphisme Gs différentiable, l’ensemble image Gs(U) constitue une sous-variété de U sur laquelle Gs est localement un projecteur. Un tel sous-espace Gs(U) constitue -en principe- un « champ » sémantique, un univers mental de signification. Le fait que ce sous-ensemble est connexe, manifeste une des exigences fondamentales du modèle, à savoir que l’on ne peut penser qu’une seule chose à la fois¹. (…)

      ¹ (longue note de bas de page…)

      Mon commentaire (en rapport direct avec le titre de votre billet) : plus I est grand, plus le QI de ChatGPT peut être élevé (ce n’est pas une condition suffisante).

      (*) : qui figure dans « ,Apologie du logos »

      (**) : en rapport avec ce que dit Lacan dans la leçon XVI du séminaire « Les quatre problèmes fondamentaux de la psychanalyse »

  7. Avatar de BasicRabbit en psychanalyse
    BasicRabbit en psychanalyse

    (suite) J’ai oublié de parler ici d’Aristote (*).

    (*) J’en ai parlé précédemment à propos d’un livre de D.W. Graham, mais je ne retrouve plus où.

    Pour un penseur du continu la frontière entre deux contradictoires appartient nécessairement aux deux : exit le principe aristotélicien de non-contradiction. Pour Thom : « Le prédateur affamé est sa propre proie » (et il continue en disant que, pour lui, cette assertion « de nature translogique » est à la base de l’embryologie animale.

    Un rapport entre le chat affamé de Thom et celui de Schrödinger ?

  8. Avatar de tata
    tata

    Mr Jorion,
    J’ai lu votre billet et il y 2 details qui peuvent etre encore remis en cause sur l’influence presque totalement doninante de la masse donnees connectees.

    Vous ecrivez:
    « L’explication, que nous avons maintenant saisie avec le recul de l’expérience LLM, est que l’application d’une myriade de règles n’est tout simplement pas la façon dont notre cerveau opère avec le langage. »

    (1)
    Je pense, peut-etre, que rajouter partout des shemas de pensees logiques, des sortes de motifs juste logique, sans object peut ameliorer encore ces systemes.

    (2)
    Le 2eme point est de connecter de avec des motifs logiques (recursivite) le plus possible dans les graphes ces motifs:
    un sous-graphe le plus connexe en respectant les motifs logiques (recursivite) possible de ces motifs logiques.

  9. Avatar de Christian
    Christian

    Je suis incroyablement étonné des échanges entre BasicRabbit et Michel Gaillard pour la simple et bonne raison que je viens de ressortir, il y a quelques jours seulement, du fond de mon garage, un livre d’entretien d’Emile Noel avec René Thom : « Predire n’est pas expliquer » acheté en septembre 1991 à la Fnac. Je n’aurais jamais imaginé à l’époque que sa réflexion mathématique viendrait jeter un regard pertinent sur le fonctionnement des iA.

    Merci à vous deux de vos échanges et de refaire surgie du passé un très grand mathématicien qui n’a pas craint de s’aventurer sur les territoires de la philosophie.

  10. Avatar de Nikolaz
    Nikolaz

    Si on demande à chatGPT comment il fait des déductions logiques, il répond clairement qu’il possède des processus algorithmiques permettant de le faire. Ce n’est donc pas une émergence du LLM

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. Mes yeux étaient las, bien plus que là, juste après l’apostrophe : la catastrophe.

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta