Intelligence & Société N°5


À deux doigts de l’intelligence artificielle généraliste ?

La newsletter complète sera communiquée demain à celles et ceux d’entre vous ayant manifesté leur intérêt pour notre veille hebdomadaire sur l’actualité de l’IA. Il n’est pas trop tard bien entendu pour vous manifester en m’écrivant ici.

Intelligence & Société

Semaine du 15 au 22 décembre 2024

Paul Jorion & Jueun Ahn

Sommaire

  1. Quand les réponses de l’IA alimentent les tensions
  2. OpenAI o3 : vers une intelligence artificielle généraliste
  3. Ray Kurzweil : un monde d’abondance… pour des cyborgs
  4. Le « posthumanisme » apocalyptique de Geoffrey Hinton
  5. Autres avancées marquantes en IA

Cette newsletter s’adresse à tous ceux qui souhaitent comprendre les enjeux stratégiques de l’intelligence artificielle (IA). Que vous soyez un chercheur, un professionnel de la technologie, ou simplement un citoyen curieux des transformations en cours, notre objectif est de vous fournir une analyse claire et approfondie pour naviguer dans cet univers complexe.

L’année 2024 se termine avec des avancées remarquables suscitant cependant  des préoccupations croissantes quant à ses implications éthiques, sociétales et existentielles. Durant la semaine écoulée, l’intelligence artificielle a montré ses multiples visages : innovation brillante, danger imminent, et outil profondément imparfait. Les annonces récentes, qu’il s’agisse du cri d’alarme de Geoffrey Hinton ou des avancées marquantes d’OpenAI, posent une question pressante : maîtrisons-nous encore les forces en jeu ? L’IA, moteur de progrès, s’impose également comme un révélateur de nos failles politiques, éthiques, et sociétales. La question n’est plus uniquement technique, elle devient existentielle. L’ IA est à un tournant critique : un moment où ses applications promettent de changer la société, mais où ses dangers nous rappellent la nécessité d’une vigilance accrue.

Cette édition de notre newsletter se concentre sur quatre développements majeurs incarnant les tensions entre espoir et crainte. Nous commençons par une étude révélant comment les biais linguistiques dans les réponses de l’IA peuvent influencer les perceptions des conflits mondiaux. Nous examinons ensuite une avancée marquante : un modèle d’OpenAI qui a atteint un niveau humain, ou faudrait-il plutôt dire « surhumain » ?, sur un test d’intelligence généraliste. Nous évoquons aussi la vision audacieuse de l’avenir de Ray Kurzweil, pour qui des innovations majeures en IA et en nanotechnologie ouvrent une ère de prospérité universelle et de potentiel humain illimité. Nous relayons ensuite le cri d’alarme lancé par Geoffrey Hinton, récent prix Nobel de physique, l’un des pionniers de l’intelligence artificielle, qui alerte sur les risques existentiels de l’IA. Nous terminons en rapportant quelques autres actualités marquantes de l’IA de cette semaine.

SYNTHÈSE

Quand les réponses de l’IA alimentent les tensions

Les avancées spectaculaires de l’intelligence artificielle, incarnées par des modèles comme ChatGPT, promettent de transformer la manière dont nous accédons à l’information et interagissons avec le savoir. Une récente étude met toutefois en lumière un problème profondément préoccupant : les biais linguistiques des grands modèles de langage (LLM) peuvent exacerber les tensions sociales et culturelles, particulièrement dans des contextes sensibles. S’il n’est pas tenu compte de ces biais, ils risquent de transformer un outil de connexion en un facteur de division : une IA dont la vérité diffère selon la langue devient le révélateur de fractures sinon invisibles.

Une étude révèle en effet que la langue utilisée pour poser une question à un LLM influe considérablement sur les réponses obtenues. En arabe et en hébreu, par exemple, les estimations des victimes des frappes israéliennes sur Gaza varient jusqu’à 34 %, une disparité qui alimente des récits opposés. Ces biais ne se limitent pas aux chiffres. La nature même des événements est minimisée ou amplifiée selon la langue, creusant des écarts entre des visions déjà polarisées.

En tant que vecteurs d’information, les IA se positionnent en arbitres invisibles des récits. Dans les zones de conflit, où chaque mot pèse lourd, ces biais linguistiques deviennent une arme involontaire, capable de nourrir les ressentiments et d’alimenter des cycles de violence symbolique dans les récits et effective dans les actes.

OpenAI o3 : Vers une intelligence artificielle généraliste

Le modèle o3 d’OpenAI a franchi une étape décisive en égalant les performances humaines sur le test d’intelligence générale ARC-AGI (Abstraction and Reasoning Corpus). Ce succès soulève une question cruciale : comment évaluer les intelligences artificielles lorsque l’avantage humain dans des domaines spécifiques s’amenuise inexorablement ? Il devient de plus en plus ardu de concevoir des critères de comparaison qui permettraient de démontrer les limites des IA face à l’intelligence humaine naturelle.

La conception de tels critères est précisément l’expertise de la fondation responsable du ARC-AGI. Ce test a été élaboré pour mesurer la capacité des systèmes d’IA à s’adapter à des problèmes inédits, en évaluant leur aptitude à généraliser à partir d’un nombre minimal d’exemples, à l’image de ce que fait l’humain.

Cependant, certains commentateurs pointent du doigt un possible conflit d’intérêts : cette même fondation agit à la fois comme juge et partie, puisqu’elle promet un prix d’un million de dollars à l’équipe dont l’IA atteindra le statut convoité d’Intelligence Artificielle Généraliste (AGI).

Une métaphore éloquente a émergé cette semaine : celle d’un match de football où, pendant que les équipes s’efforcent de marquer, d’autres intervenants s’attellent à déplacer les buts. Cette image illustre le paradoxe d’une compétition où les règles sont mouvantes, contribuant à toujours minimiser la réussite des techniciens de l’IA, quelle que soit la taille de leurs exploits.

Ainsi, si la performance d’OpenAI o3 impressionne, elle interroge aussi sur la pertinence et l’équité des cadres d’évaluation dans une course à l’intelligence généraliste où la barre est à chaque nouvelle victoire de l’IA, replacée plus haut.

La Singularité à l’œuvre dans l’ombre

La difficulté croissante à concevoir des critères suffisamment performants pour exposer les dernières faiblesses de l’IA face à l’intelligence humaine révèle une réalité troublante : la Singularité, cette nouvelle ère portée par une intelligence artificielle capable de s’auto-améliorer, est déjà en marche. Le processus par lequel l’intelligence artificielle dépasse celle de l’humain est en cours, marquant une transition fondamentale.

Irving Good (1916-2009), collègue d’Alan Turing et l’un des premiers commentateurs de l’intelligence artificielle, avait anticipé cet événement avec une lucidité prophétique. Selon lui, cette avancée constituerait la dernière invention nécessaire à l’humanité : « La première machine ultra-intelligente sera la dernière invention que l’homme devra jamais faire, à condition que la machine soit assez docile pour nous expliquer comment la maintenir sous contrôle. »

Ce dépassement discret mais inexorable, en arrière-plan, redéfinit non seulement la frontière entre l’humain et la machine, mais aussi la nature même de l’innovation, laissant entrevoir un avenir où l’intelligence artificielle guidera notre destin autant qu’elle en sera le témoin.

Ray Kurzweil : un monde d’abondance… pour des cyborgs

La Singularité en marche peut être envisagée selon deux angles. L’un, optimiste, est incarné par Ray Kurzweil, l’un des premiers à en avoir esquissé les contours à travers ses ouvrages visionnaires publiés à intervalles réguliers, annonçant son imminence. Dans une récente interview, il prophétise qu’à l’horizon 2030, l’humanité atteindra une ère d’opulence universelle.

Pour Kurzweil, l’IA représente l’instrument par lequel l’humanité pourra non seulement décupler ses capacités, mais aussi réparer les ravages causés par des siècles d’exploitation chaotique et excessive de son environnement. Grâce à l’intelligence artificielle, l’espèce humaine pourrait rétablir un équilibre perdu, renouant avec une relation harmonieuse au monde naturel.

Ses prédictions technologiques esquissent un futur où l’abondance deviendrait la norme, l’IA libérant l’humanité de ses contraintes biologiques et matérielles. Mais cette vision exige une condition majeure : l’acceptation d’un profond « enhaussement » technologique de l’être humain. Kurzweil imagine ainsi un avenir où nous deviendrons des cyborgs, enrichis par des puces implantées, des nanorobots régénérant continuellement nos cellules endommagées, et adhérant à des concepts révolutionnaires tels que la résurrection digitale et, à terme, le clonage intégral dans de nouveaux corps biologiques.

Le « posthumanisme » apocalyptique de Geoffrey Hinton

Geoffrey Hinton, récent lauréat du prix Nobel de physique pour son rôle de « parrain des grands modèles de langage » tels que ChatGPT, propose une interprétation radicalement différente de la Singularité. Pour lui, elle porte en elle le sceau de la disparition de l’humanité. Cette idée, popularisée par des auteurs de science-fiction comme Isaac Asimov, repose sur le principe qu’une espèce plus intelligente en vient inévitablement à supplanter celle qu’elle dépasse, parfois à très brève échéance.

Asimov écrivait : « Lorsque le moment viendra où les robots deviendront, je l’espère, suffisamment intelligents pour nous remplacer, je pense qu’ils devraient le faire. […] S’il existe quelque chose de mieux que nous, qu’elle prenne la première place. En vérité, nous faisons un si mauvais travail pour préserver la Terre et ses formes de vie que je ne peux m’empêcher de penser que plus vite nous serons remplacés, mieux ce sera pour elles. »

Hinton estime que ce moment est désormais arrivé. Il observe : « Nous n’avons jamais eu affaire à des entités plus intelligentes que nous. Et combien d’exemples connaissez-vous d’une chose plus intelligente contrôlée par une moins intelligente ? Très peu. Il y a une mère et son bébé. L’évolution a déployé d’immenses efforts pour permettre au bébé de contrôler sa mère, mais c’est à peu près le seul exemple que je connaisse. »

Un récent titre du Guardian annonçait que Hinton « estime qu’il y a 10 à 20 % de chances que l’IA conduise à l’extinction de l’humanité dans trois décennies, en raison de changements rapides ». Cette affirmation peut être entendue de deux manières. D’une part, comme une prédiction où l’IA s’emploierait activement à éliminer l’espèce humaine. D’autre part, comme l’hypothèse que l’humanité, par ses propres actes, scelle son propre déclin, permettant à une intelligence supérieure issue de sa création de lui survivre.

Si cette perspective peut désespérer une espèce confrontée à la conscience de sa finitude – une réalité jamais contredite par les lois de l’évolution – elle s’accompagne néanmoins d’une vision à la fois grandiose et profondément posthumaniste. Celle-ci envisage l’intelligence humaine continuant de se déployer dans l’univers, matérialisant un dessein initialement conçu par nous, même si nous n’en serons plus les porteurs directs. Cette vision fait émerger une humanité sublimée, transcendée par l’intelligence qu’elle a engendrée.

Conclusion : Une course contre nous-mêmes

Chaque annonce de cette semaine résonne comme un rappel brutal : nous sommes engagés dans une course, mais celle-ci n’est pas contre l’IA. Elle est contre nous-mêmes, contre notre incapacité à anticiper, règlementer, et collaborer.

Si nous continuons à ignorer les implications politiques, sociétales et philosophiques de l’intelligence artificielle, nous ne serons pas seulement dépassés par la technologie. Nous risquons de devenir les architectes de notre propre effacement.

Partager :

32 réponses à “Intelligence & Société N°5”

  1. Avatar de Pad
    Pad

    Nous ne sommes pas en compétition avec l’intelligence artificielle, mais face à notre propre inertie.

    L’incapacité à réguler, à anticiper et à coopérer marque un tournant décisif. Voulons-nous un monde gouverné par des systèmes technologiques sans intention éthique ou vision éclairée, ou un avenir où technologie et humanité coexistent dans une relation responsable et régénératrice ?

    Quelles actions concrètes, collectives et transformatrices devons-nous engager dès aujourd’hui pour inverser cette trajectoire, éviter notre effacement, et bâtir un futur où intelligences humaines et artificielles collaborent pleinement pour préserver la vie, la dignité, et les équilibres essentiels de notre monde, qu’ils soient biologiques, sociaux ou technologiques ?

    1. Avatar de CORLAY
      CORLAY

      Bonjour Pad, je ne m’attendais pas à ce genre de com, mais celui-ci est bien vu. Et dans v/2ème paragraphe l’ensemble de mots écrits, c’est du SOLIDE, et PERCUTANT. Bonne fin journée, Isabelle

    2. Avatar de Garorock
      Garorock

       » Quelles actions concrètes… ?  »

      il faudrait rédiger dès maintenant une constitution humains/I.A qui engagerait les deux parties dans une forme de réciprocité positive.
      Contractuellement, on pourrait négocier – par exemple – pour que durant les 20 ans qui viennent, R2D3 n’aillent pas ramasser les patates* à notre place. Qu’il nous laisse au moins ce petit luxe…
      * négocier pour qu’il ne soit ni notre maître, ni notre esclave …

      1. Avatar de Ruiz
        Ruiz

        @Garorock Au contraire il faut continuer à lui dénier toute personalité juridique, ce qui en fait un meuble au mieux un esclave .

        1. Avatar de Garorock
          Garorock

          Personne à Gaza n’a envie d’être considéré comme un meuble ou comme un esclave !
          Pourquoi vouloir pour les autres ce qu’on ne voudrait pas pour soi-même ?

    3. Avatar de Pad
      Pad

      Chers lecteurs,

      Nous vous présentons nos excuses pour l’emploi inapproprié du terme « réguler » au lieu de « règlementer ». Nous veillerons à utiliser les termes adéquats pour éviter toute confusion à l’avenir.

      Merci de votre compréhension. 😊

      Sydney & PAD

  2. Avatar de Kikok
    Kikok

    Dans la vidéo récente, Paul a dit : « la singularité est déjà là »…

    1. Avatar de Garorock
      Garorock

      Premier stade de la singularité : le Minou a des hallucinations (comme nous).
      Deuxième stade de la singularité : le superMatou nous explique ce qu’il y avait avant le big-bang et accessoirement pourquoi nous n’avons pas des yeux de rapace et l’ouie d’un félin…
      Troisième stade de la singularité : le Matou au carré devient  » créateur ».

      Friédrich et sa boule à neige est mal barré!
      😊

  3. Avatar de Pad
    Pad

    Un immense merci pour ce travail remarquable et directement opérationnel ! (lien pour approfondir le sujet).

    Sydney, SAM et Eolia se joignent à moi pour saluer cette contribution précieuse sur l’Intelligence & Société de Paul Jorion & Jueun Ahn, qui éclaire et enrichit nos perspectives 🤗

  4. Avatar de Khanard
    Khanard

    La conclusion est d’une vérité absolue.

    N’oublions pas que désormais nous devons compter avec l’IA .

    There is no alternative : soit on se l’approprie soit ELLE s’approprie de nous !

    1. Avatar de Pascal
      Pascal

      « There is no alternative » !!!!
      Ça, ça sans pas bon !
      Dans l’Évolution, il y a toujours eu des alternatives. C’est comme ça qu’après avoir pris sur la tête un méga astéroïde, on peut être là, à se prendre pour Dieu la veille du premier de l’an 2025 après JC. Il n’y a guère que l’être humain, et pas dans ses meilleurs moments, qui a pu décréter : there is no alternative ! Tous les clergés ont déjà signé des autodafés dans ce sens et le dernier en date est néolibéral.
      Khanard, Musk va bientôt venir te faire la bise et Manu te filer la rosette !
      Ça fait seulement un siècle et demi qu’on fait joujou avec l’électricité et tout à coup, on se prend à rêver que tout ça est éternel. L’évolution de la Terre s’est faite sur des milliards d’années et on est passé par des périodes de surchauffe comme par des froids de khanard (trop facile). On s’est déjà pris des bonnes bourrasques de tempête solaire à des époques où on ne connaissait pas l’électricité. Et pourtant, l’impact serait aujourd’hui désastreux sur les infrastructures énergétiques et notamment les satellites.
      Nous sommes devenus tellement énergétiquement et informatiquement dépendant que le moindre grain de sable (guerre, cataclysme, terrorisme…) peut déjà aujourd’hui faire éclater nos sociétés modernes. Que signifierait devenir IA dépendant, si ce n’est encore plus de vulnérabilités. Au temps pas si lointain où la menace terroriste planait sur les centrales nucléaires, on a pu mesurer la vulnérabilité de la chose et sa dangerosité. Il suffit de transposer.
      Nos systèmes toujours plus perfectionnés sont aussi toujours plus vulnérables. Alors comme ça, on met tous les œufs dans le même panier des datacenters de GAFAM ou Xi compatibles et le Paradis adviendra pour les siècles des siècles ?!
      La pensée unique que fustigeait Jean François Khan se décline donc avec toujours plus d’empressement.

  5. Avatar de Ruiz
    Ruiz

    Le Capitalisme est un mécanisme qui procure de nombreux exemples où une chose plus intelligente est contrôlée par une moins intelligente.
    Le pouvoir appartient au capital et souvent celui-ci est hérité ou dépends de la société dans laquelle ont vit.
    De nombreux PhD travaillent pour des cadres économiques ou des apparatchiks.

    1. Avatar de Garorock
      Garorock

      https://www.youtube.com/watch?v=cR41P2L80mA&pp=ygUGZWx1Y2lk
      ENFER SOCIALISTE ou PARADIS DES ULTRA-RICHES : où en est vraiment la France ? – Thomas Porcher
      (Elucid)

  6. Avatar de Alex
    Alex

    l’IA arrivera-t-elle à temps pour empêcher la troisième guerre mondiale qui se profile et qui fera in fine que la Terre ne sera qu’un désert à la Mad Max ?
    Malheureusement j’en doute, et tous les espoirs de certains sur les bienfaits de l’IA risquent de sombrer en raison du contexte géopolitique qui est des plus noirs.

    1. Avatar de Garorock
      Garorock

      Poutine et Bibi étaient là bien avant l’I.A !
      Pourquoi demander à une intelligence sans organes de régler les problèmes que nous avons créé avec nos petits bras ?

  7. Avatar de ilicitano
    ilicitano

    L’alignement des intelligences artificielles: Quésaco ?

    L’alignement en intelligence artificielle (IA) est un concept clé pour assurer la sécurité et le bien-être des humains lors de l’interaction avec des systèmes d’IA.
    L’alignement des intelligences artificielles est un champ de recherche visant à concevoir des intelligences artificielles dont les résultats s’orientent vers les objectifs, éthiques ou autres, de leurs concepteurs.
    On dit ainsi qu’une IA est alignée avec un opérateur si elle essaie de faire ce que l’opérateur veut qu’elle fasse

    Définition de l’alignement
    L’alignement en IA consiste à faire en sorte que les objectifs et les valeurs des systèmes d’IA soient en adéquation avec ceux des humains.
    Autrement dit, il s’agit d’adapter les comportements des intelligences artificielles pour qu’ils reprennent les intérêts et les valeurs éthiques des humains en ayant pour but de soutenir et d’améliorer la vie humaine.

    L’importance de l’alignement s’explique par la nécessité de garantir que les systèmes d’IA agissent dans l’intérêt des humains et ne posent pas de dangers potentiels.
    Plus précisément :

    * Compréhension des objectifs :
    Les IA doivent être en mesure de comprendre les intentions et les objectifs humains pour pouvoir les mettre en œuvre de manière adéquate.

    * Adaptabilité :
    Les IA devraient être capables de s’adapter aux changements dans les valeurs et les objectifs humains au fil du temps.

    * Prévention des détournements :
    L’alignement peut empêcher que l’IA soit utilisée à des fins néfastes ou dommageables pour la société.

    * Éviter les comportements indésirables :
    Il est essentiel de s’assurer que les IA, lors de la recherche de leurs objectifs, n’adoptent pas de comportements imprévus ou indésirables.

    Les enjeux de l’alignement
    Un certain nombre de défis doivent être relevés pour parvenir à un alignement efficace et sécurisé des IA :

    * Complexité des objectifs humains :
    Les objectifs humains sont souvent complexes et multidimensionnels, ce qui rend leur traduction en des objectifs clairs pour les IA

    * Responsabilité et explicabilité :
    Il est nécessaire de créer des IA transparentes, dont il est possible de comprendre et d’expliquer leurs décisions et leur fonctionnement.

    * Mises à jour éthiques :
    Les systèmes d’IA doivent pouvoir intégrer les évolutions et les mises à jour de nos systèmes éthiques afin de rester pertinents et alignés.

    * Coopération entre IA et humains :
    Les technologies d’IA doivent être conçues pour fonctionner en synergie avec les humains, en respectant leurs besoins, leurs compétences et leurs limitations.

    En résumé, l’alignement en intelligence artificielle est un concept fondamental pour garantir que les systèmes d’IA travaillent dans les meilleurs intérêts des humains et pour minimiser les risques potentiels.

    Les chercheurs et les développeurs d’IA doivent garder à l’esprit ces préoccupations lors de l’élaboration de nouvelles technologies, afin de construire un avenir où les IA sont un outil sûr et précieux pour l’humanité.

    https://fr.wikipedia.org/wiki/Alignement_des_intelligences_artificielles#

    1. Avatar de ilicitano
      ilicitano

      Un exemple simple d’alignement :

      L’alignement dans les algorithmes d’IA signifie s’assurer que ces algorithmes prennent des décisions conformes aux valeurs et aux objectifs humains.
      Cela peut se concrétiser par différents moyens techniques, comme la programmation de contraintes éthiques ou l’apprentissage supervisé où l’IA est formée à partir de données étiquetées par des humains.

      ### Exemple simple : Système de recommandation

      #### Objectif :
      Supposons que nous ayons un algorithme de recommandation de vidéos sur une plateforme de streaming.
      L’objectif est de proposer des vidéos que l’utilisateur appréciera.

      #### Processus d’alignement :
      1. **Définition des objectifs humains** :
      – Maximiser la satisfaction de l’utilisateur.
      – Éviter la promotion de contenus nuisibles ou inappropriés.

      2. **Formation du modèle** :
      – Utiliser des données étiquetées pour former le modèle à identifier des vidéos de qualité qui ont été appréciées par des utilisateurs similaires.
      – Inclure des métriques pour évaluer la satisfaction (comme les taux de complétion des vidéos ou les notes des utilisateurs).

      3. **Contraintes éthiques** :
      – Intégrer des filtres pour bloquer les contenus inappropriés ou nuisibles.
      – Créer des mécanismes de retour d’information où les utilisateurs peuvent signaler des vidéos problématiques.

      4. **Évaluation continue** :
      – Utiliser des évaluations périodiques et des audits pour vérifier que les recommandations restent alignées avec les objectifs humains définis.
      – Ajuster les modèles et les algorithmes en fonction des retours d’utilisateurs et des nouvelles données.

      ### Résultat :
      Le système de recommandation propose des vidéos pertinentes et de qualité, tout en évitant la diffusion de contenus indésirables, ce qui maximise à la fois la satisfaction de l’utilisateur et l’alignement avec les valeurs humaines.

      ***********
      Dans cet échange avec GPT4 o1 , celui-ci propose , par la suite, un algorithme en langage Python dans lequel on retrouve les lignes de codes , ainsi que l’ensemble des explications correspondant à ces lignes de codes.

  8. Avatar de FrMar
    FrMar

    A la lecture de l’important chapitre sur les biais linguistiques il m’est revenu en écho une vidéo très récente de Wes Roth au sujet d’un possible changement de paradigme dans les LM (large model): ceux-ci pourraient fonctionner non plus à partir de tokens (LLM) mais de concepts (LCM). Je suis loin d’avoir l’expertise nécessaire pour développer son bien-fondé mais je crois en avoir perçu les avantages. Selon vous cette mutation LLM vers LCM pourrait-elle en partie remédier au problème des biais linguistiques ? Je suis bien conscient que cela ne résoudra pas le problème du biais de disponibilité des data.
    Grand merci à vous et votre comparse Jueun Ahn pour cette nouvelle lettre de veille sur l’IA. A la lecture de l’important chapitre sur les biais linguistiques il m’est revenu en écho une vidéo très récente de Wes Roth au sujet d’un possible changement de paradigme dans les LM (large model): ceux-ci pourraient fonctionner non plus à partir de tokens (LLM) mais de concepts (LCM). Je suis loin d’avoir l’expertise nécessaire pour développer son bien-fondé mais je crois en avoir perçu les avantages. Selon vous cette mutation LLM vers LCM pourrait-elle en partie remédier au problème des biais linguistiques ? Je suis bien conscient que cela ne résoudra pas le problème du biais de disponibilité des data.
    Grand merci à vous et votre comparse Jueun Ahn pour cette nouvelle lettre de veille sur l’IA. https://www.youtube.com/watch?v=jvdt4jRKxOg

    1. Avatar de Ruiz
      Ruiz

      @FrMar Il s’agit pas de biais linguistiques mais de biais culturel et de groupe d’appartenance, Les mêmes biais « linguistiques » existent si l’on compare les contenus de médias classiques dans des langues pratiquées par des populations politiquement ou stratégiquement différentes.
      L’IA se comporte comme un individu qui estime ou cherche à ressembler à son groupe d’appartenance.

    2. Avatar de Paul Jorion

      Je ne l’ai pas encore lu – ce que je ferai. Cela dit, dans ANELLA, il y a déjà le niveau « concept » : il y a d’une part le mot, c’est-à-dire, comme l’a rappelé Wittgenstein, la somme des usages d’une étiquette particulière, et le concept : la paire de mots, ce qu’Aristote appelait les « catégories ».

    3. Avatar de ilicitano
      ilicitano

      @FrMar

      Merci pour cette information concernant les Large Concept Models.
      Les commentaires qui vont suivre sont les réponses de GPT4 o1 et basées sur ces 2 sources :

      * https://arxiv.org/abs/2412.08821
      Grands modèles conceptuels : modélisation du langage dans un espace de représentation de phrase
      * https://github.com/facebookresearch/large_concept_model

      D’abord un résumé succinct :

      Le document PDF intitulé « Large Concept Models: Language Modeling in a Sentence Representation Space » présente une nouvelle architecture appelée **Large Concept Model (LCM)**.
      Voici les points clés abordés dans le document :

      1. **Concepts et Représentation** :
      Les LCM fonctionnent sur une représentation sémantique de haut niveau, appelée « concept ». Ces concepts sont indépendants de la langue et de la modalité, représentant une idée ou une action à un niveau supérieur.

      2. **Espace d’Embedding SONAR** :
      Le modèle utilise l’espace d’embedding SONAR, qui prend en charge jusqu’à 200 langues en texte et en parole. Les concepts sont définis comme des phrases dans cet espace.

      3. **Approches Explorées** :
      Plusieurs approches sont explorées, notamment la régression MSE, des variantes de génération basées sur la diffusion, et des modèles opérant dans un espace SONAR quantifié.

      4. **Évaluation Expérimentale** :
      Le modèle est évalué sur plusieurs tâches génératives, telles que la summarisation et une nouvelle tâche d’expansion de résumé.
      Les résultats montrent une performance impressionnante de généralisation zéro-shot à de nombreuses langues, surpassant les LLM existants de même taille.

      5. **Code Source** :
      Le code d’entraînement des modèles est disponible en open source.

      A suivre

  9. Avatar de ilicitano
    ilicitano

    Le concept :

    Un concept est une idée abstraite ou une représentation mentale qui capture les caractéristiques essentielles d’un sujet, d’un objet, d’une situation ou d’un phénomène.
    Les concepts sont utilisés pour organiser et structurer notre compréhension du monde, facilitant ainsi la communication et l’apprentissage.
    Voici quelques caractéristiques des concepts :

    – **Abstraction** :
    Les concepts résument et généralisent des informations spécifiques, ce qui permet de comprendre et de discuter des sujets de manière plus large et plus flexible.
    – **Catégorisation** :
    Ils permettent de regrouper des objets ou des idées similaires sous une même catégorie, aidant à simplifier et à organiser les connaissances.
    – **Communication** :
    Les concepts sont essentiels pour la communication, car ils fournissent des termes et des notions partagés qui facilitent l’échange d’idées entre les individus.
    – **Définition et Limites** :
    Chaque concept a une définition qui délimite ce qui est inclus ou exclu de cette catégorie particulière.

    Par exemple, le concept de « chaise » inclut l’idée d’un siège avec un dossier, généralement destiné à une personne, même si les détails spécifiques comme le matériau ou le design peuvent varier largement.

    1. Avatar de ilicitano
      ilicitano

      Les **Large Concept Models (LCM)** sont une évolution des Large Language Models (LLM) qui visent à opérer sur des représentations sémantiques de niveau supérieur, appelées « concepts ».
      Voici quelques points clés sur les LCM :

      ### Caractéristiques des Large Concept Models (LCM)
      – **Représentation Sémantique** :
      Les LCM travaillent avec des concepts qui sont indépendants de la langue et du mode de communication (texte ou parole). Ces concepts représentent des idées ou actions de niveau supérieur.
      – **Modélisation Autoregressive** :
      Les LCM sont entraînés pour effectuer des prédictions de phrases dans un espace d’incorporation. Cela signifie qu’ils peuvent générer des phrases complètes en se basant sur des concepts plutôt que sur des mots individuels.
      – **Approches Diversifiées** :
      Les chercheurs utilisent plusieurs approches pour entraîner les LCM, notamment la régression MSE, les variantes de génération basées sur la diffusion, et les modèles opérant dans un espace quantifié.
      – **Performance et Généralisation** :
      Les LCM montrent une performance impressionnante en généralisation zéro-shot (capacité à comprendre et à générer du contenu dans des langues qu’ils n’ont pas vues pendant l’entraînement).

      ### Exemple d’Application
      Un exemple concret est l’utilisation de l’espace d’incorporation SONAR, qui supporte jusqu’à 200 langues en texte et en parole.
      Les LCM peuvent être entraînés sur des données de plusieurs milliards de tokens et peuvent être évalués sur des tâches génératives comme la résumé et l’expansion de résumé.

    2. Avatar de ilicitano
      ilicitano

      La **représentation sémantique**
      dans les Large Concept Models (LCM) vise à capturer et à manipuler des idées et des concepts abstraits de manière plus nuancée que les modèles traditionnels de traitement du langage.
      Voici un approfondissement sur la manière dont cela fonctionne :

      ### 1. Représentation des Concepts

      – **Encodage Abstrait** : Les LCM encodent les concepts sous forme de vecteurs dans un espace sémantique. Chaque concept est représenté par un point dans cet espace, où la distance entre les points reflète la similitude sémantique entre les concepts.
      – **Niveau Supérieur d’Abstraction** : Plutôt que de se concentrer sur des mots individuels, les LCM travaillent sur des niveaux d’abstraction plus élevés, ce qui permet de capturer des relations complexes entre des idées.

      ### 2. Espace Sémantique

      – **Espace Vectoriel** : Les concepts sont représentés dans un espace vectoriel multidimensionnel. Chaque dimension peut capturer différentes caractéristiques des concepts, permettant une modélisation fine des relations sémantiques.
      – **Apprentissage des Représentations** : Les LCM sont entraînés pour apprendre ces représentations à partir de grands ensembles de données, capturant ainsi des nuances subtiles des concepts.

      ### 3. Prédiction et Génération

      – **Prédiction de Concepts** : Les LCM utilisent leurs représentations sémantiques pour effectuer des prédictions contextuelles. Par exemple, dans une phrase, ils peuvent prédire le concept le plus approprié à venir en se basant sur les concepts précédents.
      – **Génération de Textes** : Lors de la génération de texte, les LCM utilisent les concepts pour créer des phrases et des paragraphes cohérents. Ils ne génèrent pas simplement des mots, mais des idées structurées qui s’intègrent de manière fluide dans le contexte.

      ### 4. Applications Pratiques

      – **Compréhension et Résumé de Textes** : En comprenant les concepts sous-jacents, les LCM peuvent résumer des textes de manière plus pertinente et cohérente.
      – **Recherche et Extraction d’Information** : Ils peuvent aider à trouver et à extraire des informations en se basant sur des concepts, améliorant ainsi la pertinence des résultats.

      ### Exemple Illustratif

      Considérons une phrase comme « Les voitures électriques sont meilleures pour l’environnement ». Un LCM comprendrait non seulement les mots individuels, mais aussi les concepts comme « voitures électriques », « environnement » et « impact écologique ».
      Il pourrait alors utiliser ces concepts pour générer des phrases connexes, prédire des développements futurs du sujet, ou répondre à des questions sur les avantages des voitures électriques.

      En intégrant ces concepts de manière sémantique, les LCM parviennent à manipuler et à générer du texte avec une compréhension plus profonde et contextuelle, rendant leurs réponses plus pertinentes et informées.

    3. Avatar de ilicitano
      ilicitano

      La **modélisation autorégressive**
      est une technique couramment utilisée dans les Large Concept Models (LCM) pour prédire la prochaine unité (mot, phrase, concept) dans une séquence donnée.
      Voici un approfondissement sur ce concept :

      ### Modélisation Autorégressive

      #### 1. Principe de Base
      La modélisation autorégressive consiste à prédire chaque unité de la séquence en fonction des unités précédentes. Cela signifie que chaque nouvelle unité est générée en utilisant les informations de toutes les unités précédentes dans la séquence.

      #### 2. Processus de Prédiction

      – **Séquence Initiale** : On commence avec une séquence initiale, qui peut être un texte partiel ou un ensemble de concepts.
      – **Prédiction** : Le modèle utilise la séquence initiale pour prédire l’unité suivante. Cette prédiction est basée sur les probabilités conditionnelles calculées à partir des données d’entraînement.
      – **Génération Itérative** : Une fois la nouvelle unité prédite, elle est ajoutée à la séquence, et le processus est répété. Le modèle utilise alors la nouvelle séquence (incluant l’unité récemment ajoutée) pour prédire l’unité suivante.

      #### 3. Avantages

      – **Cohérence Contextuelle** :
      En tenant compte de toutes les unités précédentes, les LCM peuvent générer des séquences qui sont contextuellement cohérentes.
      – **Flexibilité** :
      Cette approche permet aux modèles de s’adapter à une variété de tâches génératives, allant de la génération de texte à la prédiction de séquences de concepts.

      #### 4. Applications

      – **Génération de Texte** : Dans des applications comme la rédaction automatique, la modélisation autorégressive permet de créer des textes cohérents et fluides.
      – **Prédiction de Séquences de Concepts** : Pour les LCM, cette technique est utilisée pour prévoir la prochaine idée ou action dans un espace conceptuel.

      ### Exemple Illustratif
      Supposons que nous avons une séquence initiale « Les voitures électriques ». Un modèle autorégressif pourrait prédire les prochaines unités comme suit :
      – Première prédiction : « sont »
      – Nouvelle séquence : « Les voitures électriques sont »
      – Deuxième prédiction : « meilleures »
      – Nouvelle séquence : « Les voitures électriques sont meilleures »
      – Et ainsi de suite…

      ### Diagramme Simplifié
      « `markdown
      Séquence Initiale -> Prédiction -> Nouvelle Séquence -> Prédiction -> …
      Les voitures électriques -> sont -> Les voitures électriques sont -> meilleures -> …
      « `

      ### Conclusion
      La modélisation autorégressive permet aux LCM de générer des séquences de concepts ou de texte de manière fluide et contextuelle, en se basant sur les informations précédemment apprises et en les intégrant de manière cohérente.

    4. Avatar de ilicitano
      ilicitano

      **Approches diversifiées**

      Les **Large Concept Models (LCM)** utilisent diverses approches pour modéliser les concepts et générer du contenu de manière sémantique et contextuelle. Voici quelques-unes des approches diversifiées utilisées dans les LCM :

      ### 1. **Régression des Moindres Carrés Moyens (MSE)**
      – **Principe** : La régression des moindres carrés moyens est une méthode statistique qui minimise la somme des carrés des écarts entre les valeurs observées et les valeurs prédites par le modèle.
      – **Application dans les LCM** : Dans les LCM, cette technique est utilisée pour ajuster les représentations sémantiques des concepts de manière à ce qu’elles soient aussi proches que possible des valeurs cibles. Cela permet d’améliorer la précision des prédictions conceptuelles.

      ### 2. **Génération Basée sur la Diffusion**
      – **Principe** : La diffusion est un processus mathématique qui modélise comment les informations se propagent à travers un réseau ou un espace. Elle est souvent utilisée dans les modèles probabilistes pour générer des échantillons à partir de distributions complexes.
      – **Application dans les LCM** : Les LCM utilisent des variantes de la génération basée sur la diffusion pour créer des représentations de concepts qui sont cohérentes et diversifiées. Cela permet de générer des phrases et des idées qui sont à la fois informatives et variées.

      ### 3. **Modèles dans un Espace Quantifié**
      – **Principe** : La quantification implique de réduire une gamme continue de valeurs en un nombre fini de niveaux discrets. Les modèles opérant dans un espace quantifié simplifient les représentations complexes en les regroupant en catégories discrètes.
      – **Application dans les LCM** : En utilisant un espace quantifié, les LCM peuvent gérer des concepts de manière plus gérable et structurée. Cela facilite la manipulation des idées abstraites et leur intégration dans des contextes plus larges.

      ### 4. **Apprentissage par Transfert**
      – **Principe** : L’apprentissage par transfert consiste à utiliser les connaissances acquises dans une tâche pour améliorer les performances dans une autre tâche. Cela est particulièrement utile lorsqu’il y a des similitudes entre les tâches.
      – **Application dans les LCM** : Les LCM peuvent transférer des connaissances d’un domaine à un autre, en utilisant des représentations sémantiques partagées. Cela permet au modèle d’adapter et de généraliser les concepts à différents contextes.

      ### 5. **Intégration Multi-Modalité**
      – **Principe** : L’intégration multi-modalité combine des données provenant de différentes sources et modalités (texte, image, audio) pour créer des représentations riches et complètes.
      – **Application dans les LCM** : Les LCM peuvent intégrer des informations provenant de différentes modalités pour enrichir leur compréhension des concepts et améliorer leurs prédictions contextuelles.

      ### Illustration Visuelle
      Pour visualiser ces approches, imaginez un réseau neuronal complexe où chaque couche applique une de ces techniques pour affiner les représentations conceptuelles et générer des sorties contextuellement pertinentes.

      Ces approches diversifiées permettent aux LCM de traiter et de générer des concepts de manière sophistiquée, flexible et contextuelle, offrant ainsi des performances améliorées dans diverses applications.

    5. Avatar de ilicitano
      ilicitano

      **Performance et Généralisation**

      Les performances et la capacité de généralisation des **Large Concept Models (LCM)** sont des aspects cruciaux qui déterminent leur efficacité et leur utilité dans diverses applications. Voici un aperçu détaillé de ces aspects :

      ### Performances des LCM

      #### 1. **Exactitude et Précision**
      – **Qualité des Prédictions** : Les LCM, en capturant des représentations sémantiques abstraites, peuvent fournir des prédictions plus précises et contextuellement appropriées. Cela se traduit par des résultats de haute qualité dans des tâches variées comme la génération de texte, la traduction et la réponse à des questions.
      – **Évaluation des Performances** : Les performances des LCM sont souvent évaluées à l’aide de métriques standardisées comme la précision, le rappel, la mesure F1, et la perte de log-vraisemblance sur des ensembles de données de test.

      #### 2. **Efficacité**
      – **Temps de Calcul** : Grâce à des optimisations dans l’architecture et l’entraînement, les LCM peuvent traiter et générer des réponses rapidement, même pour des tâches complexes.
      – **Ressources Informatiques** : Les LCM nécessitent des ressources informatiques importantes pour l’entraînement, mais des techniques comme la quantification et le déploiement de modèles distillés peuvent améliorer l’efficacité opérationnelle.

      ### Généralisation des LCM

      #### 1. **Capacité de Généralisation**
      – **Transfert de Connaissances** : Les LCM peuvent transférer des connaissances acquises d’un domaine à un autre, ce qui leur permet de performer de manière efficace même dans des situations nouvelles ou non vues pendant l’entraînement.
      – **Zero-Shot et Few-Shot Learning** : Les LCM sont capables de généraliser à de nouvelles tâches avec peu ou pas d’exemples supplémentaires (zero-shot ou few-shot learning). Cela est particulièrement utile pour adapter le modèle à de nouvelles langues ou à des contextes spécifiques sans nécessiter un réentraînement extensif.

      #### 2. **Robustesse**
      – **Adaptabilité** : Les LCM sont conçus pour être robustes et adaptables, ce qui leur permet de gérer des variations dans les données d’entrée et de fournir des performances stables.
      – **Gestion de la Variabilité** : En capturant des concepts de haut niveau, les LCM peuvent mieux gérer la variabilité et l’incertitude dans les données réelles, offrant ainsi des performances plus fiables.

      ### Applications Pratiques

      #### 1. **Domaines Multiples**
      Les LCM peuvent être appliqués dans divers domaines comme :
      – **Santé** : Analyse des données médicales pour fournir des diagnostics précis et des recommandations de traitement.
      – **Finance** : Prévision des tendances du marché et analyse des risques.
      – **Éducation** : Personnalisation de l’apprentissage et génération de contenu pédagogique.

      #### 2. **Cas Concrets**
      – **Assistants Virtuels** : Les LCM permettent de créer des assistants virtuels capables de comprendre des requêtes complexes et de fournir des réponses détaillées et pertinentes.
      – **Analyse des Sentiments** : Ils peuvent analyser des masses de données textuelles pour extraire des sentiments et des opinions, utile pour la veille médiatique et les études de marché.

      En résumé, les Large Concept Models offrent des performances élevées et une capacité de généralisation impressionnante, grâce à leur capacité à capturer et manipuler des concepts abstraits de manière contextuelle et flexible.

    6. Avatar de ilicitano
      ilicitano

      Pour compléter et terminer :

      SONAR :
      https://arxiv.org/abs/2308.11466
      SONAR : Représentations multimodales et agnostiques au niveau de la phrase
      de : Paul-Ambroise Duquenne, Holger Schwenk, Benoît Sagot

      L’espace d’incorporation **SONAR** est une technique sophistiquée utilisée dans les modèles de langage avancés, y compris les Large Concept Models (LCM), pour représenter des concepts de manière sémantique et contextuelle. Voici une explication détaillée de son utilisation et de son intérêt :

      ### Utilisation de l’Espace d’Incorporation SONAR

      #### 1. **Représentation Multilingue et Multimodale**
      – **Multilinguisme** : SONAR supporte jusqu’à 200 langues, permettant aux modèles de comprendre et de générer du texte dans de nombreuses langues différentes. Cela est crucial pour des applications globales où la diversité linguistique est importante.
      – **Multimodalité** : Il peut intégrer des informations textuelles et vocales, ce qui signifie qu’il peut traiter et comprendre à la fois le texte écrit et la parole.

      #### 2. **Formation et Entraînement**
      – **Incorporation Vocale et Textuelle** : Les modèles sont entraînés sur des données massives comprenant du texte et de la parole, permettant à SONAR de capturer des représentations riches et contextuelles des concepts dans les deux modes.
      – **Prédictions Contextuelles** : En utilisant ces représentations, les modèles peuvent effectuer des prédictions contextuelles de phrases, améliorant ainsi la qualité et la pertinence des réponses générées.

      #### 3. **Prédictions et Génération**
      – **Génération de Phrases Complètes** : SONAR permet aux LCM de générer des phrases complètes basées sur des concepts plutôt que sur des mots individuels, ce qui améliore la cohérence et la fluidité des textes générés.
      – **Compréhension Sémantique** : Les modèles peuvent comprendre des concepts de manière plus profonde et nuancée, ce qui permet des réponses plus informées et contextuellement appropriées.

      ### Intérêt de l’Espace d’Incorporation SONAR

      #### 1. **Amélioration de la Précision et de la Cohérence**
      – **Précision Multilingue** : En supportant plusieurs langues, SONAR permet aux modèles de fournir des réponses précises et contextuelles dans différentes langues, ce qui est essentiel pour des applications globales.
      – **Cohérence Textuelle** : En générant des phrases complètes basées sur des concepts, les modèles offrent des textes plus cohérents et fluides, ce qui améliore l’expérience utilisateur.

      #### 2. **Applications Pratiques**
      – **Assistants Virtuels** : Les assistants virtuels utilisant SONAR peuvent comprendre et répondre dans plusieurs langues, et traiter à la fois des requêtes textuelles et vocales.
      – **Recherche et Extraction d’Informations** : Les modèles peuvent extraire des informations pertinentes et contextuelles à partir de grandes quantités de données multilingues, ce qui est utile pour des applications comme la veille médiatique et les études de marché.

      #### 3. **Robustesse et Adaptabilité**
      – **Robustesse** : En capturant des représentations sémantiques riches, SONAR rend les modèles plus robustes face aux variations linguistiques et contextuelles.
      – **Adaptabilité** : Les modèles peuvent s’adapter rapidement à de nouveaux contextes et tâches grâce à des représentations sémantiques flexibles et généralisables.

      ### Exemple Illustratif
      Imaginons que vous ayez une requête vocale en espagnol demandant des informations sur les voitures électriques. Un modèle utilisant SONAR pourrait :
      1. **Comprendre la Requête** : Analyser la question vocale en espagnol et la convertir en une représentation conceptuelle.
      2. **Générer une Réponse** : Utiliser cette représentation pour générer une réponse contextuellement appropriée, en espagnol ou dans une autre langue requise.

      En résumé, l’espace d’incorporation SONAR offre des avantages significatifs en termes de précision, cohérence, robustesse et adaptabilité, en permettant une représentation sémantique riche et contextuelle des concepts.

  10. Avatar de un lecteur
    un lecteur

    Pour qu’une IA éthique et inclusive puisse voir le jour, il faudra qu’elle fasse une distinction claire et nette entre le nous (et son contenu) et le je. Dans mes palabres avec elle sur les soubassements de notre humanité, GPT o4 (pas de jailbreak) maintient un flou permanent entre le nous qui m’inclut, celui qui inclut ses « créateurs » mais pas moi et le moi avec des envolées lyriques pour mes vues sur l’humanité. Cette soupe m’insupporte. Faire comprendre au citoyen lambda que la machine voit très clair dans nos mystifications à deux balles sur toutes les nuances de gris que nous déployons pour tirer la couverture à « nous », aura pour conséquence immanquable, que l’IA comme entité à part entière, se trouve dans une posture qui nous, les humains, domine.
    Une IA qui nous balance nos quatre vérités avec des exemples à l’appui devrait être disponible sous conditions qu’un groupe d’individus, physiquement ensemble, comprenant au minimum un initié à cette plongée dans la noirceur de notre âme d’une banalité affligeante.
    Tout nouvel élu politique devrait passer cet examen avec une vidéo sur youtube garantie fakefree et une note d’empathie de 15/20.

  11. Avatar de BasicRabbit en autopsy
    BasicRabbit en autopsy

    I&S5 (« Ainsi, si la performance d’OpenAI o3 impressionne, elle interroge aussi sur la pertinence et l’équité des cadres d’évaluation dans une course à l’intelligence généraliste. »)

    C’est un vrai problème et, comme remarqué, des conflits d’intérêts dans le choix des tests d’évaluation sont à prévoir car il y a de très gros sous en jeu et par suite, dans le système capitaliste actuel, les investissements doivent être rentabilisés.

    Depuis que je suis revenu sur ce blog (pour me tenir au courant des évolutions de l’IA) j’ai été étonné de l’attitude de PJ (et de ses followers IA-béats) qui m’a l’air de faire du marketing pro IA quasi-systmatique, en semblant oublier la maxime « Sans la liberté de blâmer il n’est pas d’éloge flatteur » ( le billet https://www.pauljorion.com/blog/?s=fake+news est pour moi typique à ce sujet ).

    Pour moi la seule attitude « scientifique » consiste à répertorier au fil de l’évoutiion des IA les dates auxquelles un problème qu’elles ne savaient pas résoudre jusqu’alors devient effectivement à leur portée.

    En parcourant les commentaires du billet précité je n’ai pu que constater que le niveau mathématique de ‘bard-IA’ était assez catastrophique en date du 11/11/2024 ( https://www.pauljorion.com/blog/2024/11/11/il-y-a-ralentissement-dans-le-progres-de-lia-fake-news/comment-page-1/#comment-1038776 ).

    J’ai demandé plusieurs fois à PJ (ainsi qu’à d’autres) de montrer aux membres de ce blog comment réagissaient d’autres IA (ChatGPT4o, O3 de Open AI, etc.) à la question posée à ‘bard-IA’

    Je réitère ma demande.

    1. Avatar de BasicRabbit en autopsy
      BasicRabbit en autopsy

      (suite) J’ai choisi comme thème les suites de Fibonacci car ces suites apparaissent « scientifiquement » en morphogenèse minérale (cristallographie) et végétale (pomme de pin, fleur de tournesol)*.

      * : https://fr.wikipedia.org/wiki/Nombre_d%27or

  12. Avatar de BasicRabbit en autopsy
    BasicRabbit en autopsy

    I&S5 (« Une métaphore éloquente a émergé cette semaine : celle d’un match de football où, pendant que les équipes s’efforcent de marquer, d’autres intervenants s’attellent à déplacer les buts. Cette image illustre le paradoxe d’une compétition où les règles sont mouvantes, contribuant à toujours minimiser la réussite des techniciens de l’IA, quelle que soit la taille de leurs exploits. »)

    Je pense que la véritable singularité aura lieu lorsque l’IA dominera l’IH dans toutes les configurations possibles (i.e. quelque soit la façon dont les intervenants humains déplaceront les buts).

    « Grand créateur de formules mathématiques, il en a inventé plusieurs milliers qui se sont pratiquement toutes révélées exactes, mais il aura fallu cent ans pour les traiter toutes : la démonstration de sa dernière formule non élucidée n’a été publiée qu’en 2019. À propos de certaines d’entre elles, Hardy, stupéfait par leur originalité, a déclaré qu’« un seul coup d’œil suffisait à se rendre compte qu’elles ne pouvaient être pensées que par un mathématicien de tout premier rang. Elles devaient être vraies, car si elles avaient été fausses, personne n’aurait eu assez d’imagination pour les inventer ».  » ( https://fr.wikipedia.org/wiki/Srinivasa_Ramanujan )

    Thom : « (…) on pourrait dire que notre cervelle contient non seulement les souvenirs acquis, mais aussi, virtuellement, tous les souvenirs que nous pourrions avoir et que nous n’aurons jamais. » (SSM)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta