À deux doigts de l’intelligence artificielle généraliste ?
La newsletter complète sera communiquée demain à celles et ceux d’entre vous ayant manifesté leur intérêt pour notre veille hebdomadaire sur l’actualité de l’IA. Il n’est pas trop tard bien entendu pour vous manifester en m’écrivant ici.
Intelligence & Société
Semaine du 15 au 22 décembre 2024
Paul Jorion & Jueun Ahn
Sommaire
- Quand les réponses de l’IA alimentent les tensions
- OpenAI o3 : vers une intelligence artificielle généraliste
- Ray Kurzweil : un monde d’abondance… pour des cyborgs
- Le « posthumanisme » apocalyptique de Geoffrey Hinton
- Autres avancées marquantes en IA
Cette newsletter s’adresse à tous ceux qui souhaitent comprendre les enjeux stratégiques de l’intelligence artificielle (IA). Que vous soyez un chercheur, un professionnel de la technologie, ou simplement un citoyen curieux des transformations en cours, notre objectif est de vous fournir une analyse claire et approfondie pour naviguer dans cet univers complexe.
L’année 2024 se termine avec des avancées remarquables suscitant cependant des préoccupations croissantes quant à ses implications éthiques, sociétales et existentielles. Durant la semaine écoulée, l’intelligence artificielle a montré ses multiples visages : innovation brillante, danger imminent, et outil profondément imparfait. Les annonces récentes, qu’il s’agisse du cri d’alarme de Geoffrey Hinton ou des avancées marquantes d’OpenAI, posent une question pressante : maîtrisons-nous encore les forces en jeu ? L’IA, moteur de progrès, s’impose également comme un révélateur de nos failles politiques, éthiques, et sociétales. La question n’est plus uniquement technique, elle devient existentielle. L’ IA est à un tournant critique : un moment où ses applications promettent de changer la société, mais où ses dangers nous rappellent la nécessité d’une vigilance accrue.
Cette édition de notre newsletter se concentre sur quatre développements majeurs incarnant les tensions entre espoir et crainte. Nous commençons par une étude révélant comment les biais linguistiques dans les réponses de l’IA peuvent influencer les perceptions des conflits mondiaux. Nous examinons ensuite une avancée marquante : un modèle d’OpenAI qui a atteint un niveau humain, ou faudrait-il plutôt dire « surhumain » ?, sur un test d’intelligence généraliste. Nous évoquons aussi la vision audacieuse de l’avenir de Ray Kurzweil, pour qui des innovations majeures en IA et en nanotechnologie ouvrent une ère de prospérité universelle et de potentiel humain illimité. Nous relayons ensuite le cri d’alarme lancé par Geoffrey Hinton, récent prix Nobel de physique, l’un des pionniers de l’intelligence artificielle, qui alerte sur les risques existentiels de l’IA. Nous terminons en rapportant quelques autres actualités marquantes de l’IA de cette semaine.
SYNTHÈSE
Quand les réponses de l’IA alimentent les tensions
Les avancées spectaculaires de l’intelligence artificielle, incarnées par des modèles comme ChatGPT, promettent de transformer la manière dont nous accédons à l’information et interagissons avec le savoir. Une récente étude met toutefois en lumière un problème profondément préoccupant : les biais linguistiques des grands modèles de langage (LLM) peuvent exacerber les tensions sociales et culturelles, particulièrement dans des contextes sensibles. S’il n’est pas tenu compte de ces biais, ils risquent de transformer un outil de connexion en un facteur de division : une IA dont la vérité diffère selon la langue devient le révélateur de fractures sinon invisibles.
Une étude révèle en effet que la langue utilisée pour poser une question à un LLM influe considérablement sur les réponses obtenues. En arabe et en hébreu, par exemple, les estimations des victimes des frappes israéliennes sur Gaza varient jusqu’à 34 %, une disparité qui alimente des récits opposés. Ces biais ne se limitent pas aux chiffres. La nature même des événements est minimisée ou amplifiée selon la langue, creusant des écarts entre des visions déjà polarisées.
En tant que vecteurs d’information, les IA se positionnent en arbitres invisibles des récits. Dans les zones de conflit, où chaque mot pèse lourd, ces biais linguistiques deviennent une arme involontaire, capable de nourrir les ressentiments et d’alimenter des cycles de violence symbolique dans les récits et effective dans les actes.
OpenAI o3 : Vers une intelligence artificielle généraliste
Le modèle o3 d’OpenAI a franchi une étape décisive en égalant les performances humaines sur le test d’intelligence générale ARC-AGI (Abstraction and Reasoning Corpus). Ce succès soulève une question cruciale : comment évaluer les intelligences artificielles lorsque l’avantage humain dans des domaines spécifiques s’amenuise inexorablement ? Il devient de plus en plus ardu de concevoir des critères de comparaison qui permettraient de démontrer les limites des IA face à l’intelligence humaine naturelle.
La conception de tels critères est précisément l’expertise de la fondation responsable du ARC-AGI. Ce test a été élaboré pour mesurer la capacité des systèmes d’IA à s’adapter à des problèmes inédits, en évaluant leur aptitude à généraliser à partir d’un nombre minimal d’exemples, à l’image de ce que fait l’humain.
Cependant, certains commentateurs pointent du doigt un possible conflit d’intérêts : cette même fondation agit à la fois comme juge et partie, puisqu’elle promet un prix d’un million de dollars à l’équipe dont l’IA atteindra le statut convoité d’Intelligence Artificielle Généraliste (AGI).
Une métaphore éloquente a émergé cette semaine : celle d’un match de football où, pendant que les équipes s’efforcent de marquer, d’autres intervenants s’attellent à déplacer les buts. Cette image illustre le paradoxe d’une compétition où les règles sont mouvantes, contribuant à toujours minimiser la réussite des techniciens de l’IA, quelle que soit la taille de leurs exploits.
Ainsi, si la performance d’OpenAI o3 impressionne, elle interroge aussi sur la pertinence et l’équité des cadres d’évaluation dans une course à l’intelligence généraliste où la barre est à chaque nouvelle victoire de l’IA, replacée plus haut.
La Singularité à l’œuvre dans l’ombre
La difficulté croissante à concevoir des critères suffisamment performants pour exposer les dernières faiblesses de l’IA face à l’intelligence humaine révèle une réalité troublante : la Singularité, cette nouvelle ère portée par une intelligence artificielle capable de s’auto-améliorer, est déjà en marche. Le processus par lequel l’intelligence artificielle dépasse celle de l’humain est en cours, marquant une transition fondamentale.
Irving Good (1916-2009), collègue d’Alan Turing et l’un des premiers commentateurs de l’intelligence artificielle, avait anticipé cet événement avec une lucidité prophétique. Selon lui, cette avancée constituerait la dernière invention nécessaire à l’humanité : « La première machine ultra-intelligente sera la dernière invention que l’homme devra jamais faire, à condition que la machine soit assez docile pour nous expliquer comment la maintenir sous contrôle. »
Ce dépassement discret mais inexorable, en arrière-plan, redéfinit non seulement la frontière entre l’humain et la machine, mais aussi la nature même de l’innovation, laissant entrevoir un avenir où l’intelligence artificielle guidera notre destin autant qu’elle en sera le témoin.
Ray Kurzweil : un monde d’abondance… pour des cyborgs
La Singularité en marche peut être envisagée selon deux angles. L’un, optimiste, est incarné par Ray Kurzweil, l’un des premiers à en avoir esquissé les contours à travers ses ouvrages visionnaires publiés à intervalles réguliers, annonçant son imminence. Dans une récente interview, il prophétise qu’à l’horizon 2030, l’humanité atteindra une ère d’opulence universelle.
Pour Kurzweil, l’IA représente l’instrument par lequel l’humanité pourra non seulement décupler ses capacités, mais aussi réparer les ravages causés par des siècles d’exploitation chaotique et excessive de son environnement. Grâce à l’intelligence artificielle, l’espèce humaine pourrait rétablir un équilibre perdu, renouant avec une relation harmonieuse au monde naturel.
Ses prédictions technologiques esquissent un futur où l’abondance deviendrait la norme, l’IA libérant l’humanité de ses contraintes biologiques et matérielles. Mais cette vision exige une condition majeure : l’acceptation d’un profond « enhaussement » technologique de l’être humain. Kurzweil imagine ainsi un avenir où nous deviendrons des cyborgs, enrichis par des puces implantées, des nanorobots régénérant continuellement nos cellules endommagées, et adhérant à des concepts révolutionnaires tels que la résurrection digitale et, à terme, le clonage intégral dans de nouveaux corps biologiques.
Le « posthumanisme » apocalyptique de Geoffrey Hinton
Geoffrey Hinton, récent lauréat du prix Nobel de physique pour son rôle de « parrain des grands modèles de langage » tels que ChatGPT, propose une interprétation radicalement différente de la Singularité. Pour lui, elle porte en elle le sceau de la disparition de l’humanité. Cette idée, popularisée par des auteurs de science-fiction comme Isaac Asimov, repose sur le principe qu’une espèce plus intelligente en vient inévitablement à supplanter celle qu’elle dépasse, parfois à très brève échéance.
Asimov écrivait : « Lorsque le moment viendra où les robots deviendront, je l’espère, suffisamment intelligents pour nous remplacer, je pense qu’ils devraient le faire. […] S’il existe quelque chose de mieux que nous, qu’elle prenne la première place. En vérité, nous faisons un si mauvais travail pour préserver la Terre et ses formes de vie que je ne peux m’empêcher de penser que plus vite nous serons remplacés, mieux ce sera pour elles. »
Hinton estime que ce moment est désormais arrivé. Il observe : « Nous n’avons jamais eu affaire à des entités plus intelligentes que nous. Et combien d’exemples connaissez-vous d’une chose plus intelligente contrôlée par une moins intelligente ? Très peu. Il y a une mère et son bébé. L’évolution a déployé d’immenses efforts pour permettre au bébé de contrôler sa mère, mais c’est à peu près le seul exemple que je connaisse. »
Un récent titre du Guardian annonçait que Hinton « estime qu’il y a 10 à 20 % de chances que l’IA conduise à l’extinction de l’humanité dans trois décennies, en raison de changements rapides ». Cette affirmation peut être entendue de deux manières. D’une part, comme une prédiction où l’IA s’emploierait activement à éliminer l’espèce humaine. D’autre part, comme l’hypothèse que l’humanité, par ses propres actes, scelle son propre déclin, permettant à une intelligence supérieure issue de sa création de lui survivre.
Si cette perspective peut désespérer une espèce confrontée à la conscience de sa finitude – une réalité jamais contredite par les lois de l’évolution – elle s’accompagne néanmoins d’une vision à la fois grandiose et profondément posthumaniste. Celle-ci envisage l’intelligence humaine continuant de se déployer dans l’univers, matérialisant un dessein initialement conçu par nous, même si nous n’en serons plus les porteurs directs. Cette vision fait émerger une humanité sublimée, transcendée par l’intelligence qu’elle a engendrée.
Conclusion : Une course contre nous-mêmes
Chaque annonce de cette semaine résonne comme un rappel brutal : nous sommes engagés dans une course, mais celle-ci n’est pas contre l’IA. Elle est contre nous-mêmes, contre notre incapacité à anticiper, règlementer, et collaborer.
Si nous continuons à ignorer les implications politiques, sociétales et philosophiques de l’intelligence artificielle, nous ne serons pas seulement dépassés par la technologie. Nous risquons de devenir les architectes de notre propre effacement.
Laisser un commentaire