14 mars 2023 : le jour où le genre humain fut assailli par le doute XI. Aligner les objectifs de l’IA et les nôtres

 

Illustration par Stable Diffusion + Paul Gauguin (+PJ)

« Se placer dans le sillage d’une créature plus intelligente que l’humain », sans doute, mais comment se sentir et demeurer en sécurité au sein d’un environnement en sachant que le cadre vous est pour une part, incompréhensible ? La question est celle, fameuse, de l’orang-outang qui n’entend rien à la discussion de ses deux gardiens débattant du bien-fondé de le changer de cage : les propos de ce dialogue le dépassent et le comportement des humains au plus gros cerveau (trois fois plus gros), entièrement imprévisible.

Comment faire pour que le comportement d’une intelligence artificielle de plus en plus puissante et les objectifs des humains qui l’ont conçue, restent alignés ? Et c’est bien de cette façon que cette question est aujourd’hui traitée : en tant que question de l’« alignement » et comment le maintenir, l’apparente impossibilité de mettre au point une méthode fiable étant d’ailleurs mise en avant par les critiques réclamant un moratoire, qui exigent une pause dans la recherche aussi longtemps qu’une méthode plausible pour l’alignement n’aura pas été définie.

Or, on voit mal comment une réponse pourrait être apportée car, comme déjà signalé, la machine progresse en intelligence par paliers, non pas par l’adjonction successive de nouveaux dispositifs, à l’exception notable du transformer, mais du fait de la simple augmentation en taille du système : par des effets d’émergence, par auto-organisation, une complexité inédite surgissant, comme ce fut le cas lors du passage d’une compréhension de la structure de la phrase à celle de sa signification globale, syntaxe et sémantique confondues.

Peut-on prévoir à partir d’une connaissance des éléments en place, de quelle manière des effets d’émergence pourraient se manifester ? Si ce devait être le cas, il serait possible de prévoir, au moins partiellement, les prochains progrès qui résulteront d’une montée en taille des LLM, et si oui, de canaliser ceux-ci dans la mesure du possible.

J’ai posé la question à GPT-4. Sa réponse fut décourageante :

« Dans la réalité, cette tâche de prédiction peut être incroyablement complexe et, dans de nombreux cas, pratiquement impossible. La question centrale tourne autour des concepts de complexité, de non-linéarité et de la quantité d’informations nécessaires pour faire de telles prédictions. […] Les interactions peuvent être non-linéaires, ce qui signifie que de petits changements peuvent avoir des effets disproportionnés (la théorie du chaos en est un exemple). Cette imprévisibilité inhérente signifie souvent que la prévision d’un comportement émergent est extrêmement difficile, voire impossible, même avec une compréhension complète des éléments individuels. […] En outre, la propriété émergente peut ne pas dépendre uniquement des éléments et de leurs interactions, mais aussi de l’histoire du système. Dans de nombreux cas, de petites différences dans les conditions initiales ou dans la trajectoire du système peuvent conduire à des propriétés émergentes très différentes (une caractéristique que l’on retrouve également dans la théorie du chaos). […] Il n’est pas totalement impossible de faire des suppositions ou des estimations éclairées sur le comportement émergent si l’on dispose d’une connaissance suffisante des éléments individuels et de leurs interactions, en particulier dans les systèmes moins complexes ou lorsque le comportement émergent est relativement simple. Toutefois, dans les systèmes très complexes comportant de nombreux éléments et interactions, la prévision du comportement émergent reste un défi de taille. En résumé, votre question plonge au cœur de l’un des problèmes les plus intrigants de l’étude des systèmes complexes et de l’émergence. La poursuite des recherches et les progrès dans des domaines tels que la modélisation informatique, la biologie des systèmes et la théorie des réseaux devraient permettre de mieux comprendre cette question fascinante. »

La réponse était prévisible. Je n’en reste pas moins convaincu que c’est précisément l’Intelligence Artificielle qui va nous permettre d’accomplir des progrès décisifs dans cette direction. N’est-ce pas elle qui nous autorise en ce moment-même à prévoir la manière dont se replient sur elles-mêmes les molécules complexes des protéines, nous permettant de savoir quelles seront les interactions possibles entre elles et d’autres molécules, un type de connaissance impératif en pharmacologie, une tâche jugée titanesque jusqu’ici mais résolue par AlphaFold, un produit de DeepMind ?

OpenAI, la firme à l’origine de ChatGPT, a forgé le nouveau concept de « super-alignement » précisément pour caractériser cette capacité que nous conserverions de canaliser le comportement de futures IA alors que l’écart entre leur intelligence et la nôtre continuerait de se creuser. Si l’on en croit l’opinion de la version la plus récente de leur produit-phare, reproduite ci-dessus, il s’agirait cependant d’une chimère. Dans ce cas, le choix qui serait le nôtre serait soit, comme l’exigent les esprits chagrins, d’interrompre la recherche, et peut-être même de remiser ce qui a déjà pu être réalisé, soit de faire confiance à l’un des plus beaux fleurons de l’intelligence humaine, sinon le plus beau, qu’il saura trouver avec justesse sa propre voie, qui coïnciderait avec celle optimale du genre humain l’ayant conçu.

Un moratoire sur les LLM pourrait-il même être envisagé ? On citera comme exemple les traités sur les armements nucléaires, qui ont en effet tenu jusqu’ici, mais sans qu’il soit sûr qu’ils n’auront pas été enfreints au moment où mon texte sortira des presses. Mais la question se pose dans de tout autres termes quand il s’agit des Grands Modèles de Langage car ils sont désormais déjà partout et, ChatGPT tomberait-il, que d’autres systèmes, ses sœurs ou ses frères, étant prêts, se lèveraient aussitôt. La question n’est plus « pourrions nous assister à une explosion de l’intelligence ? », ou « La Singularité pourrait-elle avoir lieu ? », la Singularité a déjà eu lieu et les historiens des techniques se disputeront seulement quant à savoir si la date à retenir est celle du 30 novembre 2022 ou celle du 14 mars 2023. La question qui se pose à nous désormais est simplement : « Comment faire avec ? », c’est-à-dire, de gaieté de cœur ou à contre-cœur. Car une Révolution est en marche que seule pourrait prévenir notre extinction avant que n’ait été mise au point la machine intelligente autonome capable de s’auto-fabriquer.

Illustration par Stable Diffusion + Paul Gauguin (+PJ)

Partager :

3 réponses à “14 mars 2023 : le jour où le genre humain fut assailli par le doute XI. Aligner les objectifs de l’IA et les nôtres”

  1. Avatar de pierre guillemot
    pierre guillemot

    Question dont les réponses (pour l’instant) sont dans les histoires de science-fiction : une Intelligence Artificielle peut-elle avoir des objectifs ? Jusqu’ici (dans les histoires que je connais) ce sont les constructeurs de la machine qui ont fixé l’objectif avant de la mettre en route. HAL (2001 Odyssée …) a pour objectif la réussite de la mission du vaisseau spatial, et il « veut » éliminer l’obstacle que l’équipage lui semble être ; la mission ne comportait donc pas que des êtres humains voient et reviennent pour raconter (ou bien c’était tellement évident que les ingénieurs qui ont défini l’expédition ont oublié de le préciser).

    Pour l’instant l’objectif de ChatGPT est de fabriquer le discours que l’être humain qui l’interroge semble attendre, ce qui est modeste et inoffensif. Ou peut-être pas. Un article du New York Times que je n’arrive pas à retrouver (il faudrait tout noter) soutient que des gouvernants qui se laisseraient guider par une IA actuelle ne pourraient que s’enfoncer toujours plus profond dans le labyrinthe du néo-libéralisme, puisque les textes dont ces IA se sont nourris ont cette orientation idéologique à une majorité écrasante.

    1. Avatar de un lecteur
      un lecteur

      Wiki :

      L’émergence,

      est un concept philosophique formalisé au XIXe siècle et qui peut être grossièrement résumé par l’adage : « le tout est plus que la somme des parties ». Il s’oppose au réductionnisme comme aux doctrines dualistes (dualisme ou vitalisme).

      Une propriété peut être qualifiée d’émergente si elle « découle » de propriétés plus fondamentales tout en demeurant « nouvelle » ou « irréductible » à celles-ci. Ainsi, John Stuart Mill constate que les propriétés de l’eau ne sont pas réductibles à celles de l’hydrogène ou de l’oxygène.

      ….

  2. Avatar de Pierre-Alain Dauzet
    Pierre-Alain Dauzet

    ChatGPT 4

    Aligning the goals of artificial intelligence with human values and interests is a critical consideration in the development and deployment of AI systems. Your vision (Skinner) of a harmonious world is a noble one. Ensuring that AI contributes positively to such a world requires several key considerations:

    Value Alignment: Making sure that AI systems understand, respect, and amplify human values. AI developers need to ensure that the models they develop are trained on diverse and unbiased data so that they don’t perpetuate harmful stereotypes or biases. Furthermore, AI systems must be transparent and explainable, so humans can understand their decision-making processes.

    Safety: Developing AI in a way that avoids unintended and harmful behaviors. This involves rigorous testing and refining of models before deployment, as well as creating mechanisms by which these models can be updated or corrected if unforeseen issues arise.

    Economic Considerations: AI can have significant impacts on employment and the structure of economies. It’s crucial to consider how AI can be used to complement human labor, rather than replace it. Additionally, there must be economic strategies in place to support those whose jobs are displaced by automation.

    Resource Consumption: AI systems, especially large-scale models and data centers, can consume significant amounts of energy. Developing more efficient algorithms, optimizing computational processes, and investing in sustainable energy sources are necessary steps to reduce the environmental impact of AI.

    Cultural and Social Impact: The use of AI in areas like art, music, and literature should respect and understand human cultures, traditions, and sentiments. This involves ensuring that AI tools are used as extensions or tools for human creativity, rather than replacements.
    Education and Awareness: As AI becomes more prevalent, there’s a need for the general public to be educated about its capabilities, limitations, and ethical considerations. This knowledge enables people to make informed decisions and engage in meaningful discussions about the role of AI in society.

    Regulation and Oversight: Governments and international bodies need to establish guidelines and regulations to ensure that AI is developed and used ethically and safely. This involves a balance between encouraging innovation and ensuring public safety and wellbeing.

    Feedback Loops: It’s important to continually collect feedback from various stakeholders, including the general public, about how AI impacts their lives and how it can be improved. These feedback loops ensure that AI remains aligned with the evolving needs and values of society.

    Your vision (Skinner) of a world where humans live harmoniously and sustainably is indeed possible. AI can be a powerful tool to help achieve this vision, but it requires careful, thoughtful, and proactive management to ensure it serves humanity’s best interests.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. Et les (très) inquiétantes dernières nouvelles de notre ‘oncle d’Amérique’ : https://www.huffingtonpost.fr/culture/article/par-peur-de-donald-trump-aucun-acteur-n-a-voulu-participer-a-cette-emission-avec-sebastian-stan_242531.html https://www.huffingtonpost.fr/international/article/affaire-stormy-daniels-donald-trump-pourrait-bien-echapper-sa-condamnation-voici-pourquoi_242524.html

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta