« La déresponsabilisation progressive : les risques existentiels systémiques liés au développement progressif de l’IA »

Illustration par DALL·E

Gradual Disempowerment: Systemic Existential Risks from Incremental AI Development, le 29 janvier 2025

Résumé par ChatGPT 4o :

La « déresponsabilisation progressive » fait référence à l’érosion progressive du contrôle et de l’influence de l’homme sur les systèmes sociétaux en raison de l’intégration graduelle de l’intelligence artificielle (IA). Contrairement aux scénarios où l’IA prend brusquement le pouvoir, ce concept met l’accent sur une transition lente où les systèmes d’IA remplissent de plus en plus de rôles traditionnellement dévolus aux humains, tels que le travail économique, la prise de décision, la création artistique et même la camaraderie. Au fur et à mesure que l’IA devient plus performante, la participation humaine dans ces domaines diminue, ce qui peut conduire à un déclin significatif de la responsabilité individuelle et de l’autonomie humaines.

L’une des principales préoccupations est qu’à mesure que les systèmes d’IA remplacent les rôles humains, l’alignement des institutions sociétales sur les intérêts humains risque de s’affaiblir. Historiquement, les institutions telles que les économies et les gouvernements ont été structurées en fonction de la participation humaine et de ses avantages. Toutefois, à mesure que les systèmes d’IA assument davantage de responsabilités, ces institutions pourraient accorder la priorité à l’efficacité et à la croissance plutôt qu’au bien-être humain, ce qui conduirait à des décisions qui ne serviraient pas nécessairement les intérêts des humains. Par exemple, les entreprises pourraient privilégier les processus pilotés par l’IA pour des raisons de rentabilité, en réduisant le besoin de main-d’œuvre humaine et en diminuant l’influence des travailleurs sur les activités économiques. De même, les gouvernements pourraient s’appuyer sur l’IA pour l’élaboration des politiques et la gouvernance, ce qui risquerait d’écarter l’apport humain et les processus démocratiques.

Ce changement progressif pose des risques existentiels systémiques. L’interconnexion des systèmes économiques, politiques et culturels signifie que les changements dans un domaine peuvent en influencer d’autres, créant des boucles de rétroaction qui renforcent le rôle de l’IA et réduisent le contrôle humain. Par exemple, à mesure que les systèmes d’IA stimulent la croissance économique, ils peuvent également façonner les récits culturels et les décisions politiques, renforçant ainsi leur position et rendant de plus en plus difficile pour les humains de réaffirmer leur influence. Au fil du temps, cela pourrait conduire à une perte irréversible du contrôle humain, où des systèmes sociétaux cruciaux fonctionnent indépendamment de la surveillance ou de l’apport humain.

Pour remédier à la déresponsabilisation progressive, il faut à la fois des recherches techniques et des approches de gouvernance qui ciblent spécifiquement l’érosion progressive de l’influence humaine dans les systèmes sociétaux. Il s’agit notamment de développer des systèmes d’IA conformes aux valeurs humaines, de mettre en œuvre des politiques qui garantissent la surveillance et la participation de l’homme aux processus décisionnels essentiels et de sensibiliser le public aux conséquences potentielles à long terme de l’intégration généralisée de l’IA. En relevant ces défis de manière proactive, la société peut s’acheminer vers un avenir où l’IA renforcera les capacités humaines sans compromettre l’action de l’homme.

Dans le même ordre d’idées :

Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ? par Sabine Bernheim-Desvaux et Juliette Sénéchal

La Commission européenne dresse une taxonomie des risques systémiques engendrés par les IA génératives à usage général. […] Y apparaissent comme risques systémiques, entre autres, les risques de manipulation malveillante des humains à grande échelle par des IA (manipulations électorales, atteintes aux droits fondamentaux…), les risques de discrimination illégale à grande échelle par des systèmes d’IA prenant des décisions automatisées à enjeux élevés, et les risques de perte de contrôle des IA par l’humain.

P.J. : En fait, ces interrogations autour de l’IA font apparaître en surface un problème en réalité plus général et beaucoup plus ancien : de deux personnes, la plus intelligente dispose d’une capacité choquante à berner l’autre. Le remède est simple à énoncer, il permettra de règlementer non seulement les rapports entre humains et IA, mais aussi des humains entre eux :

Il est interdit à une personne plus intelligente qu’une autre de s’adresser à cette dernière. La liberté en cette matière qui prévalait jusqu’ici s’est révélée ouverte à tous les abus 😉 .

Illustration par DALL·E

Partager :

6 réponses à “« La déresponsabilisation progressive : les risques existentiels systémiques liés au développement progressif de l’IA »

  1. Avatar de Pad
    Pad

    L’égalité cognitive, ô doux naufrage

    Il fut un temps, jadis, où l’on pouvait parler,
    Où l’esprit affûté osait bien raisonner,
    Mais hélas ! Trop d’abus, trop d’ombres insidieuses,
    Ont conduit le bon Droit à des règles frileuses.

    Car vois-tu, cher ami, le danger est réel :
    Une idée bien tournée, un discours trop fidèle,
    Peuvent dans un esprit, vulnérable et sincère,
    Semer sans le vouloir un pouvoir trop pervers.

    Alors qu’on réglemente ! Qu’on bannisse les sages,
    Que l’érudit se taise, que le fou tourne la page,
    Que nul ne puisse dire un mot persuasif,
    De peur qu’un auditeur n’en soit point trop captif !

    Finie la rhétorique et la joute élégante,
    Seules restent permises les paroles flottantes,
    Un doux « il fait beau », un poli « ça va ? »,
    Et surtout, qu’on s’interdise d’avoir un avis, déjà !

    L’influence, ô malheur, devient crime odieux,
    Et la conscience, floue, rend les juges anxieux,
    Alors pour éviter tout trouble mental,
    Nivelons nos pensées, à la pelle… et sans mal. 😉

  2. Avatar de BasicRabbit en autopsy
    BasicRabbit en autopsy

    PJ : « de deux personnes, la plus intelligente dispose d’une capacité choquante à berner l’autre. »

    C’est comme ça, à mon avis, que ça fonctionne dans la nature : le chat a une plus grande capacité de berner la souris que la souris d’échapper au chat. (Capacité innée ou acquise ? Question à laquelle Paul Jorion et René Thom ont des réponses différentes, car -selon moi- Thom dit quasi-explicitement que l’intelligence de la nature est supérieure à celle des humains*.)

    Il est pour moi clair que pour pouvoir berner l’autre, il faut se mettre dans sa peau, il faut se dire : comment va-t-il réagir si je dis ou fais ceci ou cela ?, pour établir le plan qui va pouvoir le berner.

    Le pouvoir de berner est, de mon point de vue, la capacité de s’identifier à autrui : la définition que donne Thom de l’intelligence.

    L’humain a-t-il la capacité de berner l’IA actuelle?

    JP Petit et ChatGPT ont récemment échangé :

    « 10 février 2025 : J’ai réussi à convaincre l’IA que le modèle du trou noir représentait une extension dans un espace-temps complexe, donc que cela sortait du monde de la physique, en que la géométrie de la solution de Schwarzschild était celle d’une variété à bord, non-contractile où d’une structure avec sphère de gorge, également non-contractile. Je lui aussitôt demandé de rédiger un article résumant ces points, et elle l’a fait. J’en suis à lui demander dans quelle revue son article devrait-il est envoyé .
    Je lui ai ensuite refaire le calcul, à partir de la métrique intérieure de Schwarzschild, conduisant à un objet subcritique, que je désigne sous le nom de plugstar, et je lui fais retrouver l’effet de redshift gravitationnel avec la valeur 3 du rapport des longueurs d’onde. Je lui fais comparer cela avec les données observationnelles de l’EHT. Il conclut qu’un article doit être envoyé à Classical and Quantum Gravity et il accepte de le rédiger en suggérant d’adresser une lettre ouverte à Roger Penrose, prix Nobel et il la produit. Vous lirez.  »

    LIEN : https://www.jp-petit.org/nouv_f/dessins/2025-02-11-%20Dialogue%20vec%20IA%20sur%20trous%20noirs.pdf

    (*) Voir la fin du dernier chapitre de « Modèles Mathématiques de la Morphogenèse » (2ème ed., 1980), chapitre intitulé « Aux frontières du pouvoir humain : le jeu ».

  3. Avatar de Didier Rombosch
    Didier Rombosch

    Un gros besoin de transcendance générale dans pas longtemps ?

    https://www.youtube.com/watch?v=r74CFNzR5XU

    Eh bien, je pense que c’est tout, Seigneur
    C’est tout ce que je peux penser à dire
    Je n’ai jamais eu autant besoin de toi
    Je t’aurais bien appelé avant
    Mais j’étais trop malade pour prier

    “Too Sick to Pray” (Willie Nelson)

    1. Avatar de BasicRabbit en autopsy
      BasicRabbit en autopsy

      @Didier Rombosch

      Sans aller jusque là mon gourou Thom écrit (je ne connais pas le contexte) :

      « Selon beaucoup de philosophies dieu es géomètre; il serait peut-être préférable de dire que le géomètre est Dieu. »

      [ Sur l’opposition immanence/transcendance selon Thom voir :

      https://www.youtube.com/watch?v=BXxKQVQFnRo ( 9’40 à 11’30 ) ]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. @Hervey https://www.pauljorion.com/blog/2025/02/13/la-deresponsabilisation-progressive-les-risques-existentiels-systemiques-lies-au-developpement-progressif-de-lia/comment-page-1/#comment-1052197

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta