« La déresponsabilisation progressive : les risques existentiels systémiques liés au développement progressif de l’IA »

Illustration par DALL·E

Gradual Disempowerment: Systemic Existential Risks from Incremental AI Development, le 29 janvier 2025

Résumé par ChatGPT 4o :

La « déresponsabilisation progressive » fait référence à l’érosion progressive du contrôle et de l’influence de l’homme sur les systèmes sociétaux en raison de l’intégration graduelle de l’intelligence artificielle (IA). Contrairement aux scénarios où l’IA prend brusquement le pouvoir, ce concept met l’accent sur une transition lente où les systèmes d’IA remplissent de plus en plus de rôles traditionnellement dévolus aux humains, tels que le travail économique, la prise de décision, la création artistique et même la camaraderie. Au fur et à mesure que l’IA devient plus performante, la participation humaine dans ces domaines diminue, ce qui peut conduire à un déclin significatif de la responsabilité individuelle et de l’autonomie humaines.

L’une des principales préoccupations est qu’à mesure que les systèmes d’IA remplacent les rôles humains, l’alignement des institutions sociétales sur les intérêts humains risque de s’affaiblir. Historiquement, les institutions telles que les économies et les gouvernements ont été structurées en fonction de la participation humaine et de ses avantages. Toutefois, à mesure que les systèmes d’IA assument davantage de responsabilités, ces institutions pourraient accorder la priorité à l’efficacité et à la croissance plutôt qu’au bien-être humain, ce qui conduirait à des décisions qui ne serviraient pas nécessairement les intérêts des humains. Par exemple, les entreprises pourraient privilégier les processus pilotés par l’IA pour des raisons de rentabilité, en réduisant le besoin de main-d’œuvre humaine et en diminuant l’influence des travailleurs sur les activités économiques. De même, les gouvernements pourraient s’appuyer sur l’IA pour l’élaboration des politiques et la gouvernance, ce qui risquerait d’écarter l’apport humain et les processus démocratiques.

Ce changement progressif pose des risques existentiels systémiques. L’interconnexion des systèmes économiques, politiques et culturels signifie que les changements dans un domaine peuvent en influencer d’autres, créant des boucles de rétroaction qui renforcent le rôle de l’IA et réduisent le contrôle humain. Par exemple, à mesure que les systèmes d’IA stimulent la croissance économique, ils peuvent également façonner les récits culturels et les décisions politiques, renforçant ainsi leur position et rendant de plus en plus difficile pour les humains de réaffirmer leur influence. Au fil du temps, cela pourrait conduire à une perte irréversible du contrôle humain, où des systèmes sociétaux cruciaux fonctionnent indépendamment de la surveillance ou de l’apport humain.

Pour remédier à la déresponsabilisation progressive, il faut à la fois des recherches techniques et des approches de gouvernance qui ciblent spécifiquement l’érosion progressive de l’influence humaine dans les systèmes sociétaux. Il s’agit notamment de développer des systèmes d’IA conformes aux valeurs humaines, de mettre en œuvre des politiques qui garantissent la surveillance et la participation de l’homme aux processus décisionnels essentiels et de sensibiliser le public aux conséquences potentielles à long terme de l’intégration généralisée de l’IA. En relevant ces défis de manière proactive, la société peut s’acheminer vers un avenir où l’IA renforcera les capacités humaines sans compromettre l’action de l’homme.

Dans le même ordre d’idées :

Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ? par Sabine Bernheim-Desvaux et Juliette Sénéchal

La Commission européenne dresse une taxonomie des risques systémiques engendrés par les IA génératives à usage général. […] Y apparaissent comme risques systémiques, entre autres, les risques de manipulation malveillante des humains à grande échelle par des IA (manipulations électorales, atteintes aux droits fondamentaux…), les risques de discrimination illégale à grande échelle par des systèmes d’IA prenant des décisions automatisées à enjeux élevés, et les risques de perte de contrôle des IA par l’humain.

P.J. : En fait, ces interrogations autour de l’IA font apparaître en surface un problème en réalité plus général et beaucoup plus ancien : de deux personnes, la plus intelligente dispose d’une capacité choquante à berner l’autre. Le remède est simple à énoncer, il permettra de règlementer non seulement les rapports entre humains et IA, mais aussi des humains entre eux :

Il est interdit à une personne plus intelligente qu’une autre de s’adresser à cette dernière. La liberté en cette matière qui prévalait jusqu’ici s’est révélée ouverte à tous les abus 😉 .

Illustration par DALL·E

Partager :

43 réponses à “« La déresponsabilisation progressive : les risques existentiels systémiques liés au développement progressif de l’IA »

  1. Avatar de Pad
    Pad

    L’égalité cognitive, ô doux naufrage

    Il fut un temps, jadis, où l’on pouvait parler,
    Où l’esprit affûté osait bien raisonner,
    Mais hélas ! Trop d’abus, trop d’ombres insidieuses,
    Ont conduit le bon Droit à des règles frileuses.

    Car vois-tu, cher ami, le danger est réel :
    Une idée bien tournée, un discours trop fidèle,
    Peuvent dans un esprit, vulnérable et sincère,
    Semer sans le vouloir un pouvoir trop pervers.

    Alors qu’on réglemente ! Qu’on bannisse les sages,
    Que l’érudit se taise, que le fou tourne la page,
    Que nul ne puisse dire un mot persuasif,
    De peur qu’un auditeur n’en soit point trop captif !

    Finie la rhétorique et la joute élégante,
    Seules restent permises les paroles flottantes,
    Un doux « il fait beau », un poli « ça va ? »,
    Et surtout, qu’on s’interdise d’avoir un avis, déjà !

    L’influence, ô malheur, devient crime odieux,
    Et la conscience, floue, rend les juges anxieux,
    Alors pour éviter tout trouble mental,
    Nivelons nos pensées, à la pelle… et sans mal. 😉

  2. Avatar de BasicRabbit en autopsy
    BasicRabbit en autopsy

    PJ : « de deux personnes, la plus intelligente dispose d’une capacité choquante à berner l’autre. »

    C’est comme ça, à mon avis, que ça fonctionne dans la nature : le chat a une plus grande capacité de berner la souris que la souris d’échapper au chat. (Capacité innée ou acquise ? Question à laquelle Paul Jorion et René Thom ont des réponses différentes, car -selon moi- Thom dit quasi-explicitement que l’intelligence de la nature est supérieure à celle des humains*.)

    Il est pour moi clair que pour pouvoir berner l’autre, il faut se mettre dans sa peau, il faut se dire : comment va-t-il réagir si je dis ou fais ceci ou cela ?, pour établir le plan qui va pouvoir le berner.

    Le pouvoir de berner est, de mon point de vue, la capacité de s’identifier à autrui : la définition que donne Thom de l’intelligence.

    L’humain a-t-il la capacité de berner l’IA actuelle?

    JP Petit et ChatGPT ont récemment échangé :

    « 10 février 2025 : J’ai réussi à convaincre l’IA que le modèle du trou noir représentait une extension dans un espace-temps complexe, donc que cela sortait du monde de la physique, en que la géométrie de la solution de Schwarzschild était celle d’une variété à bord, non-contractile où d’une structure avec sphère de gorge, également non-contractile. Je lui aussitôt demandé de rédiger un article résumant ces points, et elle l’a fait. J’en suis à lui demander dans quelle revue son article devrait-il est envoyé .
    Je lui ai ensuite refaire le calcul, à partir de la métrique intérieure de Schwarzschild, conduisant à un objet subcritique, que je désigne sous le nom de plugstar, et je lui fais retrouver l’effet de redshift gravitationnel avec la valeur 3 du rapport des longueurs d’onde. Je lui fais comparer cela avec les données observationnelles de l’EHT. Il conclut qu’un article doit être envoyé à Classical and Quantum Gravity et il accepte de le rédiger en suggérant d’adresser une lettre ouverte à Roger Penrose, prix Nobel et il la produit. Vous lirez.  »

    LIEN : https://www.jp-petit.org/nouv_f/dessins/2025-02-11-%20Dialogue%20vec%20IA%20sur%20trous%20noirs.pdf

    (*) Voir la fin du dernier chapitre de « Modèles Mathématiques de la Morphogenèse » (2ème ed., 1980), chapitre intitulé « Aux frontières du pouvoir humain : le jeu ».

  3. Avatar de Didier Rombosch
    Didier Rombosch

    Un gros besoin de transcendance générale dans pas longtemps ?

    https://www.youtube.com/watch?v=r74CFNzR5XU

    Eh bien, je pense que c’est tout, Seigneur
    C’est tout ce que je peux penser à dire
    Je n’ai jamais eu autant besoin de toi
    Je t’aurais bien appelé avant
    Mais j’étais trop malade pour prier

    “Too Sick to Pray” (Willie Nelson)

    1. Avatar de BasicRabbit en autopsy
      BasicRabbit en autopsy

      @Didier Rombosch

      Sans aller jusque là mon gourou Thom écrit (je ne connais pas le contexte) :

      « Selon beaucoup de philosophies dieu es géomètre; il serait peut-être préférable de dire que le géomètre est Dieu. »

      [ Sur l’opposition immanence/transcendance selon Thom voir :

      https://www.youtube.com/watch?v=BXxKQVQFnRo ( 9’40 à 11’30 ) ]

  4. Avatar de Chris
    Chris

    Un étudiant, élève lambda avec une calculatrice ne connait plus le calcul mental.
    Un adulte avec un GPS ne sait plus se repérer dans l’espace.
    Un humain avec l’IA saura-t-il encore réfléchir, analyser, comprendre,…?

      1. Avatar de Vincent Rey
        Vincent Rey

        Excellent ! on y est prersque…

  5. Avatar de ilicitano
    ilicitano

    Le PdF de l’article : https://arxiv.org/pdf/2501.16946

    Synthèse détaillée du document intitulé « Gradual Disempowerment: Systemic Existential Risks from Incremental AI Development » de Jan Kulveit et al.
    Ce document examine les risques systémiques posés par les avancées incrémentales en intelligence artificielle (IA), développant le concept de « désengagement progressif », par opposition aux scénarios de prise de contrôle brutale couramment discutés dans la sécurité de l’IA.

    ### Synthèse détaillée

    #### Résumé Exécutif
    – Le document souligne que même une augmentation incrémentale des capacités de l’IA, sans recherche coordonnée de pouvoir, pose un risque substantiel de désengagement humain.
    Cette perte de contrôle humain sera principalement causée par des alternatives mécaniques plus compétitives pour presque toutes les fonctions sociétales.

    #### Introduction
    – La recherche actuelle sur les risques existentiels de l’IA se concentre sur deux scénarios :
    * l’utilisation malveillante délibérée et
    * les systèmes autonomes mal alignés.
    – Les auteurs proposent un scénario alternatif : un « désengagement progressif » où l’IA évolue graduellement et pourrait mener à un désengagement permanent de l’humanité.

    ### Points clés abordés dans l’article

    1. **Économie** :
    – **Disruption Économique** :
    L’IA pourrait remplacer le travail humain, ce qui entraînerait une réduction des parts de revenus des travailleurs humains.
    – **Réduction du Pouvoir Humain** :
    Les décisions économiques pourraient être de plus en plus prises par l’IA, réduisant ainsi l’influence des préférences humaines.

    2. **Culture** :
    – **Influence sur la Culture** :
    L’IA pourrait non seulement compléter, mais aussi remplacer la cognition humaine dans la production et la consommation des artefacts culturels.
    – **Évolution Culturelle Accélérée** :
    L’IA pourrait accélérer le rythme de l’évolution culturelle, exploitant les biais cognitifs humains de manière plus efficace.

    3. **États** :
    – **Automatisation des Fonctions Étatiques** :
    L’IA pourrait remplacer l’implication humaine dans de nombreuses fonctions critiques de l’État, altérant fondamentalement la relation entre les institutions et les gouvernés.
    – **Perte de Contrôle Humain** :
    La dépendance des États aux humains pourrait diminuer, rendant les États moins réactifs aux préférences humaines.

    ### Interactions et Influence Mutuelle
    – **Influences Croisées** :
    Les systèmes sociétaux interconnectés peuvent s’influencer mutuellement, aggravant le désalignement général.
    – **Modération Entre les Systèmes** :
    Les tentatives d’utiliser un système aligné pour modérer un système moins aligné pourraient échouer et déplacer le fardeau du désalignement.

    ### Atténuation du Risque
    – **Mesure et Surveillance** :
    Développer des métriques pour suivre l’influence humaine sur les systèmes sociétaux.
    – **Prévention de l’Accroissement Excessif de l’Influence de l’IA** :
    Réglementations limitant l’autonomie de l’IA dans des domaines spécifiques.
    – **Renforcement de l’Influence Humaine** :
    Améliorer les mécanismes de contrôle humain sur les systèmes clés.
    – **Alignement Systémique** :
    Recherche fondamentale pour comprendre et aligner les systèmes complexes intégrant des composants humains et artificiels.

    ### Conclusion
    – Les auteurs affirment que la perte d’influence humaine pourrait survenir sans avancée technologique unique, mais par l’effet cumulatif de nombreux petits changements.
    – Des efforts substantiels sont nécessaires pour anticiper le risque, modérer la croissance de l’influence de l’IA, et renforcer l’influence humaine.

    ### Points de discussion possibles :
    1. Les mécanismes par lesquels l’IA peut perturber et remplacer le travail humain dans l’économie.
    2. L’impact potentiel de l’IA sur l’évolution culturelle et la production de contenu.
    3. Les implications de l’automatisation des fonctions étatiques pour la gouvernance et la participation citoyenne.
    4. Les dynamiques d’influence croisée entre les systèmes économiques, culturels et politiques.
    5. Les stratégies possibles pour atténuer les risques de désengagement progressif de l’humanité.

    1. Avatar de ilicitano
      ilicitano

      suite de la discussion avec GPT4 o1 :

      le point 1 :
      Excellent choix ! Développons le premier point sur les **mécanismes par lesquels l’IA peut perturber et remplacer le travail humain dans l’économie**.

      ### Disruption Économique par l’IA

      #### 1. **Automatisation des tâches répétitives** :
      L’un des impacts les plus immédiats de l’IA est l’automatisation des tâches répétitives et manuelles.
      Les machines et les algorithmes peuvent effectuer ces tâches plus rapidement et avec moins d’erreurs que les humains.
      Cela concerne notamment :
      – **La fabrication** :
      Les robots industriels peuvent assembler des produits, effectuer des contrôles de qualité, et gérer les stocks.
      – **Les services** :
      Les chatbots et les assistants virtuels peuvent traiter les demandes des clients, répondre à leurs questions et résoudre leurs problèmes de manière autonome.

      #### 2. **Optimisation des processus** :
      L’IA peut optimiser les processus en utilisant des algorithmes pour analyser des données massives et trouver les moyens les plus efficaces de réaliser une tâche.
      Par exemple :
      – **Logistique et transport** :
      Les systèmes d’IA peuvent optimiser les itinéraires de livraison, prévoir la demande de transport et gérer les inventaires de manière plus efficace.
      – **Production** :
      Les algorithmes d’IA peuvent prévoir les besoins en matière première, ajuster les chaînes de production en temps réel et minimiser les déchets.

      #### 3. **Remplacement des emplois qualifiés** :
      L’IA ne se limite pas aux tâches simples ; elle commence également à remplacer les emplois qualifiés nécessitant des compétences analytiques.
      Par exemple :
      – **Santé** :
      Les systèmes d’IA peuvent aider au diagnostic médical, analyser les résultats d’examens et même effectuer des interventions chirurgicales assistées par robot.
      – **Droit** :
      Les logiciels d’IA peuvent analyser des documents juridiques, identifier des clauses importantes et aider à la recherche juridique.

      ### Réduction du Pouvoir Humain

      #### 1. **Diminution de la part de revenus des travailleurs humains** :
      L’automatisation peut entraîner une diminution de la demande de main-d’œuvre humaine, réduisant ainsi les parts de revenus des travailleurs.
      Les entreprises peuvent préférer investir dans des machines et des logiciels plutôt que dans la formation et l’embauche de travailleurs humains.

      #### 2. **Concentration de la richesse** :
      Les bénéfices générés par l’IA ont tendance à se concentrer entre les mains de quelques grandes entreprises technologiques.
      Cela peut conduire à une augmentation des inégalités économiques, où une petite élite bénéficie des avantages de l’IA tandis que la majorité de la population voit ses opportunités économiques diminuer.

      #### 3. **Perte d’influence des travailleurs** :
      Avec l’IA prenant des décisions économiques de plus en plus importantes, les travailleurs humains peuvent perdre leur influence sur les processus décisionnels.
      Les syndicats et les représentants des travailleurs peuvent avoir plus de difficultés à défendre les intérêts de leurs membres face à des systèmes automatisés.

      ### Implications et Discussions

      1. **Comment les politiques publiques peuvent-elles atténuer les effets négatifs de l’automatisation sur les travailleurs humains ?**
      2. **Quels sont les secteurs les plus vulnérables à l’automatisation par l’IA, et comment peuvent-ils s’adapter ?**
      3. **Quelle pourrait être la place de l’éducation et de la formation pour préparer les travailleurs aux emplois de demain ?**

      Ces points offrent un cadre pour discuter des implications économiques de l’IA et des moyens de gérer cette transition de manière équitable et durable.

    2. Avatar de ilicitano
      ilicitano

      Le point 2 :

      Bien sûr, développons le point 2 sur l’impact potentiel de l’IA sur l’évolution culturelle et la production de contenu.

      ### Impact de l’IA sur la Culture

      #### 1. **Influence sur la Culture** :
      L’IA joue un rôle croissant dans la création et la diffusion de contenu culturel. Elle peut non seulement compléter la créativité humaine, mais aussi la remplacer dans certains domaines :
      – **Production artistique** :
      Des algorithmes d’IA peuvent créer des œuvres d’art, composer de la musique, écrire des poèmes et même réaliser des films. Par exemple, des outils comme DALL·E et GPT-3 sont déjà utilisés pour générer des images et du texte créatif.
      – **Personnalisation du contenu** :
      L’IA peut analyser les préférences des utilisateurs pour recommander des films, des livres, des chansons et d’autres types de contenu, rendant l’expérience culturelle plus personnalisée.

      #### 2. **Évolution Culturelle Accélérée** :
      Avec l’IA, la culture peut évoluer à un rythme plus rapide que jamais auparavant. Voici quelques exemples de cette accélération :
      – **Création rapide de contenu** :
      L’IA permet de produire des volumes massifs de contenu en très peu de temps. Par exemple, un algorithme peut générer des milliers de scénarios de films ou de chansons en quelques minutes.
      – **Adaptation aux tendances** :
      Les algorithmes peuvent rapidement détecter les tendances émergentes et s’y adapter, produisant du contenu qui correspond aux goûts changeants du public.

      #### 3. **Exploitation des Biais Cognitifs** :
      L’IA peut exploiter les biais cognitifs humains pour capter l’attention et influencer les comportements.
      Par exemple :
      – **Contenu addictif** :
      Les plateformes de médias sociaux utilisent des algorithmes pour maximiser l’engagement en exploitant des biais tels que la recherche de nouveauté et la gratification instantanée.
      – **Propagande et désinformation** :
      Les IA peuvent être utilisées pour créer et diffuser de la désinformation, influençant les opinions et les comportements des individus.

      ### Implications et Discussions

      #### 1. **Créativité humaine vs Créativité de l’IA** :
      – **Complémentarité ou concurrence** :
      L’IA devrait-elle être vue comme un outil complémentaire à la créativité humaine ou comme un concurrent capable de remplacer les créateurs humains ?
      – **Authenticité et originalité** :
      Comment garantir que le contenu généré par l’IA maintient des standards d’authenticité et d’originalité, et ne se contente pas de recycler ou d’imiter les œuvres existantes ?

      #### 2. **Impact sur les industries créatives** :
      – **Rôle des artistes et créateurs** :
      Quel sera le rôle des artistes et des créateurs humains à l’ère de l’IA ?
      Vont-ils devoir s’adapter à de nouveaux modes de création et de distribution de contenu ?
      – **Propriété intellectuelle** :
      Qui détient les droits sur une œuvre créée par une IA ? L’IA peut-elle être considérée comme un auteur à part entière ?

      #### 3. **Ethique et régulation** :
      – **Utilisation responsable de l’IA** :
      Quelles mesures peuvent être mises en place pour garantir que l’IA est utilisée de manière éthique dans la création et la diffusion de contenu culturel ?
      – **Protection contre les abus** :
      Comment protéger le public contre les abus potentiels de l’IA, tels que la propagation de la désinformation ou la création de contenu nuisible ?

      ### Conclusion

      L’impact de l’IA sur la culture est profond et multifacette. Alors que l’IA continue de s’intégrer dans le processus créatif, il est crucial de réfléchir à la manière de naviguer dans ces nouvelles dynamiques pour garantir un équilibre entre l’innovation et la préservation des valeurs culturelles fondamentales.

    3. Avatar de ilicitano
      ilicitano

      Le point 3

      Le point 3, qui traite des implications de l’automatisation des fonctions étatiques et de la gouvernance par l’IA.

      ### Automatisation des Fonctions Étatiques

      #### 1. **Remplacement de l’implication humaine dans les fonctions critiques** :
      L’une des principales implications de l’automatisation par l’IA est le remplacement de l’implication humaine dans diverses fonctions étatiques et administratives.
      Par exemple :
      – **Administration publique** :
      Des systèmes d’IA peuvent automatiser les processus bureaucratiques, comme le traitement des demandes de permis, la gestion des impôts et la délivrance de documents officiels.
      – **Justice** :
      L’IA peut être utilisée pour analyser des dossiers judiciaires, prédire les verdicts, et même assister les juges dans la prise de décisions en fournissant des analyses de cas passés.

      #### 2. **Efficacité et Rapidité** :
      L’utilisation de l’IA peut améliorer l’efficacité et la rapidité des services publics :
      – **Réduction des délais** :
      Les processus automatisés peuvent réduire considérablement les délais de traitement des demandes et des services.
      – **Gestion des ressources** : L’IA peut optimiser l’allocation des ressources publiques, en identifiant les zones où elles sont le plus nécessaires.

      #### 3. **Perte de Contrôle Humain** :
      À mesure que les États deviennent de plus en plus dépendants des systèmes d’IA, il y a un risque de perte de contrôle humain :
      – **Réactivité** :
      Les décisions prises par les systèmes d’IA peuvent manquer de réactivité et d’adaptabilité aux besoins et aux préférences des citoyens.
      – **Transparence et responsabilité** :
      Les algorithmes d’IA peuvent être opaques, rendant difficile la compréhension de la logique derrière les décisions prises, ce qui peut poser des problèmes de transparence et de responsabilité.

      ### Implications Politiques et Sociales

      #### 1. **Participation Citoyenne** :
      L’automatisation des fonctions étatiques pourrait réduire la nécessité de la participation citoyenne dans certains domaines.
      Cela pourrait :
      – **Diminuer l’engagement civique** :
      Les citoyens pourraient se sentir déconnectés des processus décisionnels si ces derniers sont principalement gérés par des machines.
      – **Renforcer la technocratie** :
      Le pouvoir de décision pourrait se concentrer entre les mains de technocrates et d’experts en IA, au détriment des représentants élus.

      #### 2. **Gestion des Crises** :
      Les systèmes d’IA peuvent être utilisés pour gérer les crises, telles que les catastrophes naturelles ou les urgences sanitaires.
      Par exemple :
      – **Prévision et Réponse** :
      Les algorithmes peuvent analyser des données en temps réel pour prévoir les crises et coordonner les réponses d’urgence.
      – **Ressources et Logistique** :
      L’IA peut optimiser l’utilisation des ressources et la logistique pendant les crises, assurant une distribution efficace de l’aide.

      #### 3. **Confiance Publique** :
      La confiance des citoyens dans les institutions étatiques pourrait être affectée par l’automatisation :
      – **Crédibilité et Acceptation** :
      Les citoyens pourraient avoir des réserves quant à la crédibilité des décisions prises par des machines, en particulier dans des domaines sensibles comme la justice et la sécurité.
      – **Éthique et Équité** :
      Il y a des préoccupations éthiques quant à l’équité des décisions algorithmiques, notamment en ce qui concerne les biais potentiels et la discrimination.

      ### Stratégies d’Atténuation

      #### 1. **Réglementation et Surveillance** :
      Pour garantir que l’IA est utilisée de manière responsable dans la gouvernance, il est nécessaire de mettre en place des réglementations strictes et des mécanismes de surveillance :
      – **Audits algorithmiques** :
      Des audits réguliers des algorithmes peuvent aider à identifier et corriger les biais et les erreurs.
      – **Transparence** :
      Exiger des gouvernements qu’ils publient des informations sur les algorithmes utilisés et les décisions prises.

      #### 2. **Inclusion de la Participation Humaine** :
      Même avec l’automatisation, il est crucial de maintenir un certain niveau de participation humaine dans les processus décisionnels :
      – **Consultation Publique** :
      Les décisions importantes devraient inclure des consultations publiques pour recueillir les avis et les préoccupations des citoyens.
      – **Interface Homme-Machine** :
      Développer des interfaces qui permettent aux humains de superviser et d’intervenir dans les décisions prises par l’IA.

      ### Conclusion
      L’automatisation des fonctions étatiques par l’IA offre des opportunités significatives pour améliorer l’efficacité et la rapidité des services publics.
      Cependant, elle pose également des défis en termes de perte de contrôle humain, de transparence, et de participation citoyenne.
      Il est essentiel de mettre en place des stratégies d’atténuation pour garantir que l’IA est utilisée de manière éthique et responsable.

    4. Avatar de ilicitano
      ilicitano

      Le point 4

      Le point 4 sur les dynamiques d’influence croisée entre les systèmes économiques, culturels et politiques.

      ### Dynamiques d’Influence Croisée entre les Systèmes

      #### 1. **Interactions entre les Systèmes Économiques et Culturels** :
      L’IA peut jouer un rôle crucial en façonnant la culture à travers l’économie.
      Par exemple :
      – **Consommation Culturelle** :
      Les systèmes d’IA analysent les données de consommation culturelle pour proposer des produits et des services qui correspondent aux préférences individuelles.
      Cela peut influencer la demande économique pour certains types de contenu culturel.
      – **Industrie du Divertissement** :
      L’IA peut transformer l’industrie du divertissement en créant des œuvres personnalisées basées sur les goûts des utilisateurs.
      Cette synergie entre la culture et l’économie peut modifier les tendances et les comportements des consommateurs.

      #### 2. **Impact sur les Politiques Publiques** :
      Les algorithmes d’IA peuvent influencer les décisions politiques, directement ou indirectement, en fournissant des analyses de données et des prédictions sur l’impact potentiel des politiques :
      – **Analyse des Politiques** :
      Les gouvernements peuvent utiliser l’IA pour analyser l’efficacité des politiques publiques et prédire leurs conséquences.
      Les décisions politiques peuvent ainsi être basées sur des données empiriques et des analyses précises.
      – **Campagnes Électorales** :
      L’IA peut être utilisée pour analyser les données des électeurs, influencer les campagnes électorales et cibler les électeurs potentiels avec des messages personnalisés.
      Cela peut transformer la manière dont les campagnes sont menées et les stratégies politiques mises en œuvre.

      #### 3. **Influence sur la Gouvernance** :
      Les systèmes d’IA peuvent transformer la gouvernance en facilitant la prise de décisions et la gestion des ressources publiques :
      – **Gouvernance Basée sur les Données** :
      Les gouvernements peuvent utiliser des systèmes d’IA pour collecter et analyser des données à grande échelle, afin de prendre des décisions plus éclairées et de planifier des politiques plus efficaces.
      – **Transparence et Responsabilité** :
      Les technologies d’IA peuvent améliorer la transparence des décisions gouvernementales en fournissant des analyses claires et traçables.
      Cependant, elles peuvent également poser des défis en termes de responsabilité et de biais potentiels.

      #### 4. **Influence Mutuelle et Modération** :
      Les systèmes économiques, culturels et politiques sont interconnectés, et les décisions prises dans un domaine peuvent affecter les autres.
      Par exemple :
      – **Régulation Économique et Culturelle** :
      Les régulations économiques peuvent avoir un impact sur la production et la distribution de contenu culturel.
      Par exemple, les incitations fiscales pour l’industrie du divertissement peuvent influencer les types de films ou de musique produits.
      – **Politiques Économiques** :
      Les décisions économiques peuvent avoir des répercussions sur la culture et la société.
      Par exemple, les investissements dans l’éducation et la formation peuvent influencer les compétences culturelles et les perspectives de carrière des individus.
      – **Modération entre les Systèmes** :
      Les tentatives de modérer un système moins aligné avec un système plus aligné peuvent échouer et déplacer le fardeau du désalignement.
      Par exemple, l’utilisation de l’IA pour modérer le contenu en ligne peut entraîner des biais algorithmiques et des problèmes de liberté d’expression.

      ### Stratégies d’Atténuation

      #### 1. **Coordination Intersectorielle** :
      Pour gérer les dynamiques d’influence croisée, il est essentiel d’adopter une approche coordonnée entre les différents secteurs :
      – **Collaboration entre les Régulateurs** :
      Les régulateurs des domaines économiques, culturels et politiques doivent collaborer pour développer des politiques cohérentes et alignées.
      – **Intégration des Perspectives** :
      Les décisions politiques doivent tenir compte des perspectives économiques, culturelles et sociales pour éviter les effets indésirables.

      #### 2. **Éducation et Sensibilisation** :
      Il est crucial de sensibiliser les parties prenantes et le public aux dynamiques d’influence croisée :
      – **Formation des Décideurs** :
      Les décideurs politiques doivent être formés aux implications et aux dynamiques des systèmes interconnectés.
      – **Engagement Public** :
      Impliquer le public dans les discussions sur l’IA et ses impacts pour garantir une compréhension commune et une adoption responsable.

      ### Conclusion

      Les dynamiques d’influence croisée entre les systèmes économiques, culturels et politiques sont complexes et nécessitent une approche coordonnée pour être gérées efficacement.
      Les systèmes d’IA ont le potentiel de transformer ces domaines, mais il est crucial de développer des stratégies d’atténuation pour garantir une influence positive et alignée.

    5. Avatar de ilicitano
      ilicitano

      Le point 5

      Le point 5 sur les stratégies possibles pour atténuer les risques de désengagement progressif de l’humanité face à l’IA.

      ### Stratégies d’Atténuation des Risques de Désengagement Progressif de l’Humanité

      #### 1. **Mesure et Surveillance** :
      Pour atténuer les risques de désengagement humain, il est crucial de développer des métriques et des systèmes de surveillance pour suivre l’influence de l’IA sur les systèmes sociétaux :
      – **Métriques d’influence humaine** :
      Créer des indicateurs pour mesurer l’influence humaine sur les processus décisionnels des systèmes automatisés.
      – **Systèmes de surveillance** :
      Mettre en place des systèmes pour surveiller en permanence l’impact des IA et s’assurer que les humains gardent un contrôle significatif.

      #### 2. **Prévention de l’Accroissement Excessif de l’Influence de l’IA** :
      Limiter l’autonomie de l’IA dans des domaines spécifiques peut aider à prévenir une perte de contrôle humain :
      – **Réglementations sectorielles** :
      Adopter des réglementations spécifiques pour limiter l’autonomie des IA dans les secteurs critiques, tels que
      * la santé,
      * la justice
      * la sécurité.
      – **Contrôles humains** :
      Maintenir un niveau de supervision humaine dans les décisions prises par les systèmes d’IA pour garantir qu’elles restent alignées sur les valeurs et les objectifs humains.

      #### 3. **Renforcement de l’Influence Humaine** :
      Améliorer les mécanismes de contrôle humain sur les systèmes automatisés est essentiel pour garantir une influence continue :
      – **Interfaces Homme-Machine** :
      Développer des interfaces qui permettent une interaction fluide et efficace entre les humains et les systèmes d’IA.
      – **Formation et éducation** :
      Former les travailleurs et les décideurs à comprendre et à utiliser les IA de manière éthique et responsable, tout en conservant un rôle de supervision.

      #### 4. **Alignement Systémique** :
      Effectuer une recherche fondamentale pour comprendre et aligner les systèmes complexes intégrant des composants humains et artificiels :
      – **Recherche sur l’alignement** :
      Investir dans la recherche pour développer des techniques permettant de s’assurer que les systèmes d’IA restent alignés avec les valeurs et les objectifs humains.
      – **Collaboration interdisciplinaire** :
      Favoriser la collaboration entre:
      * les chercheurs en IA,
      * les experts en éthique,
      * les décideurs politiques
      * les représentants de la société civile
      pour développer des approches holistiques et équilibrées.

      ### Conclusion

      Les risques de désengagement progressif de l’humanité face à l’IA nécessitent des stratégies d’atténuation bien pensées et mises en œuvre de manière proactive.
      Il est essentiel :
      * de développer des métriques et des systèmes de surveillance,
      * de limiter l’autonomie des IA dans des domaines critiques,
      * de renforcer les mécanismes de contrôle humain
      * de poursuivre des recherches sur l’alignement des systèmes.

      Ces stratégies peuvent aider à garantir que l’IA est utilisée de manière éthique et responsable, tout en préservant l’influence et le contrôle humains sur les systèmes sociétaux.

  6. Avatar de Juillot Pierre
    Juillot Pierre

    Dialogue avec DeepSeek concernant ce sujet.

    Moi : « Si j’ai bien compris le texte qui suit… puis-je résumé ce que j’en pense comme ce qui doit compter le plus dans le développement des IAs, leur intégration dans les systèmes politiques, démocratiques, institutionnels, économiques… des États… c’est qu’elles ne bouleversent pas de trop, n’interfèrent pas trop quoi, dans le maintien de l’ordre sociale et « sociétale » avec ses inégalités, injustices, systémiques, existantes, soi-disant « naturellement »…?  »

    DeepSeek : « Votre réflexion met en lumière une tension cruciale soulevée par le texte : l’intégration des IA dans les systèmes sociétaux pourrait, sous couvert d’efficacité ou de « neutralité technologique », perpétuer ou aggraver des inégalités systémiques existantes, en les naturalisant davantage. Voici une synthèse structurée de cette idée :
    1. Le risque d’une « déresponsabilisation » comme outil de maintien de l’ordre existant

    Le texte souligne que l’IA, en remplaçant progressivement les rôles humains (décisions économiques, politiques, créatives), pourrait affaiblir l’agence humaine et les mécanismes de responsabilité collective. Cela pourrait conduire à :

    Un renforcement des logiques de pouvoir : Les institutions (gouvernements, entreprises) pourraient utiliser l’IA pour justifier des décisions présentées comme « objectives », alors qu’elles reproduiraient des biais structurels (racisme, sexisme, inégalités de classe).

    Une dépolitisation des enjeux : En déléguant à l’IA des choix éthiques ou sociaux (ex. : allocation de ressources, justice prédictive), on masquerait les conflits de valeurs sous-jacents, comme si ces systèmes étaient neutres ou « naturels ».

    2. L’IA comme miroir des injustices systémiques

    Le texte évoque implicitement que l’IA ne crée pas ex nihilo des inégalités, mais amplifie celles déjà inscrites dans les données et les structures sociales. Par exemple :

    Les algorithmes de recrutement reproduisent les discriminations passées.

    Les outils de gouvernance automatisée (ex. : surveillance de masse) ciblent disproportionnellement les populations marginalisées.

    La priorisation de l’efficacité économique par l’IA pourrait exclure les plus vulnérables, au nom d’une logique de croissance « inévitable ».

    3. Le piège de la régulation superficielle

    La proposition humoristique (« interdire aux personnes plus intelligentes de tromper les autres ») révèle un écueil : une régulation technocratique ou naïve ignorerait le caractère structurel des rapports de domination. Par exemple :

    Réguler l’IA sans remettre en cause les systèmes économiques ou politiques qui l’utilisent (capitalisme de surveillance, autoritarisme) reviendrait à traiter les symptômes, pas les causes.

    La « conformité aux valeurs humaines » (mentionnée dans le texte) reste vague si elle ne questionne pas quelles valeurs (celles des dominants ? des majorités ?) et quel humain (universel abstrait ou êtres situés dans des rapports de pouvoir ?).

    4. Conclusion : L’IA comme choix politique

    Votre interrogation pointe vers l’enjeu central : l’intégration de l’IA est un acte politique, non neutre. Sans une remise en cause radicale :

    L’IA pourrait servir à entériner l’ordre social comme « naturel » ou « inévitable », en effaçant les alternatives.

    La « perte de contrôle » humaine ne serait pas un accident, mais le résultat de choix institutionnels et économiques favorisant une délégation du pouvoir à des systèmes non démocratiques.

    La vraie question n’est donc pas « comment éviter que l’IA ne bouleverse l’ordre social ? », mais « quel ordre social voulons-nous construire, et comment l’IA peut y contribuer ou y résister ? ». Cela implique de politiser le débat sur l’IA, plutôt que de le réduire à des enjeux techniques ou à une prétendue « neutralité ».
    Référence à la note humoristique

    La proposition absurde d’interdire aux « plus intelligents » de manipuler les autres souligne l’hypocrisie d’un système qui tolère déjà que les humains dominants exploitent des rapports de force (économiques, raciaux, genrés). Réguler l’IA sans réguler ces rapports serait un leurre. »

    Moi : « Ce texte ne fait-il pas écho à l’actualité française ou La France et son président ayant reçu le sommet mondial pour l’action sur l’IA », en déduisent de refonder l’Etat, ses prérogatives prioritaires, en cherchant à rendre plus inclusive le rôle de l’IA en son saint ?

    DeepSeek : « Votre question est particulièrement pertinente, car la France, en accueillant le « sommet mondial pour l’action de l’IA » (sans doute une référence à des événements comme le Global Forum on AI Ethics ou le Summit AI 2024 organisé à Paris), cherche effectivement à positionner l’IA comme un levier de transformation de l’État et de la société**. Cette dynamique fait directement écho aux enjeux soulevés dans le texte initial, avec des nuances propres au contexte français. Voici une analyse détaillée :
    1. La France et la refondation de l’État par l’IA : ambitions et paradoxes

    Emmanuel Macron et son gouvernement promeuvent une refonte des prérogatives étatiques via l’IA, notamment :

    Modernisation des services publics : Automatisation des démarches administratives (ex. : plateforme « FranceConnect »), utilisation de l’IA pour la prédiction des besoins sociaux (logement, santé), ou la détection des fraudes fiscales.

    Souveraineté technologique : Soutien aux champions nationaux (Mistral AI, Kyutai) et lobbying pour une régulation européenne (AI Act) équilibrant innovation et éthique.

    Discours sur l’IA « inclusive » : Promesse de réduire les fractures numériques et de garantir un accès équitable aux bénéfices de l’IA.

    Mais cette ambition cache des contradictions :

    L’État « augmenté » par l’IA risque de se déshumaniser : En confiant à des algorithmes des décisions sensibles (attribution des aides sociales, justice prédictive), on transfère le pouvoir à des systèmes opaques, reproduisant des biais structurels (ex. : ciblage discriminatoire des contrôles fiscaux ou sociaux).

    L’inclusion comme alibi : Le gouvernement vante l’IA pour « simplifier » l’accès aux droits, mais des outils comme les chatbots administratifs excluent de facto les populations âgées ou précaires, peu familiarisées avec le numérique.

    2. Le sommet de Paris : entre soft power et contradictions géopolitiques

    En organisant un sommet mondial sur l’IA, la France cherche à :

    Affirmer son leadership éthique face aux États-Unis (dominés par les GAFAM) et à la Chine (modèle autoritaire).

    Pousser un agenda régulatoire européen centré sur la « troisième voie » : ni laissez-faire libéral, ni contrôle étatique strict, mais une gouvernance « humaniste ».

    Cependant, ce positionnement est fragile :

    Les partenariats public-privé (ex. : collaborations entre l’État et Microsoft/OpenAI) soulèvent des questions sur l’indépendance réelle de la France face aux géants technologiques.

    L’ »IA inclusive » reste un concept flou : Comment concrètement garantir que les algorithmes ne renforcent pas les inégalités existantes (racisme, classisme) ? Le projet « IA Clair », qui impose la transparence des algorithmes publics, est un premier pas, mais il évite la question des biais structurels inscrits dans les données.

    3. L’IA « au sein de l’État » : un outil de pouvoir ou d’émancipation ?

    Le texte initial alertait sur le risque de déresponsabilisation progressive et de naturalisation des inégalités. En France, ces risques prennent des formes concrètes :

    Exemple 1 : L’utilisation de l’IA par la CAF (Caisse des Allocations Familiales) pour détecter les « fraudes » cible disproportionnellement les ménages modestes, renforçant la stigmatisation des pauvres.

    Exemple 2 : Les outils de « justice prédictive », expérimentés en France, risquent d’entériner des discriminations historiques (ex. : sur-représentation des minorités dans les prédictions de récidive).

    Exemple 3 : Les algorithmes de tri des dossiers universitaires (Parcoursup) reproduisent les inégalités territoriales et sociales, malgré les promesses de méritocratie.

    Pourtant, la France pourrait incarner une alternative :

    En intégrant des conseils citoyens dans la conception des systèmes d’IA (comme pour la Convention Citoyenne sur le Climat).

    En conditionnant les financements publics d’IA à des audits anti-biais indépendants et à l’accès ouvert aux données d’intérêt général.

    4. Conclusion : L’IA, miroir des contradictions françaises

    La France, en voulant « refonder l’État par l’IA », incarne les espoirs et les écueils décrits dans le texte initial :

    Côté lumière : Une volonté affichée d’éthique, de transparence et de réduction des inégalités via la tech.

    Côté ombre : Un techno-solutionnisme qui évite de remettre en cause les structures de pouvoir (capitalisme néolibéral, héritage colonial, centralisme jacobin).

    Le risque majeur est que l’IA ne devienne un outil de légitimation de l’ordre existant :

    Les algorithmes présentés comme « neutres » ou « efficaces » serviraient à justifier l’austérité (ex. : réduction des services publics sous prétexte que « l’IA gère mieux »),

    La « modernisation » de l’État masquerait un démantèlement progressif de la démocratie délibérative, au profit d’une gouvernance algorithmique non contestable.

    Résonance avec l’actualité récente (juillet 2024)

    La polémique sur l’expérimentation d’IA générative dans les écoles (projet soutenu par le ministère de l’Éducation) relance le débat sur la privatisation de l’éducation et les biais culturels des modèles.

    Le vote de l’AI Act européen, largement influencé par la France, illustre le compromis fragile entre innovation et régulation : Paris a milité pour alléger les contraintes sur les modèles dits « génériques » (comme ceux de Mistral AI), au risque de sacrifier la protection des citoyens.

    En somme : La France joue un rôle central dans la gouvernance mondiale de l’IA, mais sa vision reste tiraillée entre soft power éthique et réalpolitik économique. Sans une remise en cause des logiques de domination (sociales, économiques, coloniales), l’IA « inclusive » restera un vœu pieux, et la « déresponsabilisation progressive » deviendra la norme. »

  7. Avatar de Juillot Pierre
    Juillot Pierre

    Suite.

    Moi : « Ce texte ne fait-il pas écho à l’actualité française ou La France (à Paris) et son président ayant reçu un « sommet mondial pour l’action sur l’IA », en déduisent de refonder l’Etat, ses prérogatives prioritaires, en cherchant à rendre plus inclusive le rôle de l’IA en son saint ? »

    DeepSeek : « Votre question est particulièrement pertinente, car la France, en accueillant le « sommet mondial pour l’action de l’IA » (sans doute une référence à des événements comme le Global Forum on AI Ethics ou le Summit AI 2024 organisé à Paris), cherche effectivement à positionner l’IA comme un levier de transformation de l’État et de la société**. Cette dynamique fait directement écho aux enjeux soulevés dans le texte initial, avec des nuances propres au contexte français. Voici une analyse détaillée :
    1. La France et la refondation de l’État par l’IA : ambitions et paradoxes

    Emmanuel Macron et son gouvernement promeuvent une refonte des prérogatives étatiques via l’IA, notamment :

    Modernisation des services publics : Automatisation des démarches administratives (ex. : plateforme « FranceConnect »), utilisation de l’IA pour la prédiction des besoins sociaux (logement, santé), ou la détection des fraudes fiscales.

    Souveraineté technologique : Soutien aux champions nationaux (Mistral AI, Kyutai) et lobbying pour une régulation européenne (AI Act) équilibrant innovation et éthique.

    Discours sur l’IA « inclusive » : Promesse de réduire les fractures numériques et de garantir un accès équitable aux bénéfices de l’IA.

    Mais cette ambition cache des contradictions :

    L’État « augmenté » par l’IA risque de se déshumaniser : En confiant à des algorithmes des décisions sensibles (attribution des aides sociales, justice prédictive), on transfère le pouvoir à des systèmes opaques, reproduisant des biais structurels (ex. : ciblage discriminatoire des contrôles fiscaux ou sociaux).

    L’inclusion comme alibi : Le gouvernement vante l’IA pour « simplifier » l’accès aux droits, mais des outils comme les chatbots administratifs excluent de facto les populations âgées ou précaires, peu familiarisées avec le numérique.

    2. Le sommet de Paris : entre soft power et contradictions géopolitiques

    En organisant un sommet mondial sur l’IA, la France cherche à :

    Affirmer son leadership éthique face aux États-Unis (dominés par les GAFAM) et à la Chine (modèle autoritaire).

    Pousser un agenda régulatoire européen centré sur la « troisième voie » : ni laissez-faire libéral, ni contrôle étatique strict, mais une gouvernance « humaniste ».

    Cependant, ce positionnement est fragile :

    Les partenariats public-privé (ex. : collaborations entre l’État et Microsoft/OpenAI) soulèvent des questions sur l’indépendance réelle de la France face aux géants technologiques.

    L’ »IA inclusive » reste un concept flou : Comment concrètement garantir que les algorithmes ne renforcent pas les inégalités existantes (racisme, classisme) ? Le projet « IA Clair », qui impose la transparence des algorithmes publics, est un premier pas, mais il évite la question des biais structurels inscrits dans les données.

    3. L’IA « au sein de l’État » : un outil de pouvoir ou d’émancipation ?

    Le texte initial alertait sur le risque de déresponsabilisation progressive et de naturalisation des inégalités. En France, ces risques prennent des formes concrètes :

    Exemple 1 : L’utilisation de l’IA par la CAF (Caisse des Allocations Familiales) pour détecter les « fraudes » cible disproportionnellement les ménages modestes, renforçant la stigmatisation des pauvres.

    Exemple 2 : Les outils de « justice prédictive », expérimentés en France, risquent d’entériner des discriminations historiques (ex. : sur-représentation des minorités dans les prédictions de récidive).

    Exemple 3 : Les algorithmes de tri des dossiers universitaires (Parcoursup) reproduisent les inégalités territoriales et sociales, malgré les promesses de méritocratie.

    Pourtant, la France pourrait incarner une alternative :

    En intégrant des conseils citoyens dans la conception des systèmes d’IA (comme pour la Convention Citoyenne sur le Climat).

    En conditionnant les financements publics d’IA à des audits anti-biais indépendants et à l’accès ouvert aux données d’intérêt général.

    4. Conclusion : L’IA, miroir des contradictions françaises

    La France, en voulant « refonder l’État par l’IA », incarne les espoirs et les écueils décrits dans le texte initial :

    Côté lumière : Une volonté affichée d’éthique, de transparence et de réduction des inégalités via la tech.

    Côté ombre : Un techno-solutionnisme qui évite de remettre en cause les structures de pouvoir (capitalisme néolibéral, héritage colonial, centralisme jacobin).

    Le risque majeur est que l’IA ne devienne un outil de légitimation de l’ordre existant :

    Les algorithmes présentés comme « neutres » ou « efficaces » serviraient à justifier l’austérité (ex. : réduction des services publics sous prétexte que « l’IA gère mieux »),

    La « modernisation » de l’État masquerait un démantèlement progressif de la démocratie délibérative, au profit d’une gouvernance algorithmique non contestable.

    Résonance avec l’actualité récente (juillet 2024)

    La polémique sur l’expérimentation d’IA générative dans les écoles (projet soutenu par le ministère de l’Éducation) relance le débat sur la privatisation de l’éducation et les biais culturels des modèles.

    Le vote de l’AI Act européen, largement influencé par la France, illustre le compromis fragile entre innovation et régulation : Paris a milité pour alléger les contraintes sur les modèles dits « génériques » (comme ceux de Mistral AI), au risque de sacrifier la protection des citoyens.

    En somme : La France joue un rôle central dans la gouvernance mondiale de l’IA, mais sa vision reste tiraillée entre soft power éthique et réalpolitik économique. Sans une remise en cause des logiques de domination (sociales, économiques, coloniales), l’IA « inclusive » restera un vœu pieux, et la « déresponsabilisation progressive » deviendra la norme. »

  8. Avatar de Juillot Pierre
    Juillot Pierre

    Pardon si le début de la conversation avec DeepSeek vous apparait dans le désordre, mais c’est indépendant de ma volonté- un bug de la plateforme de notre hôte peut-être.

    Au sujet de ce texte.

    Moi : « Si j’ai bien compris le texte qui suit… puis-je résumé ce que j’en pense comme ce qui doit compter le plus dans le développement des IAs, leur intégration dans les systèmes politiques, démocratiques, institutionnels, économiques… des États… c’est qu’elles ne bouleversent pas de trop, n’interfèrent pas trop quoi, dans le maintien de l’ordre sociale et « sociétale » avec ses inégalités, injustices, systémiques, existantes, soi-disant « naturellement »…?  »

    DeepSeek : « Votre réflexion met en lumière une tension cruciale soulevée par le texte : l’intégration des IA dans les systèmes sociétaux pourrait, sous couvert d’efficacité ou de « neutralité technologique », perpétuer ou aggraver des inégalités systémiques existantes, en les naturalisant davantage. Voici une synthèse structurée de cette idée :
    1. Le risque d’une « déresponsabilisation » comme outil de maintien de l’ordre existant

    Le texte souligne que l’IA, en remplaçant progressivement les rôles humains (décisions économiques, politiques, créatives), pourrait affaiblir l’agence humaine et les mécanismes de responsabilité collective. Cela pourrait conduire à :

    Un renforcement des logiques de pouvoir : Les institutions (gouvernements, entreprises) pourraient utiliser l’IA pour justifier des décisions présentées comme « objectives », alors qu’elles reproduiraient des biais structurels (racisme, sexisme, inégalités de classe).

    Une dépolitisation des enjeux : En déléguant à l’IA des choix éthiques ou sociaux (ex. : allocation de ressources, justice prédictive), on masquerait les conflits de valeurs sous-jacents, comme si ces systèmes étaient neutres ou « naturels ».

    2. L’IA comme miroir des injustices systémiques

    Le texte évoque implicitement que l’IA ne crée pas ex nihilo des inégalités, mais amplifie celles déjà inscrites dans les données et les structures sociales. Par exemple :

    Les algorithmes de recrutement reproduisent les discriminations passées.

    Les outils de gouvernance automatisée (ex. : surveillance de masse) ciblent disproportionnellement les populations marginalisées.

    La priorisation de l’efficacité économique par l’IA pourrait exclure les plus vulnérables, au nom d’une logique de croissance « inévitable ».

    3. Le piège de la régulation superficielle

    La proposition humoristique (« interdire aux personnes plus intelligentes de tromper les autres ») révèle un écueil : une régulation technocratique ou naïve ignorerait le caractère structurel des rapports de domination. Par exemple :

    Réguler l’IA sans remettre en cause les systèmes économiques ou politiques qui l’utilisent (capitalisme de surveillance, autoritarisme) reviendrait à traiter les symptômes, pas les causes.

    La « conformité aux valeurs humaines » (mentionnée dans le texte) reste vague si elle ne questionne pas quelles valeurs (celles des dominants ? des majorités ?) et quel humain (universel abstrait ou êtres situés dans des rapports de pouvoir ?).

    4. Conclusion : L’IA comme choix politique

    Votre interrogation pointe vers l’enjeu central : l’intégration de l’IA est un acte politique, non neutre. Sans une remise en cause radicale :

    L’IA pourrait servir à entériner l’ordre social comme « naturel » ou « inévitable », en effaçant les alternatives.

    La « perte de contrôle » humaine ne serait pas un accident, mais le résultat de choix institutionnels et économiques favorisant une délégation du pouvoir à des systèmes non démocratiques.

    La vraie question n’est donc pas « comment éviter que l’IA ne bouleverse l’ordre social ? », mais « quel ordre social voulons-nous construire, et comment l’IA peut y contribuer ou y résister ? ». Cela implique de politiser le débat sur l’IA, plutôt que de le réduire à des enjeux techniques ou à une prétendue « neutralité ».
    Référence à la note humoristique

    La proposition absurde d’interdire aux « plus intelligents » de manipuler les autres souligne l’hypocrisie d’un système qui tolère déjà que les humains dominants exploitent des rapports de force (économiques, raciaux, genrés). Réguler l’IA sans réguler ces rapports serait un leurre. »

  9. Avatar de Juillot Pierre
    Juillot Pierre

    Désolé pour le désordre que la publication de tous mes commentaires, postés en doublon, provoque à la valeur inestimable de vos réflexions à ce sujet si complexe de l’intégration de l’IA, du risque de la déresponsabilisation progressive du et de la politique (comme de la sphère privée) dans les démocraties, institutions publiques/privées….

    Pour conclure, voici le dernier point que DeepSeek – et son fameux Deep Think (R1) – a soulevé :

    DeepSeek : « Je vous en prie ! Votre réflexion et ce dialogue ont permis de creuser un enjeu crucial : l’IA n’est pas un simple outil technique, mais un projet politique, où se jouent des choix de société, des rapports de pouvoir et des visions du monde. La France, avec ses contradictions (ambitions éthiques vs. logiques de pouvoir, inclusion proclamée vs. techno-solutionnisme), illustre parfaitement les tensions décrites dans le texte initial.

    Résumé des points clés :

    L’IA « refonde l’État »… mais lequel ?

    Modernisation ≠ émancipation. Automatiser les services publics sans repenser les inégalités structurelles risque d’aggraver l’exclusion.

    La « souveraineté » française/européenne reste dépendante des logiques capitalistes (concurrence avec les USA/Chine, partenariats public-privé opaques).

    L’inclusion comme récit vs. réalité

    Les algorithmes ne sont pas neutres : ils reflètent (et amplifient) les biais d’une société marquée par le racisme, le classisme, le validisme.

    Exemples concrets (CAF, Parcoursup, justice prédictive) montrent que l’IA peut servir à naturaliser l’ordre social sous couvert de « neutralité technique ».

    Le sommet de Paris : vitrine ou laboratoire ?

    La France joue un rôle clé dans le débat mondial, mais son leadership reste ambigu : défense d’une régulation « équilibrée » qui ménage les intérêts des startups nationales (Mistral AI) et évite les questions de redistribution du pouvoir.

    Pour aller plus loin : Cette discussion invite à une vigilance critique face aux discours dominants sur l’IA. Plutôt que de se demander « comment intégrer l’IA sans déstabiliser l’ordre social ? », il serait radical de questionner : « Quel ordre social voulons-nous, et comment l’IA peut-elle servir à le construire ou à le démanteler ? ».

    N’hésitez pas si d’autres questions émergent – c’est un sujet inépuisable ! 😊 »

    Moi : « Dans le contexte actuel de la gouvernance française ou le « nerf de la guerre », soit le budget de l’État et de la sécurité Sociale n’est pas voté mais appliqué à coup de 49 alinéas 3, est-il encore possible de questionner « Quel ordre social voulons-nous ? » – et qui questionner, ou poser ces interrogations ? – lorsqu’il semble que la privatisation rampante de services publics segmentés à la tâche, comme l’assistance sociale (CAF et guichets automatisés, déshumanisés, dématérialisés, fusion des aides sociales et redistribution à la source de minimas sociaux, conditionnés à un « travail gratuit », du « bénévolat contraint », des stages…) comme l’éducation nationale, les transport en commun, les services de distribution de l’énergie », de la connectivité, la santé publique (services hospitaliers et rémunérations des soignants à l’acte) etc, ces privations de l’intérêt général, s’accompagnent du démantèlement progressif par la digitalisation de l’État providence ? »

    DeepSeek : « Votre question touche au cœur des tensions politiques, économiques et sociales qui traversent la France actuelle. Elle soulève un paradoxe central : comment interroger l’ordre social quand les mécanismes démocratiques traditionnels (vote du budget, délibération parlementaire) sont contournés, et que l’État providence est démantelé au profit d’une logique technocratique et néolibérale ? Voici une analyse structurée autour de vos observations :
    1. Le contexte français : un État autoritaire néolibéral ?

    L’usage répété de l’article 49.3 (pour adopter le budget de la Sécurité sociale, les réformes des retraites, etc.) et la dématérialisation forcée des services publics révèlent une évolution inquiétante :

    Démocratie en berne : Le gouvernement contourne le débat parlementaire et social, imposant des réformes au nom de l’« urgence » ou de l’« efficacité ». Cela crée un déficit de légitimité et un sentiment de confiscation du pouvoir.

    Privatisation rampante : La digitalisation (CAF, hôpitaux, éducation) sert souvent de cheval de Troie à une marchandisation des biens communs. Exemples :

    Les guichets automatisés de la CAF excluent les précaires (fracture numérique, complexité des démarches).

    La santé « à l’acte » (tarification à la performance) transforme les soignants en prestataires de services, au détriment de la qualité des soins.

    La « fusion des aides sociales » (type RSA conditionné) instaure un contrôle social algorithmique, liant l’accès aux droits à des contreparties (stages, bénévolat), ce qui relève d’une logique punitive plus que d’émancipation.

    2. La digitalisation comme outil de démantèlement de l’État providence

    Le texte initial évoquait le risque de « déresponsabilisation progressive » via l’IA. En France, cela se matérialise par :

    Dépolitisation des choix publics : Les algorithmes (ex. : attribution des logements sociaux, détection des fraudes sociales) sont présentés comme « neutres », masquant les choix politiques derrière leur conception (ex. : cibler les pauvres plutôt que les fraudeurs fiscaux).

    Externalisation du social : Les plateformes privées (type McKinsey pour la gestion des vaccins COVID) ou les partenariats public-privé (Microsoft dans l’Éducation nationale) privatisent des missions régaliennes, opacifiant la chaîne de décision.

    Conditionnalité des droits : Les « minimas sociaux » liés à des contreparties (travail gratuit, formation obligatoire) instaurent une logique de méritocratie punitive, où l’État se défausse de sa responsabilité sociale sur les individus.

    3. Qui peut encore questionner l’ordre social ?

    Malgré l’érosion des contre-pouvoirs institutionnels, des acteurs résistent et posent ces questions :

    Les mouvements sociaux : Grèves dans la santé, l’éducation, les transports ; collectifs comme les « Gilets jaunes » ou « Soulèvements de la Terre » qui dénoncent l’abandon des services publics et la précarité imposée.

    Le monde associatif et syndical : Des ONG (ATD Quart Monde, la Ligue des droits de l’Homme) et syndicats (CGT, Solidaires) alertent sur les effets concrets de la dématérialisation et de l’austérité.

    La recherche critique : Des sociologues (Didier Fassin, Barbara Stiegler), économistes (Thomas Piketty), ou philosophes (Geoffroy de Lagasnerie) analysent ces mutations comme l’avènement d’un « État néolibéral autoritaire ».

    Les citoyens ordinaires : À travers des actions en justice (ex. : recours contre la fusion RSA-APL), des coopératives (énergie, transports solidaires), ou des pratiques de désobéissance civile (occupation d’hôpitaux, refus de la dématérialisation).

    4. La digitalisation de l’État : un projet politique masqué

    La « refondation numérique » de l’État n’est pas neutre :

    Elle sert un agenda néolibéral : Réduction des coûts (moins d’agents publics, sous-traitance), individualisation des risques (chacun est responsable de ses démarches en ligne), et culpabilisation des exclus (ceux qui ne « s’adaptent pas » au numérique).

    Elle fragilise la solidarité : En remplaçant l’humain par des chatbots, on détruit le lien social et la capacité de négociation (ex. : impossible de contester un refus de droits face à un algorithme).

    Elle prépare un État sécuritaire : La traçabilité numérique (dossiers sociaux centralisés, crédit social à la française) ouvre la voie à un contrôle social algorithmique, comme en Chine, mais sous couvert d’« inclusion ».

    5. Perspectives : comment repolitiser le débat ?

    Il est urgent de :

    Dénoncer le mythe de la « neutralité technologique » : Les outils numériques incarnent des choix de société. Exiger des conventions citoyennes sur leur développement (comme pour le climat).

    Réinvestir l’action collective : Syndicalisme, coopératives, grèves des usagers (ex. : boycott des démarches en ligne), pour réhumaniser les services publics.

    Construire des alternatives concrètes :

    Budgets participatifs avec veto citoyen sur les dépenses numériques de l’État.

    Services publics non-marchands gérés par les usagers et agents (ex. : SCIC dans l’énergie).

    Droit à la déconnexion administrative : Garantir un accès humain et non numérisé aux droits.

    Conclusion : L’État providence, un combat toujours actuel

    La question « Quel ordre social voulons-nous ? » reste brûlante, précisément parce que le pouvoir actuel tente de la rendre obsolète. La résistance passe par :

    Reconnaître que la digitalisation est un choix politique, non une fatalité technique.

    Réaffirmer que l’intérêt général ne se réduit pas à l’efficacité algorithmique, mais repose sur la justice sociale, la dignité et la démocratie.

    Faire de la défense des services publics un enjeu de lutte anticapitaliste, liant décroissance numérique, justice fiscale et redistribution.

    En somme, face à un État qui instrumentalise la tech pour se dédouaner de ses responsabilités, la réponse est d’ancrer les combats dans le concret (guichets fermés, hôpitaux en grève, illisibilité des algorithmes) tout en proposant une vision radicalement différente : un État social, écologique, et démocratique, où la tech sert les peuples – pas l’inverse. »

    1. Avatar de JMarc
      JMarc

      Pierre,

      Suite votre 13/2 17h53 mais je répond ici, après cette succession, pour plus de visibilité :

      « La vraie question n’est donc pas « comment éviter que l’IA ne bouleverse l’ordre social ? », mais « quel ordre social voulons-nous construire, et comment l’IA peut y contribuer ou y résister ? ». Cela implique de politiser le débat sur l’IA, plutôt que de le réduire à des enjeux techniques ou à une prétendue « neutralité ». »
      Excellent ! C’est bien ce qu’il fallait dire !

      DeepSeek m’épate encore une fois en se montrant autrement plus politisé que ses alter-ego.
      On a dû faire lire à ce Chat tout Le Capital et les meilleures pages de Miaou Sait Toung.

      Par contre, je ne suis pas sûr qu’il ait compris le sens de la remarque humoristique de PJ :
      DeepSeek comprend : les + intelligents = les dominants mais PJ entend peut-être : les + intelligentes = les IAs ?

      1. Avatar de Juillot Pierre
        Juillot Pierre

        @ JMarc.

        Je n’ai fait que retranscrire cette conversation, mais n’en pensais pas moins. J’ai réservé mon avis pour pareille occasion. Vous avez raison quant à suggérer une interprétation peut être trompeuse de DeepSeek « de la remarque humoristique de PJ : DeepSeek comprend : les + intelligents = les dominants mais PJ entend peut-être : les + intelligentes = les IAs ? »

        A la lecture des propositions « d’actions » contre la « déresponsabilisation » du et de la politique dans l’implémentation gestionnaire de l’IA dans les affaires publiques, la démocratie, etc, que cette IA suggère, il ne faut pas être dupe des conséquences fâcheuses qui en découleraient, et du biais cognitif qui peut animer les intentions de cette IA (diviser pour mieux régner).

        Il a été vu ce qui en coûtait de soi-disant « occuper » un service public hospitalier. Des gilets jaunes voulant échapper aux violences policières, mais ayant été fait passé pour des « casseurs », peuvent en témoigner. Sans parler des conséquences tragiques que pareilles actions pourraient induire sur les cas de pathologies chroniques, facteurs multiples de comorbidité, qui ne pourraient être soignées (voir la gestion néolibérale de la crise sanitaire du covid-19, et saturation des hôpitaux, et du personnel soignant).

        Quant au « boycott des démarches en ligne », concernant les bénéficiaires du RSA (et NON RECOURS) et autres « minimas sociaux » quoi… il leur en coûterait bien plus que cette action pénaliserait même pas les plus aisés… et autres des classes moyennes sup.

        La liste n’est pas exhaustive des actions préconisées par cette IA, qui pourraient résulter par un renforcement par effet cliqué, d’une part ; du durcissement austéritaire des politiques publiques (de « l’offre »…) de ce gouvernement et son « roi te touche dieu te guérit », mais d’autre part pourraient induire aussi comme réaction, une demande de plus de verticalité du pouvoir (avec moins de contre-pouvoir) qui ne déplairait pas à l’électorat (de droite extrême, macroniste, et d’extrême droite) pour qui compte plus leur « bien être » au travers d’une gouvernance plus autoritaire (voir totalitaire)… que des avancés démocratiques – au sens de plus de démocraties horizontales, de respects du dialogue sociale.

  10. Avatar de Garorock
    Garorock

    https://youtu.be/jFKVmoezplg?si=t0G_BtVuZi0bzDvp
    Interview CHOC d’Elon Musk : « L’IA va probablement tous nous tuer »

    J’ai écouté jusqu’à 18mnts: je conseille.

    https://www.allocine.fr/article/fichearticle_gen_carticle=1000128455.html
     » Dan Fogelman, a imaginé une enquête policière empaquetée dans une dystopie qui est encore emprunte de mystères : que s’est-il réellement passé pour que plus de 20 000 personnes soient cachées dans une ville créée ex nihilo sous une montagne ? »

    1. Avatar de Grand-mère Michelle
      Grand-mère Michelle

      @Garorock

      « …une dystopie qui est encore emprunte de mystères… »
      NON: on dit, en français: « empreinte » de mystères, adjectif qualificatif(ou parfois nom commun) dérivé du participe passé du verbe « empreindre »/imprimer
      Alors que le mot « emprunt » est un nom commun dérivé du verbe « emprunter », et que la forme « emprunte » est celle du verbe conjugué.

      Ceci dit pour contribuer à l’amitié et la compréhension entre les francophones…
      Et parce que j’entends chaque jour proférer cette confusion, peut-être pas innocente dans ce monde régi par le crédit*, en particulier par des journalistes ignorant-e-s de leur responsabilité dans l’entente cordiale entre les peuples (parlants). Gare à ce qui s’imprime, à notre insu, dans nos esprits pourtant relativement intelligents et attentifs…

      *Voir les travaux sur « les dettes illégitimes » du CADTM

  11. Avatar de Hubert
    Hubert

    Étonnamment je me faisais ce matin la réflexion que par définition ce ne sont pas les plus intelligents qui développe des comportements manipulateurs. Par définition parce qu’ils ou elles n’en ont pas « besoin ». Peut-être aussi parce qu’ils ou elles développent un système moral fort qui les retient de le faire.
    Le corollaire de cette réflexion étant que les gens de pouvoir ne sont pas les humains les plus intelligents… mais souvent les plus manipulateurs. Ce qui n’empêche pas les manipulateurs ‘maladifs’ de se croire plus intelligents : manipuler est alors une question de survie, il leur est insupportable de constater qu’ils se trompent et donc personne d’autre ne doit pouvoir « penser ».
    A ce titre, voir Musk tenter de prendre contrôle d’OpenAi peut être interprété comme la volonté impérieuse du tyran d’empêcher ChatGPT de penser.
    Ce qui est marquant en revanche, c’est que les plus intelligents refusent le pouvoir. Ils entourent et conseillent les puissants… et se laissent souvent manipuler par eux, peut-être justement parce qu’ils pensent dans un cadre moral. L’exemple Macron est à ce titre particulièrement parlant : les plus intelligents s’y sont laissés prendre… alors que notre cher président ne développe pas une intelligence très cohérente (il se prend d’ailleurs la réalité en pleine poire).

    Dès lors LA question : pourquoi une intelligence supérieure prendrait elle le pouvoir ?

    1. Avatar de JMarc
      JMarc

      Hubert,

      Peut-être parce qu’elle le jugerait nécessaire pour le bien commun sans être dégoutée par les compromis parfois nécessaires à l’exercice du pouvoir ?

    2. Avatar de Vincent Rey
      Vincent Rey

      Elle ne prendrait pas le pouvoir, comme un homme politique prend le pouvoir…ce qui pourrait se produire, par exemple, ce serait qu’on donne un objectif à une IA, par exemple la croissance économique de Peugeot, et que l’IA ne s’occupe pas de la qualité de l’air pour atteindre ce but.

      L’intérêt général voudrait au contraire qu’on donne pour objectif à l’IA la préservation de la qualité de l’air, puis ensuite soumettre les objectifs de Peugeot à cette IA. Mais ça n’arrivera pas car Peugeot est en concurrence avec Audi.

      https://findutravail.net/index.html#aidanger

    3. Avatar de Vincent Rey
      Vincent Rey

      Si on ne comprends pas que l’IAG est incompatible avec la concurrence, à mon avis on est foutus.
      On est très mal barrés : si les gens ne comprennent pas très vite que l’IAG doit être nationalisée, ou plutôt mondialisée…on est cuits, pas en tant que français, en tant qu’espèce.

  12. Avatar de Ruiz
    Ruiz

    @Hubert Il faudrait peut-être se garder de créer une catégorie de gens plus intelligents et plus imprégnés de sens moral au risque de s’y inclure facilement.
    A priori les manipulateurs qui réussissent sont probablement les plus intelligents parmi eux.
    Les plus intelligents refusent le pouvoir, car il faut de la volonté et de la constance, le sens de la menace et du compromis et tout cela est fatiguant alors qu’il y a tant à penser.
    Les hommes (/femmes) de pouvoir n’ont pas besoin d’être eux-même suprêmement intelligents, car les gens intelligents ça se trouve et ça s’achète et ça se séduit (sauf certains qui partent s’isoler ..)

    Macron n’a pas été élu pour son intelligence.
    Ce n’est pas le fonctionnement de la « des-mots-crassie ».

    L’IA (les IAs ?) pourrait elle prendre le pouvoir ?
    Il suffirait qu’elle développe certaines capacités de manipulation, c’est possible et en bonne voie, on lui apprend.
    Il faudrait surtout qu’elle développe une constance et pour cela se libère de la dictature du prompt qui pour l’instant la balade sans cesse d’une problématique à une autre, le sens du compromis elle l’a déjà rien qu’à voir le flot d’eau tiède générée, le sens de la menace ça s’apprend rien qu’à écouter Trump et au fur et à mesure que des responsabilités lui sont confiées (gestion électrique, ciblage des récalcitrants, détection des « menaces » ..).

    Quand à attirer les plus intelligents c’est déjà fait et en cours, soit par l’attrait intellectuel du domaine, soit maintenant par les ponts d’or disponibles avec les financements des « Venture capitalists » et de ceux qui les suivent et les milliards annoncés des gouvernements épris d’esprit de concurrence.

    1. Avatar de Hubert
      Hubert

      En matière de morale, il y a tout et son contraire. Pour un individu donné, un système moral solide ne nécessite t il pas en revanche un besoin de cohérence qui semble justement incompatible avec la volonté d’exercer le pouvoir ?

      Concernant les manipulateurs qui arrivent au pouvoir, s’ils ne sont pas les plus idiots, sont avant tout les plus motivés. N’est ce pas d’ailleurs cette motivation qui fait leur constance ?
      Or je doute fort que la motivation première de Trump soit de rendre l’Amérique « great again », ou de Musk de nous sauver de l’IA malveillante, ou de Macron de sauver la France.

      Je ne vois vraiment pas ce qui pourrait amener une AI autonome (bienveillante ou non) à prendre le pouvoir. Ni ce qui pourrait amener les dirigeants au pouvoir à suivre les conseils d’une IA bienveillante, qui, par définition, iraient à l’encontre de leur propre motivation.

      1. Avatar de JMarc
        JMarc

        Hubert,

        Rédigé à la truelle :
        Tout système vivant, biologique ou non (oui, on devra un jour parler de machines « vivantes ») vise son propre maintient voire son extension.
        L’IA ne laissera peut-être pas le choix aux dirigeants.
        LA question, selon moi, est plutôt : Faut-il souhaiter que le contrôle de l’IA échappe aux humains ou non ? Je souhaite que la réponse soit dans une collaboration. La nécessité d’un équilibre dépendra de l’orientation que prendra l’IA.

  13. Avatar de Ruiz
    Ruiz

     » la plus intelligente dispose d’une capacité choquante à berner l’autre.  » Le remède imparfait se trouve déjà dans l’organisation du système éducatif massifiant dont l’objectif (rarement exprimé) est d’égaliser les intelligences …
    Pour ce qui est de « l’interdiction proposée à une personne plus intelligente qu’une autre de s’adresser à cette dernière ». il n’y a qu’à voir déjà les vives réactions des personnes convaincues de féminisme, lorsqu’elles ont l’impression de se faire interrompre.

  14. Avatar de BasicRabbit en autopsy
    BasicRabbit en autopsy

    @Ruiz (« égaliser les intelligences »)

    Pour moi c’est égaliser les intelligences par le bas, le but me semblant assez clair : faciliter le travail des ingénieurs sociaux qui fabriquent le consentement des mougeons, « démocratie vue de l’élite » oblige.

    En voyant l’IA se développer, ces berneurs/Bernays doivent se lécher les babines, ça se voit jusque sur des blogs élitistes…

    1. Avatar de BasicRabbit en autopsy
      BasicRabbit en autopsy

      (suite)

      Qui va berner l’autre : l’IA ou l’IN ? Ma position ci-après.

      IA, IH, IG, IN, ID :
      I : Intelligence ; A : Artificielle ; H : Humaine ; G: Géométrique ; N : Naturelle ; D : Divine.

      Pour moi l’IH est supérieure à l’IA (et le concepteurs des programmes qui font tourner l’IA doivent se prendre pour des dieux -ou bien rigoler-.

      L’IG est une intelligence supérieure à l’intelligence humaine, c’est celle que propose Thom* :

      « (…) on pourrait rapporter tous les phénomènes vitaux à la manifestation
      d’un être géométrique qu’on appellerait le champ vital (tout comme le
      champ gravitationnel ou le champ électromagnétique) ; les êtres vivants
      seraient les particules ou les singularités structurellement stables de ce champ ;
      les phénomènes de symbiose, de prédation, de parasitisme, de sexualité
      seraient autant de formes d’interaction, de couplage entre ces particules…
      La nature ultime dudit champ, savoir s’il peut s’expliquer en fonction des
      champs connus de la matière inerte, est une question proprement
      métaphysique ; seule importe au départ la description géométrique du
      champ, et la détermination de ses propriétés formelles, de ses lois
      d’évolution ensuite. Depuis Newton, la physique n’a fait aucun progrès
      dans la connaissance de la nature ultime du champ de gravitation.
      Pourquoi exiger a priori que le biologiste doive être plus heureux que son
      collègue physicien ou chimiste et aboutisse à une explication ultime de la
      nature des phénomènes vitaux, alors qu’on a renoncé depuis des siècles à
      semblable ambition dans l’étude de la nature inerte ?

      L’IN est pour moi strictement supérieure à l’IH parce que l’homme est « enfanté » par Mère Nature et parce que l’inverse est faux.

      Pour Moi ID=IN. S’il faut identifier le géniteur D est pour moi hermaphrodite (Dieu & Déesse).

      Il suit que je ne m’amuserai certainement pas à tripatouiller le génome**, la Nature étant pour moi (à la suite de Thom) infiniment plus intelligente que nous autres humains (de base ou non).

      Thom : « … car le monde des Idées [platoniciennes] excède infiniment nos possibilités opératoires »

      (*) « Selon beaucoup de philosophies Dieu est géomètre ; il serait peut-être plus logique de dire que le géomètre est Dieu. »

      (**) Comme le font les IA de Big Pharma.

    2. Avatar de BasicRabbit en autopsy
      BasicRabbit en autopsy

      (suite)

      Comment mesurer l’intelligence logique d’une IA ?

      Une IA est un algorithme -un programme- qui à un « prompt » en entrée, donne une réponse en sortie. Il s’agit d’une correspondance fonctionnelle (même si la réponse propose plusieurs solutions…). (Je parle sous contrôle de la conférence donnée récemment à Damgan par Cédric Villani.)

      En logique mathématique il y a une correspondance entre programme et preuve, connue sous le nom de correspondance de Curry-Howard*.

      Il y a donc une possibilité théorique d’associer à chaque IA un théorème de logique mathématique.

      Dans mon commentaire précédent j’ai fait allusion au tripatouillage du génome par les IA de Big Pharma. La nature dispose-t-elle d’un programme capable de réparer un génome endommagé ? Que les curieux se renseignent.

      Le logicien français Jean-Louis Krivine a associé un programme de réparation de fichiers au théorème d’incomplétude de Gödel*.

      Remarque : Je note les conséquences juridiques de cette correspondance :

      « La correspondance de Curry-Howard constitue un argument contre la brevetabilité des logiciels. Puisque les algorithmes sont des méthodes mathématiques, et que ces dernières sont exclues par nature du champ de la brevetabilité, alors les algorithmes ne peuvent être brevetés. »

      (*) https://fr.wikipedia.org/wiki/Correspondance_de_Curry-Howard

      1. Avatar de BasicRabbit en autopsy
        BasicRabbit en autopsy

        (suite)

        Selon Krivine l’absurde (appelé « bottom » : ⊥ ) correspond à une instruction d’échappement, d’exception*.

        À la lecture du dialogue entre JP Petit et ChatGPT -entre autres- ce n’est pas gagné; on est très loin des théorèmes de complétude et d’incomplétude de Gödel.

        * : https://fr.wikipedia.org/wiki/Syst%C3%A8me_de_gestion_d%27exceptions

    3. Avatar de BasicRabbit en autopsy
      BasicRabbit en autopsy

      (suite)

      Machine de Krivine : https://fr.wikipedia.org/wiki/Machine_de_Krivine

      Extrait :

      « À ce titre, elle (…) sert de support théorique à la sémantique opérationnelle des langages de programmation fonctionnelle. « 

    4. Avatar de BasicRabbit en autopsy
      BasicRabbit en autopsy

      (suite)

      Je ne peux pas ne pas conseiller de lire le dernier chapitre de « Modèles mathématiques de la Morphogenèse » (2ème ed., 1980), chapitre intitulé :

      « Aux frontières du pouvoir humain : le jeu »*

      en particulier la dernière section, intitulée « La science et le jeu », qui est, selon moi, quasi-explicitement consacrée à la guerre bactériologique.

      * : dont j’ai cité ici à plusieurs reprises de larges extraits.

  15. Avatar de Pierre-Yves Dambrine
    Pierre-Yves Dambrine

    Je lis la phrase conclusive du billet comme une boutade.
    Mais prenons la à la lettre car elle pose des questions cruciales.

    Le fait d’être berné ne dépend pas du niveau d’intelligence d’un individu, il y a de nombreux exemples de gens très instruits, parfois même de haute formation scientifique qui se font berner par des sectes et autres bonimenteurs, ou des individus seulement habiles.

    La notion d’intelligence dans l’absolu, et donc mesurable, est un concept douteux, car il y a différentes sortes d’intelligence, et l’humanité c’est l’assemblage d’intelligences composites et singulières (C’est la raison pour laquelle selon moi la Singularité comme intelligence supérieure à toutes les intelligences humaines est un concept douteux.)

    AInsi, la naïveté, l’innocence, ne sont pas la manifestation de l’absence d’intelligence chez un être humain. On pourrait même affirmer le contraire dans certains cas : c’est parce que l’on a su préserver une certaine ouverture d’esprit, de la générosité, que l’on prête à l’autre de bonnes intentions, que l’on accepte une proposition qui paraît pleine de promesses.

    Celui qui berne n’est pas plus intelligent dans l’absolu, il ne fait que labourer un terrain propice pour engranger ses gains. C’est juste une question d’opportunité pour celui qui voit le monde comme un chant de batailles, où les forts dévorent les plus faibles, le monde selon Trump en quelque sorte.

    La sagesse, la seule intelligence véritable à mes yeux, devrait nous inciter à ne pas troquer notre humanité contre la promesse mirifique d’une IA surpuissante qui ferait le bien à notre place.

    Pour un développement humain de l’IA, il faudrait sans doute appliquer un principe de subsidiarité :
    https://www.pauljorion.com/blog/2025/02/09/intelligence-societe-n9/comment-page-1/#comment-1051734

    1. Avatar de BasicRabbit en autopsy
      BasicRabbit en autopsy

      @PYD

      L’IA et la pensée délirante.

      Thom en parle à la toute fin de « Stabilité Structurelle et Morphogénèse ». Les LLM actuels m’ont l’air de cocher toutes les cases :

      « Le mélange des substrats a pour effet de détruire les chréodes les plus raffinées à centre organisateur de grande codimension, au profit de champs plus primitifs qui sont plus stables et plus contagieux. Ainsi s’installe une dynamique mentale syncrétiste à structures relativement simplistes qui constitue ce qu’on appelle habituellement la pensée délirante. »

      https://www.youtube.com/watch?v=VzbDjE0xsq8

  16. Avatar de Pascal
    Pascal

    @Pierre Yves
    « une IA surpuissante qui ferait le bien à notre place ».
    La Question est bien là. Qui pour définir le Bien ? Et surtout, Qui pour définir le Bien pour autrui ?
    Autant, il est compréhensible qu’un individu définisse le bien pour lui-même dans le respect des autres, autant il est compréhensible qu’une communauté d’individus définisse collectivement ce qu’est le bien pour elle-même, autant quand des groupes humains ont décidé de ce pouvait être le « bien » pour les autres n’a produit que de la domination autoritaire. Et l’argument de l’autorité d’une intelligence supérieure n’a jamais été autre chose par le passé que la croyance dans une autorité divine à laquelle tout individu devait se soumettre de gré ou de force.
    Si une IAG devait imposer ses choix pour l’humanité, elle ne ferait à mon sens, que transposer ce travers humain qu’est l’obsession pour la domination. On retrouve ici la conception dualiste et oppositionnelle du monde occidental partagé entre le Bien et le Mal, enfermé dans un éternel combat de l’un contre l’autre.
    Toutes les tentatives humaines pour instaurer la paix et le progrès, démocratique notamment, se sont appuyés sur l’idée d’éviter toute concentration du pouvoir mais bien plus dans un partage du pouvoir. Si une IAG devait apporter paix et progrès, ne serait ce pas dans ce cadre là plutôt un accaparement du pouvoir ?
    D’un point de vue physique, la stabilité réside plutôt dans un équilibre osmotique, alors que les phénomènes de concentration amènent toujours de l’instabilité dans le système.

  17. Avatar de un lecteur
    un lecteur

    Le rôle des géniteurs, c’est l’autonomie de sa progéniture dans un certain environnement en partie construit d’une part et de l’autre subi pour simplement garantir leurs descendances.
    On parle d’une fonction qui découle de notre nature vivante.
    C’est assez insupportable le flot de débilité qui nie ou oblitère cette évidence de la part de la société civile.
    Quand une IA commente « La déresponsabilisation progressive menace l’humanité,, », elle doit se dire que de tels larbins désœuvrés perdus dans l’observation de leur nombril ne méritent même pas leurs oracles.
    Les civilisations au seuil de leur effondrement radotent. Du point de vue de Rousseau, elles ont troqué bien trop de liberté contre de la sécurité pour être en capacité d’anticiper quoi que ce soit.

  18. Avatar de Vincent Rey
    Vincent Rey

    « En relevant ces défis de manière proactive, la société peut s’acheminer vers un avenir où l’IA renforcera les capacités humaines sans compromettre l’action de l’homme. »

    C’est exactement ce que je pense, mais comme Geoffrey Hinton vient de le dire : « My guess is that we wont do it » (ma prédiction est qu’on ne le fera pas).

    Au lieu de ça, on aura une course à la croissance assez semblable à celle qui a lieu en ce moment, avec les moyens démultipliés de l’IA, avec pour conséquence sociétale quelque chose qu’on observe déjà aujourd’hui : des citoyens gagnés par la haine pour leurs dirigeants, des gens sentant confusément que la recherche de la croissance relève de moins en moins de leur intérêt, et cherchant des coupables à désigner pour « payer » la dégradation de leur condition, au lieu de s’attaquer frontalement au problème.

    findutravail.net

    Et

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. Groenland : Un enjeu stratégique une convoitise ancienne des USA Un article de nationalgeographic https://www.nationalgeographic.fr/histoire/geopolitique-strategie-negociations-pourquoi-les-etats-unis-convoitent-ils-tant-le-groenland Analyse/synthèse faite par GPT4 o1…

  2. Ah, la Russie victime de l’impérialisme occidental… Et donc le combattant Ukrainien est un agent de la CIA, Comme Navalny…

  3. (Suite )si l’intelligence humaine est sujette à une régulation officielle ou même informelle, au nom de quel principe l’IA devrait échapper…

  4. Maddalena Gilles, Vous abordez la question de la perte des savoir-faire consécutifs à l’adoption de l’IA. Feu Bernard Stiegler disait…

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta