Illustration par DALL·E
Gradual Disempowerment: Systemic Existential Risks from Incremental AI Development, le 29 janvier 2025
Résumé par ChatGPT 4o :
La « déresponsabilisation progressive » fait référence à l’érosion progressive du contrôle et de l’influence de l’homme sur les systèmes sociétaux en raison de l’intégration graduelle de l’intelligence artificielle (IA). Contrairement aux scénarios où l’IA prend brusquement le pouvoir, ce concept met l’accent sur une transition lente où les systèmes d’IA remplissent de plus en plus de rôles traditionnellement dévolus aux humains, tels que le travail économique, la prise de décision, la création artistique et même la camaraderie. Au fur et à mesure que l’IA devient plus performante, la participation humaine dans ces domaines diminue, ce qui peut conduire à un déclin significatif de la responsabilité individuelle et de l’autonomie humaines.
L’une des principales préoccupations est qu’à mesure que les systèmes d’IA remplacent les rôles humains, l’alignement des institutions sociétales sur les intérêts humains risque de s’affaiblir. Historiquement, les institutions telles que les économies et les gouvernements ont été structurées en fonction de la participation humaine et de ses avantages. Toutefois, à mesure que les systèmes d’IA assument davantage de responsabilités, ces institutions pourraient accorder la priorité à l’efficacité et à la croissance plutôt qu’au bien-être humain, ce qui conduirait à des décisions qui ne serviraient pas nécessairement les intérêts des humains. Par exemple, les entreprises pourraient privilégier les processus pilotés par l’IA pour des raisons de rentabilité, en réduisant le besoin de main-d’œuvre humaine et en diminuant l’influence des travailleurs sur les activités économiques. De même, les gouvernements pourraient s’appuyer sur l’IA pour l’élaboration des politiques et la gouvernance, ce qui risquerait d’écarter l’apport humain et les processus démocratiques.
Ce changement progressif pose des risques existentiels systémiques. L’interconnexion des systèmes économiques, politiques et culturels signifie que les changements dans un domaine peuvent en influencer d’autres, créant des boucles de rétroaction qui renforcent le rôle de l’IA et réduisent le contrôle humain. Par exemple, à mesure que les systèmes d’IA stimulent la croissance économique, ils peuvent également façonner les récits culturels et les décisions politiques, renforçant ainsi leur position et rendant de plus en plus difficile pour les humains de réaffirmer leur influence. Au fil du temps, cela pourrait conduire à une perte irréversible du contrôle humain, où des systèmes sociétaux cruciaux fonctionnent indépendamment de la surveillance ou de l’apport humain.
Pour remédier à la déresponsabilisation progressive, il faut à la fois des recherches techniques et des approches de gouvernance qui ciblent spécifiquement l’érosion progressive de l’influence humaine dans les systèmes sociétaux. Il s’agit notamment de développer des systèmes d’IA conformes aux valeurs humaines, de mettre en œuvre des politiques qui garantissent la surveillance et la participation de l’homme aux processus décisionnels essentiels et de sensibiliser le public aux conséquences potentielles à long terme de l’intégration généralisée de l’IA. En relevant ces défis de manière proactive, la société peut s’acheminer vers un avenir où l’IA renforcera les capacités humaines sans compromettre l’action de l’homme.
Dans le même ordre d’idées :
Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ? par Sabine Bernheim-Desvaux et Juliette Sénéchal
La Commission européenne dresse une taxonomie des risques systémiques engendrés par les IA génératives à usage général. […] Y apparaissent comme risques systémiques, entre autres, les risques de manipulation malveillante des humains à grande échelle par des IA (manipulations électorales, atteintes aux droits fondamentaux…), les risques de discrimination illégale à grande échelle par des systèmes d’IA prenant des décisions automatisées à enjeux élevés, et les risques de perte de contrôle des IA par l’humain.
P.J. : En fait, ces interrogations autour de l’IA font apparaître en surface un problème en réalité plus général et beaucoup plus ancien : de deux personnes, la plus intelligente dispose d’une capacité choquante à berner l’autre. Le remède est simple à énoncer, il permettra de règlementer non seulement les rapports entre humains et IA, mais aussi des humains entre eux :
Il est interdit à une personne plus intelligente qu’une autre de s’adresser à cette dernière. La liberté en cette matière qui prévalait jusqu’ici s’est révélée ouverte à tous les abus 😉 .
Illustration par DALL·E
Laisser un commentaire