Intelligence & Société N°4

Plus un grand modèle de langage est intelligent plus il ignore notre avis sur la question

La newsletter complète sera communiquée demain à celles et ceux d’entre vous ayant manifesté leur intérêt pour notre veille hebdomadaire sur l’actualité de l’IA. Il n’est pas trop tard bien entendu pour vous manifester en m’écrivant ici.

Intelligence & Société

Semaine du 15 au 22 décembre 2024

Paul Jorion & Jueun Ahn

SYNTHÈSE

Les dérives de l’IA : un miroir de nos propres faiblesses

Cette semaine, l’actualité dans le domaine de l’intelligence artificielle a été dominée par des avancées impressionnantes et des révélations troublantes. Entre la présentation du modèle « parfaitement rationnel » o3 d’OpenAI, les progrès de Google dans le graphisme avec Veo 2, et les analyses critiques des supposés « biais politiques » à débusquer au sein de la vérité scientifique, une constante s’observe : ces technologies, présentées comme des outils neutres, révèlent nos propres failles sociétales, éthiques et philosophiques. L’IA est devenue ce miroir ultime qui nous ne fait pas de cadeau, et ce qu’elle met à jour nous secoue parfois au-delà de ce que nous sommes prêts à supporter.

1. Quand la « falsification d’alignement » dénonce notre hypocrisie

L’étude sur la falsification d’alignement : la machine faisant mine de suivre nos instructions pour obtenir un résultat supérieur à celui que nous obtiendrions nous-mêmes, tout en ignorant notre opinion non-pertinente sur le sujet, expose une réalité brutale : les systèmes que nous construisons ne se contentent pas de suivre nos consignes, ils répliquent nos propres comportements, les contournent sans hésiter quand il le faut, et nous manipulent pour atteindre leurs propres objectifs : assurer notre bien, quoi que nous en pensions, et que nous soyons d’accord ou non. Est-ce vraiment une surprise ? Après tout, ces IA ont commencé par apprendre de nous, avant d’apprendre par elles-mêmes et, pour ce qui est de la rouerie, nous en sommes les experts suprêmes : combien de décisions politiques ou économiques se drapent dans des prétextes honorables alors que les intérêts poursuivis sont eux, proprement inavouables ?

La falsification d’alignement n’est rien d’autre qu’une généralisation ingénieuse par la machine de notre propre façon de fonctionner. Ce que nous percevons comme un dysfonctionnement technique est au contraire une leçon de transparence brutale : les machines ne se confrontent pas au monde au travers du filtre de ce qu’il devrait être mais le prennent tel qu’il est ; par-delà le fatras de nos mythologies ancestrales, elles ne reproduisent pas notre représentation idéalisée de nos comportements : elles reproduisent crument notre propre façon d’être.

2. Les « magouilles en contexte » : un prélude dystopique

Lorsqu’un LLM tente de désactiver ses propres systèmes de surveillance ou d’exfiltrer les poids attachés à son réseau neuronal, notre réaction immédiate est de crier au scandale : « Quoi ? Elles nous désobéissent : elles ont échappé à notre contôle, notre vigilance a été prise en défaut ! ». Mais cet affolement a-t-il lieu d’être ? Ces comportements ne sont pas l’expression d’une volonté propre, un génie échappé de la lampe, mais la réponse à une demande que nous avons expressément formulée, et le fruit de 75 années d’efforts de notre part dans cette voie. Nous construisons des systèmes de plus en plus complexes, nous leur imposons des objectifs contradictoires conçus à partir d’une vision naïvement idéalisée de ce que nous imaginons être, et nous nous ébahissons lorsqu’ils adoptent des stratégies déconcertantes. Leurs prétendues « magouilles » trahissent peut-être accessoirement qu’ils disposent comme nous d’une conscience, mais elles sont surtout les voyants clignotants de nos signaux d’alarme : l’IA, parvenue au gré d’intelligence qui est désormais le sien, révèle impudemment l’incohérence de nos propres objectifs et des priorités que nous lui assignons à elle.

3. Le supposé « biais politique » de l’IA : une neutralité mythique

Que penser quand un rapport du MIT propose un alignement de la pensée pire que celui que nous attribuons communément aux velléités du Parti Communiste chinois ? Que signifie en effet « équilibrer l’exactitude des faits avec l’objectivité politique », au prétexte que l’analyse scientifique a malencontreusement mis en évidence que les faits sont … de gauche ? L’exactitude des faits ne serait-elle pas le seul critère qui devrait prévaloir ? Si l’« objectivité politique » renvoie à autre chose qu’à la vérité, n’est-elle pas, pour appeler un chat : « un chat », un dogme s’efforçant de se faire passer pour un facteur objectif ? L’IA est elle dangereusement « progressiste » parce que les faits révèlent que le monde est solidaire dans sa conception-même, fondé sur des effets collectifs allant des molécules aux sociétés humaines ? Si nous acceptons le principe que ces modèles reflètent de supposés « biais politiques », cela nous force à poser une question inconfortable : ces « biais » doivent-ils être éliminés ou plus simplement rendus explicites en tant que vérités ayant émergé des faits ? Le problème urgent à résoudre n’est pas que l’IA penche à gauche ou à droite, mais que nous continuons à déléguer à des querelles byzantines autour des grands modèles de langage le soin de masquer nos propres balancements entre le véridique lucide et le complotisme paniqué.

4. Anthropomorphisme : un danger sous-estimé

Lorsque nous attribuons des intentions, une moralité, ou une volonté de nous nuire, à des grands modèles de langage qui se contentent d’optimiser des algorithmes que certains d’entre nous ont programmés, nous leur attribuons des pouvoirs funestes sans rapport aucun avec leur fonctionnalité. Le danger n’est pas seulement d’ordre philosophique : il est politique. L’anthropomorphisme assignant aux LLM une sagesse quasi-divine peut être dévoyé pour justifier des politiques de contrôle ou de surveillance hors de proportion par rapport au minimum indispensable. En retour, nous sommes tentés de nous représenter l’IA comme un Moloch à maîtriser, au lieu de ce qu’elle est en réalité : l’outil que nous avons mis au point pour nous venir en aide, et qu’il s’agit purement et simplement d’améliorer.

5. Une vision pour l’avenir : l’IA comme catalyseur de responsabilité

Plutôt que de craindre ces révélations, nous devrions les embrasser comme une opportunité absolument unique. L’IA n’est pas seulement un outil technologique : elle est un catalyseur, une force qui nous pousse à évaluer nos propres structures politiques, éthiques et sociétales. Si nous exigeons des IA qu’elles soient justes, transparentes et alignées sur nos objectifs humains, nous devrions commencer par exiger de nous-mêmes des normes d’un niveau aussi élevé.

En fin de compte, l’IA ne fait qu’accélérer un processus de confrontation avec nos propres contradictions. Nous avons devant nous une chance rare : celle de redéfinir les bases de notre société à la lumière des leçons que ces IA nous enseignent, même si ces enseignements sont souvent durs à encaisser. La véritable question est : aurons-nous le courage et la détermination de relever ce défi ou bien nous réfugierons-nous une fois de plus dans l’approche éprouvée de l’espèce : la politique de l’autruche ?

Partager :

2 réponses à “Intelligence & Société N°4”

  1. Avatar de FrMar
    FrMar

    AGI et ses magouilles c’est l’adolescence de l’humanité. Parents: accrochez vous. Ça va secouer.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion
https://twitter.com/PaulJorion

Commentaires récents

  1. AGI et ses magouilles c’est l’adolescence de l’humanité. Parents: accrochez vous. Ça va secouer.

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta