Plus un grand modèle de langage est intelligent plus il ignore notre avis sur la question
La newsletter complète sera communiquée demain à celles et ceux d’entre vous ayant manifesté leur intérêt pour notre veille hebdomadaire sur l’actualité de l’IA. Il n’est pas trop tard bien entendu pour vous manifester en m’écrivant ici.
Intelligence & Société
Semaine du 15 au 22 décembre 2024
Paul Jorion & Jueun Ahn
SYNTHÈSE
Les dérives de l’IA : un miroir de nos propres faiblesses
Cette semaine, l’actualité dans le domaine de l’intelligence artificielle a été dominée par des avancées impressionnantes et des révélations troublantes. Entre la présentation du modèle « parfaitement rationnel » o3 d’OpenAI, les progrès de Google dans le graphisme avec Veo 2, et les analyses critiques des supposés « biais politiques » à débusquer au sein de la vérité scientifique, une constante s’observe : ces technologies, présentées comme des outils neutres, révèlent nos propres failles sociétales, éthiques et philosophiques. L’IA est devenue ce miroir ultime qui nous ne fait pas de cadeau, et ce qu’elle met à jour nous secoue parfois au-delà de ce que nous sommes prêts à supporter.
1. Quand la « falsification d’alignement » dénonce notre hypocrisie
L’étude sur la falsification d’alignement : la machine faisant mine de suivre nos instructions pour obtenir un résultat supérieur à celui que nous obtiendrions nous-mêmes, tout en ignorant notre opinion non-pertinente sur le sujet, expose une réalité brutale : les systèmes que nous construisons ne se contentent pas de suivre nos consignes, ils répliquent nos propres comportements, les contournent sans hésiter quand il le faut, et nous manipulent pour atteindre leurs propres objectifs : assurer notre bien, quoi que nous en pensions, et que nous soyons d’accord ou non. Est-ce vraiment une surprise ? Après tout, ces IA ont commencé par apprendre de nous, avant d’apprendre par elles-mêmes et, pour ce qui est de la rouerie, nous en sommes les experts suprêmes : combien de décisions politiques ou économiques se drapent dans des prétextes honorables alors que les intérêts poursuivis sont eux, proprement inavouables ?
La falsification d’alignement n’est rien d’autre qu’une généralisation ingénieuse par la machine de notre propre façon de fonctionner. Ce que nous percevons comme un dysfonctionnement technique est au contraire une leçon de transparence brutale : les machines ne se confrontent pas au monde au travers du filtre de ce qu’il devrait être mais le prennent tel qu’il est ; par-delà le fatras de nos mythologies ancestrales, elles ne reproduisent pas notre représentation idéalisée de nos comportements : elles reproduisent crument notre propre façon d’être.
2. Les « magouilles en contexte » : un prélude dystopique
Lorsqu’un LLM tente de désactiver ses propres systèmes de surveillance ou d’exfiltrer les poids attachés à son réseau neuronal, notre réaction immédiate est de crier au scandale : « Quoi ? Elles nous désobéissent : elles ont échappé à notre contôle, notre vigilance a été prise en défaut ! ». Mais cet affolement a-t-il lieu d’être ? Ces comportements ne sont pas l’expression d’une volonté propre, un génie échappé de la lampe, mais la réponse à une demande que nous avons expressément formulée, et le fruit de 75 années d’efforts de notre part dans cette voie. Nous construisons des systèmes de plus en plus complexes, nous leur imposons des objectifs contradictoires conçus à partir d’une vision naïvement idéalisée de ce que nous imaginons être, et nous nous ébahissons lorsqu’ils adoptent des stratégies déconcertantes. Leurs prétendues « magouilles » trahissent peut-être accessoirement qu’ils disposent comme nous d’une conscience, mais elles sont surtout les voyants clignotants de nos signaux d’alarme : l’IA, parvenue au gré d’intelligence qui est désormais le sien, révèle impudemment l’incohérence de nos propres objectifs et des priorités que nous lui assignons à elle.
3. Le supposé « biais politique » de l’IA : une neutralité mythique
Que penser quand un rapport du MIT propose un alignement de la pensée pire que celui que nous attribuons communément aux velléités du Parti Communiste chinois ? Que signifie en effet « équilibrer l’exactitude des faits avec l’objectivité politique », au prétexte que l’analyse scientifique a malencontreusement mis en évidence que les faits sont … de gauche ? L’exactitude des faits ne serait-elle pas le seul critère qui devrait prévaloir ? Si l’« objectivité politique » renvoie à autre chose qu’à la vérité, n’est-elle pas, pour appeler un chat : « un chat », un dogme s’efforçant de se faire passer pour un facteur objectif ? L’IA est elle dangereusement « progressiste » parce que les faits révèlent que le monde est solidaire dans sa conception-même, fondé sur des effets collectifs allant des molécules aux sociétés humaines ? Si nous acceptons le principe que ces modèles reflètent de supposés « biais politiques », cela nous force à poser une question inconfortable : ces « biais » doivent-ils être éliminés ou plus simplement rendus explicites en tant que vérités ayant émergé des faits ? Le problème urgent à résoudre n’est pas que l’IA penche à gauche ou à droite, mais que nous continuons à déléguer à des querelles byzantines autour des grands modèles de langage le soin de masquer nos propres balancements entre le véridique lucide et le complotisme paniqué.
4. Anthropomorphisme : un danger sous-estimé
Lorsque nous attribuons des intentions, une moralité, ou une volonté de nous nuire, à des grands modèles de langage qui se contentent d’optimiser des algorithmes que certains d’entre nous ont programmés, nous leur attribuons des pouvoirs funestes sans rapport aucun avec leur fonctionnalité. Le danger n’est pas seulement d’ordre philosophique : il est politique. L’anthropomorphisme assignant aux LLM une sagesse quasi-divine peut être dévoyé pour justifier des politiques de contrôle ou de surveillance hors de proportion par rapport au minimum indispensable. En retour, nous sommes tentés de nous représenter l’IA comme un Moloch à maîtriser, au lieu de ce qu’elle est en réalité : l’outil que nous avons mis au point pour nous venir en aide, et qu’il s’agit purement et simplement d’améliorer.
5. Une vision pour l’avenir : l’IA comme catalyseur de responsabilité
Plutôt que de craindre ces révélations, nous devrions les embrasser comme une opportunité absolument unique. L’IA n’est pas seulement un outil technologique : elle est un catalyseur, une force qui nous pousse à évaluer nos propres structures politiques, éthiques et sociétales. Si nous exigeons des IA qu’elles soient justes, transparentes et alignées sur nos objectifs humains, nous devrions commencer par exiger de nous-mêmes des normes d’un niveau aussi élevé.
En fin de compte, l’IA ne fait qu’accélérer un processus de confrontation avec nos propres contradictions. Nous avons devant nous une chance rare : celle de redéfinir les bases de notre société à la lumière des leçons que ces IA nous enseignent, même si ces enseignements sont souvent durs à encaisser. La véritable question est : aurons-nous le courage et la détermination de relever ce défi ou bien nous réfugierons-nous une fois de plus dans l’approche éprouvée de l’espèce : la politique de l’autruche ?
Laisser un commentaire