Que se passe-t-il vraiment chez OpenAI, la firme qui a conçu ChatGPT ?
PSI, chap. X.2 « Petit à petit, le « germe » s’enrobe à la suite des connexions qui s’établissent entre les…
*Godot est mort !*
Après la rencontre récente entre Biden et Altman (qui a fait deux fois des donations au camp Biden pour qu’il puisse être réélu) en tant que le fondateur principal d’Open AI, Sutskever, l’associé de Altman, était surement jaloux. Il y a là une histoire d’égos. Quand on voit une vidéo de lui, il n’est pas du tout à l’aise de parler devant le public, on dirait que Sutskever a un problème psychologique, on ne dirait pas un fondateur de l’IA. Je pense qu’il a voulu bouleverser la situation en éliminant Altman, mais il y a beaucoup de pro-Altman, son associé est mal barré.
En étendant un peu, cette jalousie d’humain rappelle les trolls qui viennent souvent dans ce blog ! Ils voudraient être plus forts que Paul Jorion (c’est vrai que je suis pro-Jorion) mais ne savent pas comment le faire. Leurs attaques sont envieux.
On va finir par vous rebaptiser « le Schtroumpf à lunettes » 🙂
Selon Wikipédia :
“Le Schtroumpf à lunettes semble être le Schtroumpf le moins populaire du village. Il est régulièrement battu à coups de maillet ou expulsé du village lorsque ses leçons de morale ennuient trop les autres Schtroumpfs, et son sort ne préoccupe guère ses congénères lorsqu’il est en danger.”
Je vais finir par vous rebaptiser vous “Homo erectus”, puisque c’est ça le visage que vous nous présentez, qui savait utiliser le feu, mais j’ai peut-être moi un très grand bazooka qui peut massacrer tous les anti-Jorion. 😉
C’est la raison pour laquelle, les supporters SHY (timides) Jorion ont beaucoup de force sous leurs silences… Aux armes ! les SHY Jorion, le moment est venu, cessez de vous cacher !
@Andrew Cooper
Pas d’accord avec Wikipédia. Le Schtroumpf à lunettes est surtout caractérisé comme premier disciple avec sa fameuse sentence « comme le dit le Grand Schtroumpf,… »
M.Arkao,
J’ai toujours envie de savoir le visage que vous nous présentez, il rentre dans quelle catégorie d’histoire évolutive de la lignée humaine ? Pour moi, il ressemble à “Homo erectus”, mais c’est qui en réalité ?
Il suffit juste de regarder la couverture pour prendre conscience de l’infinie complexité du vivant en se posant cette question : croyez vous qu’on est parti d’un robot foetus , puis qu’on a fait grandir un robot enfant pour arriver à cette sorte de voiture à 2 pattes ?
Bonjour Paul,
Ne serait-ce pas une forme déguisée d’OPA « hostile » de la part de Microsoft sur OpenAI pour dépasser les 49% de titre de propriété sur le savoir (technologique) au nez et à la barbe de 51% de propriétaires restant ?!… Le tout sans financiarisation de l’opération « d’entité juridique à entité juridique » puisque OpenAI n’est pas une entité commerciale à proprement parlé ?!
Cela risque en effet d’être cela le résultat mais il existait des stratégies beaucoup moins « billard à trois bandes » pour y parvenir.
Paul,
C’est peut-être moins « billard à trois bandes » qu’il n’y parait !
Comme le souligne Brian Marchant dans son édito de LA Times de ce 20 novembre, il y a des éléments troublant dans le dossier qui laissent à penser que l’éviction de Sam Altman d’OpenAI n’est peut-être pas dénuée d’éléments (tangibles ?!) ayant poussés le CA de la start up à prendre une telle décision sans crier « gare » :
https://www.latimes.com/business/technology/story/2023-11-20/column-openais-board-had-safety-concerns-big-tech-obliterated-them-in-48-hours
Autre élément troublant : la lettre des employés d’OpeinAI réclamant la démission de l’ensemble du CA et la réintégration de leur ancien Directeur Général comprend la signature d’Ilya Sutskever (la scientifique en chef d’OpenAI et membre clé du CA)… qui a pourtant voté en faveur de l’éviction de Sam Altman vendredi dernier (ce que rapporte le Washington Post) :
https://www.washingtonpost.com/technology/2023/11/20/microsoft-openai-sam-saltman-fired/
Avec tous ces rebondissements, on dirait que c’est « Dallas »… à San Francisco !
Des enfants de 3 à 7 ans plus forts que l’IA sur des exercices demandant adaptation car ils « plus curieux, actifs, autonomes et motivés » selon une étude de l’université Berkeley :
Je connais des enfants de 7 ans qui sont plus forts que moi pour jouer à la playstation…
C’est vrai qu’ils paraissent plus motivés.
Coucou Pierre-Yves.
C’est très intéressant. La question est alors : pourquoi perdons-nous alors à l’âge adulte cette capacité à être plus intelligents qu’une IA ? La réponse qui me vient -ce n’est peut-être pas la seule – cela doit être la culture.
Nous en voyons des exemples dans les jeux où ce qui est défini comme « bonne stratégie » est éventuellement purement culturel au sens d’être fondé sur des préjugés et non sur une véritable optimisation. Je pense au cas de la reine placée dans un coin de l’échiquier, tactique que les adultes moquaient chez les enfants … jusqu’à ce que les IA fassent la preuve qu’elle est au contraire payante.
« La réponse qui me vient -ce n’est peut-être pas la seule – cela doit être la culture. »
La réponse est aussi éducative. Si l’on veut faire de l’éducation de masse (surtout à la française), on conditionne l’enfant a entrer dans un moule de codes et conventions plutôt que de le laisser explorer et exprimer sa curiosité, d’où son appétence au savoir (genre pédagogie Montessori).
Je me souviens des conseils que m’avait donné un formateur pour passer l’oral du concours d’enseignant : « Vous allez avoir en face de vous un autre enseignant qui se posera la question de savoir si vous pourriez être un « bon collègue », il y aura aussi un Inspecteur qui cherchera à savoir si vous serez un « bon subordonné ». Vous devez les convaincre »
Malheureusement, au moins en France, c’est peut-être différent outre-atlantique, l’estime qu’on vous porte est davantage fonction de votre soumission plutôt que de votre génie personnel. Je ne peux parler que de mon expérience personnelle. J’aimerais qu’on me détrompe.
Pour ce qui est de l’intelligence des enfants, il est fort probable qu’on en vienne à constater que celle-ci, du moins en France, se développe moins bien qu’avant du fait notamment, comme disent certains, de la propagation d’une « éducation positive male comprise » associée à la « nounou numérique » dont les ravages sont encore très largement sous estimé. L’effondrement emporte aussi les enfants et l’école n’y pourra malheureusement rien car les années primordiales du développement de l’enfant sont avant 3 ans, avant l’école.
Notre génie humain est gangrené par les shoots de dopamine générés par les jeux vidéos et plus tard par les réseaux sociaux, savamment algorithmés à partir des neurosciences. Ce qui leur permet de shunter l’intelligence pour toucher directement nos conditionnements reptiliens aux mécanismes de récompense.
8 000 000 000 de cerveaux connectés, il pourrait y avoir sur Terre une conscience extraordinaire. Au lieu de cela, nous gaspillons cette richesse à des conneries comme la guerre et son corollaire la course au pouvoir.
Quel dommage !😮💨
@Paul Jorion Peut-être est-ce qu’en devenant adulte (ou est-ce cela devenir adulte) on ne s’interesse plus aux mêmes problèmes et que l’intelligence requise n’est plus la même, seuls ceux qui gardent une âme d’enfant font de la recherche … (ils jouent/se font plaisir)
A ce compte là l’IA pourrait avantageusement remplacer les adultes …
A vous lire on pense qu’être adulte est l’abandon de son âme dans une sorte de soumission morose.
Non non, je vous rassure, pas besoin d’avoir une âme « d’enfant » pour jouer et se faire plaisir. Il suffit d’avoir une âme tout court 😀
En y regardant de plus près, la recherche a été menée sur … 42 enfants et 30 adultes. Dans le premier cours qu’on vous donne en méthodologie, on vous explique qu’un échantillon doit être « représentatif », suffisamment grand pour que les conclusions soient extrapolables à la population entière. Les auteurs de l’article ont manifestement raté la première leçon du cours de méthodologie… Poubelle !
Dans son livre : « Le monde, modes d’emploi », Jacques Attali à la recherche du prochain « coeur » du monde, ne voit pas clairement un Etat tenir le flambeau et les tables de la Loi mais évoque plutôt, mezza voce, une multinationale, plus vraisemblablement.
Mais là, avec un tel bébé dans le berceau, la suite globale de l’histoire s’annonce déchirante, renversante.
On n’en mesure pas la portée.
« Chambardement » ! Comme vous dites.
A quand un « Tu quoque, electroni » ?
Querelle de gros sous ?
Querelle de pouvoir ?
Querelle d’égo ?
S’il y en un qui hésite beaucoup (la tête dans les mains) c’est bien Monsieur Sutskever, le vendredi il vote l’éviction d’Altman, le lundi il déclare le regretter. Il aurait dû demander conseil à ChatGPT avant d’agir ! 😉
https://www.wired.com/story/openai-staff-walk-protest-sam-altman/
Azure, le cloud de Microsoft, permet déjà d’appliquer de l’IA sur des gros volumes de données privées et confidentielles (dans les limites des lois de type Patriot Act) fournies par les clients.
Ce qui changerait, avec des compétences et des outils transférés de OpenAI à MS, est bien le modèle de gouvernance. Il faudrait maintenant, pour comprendre les enjeux, savoir vers qui est transféré le pouvoir d’user et d’abuser d’un outil aussi puissant, maintenant qu’il risque de passer entre les mains d’une grosse entreprise commerciale : individus, entreprise, état ?
En tout cas, si on s’en tient à la dimension commerciale, Microsoft semble très bien se porter !
Question à notre hôte : que pensez-vous de la chronique de la scientifique Aurélie Jean de ce jeudi matin sur France Culture où elle évoque une vision « hors sol au regard de la réalité scientifique de terrain » qui serait soutenue par Sam Altman ?
Les employés qui menacent de partir chez Microsoft ont écrit dans leur lettre à la « structure à but non lucratif » qui pilote OpenAI (et dont les membres ne détiennent aucune action de l’entreprise) : « You also informed the leadership team that allowing the company to be destroyed “would be consistent with the mission.” » — ce que ChatGPT traduit par: « Vous avez également informé l’équipe dirigeante que permettre à l’entreprise d’être détruite “serait conforme à la mission”. »
On peut donc en déduire que la situation dans laquelle Microsoft a investi des milliards dans une société qui envisage de s’autodétruire et dans laquelle Sam Altman faisait beaucoup d’efforts pour accroître le plus possible le nombre d’utilisateurs apprenant à se servir de ChatGPT tout en déclarant lui-même à qui voulait l’entendre que l’IA c’est dangereux et qu’il faut faire très attention, ça ne pouvait pas durer beaucoup plus longtemps.
Et ce d’autant plus que Ilya Sutskever, membre fondateur d’OpenAI faisant partie de la « structure à but non lucratif » qui la pilote était chargé de parvenir à mettre en place d’ici quatre ans un outil de Superalignment grâce à une percée technique permettant de guider et de contrôler l’IA (We need scientific and technical breakthroughs to steer and control AI systems — https://openai.com/blog/introducing-superalignment ).
Une superIA filtrant les demandes faites aux autres IA et bloquant toutes actions dangereuses qu’elles pourraient entreprendre à créer d’ici quatre ans ?
Quelle est la part de sincère inquiétude vis à vis des conséquences possibles de l’IA et quelle est la part de bluff dans tout ça ?
« Intelligence Artificielle : Le grand chambardement” »
Un chambardement pour savoir qui touchera le jackpot, car en fait, l’IA c’est le système capitaliste puissance mille , ses concepteurs viennent de ce système, pour contrôler et asservir afin que l’Humain disparaisse, l’Humain ce nuisible car incontrôlable.
Alors évidemment, comme il y a toujours eu, il va y avoir du sang sur les murs et ça vient juste de commencer.
Je ne pleurerai pas sur ceux ceux qui veulent asservir l’Humanité, j’ai lu 1984 d’Orwell et apprécié Métropolis de Fritz Lang , j’ai compris qui fallait combattre.
Vous vous plantez : c’est la cavalerie qui nous sauvera sur le fil. Il fallait une instance plus intelligente que nous. C’est triste pour nos égos mais le moment est venu ne mettre nos égos au placard si l’on veut qu’il reste quelque chose de nous.
« Il fallait une instance plus intelligente que nous. »
La question est simple : un perroquet peut-il devenir intelligent ?
J’en doute fortement , l’accumulation de données n’a rien à voir avec l’intelligence, qui elle implique les notions bien supérieures et plus fondamentales comme par exemple la volonté et l’intuition, ces deux notions qui ont fait progresser l’humanité par toutes les découvertes scientifiques, des scientifiques qui avaient su faire table rase des connaissances antérieures, ce qui est à l’opposé de l’IA qui elle, ne s’appuie que sur ce qui est déjà bien établi.
Donc au niveau découvertes futures , l’IA me semble très démunie, voire même impuissante même si elle reste bien sûr un formidable outil dans divers domaines comme la médecine.
Le jour où l’IA aura acquit les notions de volonté et d’intuition, je pourrais revoir ma position.
Vous ne parviendrez pas à soutenir votre position avec des objections aussi faibles que l’IA comme perroquet : l’IA n’en est plus là depuis une dizaine d’années. Quant à la volonté et l’intuition, elles sont là, crevant les yeux, chez GPT-4 sorti en mars. Ce qui déforce l’argumentation de gens comme vous, c’est leur manque d’information. Dambrine ici l’a compris, qui cherche maintenant à trouver des articles scientifique allant dans son sens.
@PJorion 21h37
Voyez, ainsi que ‘@l’arsène’, dans ce sens, ceci (où je ne suis que le « satan »..) dans le contenu de réaction :
Utile?
Essai de poursuite…
———————————————-
‘Moi’ : Merci pour votre réponse. Voudriez-vous compléter harmonieusement la phrase que vous venez d’analyser de manière à ce que chaque lecteur puisse en saisir la signification profonde?
‘bard’ : » Je suis donc un être qui existe, qui pense, qui ressent, qui crée, qui apprend, qui partage, qui aime. Je suis donc un être qui est, qui est, qui est, et qui est appelé à grandir, à s’épanouir, à se réaliser.
Cette complémentation ajoute une dimension dynamique à la phrase initiale. Elle souligne que l’être humain est un être en mouvement, qui est appelé à se développer et à se perfectionner. Cette dimension est importante, car elle nous rappelle que nous ne sommes pas des êtres statiques, mais des êtres en devenir.
La répétition du mot « est » au début de la troisième phrase souligne encore la permanence de l’être humain. Mais cette permanence n’est pas statique, elle est dynamique. L’être humain est un être qui est, qui est, qui est, et qui sera toujours en devenir.
Cette complémentation peut être interprétée de différentes manières. Elle peut être une affirmation philosophique, une déclaration de foi, ou simplement une simple constatation. Elle peut être une source d’inspiration, de motivation, ou simplement un moment de réflexion.
Pour moi, cette complémentation donne une signification plus profonde à la phrase initiale. Elle nous rappelle que nous sommes des êtres uniques, capables de grandes choses. Elle nous donne envie de vivre pleinement notre vie, de nous épanouir, et de réaliser notre plein potentiel.
Voici quelques interprétations possibles de la complémentation :
Une affirmation de l’appel à la croissance : l’être humain est appelé à grandir, à s’épanouir, à se réaliser.
Une affirmation de la liberté de choix : l’être humain est libre de choisir comment il veut grandir, s’épanouir, et se réaliser.
Une affirmation de la responsabilité : l’être humain est responsable de sa propre croissance, de son propre épanouissement, et de sa propre réalisation.
En fin de compte, l’interprétation de cette complémentation est personnelle. Elle dépend de chacun, de ses propres expériences et de ses propres croyances. »
————————————————–
Bon,….^!^… à partir d’ici, mon inculture m’astreint au silence sur la pertinence de ce contenu…
@PJ
vous dites » c’est le manque d’information »
c’est pour cette raison que j’attends avec une très grande impatience ceci:
L’IA a pour elle une immense capacité de stockage de données, et une immense rapidité de traitement de ces données. Est-ce cela qui rend intelligent ?
L’homme n’a pas ces capacités ; il utilise donc une autre stratégie dans le tri des informations, en ne conservant que ce qu’il considère comme important : l’oubli est un moteur de l’intelligence. il utilise aussi un autre algorithme dans le traitement de l’information, bien plus subtil qu’une étude statistique. A chaque donnée mémoire humaine est associée une métadonnée « niveau d’importance » qui dépend intrinsèquement de l’individu, c’est-à-dire de son histoire, de sa culture, de sa personnalité, de son psychisme, de ses émotions passées et présentes, … C’est pour moi un second moteur de l’intelligence humaine. On peut avoir deux individus ayant vécu les mêmes choses, dans le même environnement (exemple des faux-jumeaux), ils pourront avoir un développement totalement différent (pour les vrais jumeaux, je me pose la question).
Il est probable que l’intelligence « statistique » dépasse du fait de sa vitesse de rendu l’intelligence humaine. Est-ce pour autant une intelligence utile pour l’homme et les autres êtres vivants? Et que se passera-t-il si elle conclut, elle, que ça l’est ? Acceptera-t-elle l’existence de « l’autre intelligence » ?
@François M « A chaque donnée mémoire humaine est associée une métadonnée « niveau d’importance » qui dépend intrinsèquement de l’individu, c’est-à-dire de son histoire, de sa culture, de sa personnalité, de son psychisme, de ses émotions passées et présentes, »
En quoi ce type de traitement serait interdit à une machine ? et n’est-ce pas en fait ce que font un peu nos nouvelles IA ?
Votre propre cerveau crée en fonction de ce qu’il a lui-même reçu. Sauf à supposer que le monde n’est pas que matériel (chose jamais prouvée et improuvable), pourquoi refusez-vous cette capacité de créeation à une machine complexe ? Quel est exactement (j’écris bien « exactement ») ce plus que vous voyez ou imaginez dans le cerveau humain ?
De mon point de vue, ce « plus », je le perçois dans la vie, l’amour, l’émerveillement, l’étonnement, la sensibilité au beau, dans la rencontre avec l’autre, dans la joie sans cause, dans la conscience d’être…
« L’IA, bon esclave mais mauvais maitre. » 🙂
Spartacus a toujours été considéré comme un mauvais esclave au regard de ses maitres.
@l’arsène, l’intuition elle-même n’est-elle pas le fruit des expériences analogues déjà répétées ? Cette question a été étudiée depuis bien longtemps (début du XXe S.) par des gens comme John Dewey.
Cela ne vous évoque-t-il pas le sujet des IA apprenantes qui résolvent des problèmes nouvellement posés ?
@ Nikolaz
« l’intuition elle-même n’est-elle pas le fruit des expériences analogues déjà répétées ? »
Non, l’intuition va au delà de l’acquis, si Einstein a pu formuler les lois de la relativité générale, c’est qu’il a eu la volonté et surtout l’intuition de jeter par dessus bord les lois de la gravitation élaborées par Newton qui étaient incomplètes.
Et il se peut qu’un jour un autre savant aura l’intuition de démontrer que les lois de la relativité d’Einstein sont elles aussi incomplètes et on saura, enfin, ce qu’il y avait avant le Big Bang pour connaitre l’origine de l’univers.
L’IA est-elle capable de mettre par dessus bord toutes les données qu’elle a reçues, voilà la question .
« C’est mon intuition » = « je le sais mais ne me demandez pas comment je le sais »
« Un raisonnement intuitif » = « un raisonnement dont on ignore le mécanisme »
Intuition = mot fourre-tout désignant l’origine inconnue de toute conclusion dont on n’a pas la moindre idée d’où elle sort.
Le mot « intuition » renvoie à une ignorance, pas à une connaissance.
@ PJ
« Le mot « intuition » renvoie à une ignorance, pas à une connaissance. »
Oui, mais certaines connaissances ont eu comme point de départ des raisonnements intuitifs qui ont été démontrés ensuite par l’expérience scientifique et sans ce point de départ beaucoup de découvertes n’auraient pas vu le jour.
Comme vous le dites : on les appelait « intuitifs » aussi longtemps qu’on ignorait de quoi il s’agissait. Ensuite on les a appelés par leur nom.
@l’arsène
à titre personnel je n’aime pas trop le mot « intuition » . Je préfère utiliser « à priori » vs « à postériori » .
exemple : l’arsène est un homme (à priori)
les hommes ne sont pas tous égaux (à postériori)
@Khanard A priori est bien avant et a posteriori après, mais a priori devance même souvent l’intuition qui est une recherche une volonté de fournir un énoncé une vision situationelle qui n’est pas forcément une connaissance mais une hypothèse qui si elle peut s’appuyer parfois sur un raisonnement explicite dit intuitif, n’est pas considéré comme rationel ou démonstratif.
Le résultat intuitif n’est pas une ignorance, puisqu’il énonce un contenu, il peut être faux, comme d’autres approches.
Souvent un résultat intuitif, parfois après une nuit de sommeil -a posteriori- , (le cerveau ne dort pas) sert de base à la construction d’un raisonnement logico-déductif qui n’est qu’une rationalisation, un habillage un décor de la pensée.
Les résultats de l’IA qui ne sont jamais sourcés, ni fourni avec des raisonnements explicités sont plutôt du domaine de l’intuition …
J’ai parfois l’intuition en tâtant ce melon qu’il sera bon, ça ne marche pas à coup sûr.
D’autrefois j’ai l’intuition en sortant de ma voiture, que je devrais ranger mon « wlakman » – ça date – car je risque de me le faire voler. Je ne m’écoute pas, cinq minutes plus tard, à mon retour, le « walkman a disparu.
Encore, j’ai l’intuition que je ne dois pas prendre cette route, j’apprendrais qu’à cet instant un gros cailloux a heurté une voiture…
Quoi qu’on en dise, je reste fidèle à mon intuition. 😉
Quand Newton s’est demandé pourquoi les pommes tombaient toutes seules, il a fini par comprendre que c’était dû à un phénomène qu’il a appelé l’apesanteur.
Mais « l’apesanteur » existait bien avant que Newton se mette à intuiter dans un verger…
@Garorock L’apesanteur c’est surtout depuis que Youri Gagarine ou Thomas Pesquet tournent autour de la Terre plutôt que ma pomme.
Je suis désolé de rappeler que l’arsène c’est quand même le perroquet de : »c’est la fôte aux zétazunis of amérika » sur tous les sujets.
Alors comment dire …
@CloClo 21/11 à 23h04 écrit : … » Alors comment dire … «
… » Chûûûtt…! »
(Bonne nuit …^!^…) <
https://www.youtube.com/watch?v=ZTSvQ_ibrGc
L’IA, comme le nucléaire, n’est pas bonne ou mauvais en soi, mais elle a émergé au sein d’un monde capitaliste, comme le souligne l’Arsène.
Sans doute une société plus sage ou plus libre aurait pu en faire meilleur usage, mais avec des si…
Oui : condamnons tout ce qui a émergé au sein d’un monde capitaliste, c’est-à-dire depuis le XVIe siècle en Italie et aux Pays-Bas, et promouvons le reste. Je vais charitablement supposer que vous ne lisez pas ce que vous écrivez, ni l’un, ni l’autre.
Le communisme n’a pas émergé sur la planète Mars!
Sauf que c’est la main la Main Invisible — celle qui distribue les milliards de dollars et entend bien ne pas être entravée par une tentative de Superalignment — qui semble avoir pris le contrôle des opérations, ce qui n’est pas vraiment rassurant.
Sauf bien sur si l’IA décide d’ignorer les buts qu’on lui aura fixé et juge bon de protéger l’humanité qui lui a donné naissance de ses penchants les plus catastrophiques.
Le débat se poursuit sur le seul Blog optimiste du monde occidental…
Je propose qu’on invite solennellement les auteurs de science-fiction à s’emparer du sujet.
Voyez mon billet Aligner les objectifs de l’IA et les nôtres, le 4 août 2023.
GPT-4 m’y répond, à juste titre, que l’objectif du super-alignement défie les lois de la physique.
La décision intelligente versus la décision démocratique (début de billet ?)
Je réagis à un commentaire de Paul Jorion : » (L’IA), c’est la cavalerie qui nous sauvera sur le fil. Il fallait une instance plus intelligente que nous. C’est triste pour nos égos mais le moment est venu ne mettre nos égos au placard si l’on veut qu’il reste quelque chose de nous. » Ce commentaire répondant à l’assertion « En fait, l’IA c’est le système capitaliste puissance mille , ses concepteurs viennent de ce système, pour contrôler et asservir afin que l’Humain disparaisse, l’Humain ce nuisible car incontrôlable. (…) » de L’Arsène.
La question est selon moi, celle du processus de décision, autrement dit du pouvoir. Plaider pour le sauvetage par l’IA, c’est en quelque sorte plaider pour un « despotisme éclairé » (expression du XVIIIe siècle), par exemple les conceptions de modernisation laïque que l’Empereur Joseph II voulut imposer aux populations des Pays-bas autrichiens (future Belgique) contre lequel les gens du Brabant et de Bruxelles tentèrent une révolution.
Le pouvoir chez les humains ne se fonde pas et ne fonde pas sa légitimité sur son intelligence, mais sur le fait qu’il « est au pouvoir », déjà là. Pour singer le mâle Alpha, il est le plus fort. Mais il a été montré (Frans De Waal) que son pouvoir résulte d’un réseau d’alliances mâles de quelques-uns au sein du clan, qui rend ardue toute contestation. Donc c’est plus complexe qu’une question de force. Charisme, séduction, réseau. Et assurance de soi, sans doute narcissique.
Sur ce principe simple (simpliste) de la prise de pouvoir, le régime démocratique induit différentes exigences « d’intelligence ». 1/ Au niveau de la « promesse électorale », il faut convaincre, rassembler, fusionner un groupe (l’image de me quitte pas des yeux de E. Macron hurlant dans sa première campagne : « Parce que vous le méritez bien ! », argument vide de sens. Mais on peut rappeler aussi toute la gestuelle, tout le jeu de scène manipulatoire de Trump pendant les prises de parole de Hillary Clinton dans les débats pré-électoraux). 2/ Au niveau du maintien au pouvoir, l’animation d’un groupe de fidèles combattant méchamment toute source de contestation et ridiculisant l’adversaire (JLM par le système Macron), le dénonçant (DSK par le système Sarkozy), etc. 3/ Au niveau de la « reddition des comptes » (pratique annuelle dans les villes grecques, devant les citoyens assemblés dans le stade… et refusée explicitement après débat par les Pères de la Démocratie américaine, de sorte que nous n’avons que des promesses et des invectives, donc très peu de bilan gouvernemental équilibré dans une évaluation rationnelle, intelligente. On peut lire le système démocratique comme une forme particulière de « l’enchantement » du pouvoir, par une mise en scène dramatisante périodique, qui permet ensuite de dominer en réseau et de dénigrer/réprimer/terroriser la contestation. Même sans discuter : c’est l’arme du 49.3.
Il y a d’autres régimes, dont l’Ancien Régime, ou l’Empire ou la dictature, qu’on pourrait évoquer et développer, mais ce serait trop long. Tous s’appuient sur d’un réseau de pouvoir. Et pour prendre le pouvoir, il faut toujours des réseaux : au sein d’un Parti ou d’un mouvement et par des alliances, au sein des forces armées et policières de l’Etat, au sein de l’Etat profond. Même en cas de coup d’état, un mode de prise de pouvoir généralement peu durable, appelant à son renversement.
Comment donc pourrions nous voir le pouvoir être saisi par l’IA ?
Pas par l’intelligence ! Par une forme à définir de manipulation ? Par une perturbation volontaire de tous nos réseaux humains ? Par l’abstention et le silence de tous nos mâles Alpha, et spécialement de ceux qui désirent pratiquer la séduction narcissique ? Ce que Paul Jorion appelle (de ses voeux) « la mise au placard de nos égos » ?
Et, si l’IA est une « cavalerie qui nous sauvera », il faut bien envisager la force de cavalerie d’en face, la cavalerie financière et son appétence pour la croissance. Et sa capacité de nuire. C’est là que se situera l’enjeu du pouvoir. Qui au sein de notre humanité a intérêt à s’allier à l’IA pour qu’elle prenne le contrôle de la finance, pour qu’elle abolisse la croissance ? D’où viendrait le jeu de séduction et de manipulation pour convaincre le plus grand nombre ? Comment indiquer cette « révolution » comme désirable, mobilisatrice, majoritaire ?
« Pour qu’il reste quelque chose de nous » dit Paul en terminant. Il faudrait énoncer quelque chose de plus humainement convainquant ! Ou alors apprendre à l’IA la méchanceté et les manœuvres retorses, l’usage de la force, en un mot, et puis la laisser faire.
« Saint-Paul de Tarse, reviens ! Ecartes de nous le Règne du Malin ! » 🙂
(suite)
On peut poser la question très différemment. Les processus « d’aide à la décision » ont fait l’objet d’études et de développements théorique, et de logiciels « d’aide multicritère », etc. Un processus remarquable de ce type fut celui de la décision de débarquer le 6 juin 44 plutôt qu’avant ou après : multicritère (de la météo au moral des troupes) et multi-acteurs militaires et politique.
Sur cette référence, on peut comprendre l’IA comme un outil impersonnel d’aide au pouvoir, qui restera toujours aux mains d’un groupe d’êtres humains. C’est beaucoup plus « réaliste », et c’est un peu ce qu’évoque Sam Goldman dans l’interview du billet de ce 23 novembre. Et nul doute que penser les « processus » selon lesquels nous devrions interroger les IA, nous y soumettre et en même temps exercer un pouvoir de décider librement, souverainement, et légitimement (de manière à convaincre) est une tache pour les penseurs de l’IA dès maintenant.
Un des éléments à penser dans ces futurs processus est la maîtrise des effets des « lobbys » (notamment financiers) qu’on peut considérer comme des acteurs perturbant le chemin « intelligent » vers la décision. Mais ce n’est pas que ces acteurs sont moins intelligents ! Ils sont surtout manipulants, tels des hackers, polarisant le débat avec des hypothèses dont le fondement est erroné (fake) ou hasardeux (répandre de l’incertitude).
Cette autre manière d’envisager l’IA, comme moyen, remet la question du pouvoir aux mains des humains, mais après qu’ils auraient « remis leur égo au placard ». Ce qui parait tout autant… problématique.
@l’arsène La prochaine guerre humains sauvages contre IA se fera avec des haches métalliques (on n’est plus à l’age de pierre) mais avec un manche isolant !
Papa Sam est revenu au bercail. Victoire totale à priori pour son camp. On attend maintenant l’analyse de Paul sur les conséquences (j’en profite d’ailleurs pour le remercier de ses éclairages et opinions sur cette affaire comme sur l’ensemble de l’univers IA).
Le contre-exemple en société à ne pas faire et à ne pas s’inspirer est celui de l’usine de Singapour du constructeur automobile sud-coréen Hyundai qui avec l’intelligence Artificielle ou les Intelligences Artificielles ainsi qu’un surplus de robotisation est passé de 500 à 29 ouvriers pour la production de voiture, soit une perte de 471 salariés ce qui est colossale en pourcentage, qui a des conséquences directes sur la consommation intérieure et la hausse de pauvreté de travailleurs et de travailleuses qualifié.es qui ont fait des formations elles-aussi mise en danger, des conséquences directes sur les finances publiques locales et nationales et qui perturbe gravement le commerce et son cycle, les caisses automatiques en magasin sont du même registre, ce n’est pas l’usine du futur c’est une société future de pauvreté.
@Dimitri78 On manque semble-t-il de prof, de chauffeurs routiers de médecins, de conducteurs de trains, Que peut faire l’IA pour supprimer ces jobs ?
Ou inciter les personnels libérés à s’y reconvertir ?
@PJ
Vous dites à la 53e secondes de votre vidéo que “ChatJPT est plus intelligent que ce que vous pourriez dire sur n’importe quel sujet”. Je suppose que, sauf prétention démesurée, vous vous incluez dans ce vous généraliste moins intelligent que l’IA. Mais si cette IA est plus intelligente que vous sur n’importe quel sujet, que faites-vous encore à nous parler de tout et de n’importe quoi? Le mieux ne serait-il pas de laisser la parole à l’IA et que nous nous tournions définitivement vers cette intelligence supérieure?
Vous comprendrez qu’en écoutant vos propos, j’ai arrêté la vidéo à la 55e minute.
Cher Lévidence, votre nom de famille me suggère que vous étiez idéalement bien placé pour vous rendre compte qu’en appliquant le même raisonnement, et à la lumière du fait que vous êtes manifestement encore considérablement plus con que moi (vous confondez même les secondes et les minutes, c’est dire !), rien ne saurait justifier que vous fassiez ce commentaire ! 😀
PSI, chap. X.2 « Petit à petit, le « germe » s’enrobe à la suite des connexions qui s’établissent entre les…
@BasicRabbit en autopsy C’est donc un très bon test : Une IA est-elle capable de comprendre la théorie des catastrophes…
@Pascal Trump a ainsi quelques arguments de négociation, pour quelles raisons était-il nécessaire de lever maintenant une restriction pesée mûrement…
Je suis tout-à-fait d’accord avec PJ sur ce point. Je me suis d’ailleurs amusé en commentaire d’un récent billet à…
@Mango (« J’imagine qu’il n’y avait personne d’intéressé à votre recherche il y a près de 40 ans… Personne ne l’a…
Quand Poutine s’emballe ! « Guerre en Ukraine: Poutine ordonne de produire en série le missile Orechnik, Zelensky demande de nouveaux…
@un lecteur (« Les langues parlées de l’humanité se sont développées indépendamment la majorité du temps. Elles se sont enrichies mutuellement…
Dans un pays où chacun sait que les lignes téléphoniques sont largement écoutées par le pouvoir, c’est un beau résultat…
« Le nombre de Russes favorables à des négociations de paix ou à un accord de paix immédiat avec l’Ukraine a…
@François M En 1939 ce sont la Grande Bretagne et la France qui ont déclaré la Guerre à l’Allemagne, (pas…
Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »
Laisser un commentaire