La vraie raison pour laquelle l’intelligence artificielle fait peur, par Jean-Baptiste Auxiètre

Billet invité. Ouvert aux commentaires.

L’intelligence artificielle ne va pas à proprement parler remplacer la plupart des tâches du travail. En effet la plus grande part du travail va être remplacée non pas par l’intelligence artificielle mais plus simplement par des algorithmes. En effet la plupart des tâches effectuées par les personnes dans leur travail ne correspond qu’à une ou quelques centaines d’opérations élémentaires.

Même les tâches qui étaient considérées comme les plus compliquées comme celles des traders ont été remplacées pratiquement uniquement par des algorithmes et qui se sont avérés infiniment plus efficaces que l’humain sans qu’il y ait besoin de faire appel au départ à l’intelligence artificielle. En tant qu’informaticien je suis « hélas » capable après analyse de remplacer une bonne part des tâches dites de bureau par des algorithmes qui se limitent à quelques conditions et quelques boucles, génération de rapport et envoi à la personne, ou génération de données à la machine suivante concernée, qui les traitera.

Où l’intelligence artificielle interviendra-t-elle alors ?

Elle sera utilisée pour observer dans un premier temps votre travail et en déduire l’algorithme qui lui vous remplacera ensuite.

Ce qui se passera alors c’est qu’on s’apercevra que les décisions réelles ne sont pas prises comme on l’imagine pour des raisons de fait déterminées par l’obtention du résultat attendu mais bien sur d’autres critères inavouables et c’est bien là que se situe le problème.

Par exemple, une majorité de tâches de management vont produire des algorithmes où l’on pourra voir que les décisions ne sont pas prises principalement en fonction du résultat espéré mais bien plutôt des traits de personnalité de la personne encadrée. On s’apercevra que les principales décisions sont prises en fonction du statut social de l’encadré, de sa santé, de son apparence physique, de son sexe et finalement, mais à la marge seulement, du problème qu’il s’agit de résoudre.

Ceci, tout décideur le sait implicitement mais que cette vérité apparaisse en surface par le biais de l’intelligence artificielle risque de causer une révolution.

La peur inconsciente de l’intelligence artificielle est réellement là : qu’elle mette en évidence que nos prises de décisions reposent principalement sur des critères inavouables socialement et qu’elle va donc trahir une bonne partie de notre hypocrisie sociale.

Partager :

11 réponses à “La vraie raison pour laquelle l’intelligence artificielle fait peur, par Jean-Baptiste Auxiètre”

  1. Avatar de nono
    nono

    La gueule de l’emploi quoi, améliorée. Lombroso-type 2.0
    Aux assises on dit: pourvu que la photo sois bonne…!
    Les pas veinard le seront toujours.

  2. Avatar de joss
    joss

    Tant que le pouvoir sera dans les mains de quelques uns, ces moyens « technologiquement révolutionnaires », que ce soit l’IA ou l’énergie nucléaire ou autres, seront toujours utilisés pour dominer les autres. C’est cela qui a fait pleurer Oppenheimer.

    1. Avatar de nono
      nono

      Un autre Dalio à l’Intelligence… naturelle.
      https://www.youtube.com/watch?v=rAEbDK-b-pE

    2. Avatar de Pierre
      Pierre

      La différence entre une partie de poker ou de go et les délires de ce fou furieux, c’est le modèle et les critères d’évaluation.

      Quelle que soit la technique utilisée (réseaux de neurones ou corrélation statistique), une IA a besoin d’un jeu d’exemples modélisés (décrits par une certaine quantité de variables) assortis d’une évaluation (en gros, si une réponse est bonne ou mauvaise).

      Ce qu’on produit, c’est un système qui sait générer une réponse proche des exemples qu’on lui a fournis, c’est à dire une réponse qui, à partir de données restant dans le même cadre que celles qui lui ont servi à apprendre, produit (assez souvent) des réponses qui satisfont les mêmes critères d’évaluation.
      Si on reste dans le domaine des jeux, force est de constater que dans certains cas on arrive à produire des réponses qui battent les meilleurs humains à plate couture.

      Quand on est dans les jeux, la modélisation est relativement simple (quelques cartes, un plateau de jeu, des pions, etc) et l’évaluation ne laisse pas ou très peu de place à la subjectivité (au poker il suffit de voir si on gagne du fric, au go même des joueurs très moyens sont capables de tomber d’accord sur le fait qu’une partie est gagnée ou perdue).

      Par contre, quand on commence à aller sur le terrain du management, la question qui se pose, c’est qui décide de ce qu’est une bonne ou une mauvaise réponse.
      En l’occurrence ce conno a publié sa petite centaine de principes pour transformer la vie de ses employés en enfer, donc on peut supposer que les IA produites par le transfuge d’IBM se baseront sur une abstraction desdites règles pour s’entraîner à produire des réponses en adéquation avec elles.

      Deuxième problème, qu’est-ce qu’on modélise ? La sélection des données est un processus opaque, empirique et piloté à moitié par des contraintes (complexité, volume, disponibilité, fiabilité) et à moitié par des jugements de valeurs implicites (telle donnée est « intéressante », « utile », etc.).

      Le business ça va plutôt être de définir le modèle et les critères, qui sont deux choses arbitraires et subjectives. Une fois que tout ça sera bien planqué dans la machine, on obtiendra un magnifique oracle dont les prophéties auront force de loi.

  3. Avatar de Juannessy
    Juannessy

    L’idée est sans doute en partie fondée . En faire une clé unique explicative me semble abusif .

    En déclinaison immédiate , cela voudrait dire que les médecins , les prêtres catholiques et les avocats ont du souci à se faire , et les plus de quinze ans ne seront plus victimes du secret professionnel .

    Est ce que la Confession faite à une IA , telle à dieu le père, attendra et recevra le Pardon de sa part ?

     » Divine IA , pardonnez nous nos offenses comme nous pardonnons à ceux qui nous ont offensés ..; »

    1. Avatar de adoque
      adoque

      Juannessy
      votre réflexion vous amène au « divin »…
      sur l’autre billet « Singularité » par Nicolas Mallia
      ma « réflexion » me conduit au « diable »…
      🙂

  4. Avatar de Pierre
    Pierre

    Ce que dit ce post sur l’essence irrationnelle des décisions de gestion est certainement vrai, mais j’ai quand même deux remarques.

    D’abord une IA basée sur un réseau de neurones ou même des corrélations statistiques plus simples n’est pas analysable. C’est une boîte noire qui a, dans certains cas, la propriété de reproduire des comportement appris et, c’est là l’aspect « magique », de les extrapoler à des situations non apprises.
    AlphaGo a non seulement été entraîné avec des dizaines de milliers de parties de go, mais il a acquis la capacité de jouer des parties nouvelles aussi bien que celles qui lui ont servi à apprendre le jeu. Ceci dit, personne ne sait expliquer comment cette machine gagne. On peut tout au plus constater que sa façon de jouer se rapproche de celle des meilleurs joueurs dont les parties lui ont servi d’exemple.

    Donc si on entraîne un réseau de neurones à fournir des réponses de type « qui je vire aujourd’hui pour faire plaisir aux actionnaires », je suppose qu’il va finir par cracher une liste de noms basée sur des critères X ou Y, mais on ne saura pas plus expliciter ce choix que ceux faits par des humains qui lui auront servi de modèle d’apprentissage.

    Ensuite, toujours à mon avis, l’attrait principal de l’IA se situe au niveau moral. Nimbée de son aura de parfaite rationalité, L’IA est le moyen idéal d’imposer des décisions sans mettre en jeu la responsabilité des décideurs. « L’ordinateur a dit que », c’est imparable comme justification.

    Une AI entraînée à prendre les décisions jusqu’ici réservées aux petits chefs des armées mexicaines qui engorgent le tertiaire permettrait simplement de donner une apparence de rationalité aux mêmes conneries arbitraires, biaisées, remplies de subjectivité, de préjugés et de jugements de valeur.

    Exemple qui existe depuis 3-4 ans déjà, le choix des remises de peine pour les condamnés d’une quinzaine d’états américains (www.economist.com/news/united-states/21601009-big-data-can-help-states-decide-whom-release-prison-prison-breakthrough)

    1. Avatar de Paul Jorion

      « on ne saura pas plus expliciter ce choix que ceux faits par des humains qui lui auront servi de modèle d’apprentissage. »

      Ah oui ? Et si on faisait une analyse factorielle de ses choix ?

      1. Avatar de Pierre
        Pierre

        Autant essayer de faire une analyse factorielle des données d’apprentissage, ça éviterait de perdre son temps à entraîner un réseau de neurones dessus 🙂

        Ce n’est pas avec une analyse factorielle qu’on va « expliquer » comment AlphaGo est devenu champion du monde, ou comment Gougle fait la différence entre les chiens et les chats.

        Les domaines où cette technique est utile, ce sont justement ceux où il n’y a pas de variables latentes évidentes, pas de corrélations faciles à lire.

        Sans quoi on pourrait aisément calculer ces variables et les traiter avec de l’algorithmique classique.

  5. Avatar de Réjean Fontaine
    Réjean Fontaine

    Alors j’espère que cette intelligence artificielle va remplacer nos politiciens (nes) et que enfin de l’intelligence sera au rendez-vous.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta