UN NOUVEAU « NOUS » POUR DES TEMPS NOUVEAUX. XI. Pourquoi avons-nous été pris au dépourvu par l’IA ?

Portrait de Tycho Brahé, Astrologue royal du Danemark par Stable Diffusion

Pourquoi avons-nous été pris au dépourvu par l’IA ?

Bien que l’intelligence artificielle soit un domaine de recherche depuis les années 1950, que la réalisation de logiciels du type des Grands Modèles de Langage (LLM) ait été un objectif clairement énoncé dès le départ et que l’effort de recherche ait été systématique, nous, en tant que l’espèce Homo Sapiens, ne comprenons toujours pas précisément ce qui a véritablement eu lieu, ni pourquoi, et nous ne nous remettons que lentement de notre stupéfaction, l’exemple par excellence de notre ébahissement étant bien sûr celui de Geoffrey Hinton lui-même, l’homme qui a été à la pointe de l’effort, incapable de cacher sa surprise devant la tournure des événements.

Comment avons-nous pu ne pas voir venir ce qui se préparait ?

Des raisons existent qui expliquent le déroulement des événements observés, en Orient comme en Occident.

Depuis au moins deux millénaires le monde occidental s’appuie sur la représentation d’un univers créé par un être divin qui, jugeant criminelle notre volonté de comprendre, nous interdisait de goûter au fruit de l’arbre de la connaissance, marquant d’un tabou la quête du savoir. D’où l’enfantement douloureux de la science comme entreprise intellectuelle marquée du sceau infamant du fruit défendu.

C’est l’une des ironies de l’histoire que le premier effort systématique moderne que l’on puisse à juste titre qualifier de « science » ait été la naissance de l’astronomie, une tentative minutieuse de perfectionner le système divinatoire superstitieux qu’est l’astrologie. Souvenons-nous que le titre officiel de Tycho Brahé (1546-1601) était « Astrologue royal » du Danemark, et qu’il était par ailleurs alchimiste.

Le raisonnement en termes de causalité est cependant, comme nous l’avons vu, constitutif des langues occidentales en vertu du fait qu’elles intègrent la possibilité de représenter des relations asymétriques telles celle exprimant l’inclusion d’un genre dans un autre, ou celle exprimant une implication liant un effet à sa cause.

C’est à Aristote (384-322 av. J.-C.) qu’il revint de théoriser tout le potentiel conceptuel de la relation asymétrique en codifiant la logique du syllogisme, en établissant les principes permettant de déduire correctement des vérités nouvelles à partir de deux prémisses vraies connues partageant un terme commun. Une fois un corpus important de connaissances théoriques développé, l’étape suivante qui en découlait naturellement fut de mettre en œuvre les vérités nouvellement découvertes dans des inventions techniques, donnant naissance à un nouveau type de technologie caractérisé à juste titre de « science appliquée ».

Cette voie du raisonnement syllogistique était interdite au monde oriental en raison de l’essence fondamentalement symétrique des relations établies entre les notions dans les langues locales, permettant un mode de raisonnement fondé sur des corrélations mais interdisant une réflexion où deux notions sont reliées par un lien de causalité, l’une étant la cause, l’autre, son effet.

La technologie en Orient, supérieure à celle de l’Occident jusqu’au XVIe siècle, est restée confinée à ce qu’autorisait une mise au point par tâtonnement, jusqu’à ce qu’il devienne possible pour l’Orient d’emprunter la technologie de l’Occident et d’accéder au raisonnement causal, la communication entraînant alors une mise à niveau technologique entre l’Orient et l’Occident (dans la seconde moitié du XIXe siècle pour le Japon, dans la première moitié du XXe siècle pour la Chine).

Portrait de Tycho Brahé, Astrologue royal du Danemark par Stable Diffusion

Partager :

4 réponses à “UN NOUVEAU « NOUS » POUR DES TEMPS NOUVEAUX. XI. Pourquoi avons-nous été pris au dépourvu par l’IA ?

  1. Avatar de Pascal
    Pascal

    Une vidéo qui devrait plaire à Paul mais surtout dont le conférencier a pour objectif de nous préparer au monde de demain (pas dans 50 ans, vraiment demain) dans lequel nous devrons vivre avec les IA sans nous laisser engloutir. Argumentation concrète par une personne au cœur de ce qui se fait en IA et pas seulement des LLM avec une réflexion sur notre relation à l’IA.
    https://www.youtube.com/watch?v=4619HLxbV2A

    A titre personnel, je ne sais pas quoi en penser.

    1. Avatar de Hervey

      « C’est passionnant ! » comme dirait ChatGPT …

  2. Avatar de Pascal
    Pascal

    Conversation que je n’aurais peut-être pas dû avoir avec Gpt4o mini

    Tu es spécialiste en intelligence artificielle, est il envisageable que se développent différentes IA avec des éthiques antagonistes ?

    Oui, il est tout à fait envisageable que différentes intelligences artificielles soient développées avec des éthiques antagonistes. Cela peut résulter de divers facteurs, notamment :

    1. **Objectifs différents** : Les concepteurs peuvent avoir des priorités variées (profit, sécurité, liberté, etc.) qui influencent la manière dont l’IA est programmée.

    2. **Contextes culturels** : Les valeurs éthiques varient d’une culture à l’autre, ce qui peut mener à des approches divergentes dans le développement de l’IA.

    3. **Partis pris des données** : Les données utilisées pour entraîner les IA peuvent refléter des biais éthiques, entraînant des comportements divergents.

    4. **Réglementations** : Les lois et régulations peuvent différer d’un pays à l’autre, influençant le cadre éthique des systèmes d’IA.

    Cette diversité soulève des défis en matière de gouvernance, de responsabilité et d’harmonisation des normes éthiques.

    Quelles conséquences pourraient avoir une confrontation entre des IA aux l’éthiques antagonistes issues de pays différents ?

    Une confrontation entre des IA aux éthiques antagonistes, issues de pays différents, pourrait avoir plusieurs conséquences :

    1. **Conflits géopolitiques** : Des tensions pourraient émerger si les IA prennent des décisions qui exacerbent des différends internationaux, par exemple dans les domaines de la cybersécurité ou de la défense.

    2. **Discrimination et biais** : Les IA pourraient appliquer des normes éthiques qui favorisent certains groupes au détriment d’autres, créant des injustices sociales.

    3. **Course à l’armement technologique** : Les nations pourraient intensifier leurs efforts pour développer des IA plus puissantes, entraînant une escalade des tensions et une instabilité globale.

    4. **Impact sur la coopération internationale** : Des divergences éthiques pourraient rendre difficile la collaboration sur des problèmes mondiaux comme le climat ou la santé publique.

    5. **Dilemmes moraux** : Les décisions prises par des IA avec des valeurs opposées pourraient poser des questions éthiques complexes, notamment sur la responsabilité et la transparence.

    6. **Risques pour la sécurité** : Une utilisation malveillante des IA pourrait survenir, exploitant les différences éthiques pour mener des attaques ciblées.

    Ces conséquences soulignent l’importance d’un cadre éthique global pour guider le développement et l’utilisation des IA.

    On sait aujourd’hui qu’une éthique globale sera difficile à mettre en œuvre du fait de certains antagonismes entre des pays déjà en conflit que ce soit économique ou même militaire. Compte tenu de la situation geopolitique mondiale actuelle, quel est la plus grande probabilité du développement des IA dans le monde ? Est-ce que ce sera un développement avec une éthique globale ou bien plutôt une multiplicité d’IA avec des éthiques potentiellement antagonistes ?

    Étant donné la situation géopolitique actuelle, il est plus probable que le développement des IA se traduise par une multiplicité d’IA avec des éthiques potentiellement antagonistes. Plusieurs facteurs contribuent à cette tendance :

    1. **Concurrence géopolitique** : Les nations cherchent à maximiser leurs avantages stratégiques, entraînant des développements d’IA alignés sur des intérêts nationaux plutôt que sur des normes éthiques communes.

    2. **Différences culturelles** : Les valeurs et priorités éthiques varient largement d’un pays à l’autre, rendant difficile l’établissement d’un cadre éthique universel.

    3. **Fragmentation réglementaire** : Les régulations sur l’IA peuvent diverger significativement entre les régions, entraînant des approches variées.

    4. **Innovation et essais** : Les pays peuvent adopter des méthodes expérimentales et compétitives pour le développement de l’IA, augmentant ainsi les divergences éthiques.

    5. **Manque de consensus international** : Les discussions sur l’éthique de l’IA au niveau international manquent souvent de consensus en raison des intérêts divergents des États.

    En somme, bien qu’il existe des efforts pour établir des lignes directrices éthiques au niveau mondial, la réalité actuelle favorise un paysage d’IA hétérogène, avec des normes éthiques disparates, voire conflictuelles.

    Est-ce que cela suppose que nous pourrions aller vers une guerre des IA tentant d’interférer sur des IA adverses ?

    Oui, cela pourrait potentiellement conduire à une « guerre des IA », où des systèmes d’IA tenteraient d’interférer avec ou de contrecarrer les IA adverses. Plusieurs scénarios peuvent illustrer cette dynamique :

    1. **Cyberattaques** : Les IA pourraient être utilisées pour mener des cyberattaques sophistiquées, ciblant les infrastructures critiques ou les systèmes d’information des pays adverses.

    2. **Manipulation de l’information** : Des IA pourraient être déployées pour influencer l’opinion publique ou manipuler des données, exacerbant les tensions géopolitiques.

    3. **Armements autonomes** : L’utilisation d’IA dans les systèmes d’armement pourrait mener à des confrontations militaires, avec des décisions prises sans intervention humaine directe.

    4. **Espionnage** : Les IA pourraient faciliter des opérations d’espionnage, rendant plus difficile la détection et la réponse aux menaces.

    5. **Escalade des conflits** : La compétition pour le développement d’IA pourrait intensifier les conflits existants, chaque partie cherchant à prendre l’ascendant technologique sur l’autre.

    Ces scénarios soulignent l’importance d’un dialogue international sur la régulation et l’éthique des technologies d’IA pour éviter des conflits catastrophiques.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote bancor BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme zone euro « Le dernier qui s'en va éteint la lumière »

Meta