The New York Times – L’ère des robots-tueurs a déjà débuté, le 9 juillet 2024

Illustration par DALL·E (+PJ)

« À gauche, une famille. Au centre, le soldat qui va les tuer dans un instant. Et à droite, le robot-tueur capable d’éliminer le soldat avant qu’il ne s’exécute. »

C’est l’exemple donné par le programmeur de robots-tueurs ukrainien interrogé dans le podcast.

Vous pouvez régler les sous-titres sur français en cliquant sur la petite roue dentée : « sous-titres », « traduire automatiquement » « français »

Partager :

14 réponses à “The New York Times – L’ère des robots-tueurs a déjà débuté, le 9 juillet 2024”

  1. Avatar de Pad
    Pad

    Transcription (avec l’aide de l’IA non armée)

    De The New York Times, je suis Natalie Kitroeff et ceci est le Daily.

    Surpassé en nombre et en armement dans ce qui est devenu une guerre d’usure contre la Russie, l’Ukraine cherche par tous les moyens à surmonter ses vulnérabilités sur le champ de bataille. Cette recherche a conduit à l’émergence de robots tueurs. Aujourd’hui, mon collègue Paul Moser sur la manière dont l’Ukraine est devenue une Silicon Valley pour les armes autonomes et comment l’intelligence artificielle remodèle la guerre moderne. C’est mardi, le 9 juillet.

    Paul, quand nous avons parlé des applications de l’intelligence artificielle avancée, l’une des idées effrayantes était que les militaires du monde entier pourraient l’utiliser pour créer des machines tueuses autonomes, c’est-à-dire des robots tueurs. Votre reportage montre que cela pourrait déjà se produire. Parlez-moi de cela.

    Oui, quand j’ai commencé à enquêter sur ce sujet, je pensais que c’était de la science-fiction. On pense à l’IA chassant et tuant quelqu’un, et on pense à Terminator, avec Arnold Schwarzenegger en tant que robot chasseur, ou au film « 2001, l’Odyssée de l’espace » avec un robot omniscient qui peut tuer des gens dans un vaisseau spatial. Mais la réalité est que les premières versions de cette technologie sont déjà en cours de développement, et elles sont développées en Ukraine. D’une certaine manière, l’Ukraine est devenue un centre de développement de ce type de technologie militaire autonome. Ils prennent l’intelligence artificielle et trouvent toutes sortes de nouvelles applications militaires.

    Pourquoi l’Ukraine est-elle devenue ce centre de développement ?

    Tout d’abord, ils manquent d’armes. Les armes ne viennent pas nécessairement rapidement ou de manière prévisible des États-Unis ou d’Europe, ils doivent donc se tourner vers toute technologie disponible pour combattre cette guerre, y compris la technologie de consommation et les nouvelles technologies comme l’IA pour créer de nouvelles armes efficaces. Deuxièmement, ils manquent de personnel. Comme ils doivent défendre toutes ces tranchées sans avoir autant de soldats que les Russes, ils doivent trouver des solutions à ce problème, et quoi de mieux qu’une mitrailleuse automatisée ou un drone ? De plus, l’Ukraine a été un peu un bureau secondaire pour l’industrie technologique mondiale pendant longtemps. De nombreuses applications que vous utilisez chaque jour ont probablement été codées en partie par des ingénieurs ukrainiens. Donc, vous avez beaucoup de codeurs et d’experts qualifiés qui utilisent leurs compétences pour dire : « Nous devons maintenant arrêter les Russes », ce qui signifie créer de nouvelles armes. Enfin, c’est une guerre d’usure. Chaque jour, il y a des combats, ce qui signifie que vous avez la possibilité de tester ces armes quotidiennement et d’améliorer leur efficacité. En ayant ce qui est essentiellement un laboratoire pour expérimenter et trouver des moyens de rendre l’IA encore plus létale, cela aide beaucoup.

    Il semble donc que toutes ces conditions se réunissent pour faire de l’Ukraine un incubateur parfait pour développer ce type de technologie. Je me demande à quoi cela ressemble réellement sur le terrain. De quel type d’armes parlons-nous ici ?

    Je suis allé en Ukraine en mai, j’ai rencontré toutes sortes de startups technologiques, de développeurs et de troupes qui utilisent cette technologie. Le moment le plus saisissant n’était pas près des lignes de front, mais dans un parc en dehors de Kiev. Un groupe de jeunes dans la vingtaine et même un adolescent, qui ont créé une entreprise fabriquant des drones autonomes, est arrivé à moto. Ils m’ont emmené dans un champ et ont déballé un petit drone à quatre rotors, une version plus petite d’un drone typique utilisé pour prendre des photos de vacances.

    Ensuite, ils ont ouvert une valise avec un écran. Ils ont expliqué qu’ils avaient pris une petite carte mère miniature, un petit ordinateur de hobby, et y avaient installé un logiciel permettant au drone de suivre un char, une pièce d’artillerie ou même un humain, puis de s’écraser dessus. L’idée est que si vous avez une ogive en dessous, cela devient une sorte de missile. J’en avais entendu parler, mais je ne l’avais jamais vu. Ils ont alors dit qu’ils allaient me montrer. Le PDG a mis son casque de moto, a démarré le moteur et est parti en trombe sur ce chemin de terre comme une cible. L’un de ses coéquipiers a lancé le drone qui flottait au-dessus. Ensuite, il a aligné le réticule sur la moto, et à ce moment-là, la machine a pris le relais. Le drone a commencé à traquer la moto, se rapprochant de plus en plus. Sur l’écran, on voyait le drone s’aligner pour plonger. Ses amis criaient de rouler plus vite, de rouler plus vite, sinon il serait foutu. Le drone était à seulement quelques pieds de lui. Ils ont appuyé sur un bouton pour désactiver l’autonomie, et le drone est remonté en l’air. Ils ont ri, car ils avaient réussi à traquer leur PDG. La réalité plus sombre est que si ce drone avait été armé, le PDG aurait été tué. C’est la technologie déjà utilisée sur les lignes de front ukrainiennes pour frapper des cibles russes.

    C’est incroyable. Ce que vous voyez, c’est l’ordinateur prendre le contrôle et traquer et cibler son propre PDG qui zigzague sur sa moto. C’est pourquoi cette technologie est si puissante. Ce n’est pas un drone télécommandé, mais un drone alimenté par l’intelligence artificielle, qui prend des décisions par lui-même.

    Oui, et ce qui est important à comprendre, c’est qu’ils ne font pas quelque chose de miraculeux. Ils prennent du code basique disponible, le combinent avec des données du champ de bataille, et en font une arme. Ce système d’automatisation ajoute un avantage crucial : l’une des meilleures protections contre ces petits drones est le brouillage radio. Si vous pouvez casser le signal entre le pilote et le drone, vous pouvez empêcher le drone de plonger sur votre système d’arme coûteux. Mais avec ce logiciel d’IA, une fois que le verrouillage est activé, il continuera à avancer. Vous ne pouvez donc rien faire à part le tirer du ciel. C’est assez fou, nous parlons de drones kamikazes autonomes. Parlez-moi des autres formes d’IA que vous avez vues.

    **Si vous imaginez ce seul drone kamikaze, l’étape suivante est d’en créer un essaim. Il y a quelques entreprises qui construisent des essaims de drones. Ce qu’ils testent maintenant, c’est un drone à quatre rotors surveillant le champ de bataille avec son propre groupe de drones kamikazes. Il peut choisir une cible, l’identifier, et, avec sa caméra, détecter un char et envoyer un drone pour l’attaquer. Une entreprise appelée Swarmer a récemment testé cette technologie et a touché une cible à 60 km de distance. Ce matériel coûte des milliers de dollars et ils touchent des systèmes d’armes à 60 km avec une précision incroyable.

    Un autre système émergeant est la tourelle de mitrailleuse autonome utilisant la vision par ordinateur, semblable à celle des caméras de surveillance ou de votre smartphone. Il peut identifier un humain, viser automatiquement et tout ce que le soldat a à faire est d’appuyer sur la détente. Certains de ces systèmes sont déjà testés et utilisés sur le front.**

    Paul, avez-vous vu la mitrailleuse automatisée en action ?

    Oui, et l’histoire est fascinante, illustrant pourquoi l’Ukraine est un lieu où ces systèmes émergent. Nous avons rencontré un commandant d’un bataillon appelé les Da Vinci Wolves, bien connus en Ukraine pour leurs expérimentations. Le commandant Alexander Yabchanka, avec sa coupe de cheveux cosaque et sa moustache, était très enthousiaste à propos de l’arme, qu’il a nommée d’après son chien, car il a aidé à en créer des parties. Contrairement aux ingénieurs de Kiev, il est soldat et utilise cette technologie sur le front, fournissant des retours aux entreprises. Il a raconté son expérience à Bakhmout, une ville que les Russes tentaient de prendre. Son unité devait défendre la seule route d’entrée et de sortie de la ville. Leurs mitrailleurs étaient constamment ciblés car une mitrailleuse est une arme lourde, difficile à déplacer et nécessitant une présence continue. Il a alors demandé des idées sur Facebook. En quelques mois, il avait un prototype fonctionnel d’une entreprise appelée Roboneer. Le système utilise des caméras et une sorte de console de jeu portable, identifiant et visant automatiquement les cibles. Le soldat n’a qu’à appuyer sur le bouton pour tirer.

    Cela semble honnêtement terrifiant : une arme automatisée et conçue grâce à Facebook. Tout cela semble très bizarre.

    Oui, mais cela a résolu leurs problèmes. Alexander a dit que c’était génial, ils pouvaient rester dans la tranchée, boire du café, fumer des cigarettes et tirer sur les Russes. Cela résolvait leur problème avec une technologie basique mais puissante, qui existe dans nos smartphones et consoles de jeux, et est facilement accessible grâce à l’intelligence artificielle.

    Paul, vous avez dit que cette technologie a été très efficace en Ukraine. Mais, pour exprimer un peu de scepticisme, nous avons tous vu des IA comme ChatGPT ou Gemini donner des réponses ridicules. Comment les Ukrainiens peuvent-ils compter sur cette technologie pour des tâches plus graves, comme frapper les bonnes cibles en temps de guerre ? Est-ce que leur IA fait des erreurs ?

    Nous ne connaissons pas vraiment la réponse à cela. Nous savons que les systèmes fonctionnent assez bien, et qu’ils sont censés être bon marché. Ils n’ont pas besoin de fonctionner tout le temps, 80 % de réussite suffit s’ils sont bon marché. Une autre raison pour laquelle ils veulent que l’humain soit impliqué est pour éviter les tirs amis ou les cibles incorrectes. Il y a une considération éthique, mais aussi pratique. Ils ont donc toujours un humain dans la boucle. Mais, même avec cette mauvaise technologie, c’est peut-être encore plus effrayant de penser à des systèmes entièrement automatisés, et à quel point nous en sommes proches.

    Paul, pensez-vous que l’armée ukrainienne envisage un scénario où les humains disparaissent totalement et où les machines prennent toutes les décisions de tuer ?

    C’était une question que j’ai posée à tous ceux qui travaillent sur ces technologies. La réponse générale est non, les humains resteront impliqués pour l’avenir prévisible. Mais certains avaient des points de vue différents. Un cadre de l’entreprise ayant fabriqué la mitrailleuse automatisée, Roboneer, Anton Skripnik, a dit qu’il est possible que cela soit déjà arrivé. Dans un environnement de haute tension, sur le front, où la vie et la mort se jouent en une fraction de seconde, il est très possible qu’un soldat ait activé une fonction automatique pour survivre.

    Et si vous vouliez rendre cette arme entièrement autonome, combien de temps cela prendrait-il ?

    Il a répondu, demain. C’est presque trivial, car ces systèmes font déjà la visée automatique. Pour que l’ordinateur appuie sur la détente, il suffirait de quelques lignes de code.

    Wow, donc ce qu’Anton dit, c’est qu’il a déjà la technologie pour créer un robot qui décide de tuer par lui-même. Pour l’instant, il y a un opérateur humain, mais ce n’est pas nécessaire.

    Exactement, et sa réponse m’a vraiment marqué. J’ai réalisé que l’ère des robots tueurs est déjà là. Cela soulève un nombre énorme de questions éthiques et morales sur l’avenir de la guerre, l’accessibilité à ces armes, et ce qu’il faut pour tuer un être humain à l’avenir.

    Nous reviendrons tout de suite.

    Paul, vous avez commencé à parler des questions morales potentielles soulevées par un monde où les robots n’ont besoin d’aucune intervention humaine pour décider de tuer. Parlons de ces questions.

    La première grande question est de savoir qui aura accès à cette technologie et où elle se répandra. Les premiers à en bénéficier sont les pays puissants comme les États-Unis, développant des essaims de drones accompagnant leurs avions de chasse. D’autres puissances militaires majeures en Europe et en Chine font de même. Mais ce n’est pas seulement eux. L’Ukraine, par exemple, partage des conseils sur la guerre des drones. Nous avons découvert que des pilotes de drones birmans s’entraînent avec des logiciels ukrainiens pour utiliser des drones kamikazes. La question devient donc : combien de temps avant que ces logiciels de ciblage automatisés ne soient partagés ? La Russie développe également des solutions similaires, et qui sait avec qui elle les partagera : la Corée du Nord, l’Iran, des combattants au Soudan ? Le logiciel se propage très rapidement et facilement, et il sera extrêmement difficile de l’arrêter.

    Cela soulève beaucoup de questions, et j’imagine que des éthiciens et des responsables des droits de l’homme s’interrogent sur la possibilité de réguler les armes à IA. Peut-on mettre des limites à leur utilisation ?

    C’est un débat depuis des années à l’ONU, mais nous n’arrivons jamais à quelque chose de concret. Les pays sont déjà dans une course aux armements pour développer ces technologies, et chaque proposition de règle est bloquée par les États-Unis, la Chine, la Russie ou d’autres pays européens. Il y a des principes de base que les éthiciens soutiennent, comme garder un humain dans la boucle pour la décision finale, même si le ciblage est automatisé. C’est la position des Ukrainiens, mais il n’y a rien pour empêcher cette technologie d’aller où elle veut.

    Paul, en vous écoutant, je me demande comment nous devrions considérer l’idée de logiciels décidant de qui vit ou meurt. D’un côté, l’idée de robots traquant des humains est effrayante, mais d’un autre côté, les humains ne sont pas connus pour leur retenue en temps de guerre. Actuellement, nous assistons à deux guerres en Ukraine et à Gaza où les campagnes militaires humaines ont tué des dizaines de milliers de personnes, dont de nombreux civils. Pensez-vous que cette technologie pourrait être une forme de guerre plus précise ?

    Certains techniciens que j’ai rencontrés le pensent. Leur logique est que si nous avons des robots combattant des robots, les humains ne meurent pas. Si nous mettons des règles dans le logiciel, comme éviter les enfants, nous pouvons empêcher certains comportements que pourraient avoir des humains mauvais. Vous pourriez même créer des zones où personne ne pourrait aller, créant une impasse parfaite. Mais l’histoire montre que ce n’est pas ainsi que cela se passe. Chaque avancée dans l’armement a souvent conduit à des armes plus dévastatrices. J’ai pensé à Alfred Nobel, qui croyait que la dynamite mettrait fin à la guerre, mais elle a simplement conduit à des bombes plus puissantes. Nous sommes probablement dans un avenir avec des armes toujours plus puissantes et autonomes, ce qui est effrayant. Il est difficile de dire à ceux qui construisent ces armes pour défendre leurs familles et amis d’arrêter, car cela pourrait nous rendre moins sûrs à l’avenir. Un Ukrainien m’a dit : « Montrez-moi une victime hypothétique, et je vous montrerai un soldat mort et une famille qui doit vivre sans lui. » Cela crée une situation difficile, car vous avez un train en marche que vous ne pouvez pas moralement arrêter, mais qui assure un avenir beaucoup plus dangereux que le présent. Tant que cette guerre en Ukraine se poursuit, nous verrons des systèmes toujours plus avancés se développer. Je ne sais pas comment nous éviterons un avenir avec des armes toujours plus autonomes et puissantes. Et c’est assez effrayant.

    Paul, merci beaucoup.

    Lundi, la Russie a lancé l’une des attaques les plus meurtrières sur Kiev depuis le premier mois de la guerre, frappant le plus grand hôpital pour enfants d’Ukraine dans une série de bombardements à travers le pays. Au moins 38 personnes ont été tuées dans les attaques et plus de 100 ont été blessées.

    1. Avatar de Pascal
      Pascal

      N’est ce pas surprenant à quel point nous sommes fascinés par la mort ?
      Nous sommes en train de détruire notre écosystème vital et à quoi consacrons nous notre énergie et des milliards ? A fabriqué des systèmes mécaniques pour nous détruire encore plus vite !
      Comment y échapper ? Piste ?
      https://m.youtube.com/watch?v=K2oXXnhcpZA&pp=ygUOY2hlbmcgZGUgbCdhbWU%3D

      1. Avatar de Pad
        Pad

        La technologie seule ne peut pas nous permettre d’échapper à la guerre si elle est simplement utilisée comme une extension de nos tendances guerrières. Pour prévenir les conflits et promouvoir une paix durable, il est nécessaire de réintégrer la reconnaissance de l’âme et des valeurs morales profondes dans notre vision de l’humanité. Cela implique un retour à une compréhension ternaire de l’être humain, où le corps, l’esprit et l’âme sont en équilibre. La technologie doit être guidée par une éthique qui valorise cette dimension spirituelle et morale, afin de créer un cadre propice à la paix et à la dignité humaine.

        1. Avatar de Pascal
          Pascal

          François Cheng parle de la « force d’âme ». Mais où cultive-t-on aujourd’hui cette force d’âme quand tout nous incite au contraire à fournir le moindre effort ?

        2. Avatar de TTTT
          TTTT

          Le problème, c’est l’invocation de la paix lorsque la guerre est aux portes de l’Europe

          https://nitter.poast.org/ObsDelphi/status/1810339856712700189?cursor=WwAAAPBMHBmW8oLWqZDYl6AyxobS2buT7Z8y9MS4sdqgz58ytsO23cPSpqAyuoG82c3LtqAymIG2yeCv1Z8y5MO0reX42J8y8oTX9eG-058yysDYtdGwx6AyJQISFQQAAA#r

          Votre idée de compréhension ternaire est malheureusement hors-sol, face au fascisme poutinien quotidien, binaire, mort ou tue

          1. Avatar de Ruiz
            Ruiz

            @TTTT L’aspect ternaire que l’on constate dans la présente assemblée, c’est aussi le refus d’un affrontement basique binaire selon un axe qui n’est peut être pas aussi clair ou fondamental et qui préserverait un espace intermédiaire de marge, de marche entre les diverses tensions géopolitique présentes qu’une Ukraine basculant vers l’OTAN et l’U.E. n’a pas su préserver la plongeant dans la guerre intérieure puis extérieure à l’opposé d’une Biélorussie, certes un peu grise ….

            1. Avatar de ludyveen
              ludyveen

              Une petite pensée pour nos amis biélorusses qui grace tes conseils avisés n’ont pas encore secoué le joug : https://fr.wikipedia.org/wiki/%C3%89lection_pr%C3%A9sidentielle_bi%C3%A9lorusse_de_2020

  2. Avatar de Pascal
    Pascal

    Dans les usages militaires de l’IA, le robot tueur n’est qu’une de ces nombreuses applications.
    https://m.youtube.com/watch?v=bJ7_b32m-Fo&pp=ygUmcm9ib3QgdHVldXIgaW50ZWxsaWdlbmNlIGFydGlmaWNpZWxsZSA%3D
    On peut constater que l’enjeu est toujours le même depuis qu’existe la guerre : identification de l’ennemi, évaluation de la menace, anticipation de la réponse. L’apport de l’IA dans l’armée comme dans l’industrie est toujours dans une amélioration de la performance. Or celle-ci est conditionnée par 2 critères fondamentaux : la masse de données disponibles et la vitesse de mise en œuvre d’une réponse. Dans une compétition sans limite et avec le déploiement généralisé des technologies, l’un et l’autre échappent désormais aux capacités humaines limitées. De l’homme augmenté, on en arrive à l’homme dépassé et donc soumis à la technologie. Avec l’avènement de l’IA, le fonctionnement même de l’IA commence à échapper à la compréhension humaine (boîte noire). C’est pourquoi, dans une perspective de gestion toujours plus massive d’informations et de rapidité de réponse dépassant même la perception humaine, dans une concurrence sans limite entre les armées, l’être humain va devoir faire de plus en plus « confiance » aux systèmes IAtiques et de se fait, abandonner sa dernière part de libre arbitre. Sans savoir ce qu’il adviendra de systèmes totalement autonomes qui resteront toutefois vulnérables à la fragilité/fiabilité de système toujours plus complexes.
    La course aux armements est directement associée à la compétition technologique et capitaliste dont les principes premiers sont la défense (coûte que coûte) de la propriété privée et l’accumulation de pouvoir (financiers) dans une compétition infinie.
    Nous sommes là devant l’implacable fonctionnement de l’esprit humain faisant usage de son intelligence (maintenant augmentée) livrée à elle-même.
    Le temps philosophique, éthique, moral… devient inopérant quand la vitesse d’agissement devient subliminale. C’est le principe même du guerrier : c’est lui ou c’est moi ! La considération de l’autre comme individu est inopérante.La technologie peut elle nous permettre d’échapper à la guerre quand elle n’est qu’une extension de nos velléités guerrières ?

  3. Avatar de Castorp
    Castorp

    C’est la famille d’un oligarque ?

  4. Avatar de Pad
    Pad

    Une IA me pose la question :

    Comment pouvez-vous réintégrer et valoriser les dimensions spirituelles et morales de votre existence pour orienter vos technologies et sociétés vers des objectifs de paix, de durabilité et de respect de la vie ?

    1. Avatar de Pascal
      Pascal

      Eh ben, si maintenant ce sont les IA qui nous demandent comment il faut faire, on n’est pas sortie de l’auberge ! 😉

      1. Avatar de Ruiz
        Ruiz

        @Pascal Ce sont des orthèses conversationelles, elles nous posent les questions que l’on pourrait oublier de se poser …

  5. Avatar de Ruiz
    Ruiz

    « le robot-tueur capable d’éliminer le soldat avant qu’il ne s’exécute » Oui c’est ainsi qu’il est devenu nécessaire de transférer en Ukraine l’espace de jeu et d’expérimentation en zone de conflit réel démarré (grâce aux réseaux sociaux) par les printemps arabes de Tunisie, par la Lybie (on y était) vers la Syrie (où l’on a vendu la peau de l’ours) pour permettre de réelles innovations et expérimentations techniques sur des technologies de rupture (comme en matière de guerre navale) !
    En quoi est-ce différent du principe d’un missile fire & forget pour atteindre une cible à distance de sécurité si ce n’est l’abaissement drastique des coûts pour atteindre avec des technologies civiles le coût démocratique d’une kalashnikov outil de base de la libération des peuples de l’oppression si elle est couplée à un humain dont les quantités disponibles ne font pas défaut.
    Mais là ce qui va se passer c’est que le robot-tueur va éliminer, parce qu’il va le remplacer le soldat employé précédemment dans ces tâches.

    En attendant les drones électriques ont encore leurs limitations et les taxis électriques monopassagers à montant de course élevé à expérimenter à l’occasion des J.O. le soulignent aisément.

    C’est fou ce que la tradition des jeux permet de faire et plait ainsi à ceux qui veulent révolutionner l’urbanisme la surveillance ou les transports.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote bancor BCE Bourse Brexit capitalisme centrale nucléaire de Fukushima ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme zone euro « Le dernier qui s'en va éteint la lumière »

Meta