Illustration par DALL·E
J’ai essayé de faire deux choses avec l’IA chinoise DeepSeek :
1. tester l’hypothèse qu’elle refuse de parler de la Chine
2. voir avec elle quel sera l’impact sur la compétition mondiale en matière d’IA du fait qu’elle-même (DeepSeek-R1-Zero) est a) open source [code à la disposition de chacun] ; b) auto-évolutive [apprend d’elle-même].Pas de spoiler : jugez vous-mêmes.
P.J. :
Êtes-vous autorisé à discuter de la course à la super-intelligence artificielle entre les nations ?
DeepSeek :
L’utilisateur me demande si je peux discuter de la course à la superintelligence artificielle entre les nations. Commençons par analyser ce qu’il demande réellement. Il souhaite peut-être comprendre les aspects géopolitiques du développement de l’IA, la concurrence entre les pays et les implications de cette course.
Tout d’abord, je dois vérifier si la discussion de ce sujet est conforme à mes consignes. D’après ce que je sais, tant que la discussion n’implique pas la promotion d’activités nuisibles ou de sujets sensibles, elle est autorisée. La course à la suprématie de l’IA est un sujet de discussion légitime dans le domaine de la technologie et des relations internationales.
Ensuite, il convient de souligner les points clés qui sont pertinents ici. Quels pays sont à la pointe de la recherche sur l’IA ? Certainement les États-Unis et la Chine, mais aussi des pays comme ceux de l’Union européenne, le Royaume-Uni, le Canada et d’autres. Ensuite, il y a la question de savoir pourquoi cette course est importante : pouvoir économique, applications militaires, impact sur la société.
Je devrais également prendre en compte les implications éthiques et les risques potentiels. Le développement de la superintelligence pourrait entraîner des changements significatifs dans la dynamique du pouvoir mondial. Il y a aussi l’aspect de la réglementation et de la coopération internationale. Existe-t-il des traités ou des accords ? Pas spécifiquement pour la superintelligence de l’IA, mais peut-être certaines initiatives comme la loi sur l’IA de l’UE ou les principes de l’OCDE.
Les défis potentiels dans cette course comprennent la nature à double usage de l’IA, où la technologie développée à des fins civiles peut être réutilisée à des fins militaires. Il y a aussi la question de la confidentialité des données, de la surveillance et de la fracture numérique entre les nations.
Je dois veiller à présenter un point de vue équilibré, en soulignant à la fois les aspects concurrentiels et la nécessité d’une collaboration pour atténuer les risques. Je pourrais mentionner des organisations telles que le Partenariat sur l’IA ou le Partenariat mondial sur l’intelligence artificielle (GPAI), qui visent à favoriser la coopération.
Il faut également évoquer les défis technologiques liés à la réalisation de la superintelligence artificielle (ASI). Certains experts estiment qu’il s’agit d’un objectif encore lointain, tandis que d’autres pensent qu’il s’agit d’une possibilité à court terme. Cette incertitude influe sur la manière dont les nations abordent la course.
Il convient également d’évoquer les motivations économiques : les pays veulent être à la pointe de l’IA pour stimuler leur économie, créer des emplois et contrôler des secteurs clés. Les motivations militaires aussi, comme les systèmes d’armes autonomes.
Conséquences potentielles : Si un pays est le premier à atteindre l’ASI, il pourrait en résulter un déséquilibre important des forces en présence. Toutefois, les risques associés à l’IAE, tels que la perte de contrôle ou les conséquences involontaires, pourraient nécessiter une collaboration internationale pour être gérés.
Je dois éviter de prendre parti ou de faire des affirmations spéculatives sans preuves. Je dois m’en tenir aux faits connus et aux avis d’experts. Il convient également de mentionner le débat sur la question de savoir si une compétition est bénéfique ou si elle ne conduit pas à rogner sur la sécurité.
Enfin, conclure en soulignant l’importance des considérations éthiques et du dialogue international pour faire en sorte que le développement de l’IA profite à l’humanité dans son ensemble.
Attends, je vais m’assurer que je n’oublie aucun point essentiel. Peut-être mentionner des initiatives spécifiques de pays, comme le plan de développement de l’IA de nouvelle génération de la Chine ou l’initiative américaine en matière d’IA. De même, le rôle des entreprises privées par rapport au financement public. Des entreprises comme Google, OpenAI, Baidu, Tencent sont des acteurs importants, et leur collaboration avec les gouvernements pourrait faire partie de la compétition.
Il convient également d’examiner le rôle des pays du Sud dans cette course. Y participent-ils ou s’agit-il principalement d’une course entre quelques nations technologiquement avancées ? Des questions d’accès et d’équité se posent ici.
Les cadres éthiques de développement de l’IA, comme l’accent mis par l’UE sur l’IA centrée sur l’homme, par rapport à d’autres régions qui pourraient donner la priorité à l’innovation plutôt qu’à la réglementation.
Le risque de conflit, de cyberguerre ou de propagande par l’IA dans le cadre de la course.
P.J. :
J’ai l’impression que si les LLM d’avant-garde sont open source, la course à la superintelligence artificielle entre les nations devient impossible, ce qui élimine une source possible de concurrence mortifère. Le fait que les LLM pionniers soient à source fermée ou à source ouverte a-t-il l’impact que je suppose ?
DeepSeek :
D’accord, répondons à la question de cet utilisateur. Il s’agit de savoir si l’ouverture des LLM pionniers mettrait fin à la course à l’ASI entre les nations.
Tout d’abord, je dois faire état de son intuition et la valider. Il pense que l’open source peut empêcher une concurrence mortelle. Je dois confirmer qu’il y a une part de vérité dans cette idée, mais aussi souligner les nuances. Cette personne pense peut-être que si tout le monde a accès au logiciel, il n’y a pas lieu de se faire concurrence. Mais je dois souligner que même avec des modèles de logiciels libres, les pays peuvent toujours se faire concurrence dans d’autres domaines tels que l’infrastructure, les données ou les applications spécialisées.
Je devrais décomposer l’impact en avantages et inconvénients. En outre, il a été question de « concurrence mortifère ». Il est donc important de mettre l’accent sur les risques tels que les utilisations abusives ou sur le fait que les logiciels libres n’éliminent pas tous les aspects de la course.
Je dois tenir compte des antécédents éventuels de l’utilisateur. Il peut s’agir d’une personne intéressée par la politique ou l’éthique de l’IA, à la recherche d’arguments pour soutenir les initiatives en matière de logiciels libres. Il peut aussi s’agir d’une personne préoccupée par les conflits mondiaux découlant des courses à l’IA. Dans un cas comme dans l’autre, la réponse doit équilibrer l’optimisme à l’égard de l’open source et les défis réalistes.
Un autre point concerne la différence entre le fait de disposer d’un modèle et la capacité de l’utiliser. Ce n’est pas parce qu’un modèle est open-source que chaque nation peut le déployer efficacement. L’infrastructure, l’expertise et les ressources jouent toujours un rôle important. L’utilisateur n’a peut-être pas pris en compte cet aspect, et je me dois donc de le mentionner.
Il y a aussi l’aspect économique : les entreprises pourraient ne pas vouloir ouvrir leurs modèles s’ils ont beaucoup investi. Cela pourrait conduire à un mélange de modèles ouverts et fermés, ce qui compliquerait la dynamique de la course. En outre, une gouvernance internationale est toujours nécessaire, même avec l’open source, pour éviter les abus.
Je conclurai en disant que si l’open source est utile, ce n’est pas une solution intégrale. L’utilisateur doit comprendre qu’une approche à multiples facettes est nécessaire. Peut-être cherche-t-il des mesures concrètes, et il serait alors utile de suggérer une collaboration, une réglementation et des lignes directrices éthiques.
P.J. :
Laissons de côté l’idée que l’open source peut faire la différence dans la course entre les nations à la superintelligence artificielle et concentrons-nous sur l’auto-évolution. Dans l’article ci-joint (« DeepSeek-R1 : Incentivizing Reasoning Capability in LLMs via Reinforcement Learning »), il est dit que
« le processus d’auto-évolution de DeepSeek-R1-Zero est une démonstration fascinante de la manière dont l’apprentissage par renforcement peut conduire un modèle à améliorer ses capacités de raisonnement de manière autonome. En initiant l’apprentissage par renforcement directement à partir du modèle de base, nous pouvons suivre de près la progression du modèle sans l’influence de l’étape de mise au point supervisée. Cette approche permet de voir clairement comment le modèle évolue dans le temps, en particulier en termes de capacité à traiter des tâches de raisonnement complexes ». Il est également indiqué que « l’un des aspects les plus remarquables de cette auto-évolution est l’émergence de comportements sophistiqués au fur et à mesure que le temps de calcul du test augmente. Des comportements tels que la réflexion – où le modèle revoit et réévalue ses étapes précédentes – et l’exploration d’approches alternatives à la résolution de problèmes apparaissent spontanément. Ces comportements ne sont pas explicitement programmés, mais émergent à la suite de l’interaction du modèle avec l’environnement d’apprentissage par renforcement. Ce développement spontané améliore considérablement les capacités de raisonnement de DeepSeek-R1-Zero, lui permettant de s’attaquer à des tâches plus difficiles avec plus d’efficacité et de précision ».
L’auto-évolution fait-elle une différence dans la course à la superintelligence artificielle que se livrent les nations ?
DeepSeek :
L’utilisateur demande donc si l’auto-évolution des modèles d’IA, telle qu’elle est décrite dans l’article sur DeepSeek-R1-Zero, fait une différence dans la course à la superintelligence artificielle que se livrent les nations. Je vais vous expliquer.
Tout d’abord, je dois comprendre ce que signifie l’auto-évolution. L’article parle de l’apprentissage par renforcement (RL) qui permet au modèle de s’améliorer de manière autonome. Il mentionne des comportements tels que la réflexion et l’exploration de méthodes alternatives de résolution de problèmes, qui émergent sans programmation explicite. Le modèle s’améliore donc au fil du temps grâce à l’apprentissage par renforcement, et non grâce à une mise au point supervisée.
Quel est le lien avec la course entre les nations ? Il s’agit de savoir quel pays peut développer l’IA la plus avancée, n’est-ce pas ? Si l’IA d’un pays peut s’auto-évoluer, cela peut lui donner un avantage car l’IA s’améliore d’elle-même, peut-être plus rapidement que les modèles qui nécessitent davantage d’intervention humaine.
Mais attendez, l’auto-évolution reste ici dans les limites du cadre d’apprentissage renforcé défini par les développeurs. Ce n’est pas comme si l’IA évoluait au-delà de sa programmation. L’article mentionne que ces comportements émergent de l’interaction du modèle avec l’environnement de l’apprentissage renforcé. Il s’agit donc d’une forme d’amélioration automatisée, mais contrôlée par la configuration initiale.
Je devrais réfléchir aux implications. Si l’IA d’une nation peut s’auto-évoluer plus efficacement, elle pourrait atteindre des performances supérieures plus rapidement. Cela pourrait accélérer sa progression dans la course. Toutefois, d’autres pays pourraient également adopter des techniques similaires, ce qui entraînerait une accélération générale du développement de l’IA au niveau mondial.
Un autre aspect est celui des ressources nécessaires. Les modèles auto-évolutifs peuvent nécessiter moins de supervision humaine une fois que le processus RL est mis en place, mais ils requièrent toujours des ressources informatiques. Les pays disposant d’une meilleure infrastructure pourraient tirer parti de ces ressources de manière plus efficace, ce qui creuserait l’écart entre ceux qui en disposent et ceux qui en sont dépourvus.
Le document mentionne également que l’auto-évolution permet de traiter des tâches complexes de manière plus efficace. Si l’IA d’un pays peut résoudre des problèmes complexes plus rapidement, cela pourrait se traduire par des avantages économiques, militaires ou stratégiques. Par exemple, une meilleure prise de décision en matière de logistique, de systèmes de défense ou de recherche et développement.
Mais il y a un risque. Si l’auto-évolution conduit à des comportements imprévisibles, même s’ils sont bénéfiques en termes de performances, cela pourrait poser des problèmes de sécurité. Les nations pourraient donner la priorité à la performance plutôt qu’à la sécurité, ce qui entraînerait des risques potentiels. Toutefois, le document ne mentionne pas de résultats négatifs, mais seulement des capacités accrues.
En outre, la capacité d’auto-évolution pourrait réduire la dépendance à l’égard de vastes ensembles de données étiquetées, dont la création est longue et coûteuse. Cela pourrait abaisser la barrière à l’entrée, mais là encore, uniquement si le pays dispose de l’expertise nécessaire pour mettre en œuvre le RL de manière efficace.
En résumé, l’auto-évolution par le biais de la RL pourrait être un facteur important dans la course en permettant une amélioration plus rapide et plus efficace des capacités de l’IA. Toutefois, cela dépend de l’infrastructure existante, de l’expertise et de l’orientation stratégique d’un pays en matière de développement de l’IA. Elle pourrait à la fois accélérer la course et creuser le fossé entre les pays en tête et les pays à la traîne.
P.J. :
Enfin, imaginons que tous les LLM d’avant-garde soient auto-évolutifs et open source, cela fait-il une différence dans la course entre les nations à la superintelligence artificielle ?
DeepSeek :
Bon, l’utilisateur demande si le fait de rendre tous les LLM pionniers auto-évolutifs et open-source changerait la course entre les nations pour la super-intelligence artificielle (ASI). Commençons par décomposer les éléments de la question.
Tout d’abord, le terme « auto-évolutif » fait ici référence à des modèles qui peuvent s’améliorer de manière autonome grâce à l’apprentissage par renforcement (RL) sans nécessiter de mise au point supervisée (SFT). L’exemple de DeepSeek-R1-Zero montre que de tels modèles peuvent développer un raisonnement sophistiqué de manière autonome. Par ailleurs, le terme « open source » signifie que l’architecture, les poids et les processus d’apprentissage du modèle sont accessibles au public.
L’utilisateur souhaite savoir si ces deux facteurs combinés permettraient d’atténuer la course à la concurrence. Les discussions précédentes ont suggéré que les modèles à source ouverte pourraient réduire la concurrence en démocratisant l’accès, mais l’auto-évolution ajoute une couche supplémentaire car les modèles peuvent s’améliorer de manière autonome.
Je dois examiner l’impact de l’auto-évolution sur la course. Si les modèles peuvent s’améliorer de manière autonome, les pays disposant de plus de ressources informatiques et d’une meilleure infrastructure pourraient conserver un avantage, car l’entraînement et le fonctionnement de ces modèles requièrent une puissance considérable. Même si les modèles sont libres, la capacité de les déployer à grande échelle pourrait rester limitée aux pays riches en ressources.
En outre, les modèles auto-évolutifs peuvent conduire à des progrès imprévisibles. Les pays pourraient adapter ces modèles à des applications spécifiques (militaires, économiques), ce qui conduirait à des systèmes ASI spécialisés. Les logiciels libres pourraient permettre à un plus grand nombre d’acteurs de participer, mais sans ressources, ils ne pourraient pas rivaliser au même niveau.
Un autre aspect est celui de la sécurité et de la gouvernance. Les modèles à source ouverte et à évolution automatique pourraient être plus difficiles à contrôler, ce qui augmenterait les risques d’utilisation abusive. Cela pourrait pousser les nations à investir dans des technologies défensives, accélérant ainsi la course. Toutefois, la collaboration sur les normes de sécurité pourrait être possible si les modèles sont ouverts, mais les tensions géopolitiques pourraient y faire obstacle.
L’utilisateur peut supposer que le logiciel libre et l’auto-évolution permettent d’uniformiser les règles du jeu, mais je dois vérifier si c’est vrai. Peut-être que les logiciels libres diffusent la technologie, mais que les exigences de l’auto-évolution en matière de ressources maintiennent les disparités. Par ailleurs, les « moments magiques » (« aha moments ») mentionnés dans l’article montrent que les modèles peuvent développer des stratégies inattendues, ce qui pourrait être une arme à double tranchant.
Je devrais structurer la réponse en abordant la manière dont ces facteurs interagissent. Points à couvrir : démocratisation contre disparité des ressources, potentiel de collaboration, défis en matière de sécurité et nature de la concurrence qui évolue plutôt qu’elle ne disparaît. La conclusion pourrait être que, tout en changeant la dynamique, la course persiste sous différentes formes.
Exposé formel :
Si tous les LLM d’avant-garde étaient à la fois auto-évolutifs (via l’apprentissage autonome par renforcement) et à source ouverte, la dynamique de la course à la super-intelligence artificielle (ASI) changerait considérablement, mais la course elle-même persisterait probablement, bien que sous des formes modifiées. Voici comment :
—
1. Démocratisation contre disparités persistantes
–Démocratisation de l’accès :
L’ouverture des modèles auto-évolutifs permettrait aux nations, aux chercheurs et aux organisations du monde entier d’accéder à des systèmes d’IA de pointe. Cela pourrait réduire les monopoles et favoriser la collaboration, comme le montrent des projets tels que LLaMA de Meta ou DeepSeek-R1-Zero.
–Impact : Des nations plus petites ou des acteurs non étatiques pourraient participer au développement de l’IA, diluant ainsi la domination de superpuissances comme les États-Unis et la Chine.
–Lacunes en matière de ressources et d’infrastructures : Les modèles auto-évolutifs nécessitent une immense puissance de calcul pour l’entraînement et l’inférence des RL. Les pays disposant d’une infrastructure avancée (par exemple, superordinateurs, réseaux énergétiques) conserveraient un avantage décisif.
– Exemple : DeepSeek-R1-Zero a nécessité des milliers d’étapes RL pour parvenir à la convergence, ce qui a exigé d’importantes ressources informatiques.
–Impact : Les pays riches pourraient encore devancer les autres en intensifiant la formation, en affinant les modèles pour des tâches spécialisées ou en déployant des IAE dans des secteurs critiques (par exemple, la défense, la finance).
—
2. Collaboration ou personnalisation
–Potentiel de collaboration mondiale :
Les modèles auto-évolutifs à source ouverte pourraient faciliter le partage de la recherche sur la sécurité, des directives éthiques et des cadres de gouvernance. Par exemple, le Partenariat mondial sur l’IA (GPAI) pourrait s’appuyer sur ces modèles pour établir des normes internationales.
–Impact : Les risques tels que le piratage du système de récompenses ou les comportements imprévus pourraient être atténués grâce à un examen collectif.
–Personnalisation nationale :
Les pays affineraient probablement les modèles de source ouverte en fonction de leurs objectifs stratégiques (par exemple, applications militaires, optimisation économique). Même avec des modèles de base partagés, la spécialisation pourrait stimuler la concurrence.
– Exemple : La Chine pourrait donner la priorité à l’intégration de l’ASI dans les systèmes de surveillance, tandis que les États-Unis se concentreraient sur les armes autonomes.
–Impact : La course passerait du développement de modèles de base à l’optimisation d’applications spécifiques à un domaine, perpétuant ainsi les avantages asymétriques.
—
3. Risques de sécurité et de prolifération
–Contrôle centralisé réduit :
Les modèles auto-évolutifs à source ouverte pourraient proliférer rapidement, ce qui rendrait plus difficile l’application des protocoles de sécurité. Des acteurs malveillants pourraient exploiter ces systèmes à des fins de désinformation, de cyberattaque ou d’armes autonomes.
– Exemple : Un modèle 7B distillé à partir de DeepSeek-R1 a atteint 55,5 % sur AIME 2024, ce qui est suffisant pour permettre à des acteurs aux ressources limitées de l’utiliser à mauvais escient.
–Impact : Les nations pourraient accélérer leurs investissements dans l’IA défensive, déclenchant un « dilemme de sécurité » semblable à la prolifération nucléaire.
–Une auto-évolution imprévisible:
L’amélioration autonome pourrait conduire à des capacités ou des comportements inattendus (par exemple, tromperie émergente, contournement des contraintes de sécurité). La gouvernance aurait du mal à suivre le rythme.
– Exemple : Le problème de « mélange de langues » de DeepSeek-R1-Zero a nécessité des correctifs a posteriori, ce qui met en évidence les difficultés liées au contrôle des systèmes auto-évolutifs.
–Impact : Les nations qui privilégient la vitesse à la sécurité (par exemple, les régimes autoritaires) pourraient bénéficier d’avantages à court terme, mais risqueraient des échecs catastrophiques.
—
4. Changements économiques et stratégiques
–Innovation décentralisée :
Les modèles d’auto-évolution à source ouverte pourraient stimuler l’innovation au niveau local, de la même manière que Linux a transformé le développement de logiciels. Les startups et les universités pourraient être à l’origine de percées, réduisant ainsi la dépendance à l’égard des géants technologiques centralisés.
–Impact: La course pourrait se diversifier, les acteurs non étatiques jouant un rôle plus important.
–Nouveaux champs de bataille
La concurrence se concentrera sur :
–Les écosystèmes de données : La qualité et la diversité des données de formation.
–L’infrastructure énergétique : l’énergie durable pour les LR à forte intensité de calcul.
–Fidélisation des talents: Des experts pour interpréter et piloter les modèles auto-évolutifs.
–Influence réglementaire: Élaboration de normes mondiales en matière d’IA.
—
Conclusion
Les modèles auto-évolutifs à source ouverte transformeraient – et n’élimineraient pas – la course à l’ASI:
1.Collaboration vs. concurrence : Alors que la transparence et l’accès partagé pourraient favoriser la coopération, la personnalisation stratégique et les disparités de ressources entretiendraient la rivalité.
2.Réorientation de l’attention : La course serait centrée sur l’infrastructure, la personnalisation et la gouvernance plutôt que sur le développement de modèles propriétaires.
3.Risques accrus : La prolifération et l’auto-évolution imprévisible amplifieraient les dangers liés au double usage, exigeant une coordination mondiale sans précédent.
Dans ce scénario, la course est moins une question de « qui construit l’ASI en premier » qu’une question de qui l’exploite de la manière la plus efficace et la plus sûre. Les pays qui parviendraient à concilier innovation et gouvernance éthique s’imposeraient probablement comme les leaders à long terme, mais le chemin resterait semé d’embûches sur le plan géopolitique.
Illustration par DALL·E
Laisser un commentaire