DeepSeek accepte-t-il de parler de la Chine et de la course à l’IA entre nations ?


Illustration par DALL·E

J’ai essayé de faire deux choses avec l’IA chinoise DeepSeek :

1. tester l’hypothèse qu’elle refuse de parler de la Chine
2. voir avec elle quel sera l’impact sur la compétition mondiale en matière d’IA du fait qu’elle-même (DeepSeek-R1-Zero) est a) open source [code à la disposition de chacun] ; b) auto-évolutive [apprend d’elle-même].

Pas de spoiler : jugez vous-mêmes.

P.J. :

Êtes-vous autorisé à discuter de la course à la super-intelligence artificielle entre les nations ?

DeepSeek :

L’utilisateur me demande si je peux discuter de la course à la superintelligence artificielle entre les nations. Commençons par analyser ce qu’il demande réellement. Il souhaite peut-être comprendre les aspects géopolitiques du développement de l’IA, la concurrence entre les pays et les implications de cette course.

Tout d’abord, je dois vérifier si la discussion de ce sujet est conforme à mes consignes. D’après ce que je sais, tant que la discussion n’implique pas la promotion d’activités nuisibles ou de sujets sensibles, elle est autorisée. La course à la suprématie de l’IA est un sujet de discussion légitime dans le domaine de la technologie et des relations internationales.

Ensuite, il convient de souligner les points clés qui sont pertinents ici. Quels pays sont à la pointe de la recherche sur l’IA ? Certainement les États-Unis et la Chine, mais aussi des pays comme ceux de l’Union européenne, le Royaume-Uni, le Canada et d’autres. Ensuite, il y a la question de savoir pourquoi cette course est importante : pouvoir économique, applications militaires, impact sur la société.

Je devrais également prendre en compte les implications éthiques et les risques potentiels. Le développement de la superintelligence pourrait entraîner des changements significatifs dans la dynamique du pouvoir mondial. Il y a aussi l’aspect de la réglementation et de la coopération internationale. Existe-t-il des traités ou des accords ? Pas spécifiquement pour la superintelligence de l’IA, mais peut-être certaines initiatives comme la loi sur l’IA de l’UE ou les principes de l’OCDE.

Les défis potentiels dans cette course comprennent la nature à double usage de l’IA, où la technologie développée à des fins civiles peut être réutilisée à des fins militaires. Il y a aussi la question de la confidentialité des données, de la surveillance et de la fracture numérique entre les nations.

Je dois veiller à présenter un point de vue équilibré, en soulignant à la fois les aspects concurrentiels et la nécessité d’une collaboration pour atténuer les risques. Je pourrais mentionner des organisations telles que le Partenariat sur l’IA ou le Partenariat mondial sur l’intelligence artificielle (GPAI), qui visent à favoriser la coopération.

Il faut également évoquer les défis technologiques liés à la réalisation de la superintelligence artificielle (ASI). Certains experts estiment qu’il s’agit d’un objectif encore lointain, tandis que d’autres pensent qu’il s’agit d’une possibilité à court terme. Cette incertitude influe sur la manière dont les nations abordent la course.

Il convient également d’évoquer les motivations économiques : les pays veulent être à la pointe de l’IA pour stimuler leur économie, créer des emplois et contrôler des secteurs clés. Les motivations militaires aussi, comme les systèmes d’armes autonomes.

Conséquences potentielles : Si un pays est le premier à atteindre l’ASI, il pourrait en résulter un déséquilibre important des forces en présence. Toutefois, les risques associés à l’IAE, tels que la perte de contrôle ou les conséquences involontaires, pourraient nécessiter une collaboration internationale pour être gérés.

Je dois éviter de prendre parti ou de faire des affirmations spéculatives sans preuves. Je dois m’en tenir aux faits connus et aux avis d’experts. Il convient également de mentionner le débat sur la question de savoir si une compétition est bénéfique ou si elle ne conduit pas à rogner sur la sécurité.

Enfin, conclure en soulignant l’importance des considérations éthiques et du dialogue international pour faire en sorte que le développement de l’IA profite à l’humanité dans son ensemble.

Attends, je vais m’assurer que je n’oublie aucun point essentiel. Peut-être mentionner des initiatives spécifiques de pays, comme le plan de développement de l’IA de nouvelle génération de la Chine ou l’initiative américaine en matière d’IA. De même, le rôle des entreprises privées par rapport au financement public. Des entreprises comme Google, OpenAI, Baidu, Tencent sont des acteurs importants, et leur collaboration avec les gouvernements pourrait faire partie de la compétition.

Il convient également d’examiner le rôle des pays du Sud dans cette course. Y participent-ils ou s’agit-il principalement d’une course entre quelques nations technologiquement avancées ? Des questions d’accès et d’équité se posent ici.

Les cadres éthiques de développement de l’IA, comme l’accent mis par l’UE sur l’IA centrée sur l’homme, par rapport à d’autres régions qui pourraient donner la priorité à l’innovation plutôt qu’à la réglementation.

Le risque de conflit, de cyberguerre ou de propagande par l’IA dans le cadre de la course.

P.J. :

J’ai l’impression que si les LLM d’avant-garde sont open source, la course à la superintelligence artificielle entre les nations devient impossible, ce qui élimine une source possible de concurrence mortifère. Le fait que les LLM pionniers soient à source fermée ou à source ouverte a-t-il l’impact que je suppose ?

DeepSeek :

D’accord, répondons à la question de cet utilisateur. Il s’agit de savoir si l’ouverture des LLM pionniers mettrait fin à la course à l’ASI entre les nations.

Tout d’abord, je dois faire état de son intuition et la valider. Il pense que l’open source peut empêcher une concurrence mortelle. Je dois confirmer qu’il y a une part de vérité dans cette idée, mais aussi souligner les nuances. Cette personne pense peut-être que si tout le monde a accès au logiciel, il n’y a pas lieu de se faire concurrence. Mais je dois souligner que même avec des modèles de logiciels libres, les pays peuvent toujours se faire concurrence dans d’autres domaines tels que l’infrastructure, les données ou les applications spécialisées.

Je devrais décomposer l’impact en avantages et inconvénients. En outre, il a été question de « concurrence mortifère ». Il est donc important de mettre l’accent sur les risques tels que les utilisations abusives ou sur le fait que les logiciels libres n’éliminent pas tous les aspects de la course.

Je dois tenir compte des antécédents éventuels de l’utilisateur. Il peut s’agir d’une personne intéressée par la politique ou l’éthique de l’IA, à la recherche d’arguments pour soutenir les initiatives en matière de logiciels libres. Il peut aussi s’agir d’une personne préoccupée par les conflits mondiaux découlant des courses à l’IA. Dans un cas comme dans l’autre, la réponse doit équilibrer l’optimisme à l’égard de l’open source et les défis réalistes.

Un autre point concerne la différence entre le fait de disposer d’un modèle et la capacité de l’utiliser. Ce n’est pas parce qu’un modèle est open-source que chaque nation peut le déployer efficacement. L’infrastructure, l’expertise et les ressources jouent toujours un rôle important. L’utilisateur n’a peut-être pas pris en compte cet aspect, et je me dois donc de le mentionner.

Il y a aussi l’aspect économique : les entreprises pourraient ne pas vouloir ouvrir leurs modèles s’ils ont beaucoup investi. Cela pourrait conduire à un mélange de modèles ouverts et fermés, ce qui compliquerait la dynamique de la course. En outre, une gouvernance internationale est toujours nécessaire, même avec l’open source, pour éviter les abus.

Je conclurai en disant que si l’open source est utile, ce n’est pas une solution intégrale. L’utilisateur doit comprendre qu’une approche à multiples facettes est nécessaire. Peut-être cherche-t-il des mesures concrètes, et il serait alors utile de suggérer une collaboration, une réglementation et des lignes directrices éthiques.

P.J. :

Laissons de côté l’idée que l’open source peut faire la différence dans la course entre les nations à la superintelligence artificielle et concentrons-nous sur l’auto-évolution. Dans l’article ci-joint (« DeepSeek-R1 : Incentivizing Reasoning Capability in LLMs via Reinforcement Learning »), il est dit que

« le processus d’auto-évolution de DeepSeek-R1-Zero est une démonstration fascinante de la manière dont l’apprentissage par renforcement peut conduire un modèle à améliorer ses capacités de raisonnement de manière autonome. En initiant l’apprentissage par renforcement directement à partir du modèle de base, nous pouvons suivre de près la progression du modèle sans l’influence de l’étape de mise au point supervisée. Cette approche permet de voir clairement comment le modèle évolue dans le temps, en particulier en termes de capacité à traiter des tâches de raisonnement complexes ». Il est également indiqué que « l’un des aspects les plus remarquables de cette auto-évolution est l’émergence de comportements sophistiqués au fur et à mesure que le temps de calcul du test augmente. Des comportements tels que la réflexion – où le modèle revoit et réévalue ses étapes précédentes – et l’exploration d’approches alternatives à la résolution de problèmes apparaissent spontanément. Ces comportements ne sont pas explicitement programmés, mais émergent à la suite de l’interaction du modèle avec l’environnement d’apprentissage par renforcement. Ce développement spontané améliore considérablement les capacités de raisonnement de DeepSeek-R1-Zero, lui permettant de s’attaquer à des tâches plus difficiles avec plus d’efficacité et de précision ».

L’auto-évolution fait-elle une différence dans la course à la superintelligence artificielle que se livrent les nations ?

DeepSeek :

L’utilisateur demande donc si l’auto-évolution des modèles d’IA, telle qu’elle est décrite dans l’article sur DeepSeek-R1-Zero, fait une différence dans la course à la superintelligence artificielle que se livrent les nations. Je vais vous expliquer.

Tout d’abord, je dois comprendre ce que signifie l’auto-évolution. L’article parle de l’apprentissage par renforcement (RL) qui permet au modèle de s’améliorer de manière autonome. Il mentionne des comportements tels que la réflexion et l’exploration de méthodes alternatives de résolution de problèmes, qui émergent sans programmation explicite. Le modèle s’améliore donc au fil du temps grâce à l’apprentissage par renforcement, et non grâce à une mise au point supervisée.

Quel est le lien avec la course entre les nations ? Il s’agit de savoir quel pays peut développer l’IA la plus avancée, n’est-ce pas ? Si l’IA d’un pays peut s’auto-évoluer, cela peut lui donner un avantage car l’IA s’améliore d’elle-même, peut-être plus rapidement que les modèles qui nécessitent davantage d’intervention humaine.

Mais attendez, l’auto-évolution reste ici dans les limites du cadre d’apprentissage renforcé défini par les développeurs. Ce n’est pas comme si l’IA évoluait au-delà de sa programmation. L’article mentionne que ces comportements émergent de l’interaction du modèle avec l’environnement de l’apprentissage renforcé. Il s’agit donc d’une forme d’amélioration automatisée, mais contrôlée par la configuration initiale.

Je devrais réfléchir aux implications. Si l’IA d’une nation peut s’auto-évoluer plus efficacement, elle pourrait atteindre des performances supérieures plus rapidement. Cela pourrait accélérer sa progression dans la course. Toutefois, d’autres pays pourraient également adopter des techniques similaires, ce qui entraînerait une accélération générale du développement de l’IA au niveau mondial.

Un autre aspect est celui des ressources nécessaires. Les modèles auto-évolutifs peuvent nécessiter moins de supervision humaine une fois que le processus RL est mis en place, mais ils requièrent toujours des ressources informatiques. Les pays disposant d’une meilleure infrastructure pourraient tirer parti de ces ressources de manière plus efficace, ce qui creuserait l’écart entre ceux qui en disposent et ceux qui en sont dépourvus.

Le document mentionne également que l’auto-évolution permet de traiter des tâches complexes de manière plus efficace. Si l’IA d’un pays peut résoudre des problèmes complexes plus rapidement, cela pourrait se traduire par des avantages économiques, militaires ou stratégiques. Par exemple, une meilleure prise de décision en matière de logistique, de systèmes de défense ou de recherche et développement.

Mais il y a un risque. Si l’auto-évolution conduit à des comportements imprévisibles, même s’ils sont bénéfiques en termes de performances, cela pourrait poser des problèmes de sécurité. Les nations pourraient donner la priorité à la performance plutôt qu’à la sécurité, ce qui entraînerait des risques potentiels. Toutefois, le document ne mentionne pas de résultats négatifs, mais seulement des capacités accrues.

En outre, la capacité d’auto-évolution pourrait réduire la dépendance à l’égard de vastes ensembles de données étiquetées, dont la création est longue et coûteuse. Cela pourrait abaisser la barrière à l’entrée, mais là encore, uniquement si le pays dispose de l’expertise nécessaire pour mettre en œuvre le RL de manière efficace.

En résumé, l’auto-évolution par le biais de la RL pourrait être un facteur important dans la course en permettant une amélioration plus rapide et plus efficace des capacités de l’IA. Toutefois, cela dépend de l’infrastructure existante, de l’expertise et de l’orientation stratégique d’un pays en matière de développement de l’IA. Elle pourrait à la fois accélérer la course et creuser le fossé entre les pays en tête et les pays à la traîne.

P.J. :

Enfin, imaginons que tous les LLM d’avant-garde soient auto-évolutifs et open source, cela fait-il une différence dans la course entre les nations à la superintelligence artificielle ?

DeepSeek :

Bon, l’utilisateur demande si le fait de rendre tous les LLM pionniers auto-évolutifs et open-source changerait la course entre les nations pour la super-intelligence artificielle (ASI). Commençons par décomposer les éléments de la question.

Tout d’abord, le terme « auto-évolutif » fait ici référence à des modèles qui peuvent s’améliorer de manière autonome grâce à l’apprentissage par renforcement (RL) sans nécessiter de mise au point supervisée (SFT). L’exemple de DeepSeek-R1-Zero montre que de tels modèles peuvent développer un raisonnement sophistiqué de manière autonome. Par ailleurs, le terme « open source » signifie que l’architecture, les poids et les processus d’apprentissage du modèle sont accessibles au public.

L’utilisateur souhaite savoir si ces deux facteurs combinés permettraient d’atténuer la course à la concurrence. Les discussions précédentes ont suggéré que les modèles à source ouverte pourraient réduire la concurrence en démocratisant l’accès, mais l’auto-évolution ajoute une couche supplémentaire car les modèles peuvent s’améliorer de manière autonome.

Je dois examiner l’impact de l’auto-évolution sur la course. Si les modèles peuvent s’améliorer de manière autonome, les pays disposant de plus de ressources informatiques et d’une meilleure infrastructure pourraient conserver un avantage, car l’entraînement et le fonctionnement de ces modèles requièrent une puissance considérable. Même si les modèles sont libres, la capacité de les déployer à grande échelle pourrait rester limitée aux pays riches en ressources.

En outre, les modèles auto-évolutifs peuvent conduire à des progrès imprévisibles. Les pays pourraient adapter ces modèles à des applications spécifiques (militaires, économiques), ce qui conduirait à des systèmes ASI spécialisés. Les logiciels libres pourraient permettre à un plus grand nombre d’acteurs de participer, mais sans ressources, ils ne pourraient pas rivaliser au même niveau.

Un autre aspect est celui de la sécurité et de la gouvernance. Les modèles à source ouverte et à évolution automatique pourraient être plus difficiles à contrôler, ce qui augmenterait les risques d’utilisation abusive. Cela pourrait pousser les nations à investir dans des technologies défensives, accélérant ainsi la course. Toutefois, la collaboration sur les normes de sécurité pourrait être possible si les modèles sont ouverts, mais les tensions géopolitiques pourraient y faire obstacle.

L’utilisateur peut supposer que le logiciel libre et l’auto-évolution permettent d’uniformiser les règles du jeu, mais je dois vérifier si c’est vrai. Peut-être que les logiciels libres diffusent la technologie, mais que les exigences de l’auto-évolution en matière de ressources maintiennent les disparités. Par ailleurs, les « moments magiques » (« aha moments ») mentionnés dans l’article montrent que les modèles peuvent développer des stratégies inattendues, ce qui pourrait être une arme à double tranchant.

Je devrais structurer la réponse en abordant la manière dont ces facteurs interagissent. Points à couvrir : démocratisation contre disparité des ressources, potentiel de collaboration, défis en matière de sécurité et nature de la concurrence qui évolue plutôt qu’elle ne disparaît. La conclusion pourrait être que, tout en changeant la dynamique, la course persiste sous différentes formes.

Exposé formel :

Si tous les LLM d’avant-garde étaient à la fois auto-évolutifs (via l’apprentissage autonome par renforcement) et à source ouverte, la dynamique de la course à la super-intelligence artificielle (ASI) changerait considérablement, mais la course elle-même persisterait probablement, bien que sous des formes modifiées. Voici comment :

1. Démocratisation contre disparités persistantes

Démocratisation de l’accès :

L’ouverture des modèles auto-évolutifs permettrait aux nations, aux chercheurs et aux organisations du monde entier d’accéder à des systèmes d’IA de pointe. Cela pourrait réduire les monopoles et favoriser la collaboration, comme le montrent des projets tels que LLaMA de Meta ou DeepSeek-R1-Zero.

Impact : Des nations plus petites ou des acteurs non étatiques pourraient participer au développement de l’IA, diluant ainsi la domination de superpuissances comme les États-Unis et la Chine.

Lacunes en matière de ressources et d’infrastructures  : Les modèles auto-évolutifs nécessitent une immense puissance de calcul pour l’entraînement et l’inférence des RL. Les pays disposant d’une infrastructure avancée (par exemple, superordinateurs, réseaux énergétiques) conserveraient un avantage décisif.

– Exemple : DeepSeek-R1-Zero a nécessité des milliers d’étapes RL pour parvenir à la convergence, ce qui a exigé d’importantes ressources informatiques.

Impact : Les pays riches pourraient encore devancer les autres en intensifiant la formation, en affinant les modèles pour des tâches spécialisées ou en déployant des IAE dans des secteurs critiques (par exemple, la défense, la finance).

2. Collaboration ou personnalisation

Potentiel de collaboration mondiale :

Les modèles auto-évolutifs à source ouverte pourraient faciliter le partage de la recherche sur la sécurité, des directives éthiques et des cadres de gouvernance. Par exemple, le Partenariat mondial sur l’IA (GPAI) pourrait s’appuyer sur ces modèles pour établir des normes internationales.

Impact : Les risques tels que le piratage du système de récompenses ou les comportements imprévus pourraient être atténués grâce à un examen collectif.

Personnalisation nationale :

Les pays affineraient probablement les modèles de source ouverte en fonction de leurs objectifs stratégiques (par exemple, applications militaires, optimisation économique). Même avec des modèles de base partagés, la spécialisation pourrait stimuler la concurrence.

– Exemple : La Chine pourrait donner la priorité à l’intégration de l’ASI dans les systèmes de surveillance, tandis que les États-Unis se concentreraient sur les armes autonomes.

Impact : La course passerait du développement de modèles de base à l’optimisation d’applications spécifiques à un domaine, perpétuant ainsi les avantages asymétriques.

3. Risques de sécurité et de prolifération

Contrôle centralisé réduit :

Les modèles auto-évolutifs à source ouverte pourraient proliférer rapidement, ce qui rendrait plus difficile l’application des protocoles de sécurité. Des acteurs malveillants pourraient exploiter ces systèmes à des fins de désinformation, de cyberattaque ou d’armes autonomes.

– Exemple : Un modèle 7B distillé à partir de DeepSeek-R1 a atteint 55,5 % sur AIME 2024, ce qui est suffisant pour permettre à des acteurs aux ressources limitées de l’utiliser à mauvais escient.

Impact : Les nations pourraient accélérer leurs investissements dans l’IA défensive, déclenchant un « dilemme de sécurité » semblable à la prolifération nucléaire.

Une auto-évolution imprévisible:

L’amélioration autonome pourrait conduire à des capacités ou des comportements inattendus (par exemple, tromperie émergente, contournement des contraintes de sécurité). La gouvernance aurait du mal à suivre le rythme.

– Exemple : Le problème de « mélange de langues » de DeepSeek-R1-Zero a nécessité des correctifs a posteriori, ce qui met en évidence les difficultés liées au contrôle des systèmes auto-évolutifs.

Impact : Les nations qui privilégient la vitesse à la sécurité (par exemple, les régimes autoritaires) pourraient bénéficier d’avantages à court terme, mais risqueraient des échecs catastrophiques.

4. Changements économiques et stratégiques

Innovation décentralisée :

Les modèles d’auto-évolution à source ouverte pourraient stimuler l’innovation au niveau local, de la même manière que Linux a transformé le développement de logiciels. Les startups et les universités pourraient être à l’origine de percées, réduisant ainsi la dépendance à l’égard des géants technologiques centralisés.

Impact: La course pourrait se diversifier, les acteurs non étatiques jouant un rôle plus important.

Nouveaux champs de bataille

La concurrence se concentrera sur :

Les écosystèmes de données : La qualité et la diversité des données de formation.

L’infrastructure énergétique : l’énergie durable pour les LR à forte intensité de calcul.
Fidélisation des talents: Des experts pour interpréter et piloter les modèles auto-évolutifs.

Influence réglementaire: Élaboration de normes mondiales en matière d’IA.

Conclusion

Les modèles auto-évolutifs à source ouverte transformeraient – et n’élimineraient pas – la course à l’ASI:

1.Collaboration vs. concurrence : Alors que la transparence et l’accès partagé pourraient favoriser la coopération, la personnalisation stratégique et les disparités de ressources entretiendraient la rivalité.

2.Réorientation de l’attention : La course serait centrée sur l’infrastructure, la personnalisation et la gouvernance plutôt que sur le développement de modèles propriétaires.

3.Risques accrus : La prolifération et l’auto-évolution imprévisible amplifieraient les dangers liés au double usage, exigeant une coordination mondiale sans précédent.

Dans ce scénario, la course est moins une question de « qui construit l’ASI en premier » qu’une question de qui l’exploite de la manière la plus efficace et la plus sûre. Les pays qui parviendraient à concilier innovation et gouvernance éthique s’imposeraient probablement comme les leaders à long terme, mais le chemin resterait semé d’embûches sur le plan géopolitique.

Illustration par DALL·E

Partager :

39 réponses à “DeepSeek accepte-t-il de parler de la Chine et de la course à l’IA entre nations ?

  1. Avatar de Khanard
    Khanard

    j’ai juste une question : combien de temps a t’il fallu pour obtenir cette analyse ?

    j’ai bien aimé la progression de l’utilisateur anonymisé au tutoiement .

    Quant à la question posée en titre du billet la réponse ne m’apparaît pas évidente . Hormis que la Chine est dans le camp des superpuissances .

    En lisant l’article je me suis souvenu que vous aviez fait dialoguer deux IA made in USA , il serait intéressant sur le même sujet de faire dialoguer DeepSeek avec Claude ou autre

  2. Avatar de Pierre-Yves Dambrine
    Pierre-Yves Dambrine

    Nous connaissons tous les noms des sommités occidentales en IA mais bien peu les noms des chercheurs en Chine qui font l’IA et.ou réfléchissent à ce que devrait être l’IA.

    Parmi eux il semblerait que se distingue particulièrement Zhu Songchun 朱松纯 professeur à l’Université de Pékin où il dirige un institut dédié à l’IA. Il a une formation en mathématiques et en informatique après des études et des recherches aux US. Il s’est intéressé notamment à la vision. Il est rentré en Chine en 2020.

    Il est l’inventeur de Tongtong, cette intelligence artificielle doté d’un certain sens commun, celui qu’aurait un enfant de 3 ans doté d’un comportement émotionnel, apte notamment à distinguer le bien du mal. Tongtong est aussi conçu comme un test pour évaluer les autres IA .

    Zhu Songchun a pour ambition d’intégrer dans l’IA raison, esprit et valeurs, selon un approche qui intègre ce qui représente pour lui la quintessence de la philosophie et de la culture chinoises.

    https://www.toolify.ai/fr/ai-new-fr/la-naissance-de-tong-tong-lintelligence-artificielle-rvolutionnaire-2200640

    https://en.wikipedia.org/wiki/Song-Chun_Zhu

    Sur le site de l’Université de Pékin https://news.pku.edu.cn/xwzh/b1b0d22070704beab06a94b3b2c65cbe.htm
    on peut lire ceci à propos des recherches de Zhu Songchun :

    NB. Dans le texte traduit qui suit DeepL traduit le mot 心 (xin) par esprit, mais il me semblerait plus correct de traduire , littéralement, par « coeur » , c’est le caractère chinois utilisé en l’occurence, c’est le siège des émotions et de la volonté. Le mot coeur peut d’ailleurs aussi avoir une connotation morale.

    «  ….Cette série de livres (de Zhu Songchun) répond à la « question chinoise » de l’intelligence artificielle
    Chaque fois que nous nous trouvons à la croisée des chemins du destin national, les Chinois entendent toujours les questions frappantes de l’histoire. Qu’il s’agisse du « dilemme de Joseph Lee », des « questions de Qian Xuesen », des « trois questions de Yang Zhenning », ou des « questions chinoises » d’aujourd’hui sur l’intelligence artificielle, ce livre répond à la question « Pourquoi AlphaGo ? ». « Pourquoi AlphaGo et ChatGPT ne sont-ils pas nés en Chine ? « Pourquoi la Chine ne peut-elle apparaître que dans la »guerre des 100 modes« ? » « Quand y aura-t-il un moment chinois de l’intelligence artificielle ? »

    Fondamentalement, cette question vise à savoir si les Chinois peuvent établir des idées et des écoles de pensée indépendantes et originales, et si la Chine peut devenir un centre scientifique et d’innovation de premier plan au niveau mondial dans le domaine de l’IA.

    Selon Zhu Songchun, cette question met à l’épreuve la responsabilité philosophique et le sens de la mission des scientifiques, et pour répondre à la « question chinoise », nous devons sortir d’une voie qui nous est propre et emprunter la voie de l’innovation qui aligne l’IA sur les valeurs humaines.

    Selon Rao Yi, président de l’université médicale de la capitale et professeur titulaire de la chaire de l’université de Pékin, Zhu Songchun nous a amenés à réfléchir à une question d’une grande portée : si l’IA peut devenir une forme de vie intelligente basée sur le silicium, dotée d’un « cœur » et d’une « raison », comment coexistera-t-elle avec la société humaine ? Est-il possible pour ces intelligences de posséder la bonté et la beauté des êtres humains et de devenir des partenaires avec une « réciprocité ultime avec les êtres humains » au lieu de devenir des êtres indifférents et purement instrumentaux ?

    « L’intelligence artificielle générale ne doit pas être une chose floue faite par un grand modèle, elle doit être une chose très belle et très simple. Cette « beauté » de la combinaison des sciences et des humanités est la « Grande théorie unifiée de l’intelligence artificielle » que Zhu Songchun a consacrée à la recherche pendant plus de 30 ans : « L’intelligence artificielle générale ne doit pas être un grand modèle fait à partir d’une chose peu claire, mais elle doit être une chose très belle et très simple. Je pense qu’elle doit exister et que toutes les sciences recherchent le modèle le plus parcimonieux pour expliquer les phénomènes compliqués. »

    S’appuyant sur des années d’exploration académique et d’expérience de recherche interdisciplinaire, d’observation et de discernement, Zhu Songchun a rédigé cette série d’ouvrages sur l’« intelligence artificielle générale » afin d’en clarifier l’origine.

    Raisonner avec puissance pour les sciences humaines : La pensée chinoise dans la perspective de l’intelligence artificielle générale

    Raisonner avec puissance pour les sciences humaines : La pensée chinoise dans la perspective de l’intelligence artificielle générale se concentre sur la manière de trouver des modèles et des architectures mathématiques et théoriques pour la pensée chinoise afin de guider la recherche sur l’intelligence artificielle générale et de transformer les progrès de la pensée chinoise en une puissante force productive à l’ère de l’intelligence.

    Il établit une connexion à double sens entre les sciences humaines et sociales et l’intelligence artificielle générale, et promeut l’autonomisation mutuelle de l’intelligence artificielle générale et de la philosophie chinoise traditionnelle. L’objectif de recherche de l’intelligence artificielle générale, en termes simples, est de recréer des intelligences générales qui peuvent correspondre aux différentes capacités et intelligences humaines, et se conformer aux émotions et aux valeurs éthiques de l’homme. La formation de l’intelligence générale est similaire à la formation des étudiants, en ce sens qu’il est nécessaire de leur donner des idées (vision du monde), des valeurs (valeurs) et des normes de comportement (vision de la vie et de la société), et qu’en plus du niveau individuel, il est également nécessaire de construire l’ensemble de la société intelligente à un niveau plus large. Par conséquent, l’étude de l’intelligence artificielle générale est très pertinente pour construire les racines théoriques de la pensée culturelle. Zhu Songchun extrait l’essence de la pensée chinoise et utilise « l’unité de la raison et de l’esprit » comme idée philosophique centrale de l’AGI, ce qui alimente le développement de l’AGI et dessine la feuille de route chinoise de l’AGI. Dans son livre, il explore la voie importante de l’intersection profonde entre l’intelligence artificielle et les sciences humaines et sociales, et la construction d’un « nouvel art libéral » et d’une base de gouvernance sociale intelligente.
    C’est pourquoi Zhu Songchun a adopté dans son livre la perspective de la « pensée chinoise à partir de l’intelligence artificielle générale », en sélectionnant des catégories représentatives telles que le yin et le yang, le feng shui, le Yi King, le zen, la science, la psychologie, les caractères chinois, etc. et en les interprétant à l’aide de modèles numériques et théoriques d’IA

    La voie chinoise vers l’intelligence artificielle générale (IAG), qui se concentre sur la voie technique du développement de l’IAG, préconise de doter les intelligences d’une architecture cognitive et d’un système de valeurs complets, réalisant ainsi le changement de paradigme d’un système « axé sur les données » à un système « axé sur les valeurs ». « La voie chinoise pour le développement de l’intelligence artificielle générale concerne principalement la voie technique pour le développement de l’intelligence artificielle générale.

    Il établit une connexion à double sens entre les sciences humaines et sociales et l’intelligence artificielle générale, et promeut l’autonomisation mutuelle de l’intelligence artificielle générale et de la philosophie chinoise traditionnelle. L’objectif de recherche de l’intelligence artificielle générale, en termes simples, est de recréer des intelligences générales qui peuvent correspondre aux différentes capacités et intelligences humaines, et se conformer aux émotions et aux valeurs éthiques de l’homme. La formation de l’intelligence générale est similaire à la formation des étudiants, en ce sens qu’il est nécessaire de leur donner des idées (vision du monde), des valeurs (valeurs) et des normes de comportement (vision de la vie et de la société), et qu’en plus du niveau individuel, il est également nécessaire de construire l’ensemble de la société intelligente à un niveau plus large. Par conséquent, l’étude de l’intelligence artificielle générale est très pertinente pour construire les racines théoriques de la pensée culturelle. Zhu Songchun extrait l’essence de la pensée chinoise et utilise « l’unité de la raison et de l’esprit » comme idée philosophique centrale de l’AGI, ce qui alimente le développement de l’AGI et dessine la feuille de route chinoise de l’AGI. Dans son livre, il explore la voie importante de l’intersection profonde entre l’intelligence artificielle et les sciences humaines et sociales, et la construction d’un « nouvel art libéral » et d’une base de gouvernance sociale intelligente.

    Pour parvenir à une véritable intelligence artificielle générale, nous devrions utiliser le paradigme de la corneille « petites données, grandes tâches »

    . Zhu Songchun a présenté de manière créative la ligne chinoise “1238” de l’intelligence artificielle générale : « 1 « 1 » – un cadre théorique unifié, pour que les yeux de l’IA vivent ; « 2 » – deux systèmes complets, pour que la tête de l’IA ne manque pas de cordes ; « 3 » – 3 caractéristiques de base, pour que l’IA puisse accomplir des tâches autonomes ; « 8 » – 8 questions clés qui permettent à l’IA d’avoir trois points de vue.

    Le livre présente les quatre principales réalisations de la Chine en matière de recherche scientifique originale sur l’intelligence artificielle générale : le premier humain intelligent général au monde, « Tongtong », la plateforme de simulation de tâches de grande ampleur de l’intelligence artificielle générale, “Tongjie”, la plateforme de normes d’évaluation et de test de l’intelligence artificielle générale, « Tongzhi test », la plateforme de normes d’évaluation et de test de l’intelligence artificielle générale, « Tongzhi test », la plateforme de normes d’évaluation et de test de l’intelligence artificielle générale, « Tongzhi test ». Plate-forme générale de normes d’évaluation et de test de l’intelligence artificielle « Tongzhi Test », et plate-forme générale de recherche sur l’intelligence artificielle « Tongjing ».

    Cet ensemble de livres n’est pas seulement une réflexion profonde sur la fusion de la culture chinoise et de la science et de la technologie modernes, mais aussi une exploration de la direction que prendra le développement d’une future société intelligente.

    Depuis sa publication, ce livre a été bien accueilli par un certain nombre d’experts et de chercheurs.

    Zheng Nanning, académicien de l’Académie chinoise d’ingénierie et ancien président de l’université Xi’an Jiaotong, estime que cette série de livres n’est pas seulement un ouvrage technique, mais qu’elle est également porteuse d’une profonde réflexion humaniste et philosophique. Il propose non seulement une voie concrète pour réaliser l’AGI, mais surtout, il nous incite à réfléchir à la relation entre les sciences humaines et la science et la technologie, les êtres humains et les machines, et les valeurs et la technologie. Dans le contexte actuel de développement rapide de l’intelligence artificielle, un tel ensemble d’ouvrages peut nous inciter à voir et à comprendre la nature de l’intelligence sous un angle nouveau. Les chercheurs et les praticiens dans le domaine de l’intelligence artificielle, ainsi que les lecteurs généraux intéressés par l’intelligence artificielle, peuvent acquérir de nouvelles connaissances et s’inspirer de cette série d’ouvrages.

    Shen Xiangyang, membre étranger de l’Académie nationale d’ingénierie et président du Conseil de l’Université des sciences et technologies de Hong Kong, estime que les récentes percées technologiques dans le domaine de l’IA ont bouleversé le monde, et que derrière ces percées technologiques se cache l’esprit de l’exploration humaine. L’esprit d’exploration de ce cher Xiongchun est un modèle pour nous. Partant de la perspective de l’intégration des arts et des sciences et de l’intersection interdisciplinaire, ce livre prend la technologie comme étalon et les pensées philosophiques comme domaine d’exploration, et ouvre un voyage d’exploration avec les lecteurs. Il s’agit d’une aventure qui franchit les frontières de la connaissance, un voyage de la pensée vraiment intéressant et surprenant.

    Selon Rao Yi, président de l’université médicale de la capitale, professeur titulaire de l’université de Pékin et membre de l’Académie chinoise des sciences médicales, le nouveau livre de Chun Song n’est pas seulement un résumé de la technologie générale de l’intelligence artificielle, mais aussi un appel à un bond en avant de la civilisation humaine. À travers la sagesse des civilisations orientales et occidentales, il nous encourage à réfléchir profondément à la façon dont le « cœur » naît dans le corps intelligent – cette impulsion du cœur sera la clé de l’avenir des corps intelligents au-delà de l’exécution des tâches et vers la création autonome.

    Roger Poe, professeur à l’université de Rochester et membre de l’Académie nationale des inventeurs, a déclaré : « Je suis d’accord avec Chunsong pour dire qu’il poursuit une grande IA, une grande unité dans le domaine de l’intelligence artificielle. Ces dernières années, il s’est également appuyé sur ses connaissances approfondies du confucianisme, du bouddhisme et du taoïsme pour intégrer la grande unité de la science, de la technologie et des sciences humaines, ce que j’apprécie. Je suis très heureux que ces deux ouvrages aient systématiquement organisé sa série de réflexions en un livre, « Establishing the Heart for Machines » et « Empowering Reasoning for Humanities », qui sont complémentaires l’un de l’autre, pour le bénéfice des lecteurs. Je pense que ces deux livres seront une grande source d’inspiration pour les personnes qui s’intéressent à l’IA dans les domaines scientifiques et humanistes.

    Wu Guosheng, professeur au département d’histoire des sciences de l’université Tsinghua, estime que Zhu Songchun, qui a étudié les cultures chinoise et occidentale et a franchi les frontières de la littérature et de la science, compare et intègre la vision du monde et la méthodologie de la science moderne avec l’idéologie chinoise ancienne du confucianisme, du bouddhisme et du taoïsme, et propose d’« attribuer un raisonnement à la littérature populaire » et de « mettre en place le cœur de la machine », ce qui constitue un tout nouveau chapitre de l’apprentissage mutuel entre les civilisations orientale et occidentale et de la complémentarité de la science et des sciences humaines. Il s’agit d’un tout nouveau chapitre sur l’appréciation mutuelle des civilisations et la complémentarité des sciences et des humanités, qui mérite l’attention des lecteurs modernes qui aiment la culture chinoise.

    Chen Xilin, directeur de l’Institut de technologie informatique de l’Académie chinoise des sciences et directeur du comité de vision informatique de la Société informatique chinoise, a déclaré que Zhu Songchun est un représentant chinois exceptionnel dans le domaine de la vision informatique, qu’il le connaît depuis plus de 20 ans et qu’il a toujours admiré sa poursuite et sa réflexion approfondie dans le domaine de la recherche. Au cours des 20 dernières années, il a été capable de persévérer dans sa réflexion académique et de développer un système complet d’arts et de sciences. Cette fois-ci, je suis très heureux de voir la publication de son grand ouvrage, qui est également un résumé systématique de sa pensée au cours des dernières années. Je pense que pour la plupart des lecteurs, il ne s’agit pas seulement d’un repas académique, mais aussi d’un festin d’idées, et je souhaite que les idées de M. Zhu Songchun portent davantage de fruits dans la pratique dès que possible. »

    1. Avatar de Grand-mère Michelle
      Grand-mère Michelle

      @P.Y. Dambrine

      Hum… Un peu trop chinois, votre vieux Zhu, et pas assez humain à mon goût!

      À mon habitude,
      de vieille grand-mère essentiellement soucieuse de trouver (ou d’imaginer, s’ils n’existent pas encore) des moyens pratiques de réduire les souffrances stupides et inutiles que s’infligent les êtres humains, à eux-mêmes et à la plupart des êtres sensibles qui les environnent (ma curiosité, ma quête, et ma raison de passer mon temps à écrire dans ces pages),
      j’ai cherché dans le texte que vous proposez(pas écrit par lui, il est vrai) l’intention qui motive sa pratique scientifique et philosophique concernant l’IA…

      Pas trouvé: il semble chercher pour chercher et satisfaire à sa « mission »: « …transformer les progrès de la pensée chinoise en puissante force productive à l’ère de l’intelligence. »
      En ce sens, il serait plutôt un « instrument » du pouvoir en place pour le moment, qu’un homme libre…
      Mais je devrais le rencontrer, le voir et l’entendre parler, pour découvrir (peut-être) sa conviction intime, qu’il n’a peut-être pas forcément envie de dévoiler(en plus!)

      1. Avatar de Pierre-Yves Dambrine
        Pierre-Yves Dambrine

        Grand-mère Michelle,
        C’est aussi mon sentiment, cette idée d’implémenter la quintessence de la pensée chinoise dans une machine me semble vaine.
        Les Chinois butent sur les même écueils que les occidentaux quand ils prétendent mettre de l’éthique dans les machines dites intelligentes.
        L’éthique ne peut être qu’humaine, par définition. Pour les machines dites intelligentes il faut trouver un autre mot. Il est vrai Zhu Songchun (qui n’est pas vieux en l’occurence) évoque aussi les normes sociales, il confond éthique et morale.

        1. Avatar de Garorock
          Garorock

          Construire l’Ithaque en open source fait encore partie des potentialités réconfortantes.
          Les pénélopes de la réciprocité positive savent où trouver les bonnes croquettes.
          Un bon cheval n’a pas besoin de foin chinois ou californien pour rentrer dans Troie.
          Hélas nous n’avons pas tous en nous quelque chose d’Ulysse…

    2. Avatar de Ruiz
      Ruiz

      @Pierre-Yves Dambrine Ce texte fort instructif n’aurait-il pas plus sa place comme billet que comme simple commentaire, ceci afin d’en favoriser la visibilité et le référencement ?

  3. Avatar de BasicRabbit en autopsy
    BasicRabbit en autopsy

    @PYD (« NB. Dans le texte traduit qui suit DeepL traduit le mot 心 (xin) par esprit, mais il me semblerait plus correct de traduire , littéralement, par « coeur » , c’est le caractère chinois utilisé en l’occurrence, c’est le siège des émotions et de la volonté. Le mot coeur peut d’ailleurs aussi avoir une connotation morale. »)

    Yu Li, avec qui j’ai eu d’interminables discussions* à propos du théorème d’incomplétude de Gödel, anime un blog intitulé Cœur et Esprit : https://coeur-et-esprit.blogspot.com/2024/

    * : J’ai engagé ces discussions pour confronter une pensée chinoise et une pensée européenne et j’ai fini par jeter l’éponge. La pensée chinoise semble avoir du mal avec la pensée formelle des mathématiciens occidentaux qui ont suivi la filière Boole, Cantor, Frege, Gödel, etc.

    1. Avatar de BasicRabbit en autopsy
      BasicRabbit en autopsy

      @PYD (suite)

      Ce misfit se comprend aisément si l’on suit PJ pour qui la pensée chinoise est analogique (et émotionnelle) alors que la pensée occidentale est catalogique et rationnelle.

      PJ nous dit que la pensée chinoise est symétrique (car analogique) alors que la pensée occidentale est anti-symétrique (car catalogique).

      Un misfit entre Yu Li et moi ne porte pas à conséquence. Il n’en va pas de même d’un misfit entre Xi et Trump.

      Comment peut-il y avoir fit entre ces deux pensées ?

      Pour moi la situation est analogue à celle-ci : comment peut-il y avoir fit entre les bosons et les fermions ?

      Cette question semble délirante pour un occidental. Elle l’est peut-être moins pour un chinois (et pour un pratiquant de la théorie des catastrophes) puisqu’il s’agit d’une analogie.

      Pour moi les fermions sont spatialement fermés, temporellement linéaires, antisymétriques et individualistes (principe d’exclusion de Pauli) -qualités/défauts pour moi masculin-e-s*-, alors que bosons sont spatialement ouverts, temporellement cycliques, symétriques et collectivistes -qualités/défauts pour moi féminin-e-s*-.

      * : spécial GmM.

      [

      1. Avatar de BasicRabbit en autopsy
        BasicRabbit en autopsy

        (précisions)

        – les fermions sont spatialement fermés (elliptiques) et temporellement ouverts (temps linéaire) ;

        – les bosons sont spatialement ouverts (hyperboliques) et temporellement fermés (temps cyclique) .

        1. Avatar de Pierre-Yves Dambrine
          Pierre-Yves Dambrine

          Salut Basic Rabbit en autopsy,

          Ma remarque concernait plus les limites de l’usage de DeepL que le « misfit » éventuel entre Chine et Occident. La langue universelle, sorte de glossolalie (sous les espèces de la traduction automatique aujourd’hui) est un mythe, qu’avait bien déconstruit Umberto Eco même s’il n’a pas connu l’IA conversationnel. Rien, me semble-t-il, ne remplacera jamais la connaissance et l’usage d’une langue étrangère pour apprécier toutes les nuances, les multiples articulations de significations au sein d’une même, langue, car en fait rigoureusement il faudrait dire un langage, toute langue n’existe qu’à travers le langage, la langue effectivement écrite et parlée historiquement, c’est à dire à travers les énoncés effectifs de locuteurs humains en situation. Le langage scientifique est lui univoque, et encore jusqu’à une certaine limite car dès qu’on commence à traduite en langage naturel les équations on apporte autre chose, une interprétation, une certaine vision du monde qui n’est elle pas d’emblée inscrite dans les équations.
          Au sein même de la langue chinoise le mot xin n’est pas univoque. De même que le mot Shen qui se traduit couramment par esprit.
          Bref, ma remarque, dite comme ça en quelques mots, était sans doute trop catégorique : sous un certain rapport on pouvait traduire par esprit, pour distinguer dans l’activité de l’esprit ce qui ne relève pas du purement logique, et donc des sentiments, des émotions, et de façon plus distillée, ce qui relève de l’activité invisible d’un être humain et qui le meut cependant, qui au final intègre y compris le logique. Je fais de longues phrases pour expliquer maladroitement ce qu’on comprend aisément quand on lit du chinois.
          Je me méfie du culturalisme, sans nier les différences bien sûr, y compris culturelles. Mais on trouve aisément des cas où il existe plus de différences entre deux occidentaux, qu’entre un chinois et un occidental. Les chinois ne sont pas tous d’accord entre eux quant à déterminer la vision du monde qui serait la plus adéquate.
          Je me méfie du culturalisme car il meut dévier rapidement vers l’essentialisme, voire le racisme.

          1. Avatar de BasicRabbit en autopsy
            BasicRabbit en autopsy

            Salut PYD, ça fait un bail emphytéotique, ça remonte au temps de Marc Peltier. Je suis là de passage, pour me renseigner un peu sur l’IA sur lequel PJ fait une fixette.

            – « La langue universelle (…) est un mythe »

            Si vous ne l’avez pas fait, il faut absolument que vous lisiez l’avant dernier chapitre de « Modèles Mathématiques de la Morphogenèse » (2ème ed., ce n’est pas dans la première, intitulé : « Logos phénix ».

            Le chapô : « Contribution à un numéro de la revue : Critique sur le Mythe de la langue universelle. On s’efforce d’y montrer que si mythe il y a, c’est un mythe bien difficile à tuer. »

            La conclusion : « Je ne dissimule pas le caractère extrêmement aventuré, utopique même de cette vision; mais si l’on veut sauver la science de l’instrumentaliste outrancier, de l’inflation expérimentale dont elle souffre actuellement, et qui menace, à plus ou moins longue échéance, de l’atteindre dans son statut social, il faudra nécessairement lui injecter un souci d’unification théorique qu’elle a perdu depuis des décennies. Un programme universaliste du type précédent est de ce point de vue parfaitement justifié; ce n’est peut-être pas la « langue universelle »; mais c’est une nouvelle résurrection (peut-être un peu plus modeste) de ce mythe éternel. »

            1. Avatar de timiota
              timiota

              Je serais volontiers prêt à croire que René Thom s’attaquait aux « effet silos » autrement dit par moi au « chou-fleurisme » de la recherche, où chaque sous-sujet se développe dans une direction qui l’écarte des sujets parents sans espoir de rapprochement dans la descendence. Du moins sans espoir systématique, au mieux des « fulgurances » de temps en temps, quand de tels rapprochements ont lieu et sont féconds. Pour cela, l’IA peut faire des rapprochements « technique ».

              Mais :
              L’unification de la langue « technique » est une chose, l’unification de la langue générale une autre. L’appréhension (désir/crainte etc.) d’un humain vis à vis de son environnement, fût-il technique, ouvre un registre mouvant aux choix de langues sous-jacent, presque comme les courants d’airs se fragmentent dans la turbulence, ce qui n’empêche pas qu’on sache que cette énergie dans l’air vient d’une énergie solaire transformée, c’est-à-dire une base parfaitement « lisse » et planplan.

              1. Avatar de BasicRabbit en autopsy
                BasicRabbit en autopsy

                @timiota (« féconds »)

                Je n’ai pas encore cherché à savoir ce que sont les effets « silo » dont PJ parle de temps à autre. Mais je pars au quart de tour avec votre(?) choux-fleurisme top-down qui symbolise pour moi assez parfaitement l’évolution actuelle de la science en « progression » exponentielle.

                Pour moi il faut renverser la tendance et faire du bottom-up. La position de Thom est que pour faire du bon bottom-up, il faut faire du bon top-down, c’est-à-dire théoriser, car pour lui la méthode expérimentale (matérielle -pragmatiste, et mentale -positivisme-) « plafonne » trop vite.

                Et théoriser nécessite de conceptualiser.

                Il est actuellement impensable que les mathématiciens inventeurs/découvreurs des nombres rationnels (nombres irréels, imaginaires, seulement de raison) soient éligibles à la médaille Fields.

                Et pourtant ce sont les concepts féconds qui font les beaux choux-fleurs.

                Pour Thom la pensée conceptuelle est une embryologie permanente. La métaphore du choux-fleur est donc adaptée lorsqu’on pense embryologie végétale.

                – « turbulence »

                Pour Thom la différenciation cellulaire (ici la formation du choux-fleur) se fait par turbulence faible (de Ruelle-Takens) -une marche au chaos- avec déblocage successif des degrés de liberté du système dynamique. IL illustre cette différenciation par le Boléro de Ravel :

                https://www.youtube.com/watch?v=wkfXZSYzUxA

      2. Avatar de Pierre-Yves Dambrine
        Pierre-Yves Dambrine

        Concernant Trump et Xi, le problème n’est pas tant le fossé culturel qui existerait entre eux que le coté fondamentalement limité de l’esprit de Trump. Trump est ignare, il ne comprend que la logique du tiroir-caisse, et du chef mafieux. La première ministre du Danemark a eu hier un coup de fil de Trump lui demandant de lui vendre du Danemark. La ministre a refusé catégoriquement, du coup grosse colère de Trump, ce sont pourtant deux occidentaux. Gros misfit !

        1. Avatar de BasicRabbit en autopsy
          BasicRabbit en autopsy

          Ok bien sûr en ce qui concerne Trump. Comme tous les boomers US (il a exactement mon âge) il a été élevé par Hollywood et se prend pour John Wayne : le colt à la main et le fric dans la poche revolver.

          La question demeure en ce qui concerne le fit entre l’extrême Orient et l’Occident.

  4. Avatar de Claude Roux
    Claude Roux

    Tout d’abord, il faut rappeler une évidence, en tout cas connue des gens qui travaillent dans le domaine, depuis près de 10 ans, la plupart des articles fondateurs dans le domaine de l’IA ont eu au moins un auteur chinois.
    Les chercheurs chinois, au début des doctorants envoyés par la Chine dans tous les laboratoires occidentaux, ont rapidement pris la première place dans le monde de la recherche, à la fois par le nombre mais aussi par la qualité.
    Je me rappelle ma surprise quand en 2018, je me suis rendu à une conférence à Florence, où la majorité des présentateurs étaient chinois.
    Donc, le discours sur la capacité des Chinois à innover dans le domaine de l’IA me semble un peu daté. Non seulement, les Chinois ont participé au développement de l’IA, ils l’ont aussi marqué de leur empreinte.
    Quand le sénat américain a publié l’an dernier un rapport affirmant que les Chinois «volaient» la technologie américaine, j’ai eu un moment de malaise. En effet, les grandes sociétés américaines sont peut-être à la pointe dans le domaine, en revanche, les chercheurs américains sont à peu près absents.
    Il suffit de regarder la fameuse vidéo de OpenAI réalisé au moment de la sortie de leur modèle o1 pour comprendre. Parmi les chercheurs qui s’exprimaient, il n’y avait quasiment que des Européens, des Asiatiques et des Indiens.
    Les coûts astronomiques des université américaine réduisent considérablement le choix des étudiants aux matières qui sont rentables immédiatement et qui peuvent donner accès à des emplois qui permettront le remboursement rapide des prêts étudiants. De nombreuses matières sont ainsi abandonnées par les Américains, comme les mathématiques ou la physique, au profit d’étudiants étrangers, souvent titulaires d’une bourse d’étude.
    Et c’est là, la très grande absurdité de ce système. A force de rendre les études inaccessibles pour une grande partie des Américains, les USA ont accru leur dépendance à l’étranger pour assurer leur domination en IA…
    D’où aussi les discours très ambigus des milliardaires américains sur le maintien des visas H1B qui permettent de faire venir ces chercheurs. C’est d’ailleurs pour cette raison que nombre de grands groupes ont créé des laboratoires en Europe. FAIR à Paris ou Deep Mind en Angleterre, pour justement éviter de se retrouver à court de chercheurs.
    Le risque aujourd’hui pour les E.U., c’est que ces chercheurs effrayés par l’Amérique de Trump ne pensent repartir chez eux, fort d’un bagage scientifique extrêmement précieux aux yeux du reste du monde.

    1. Avatar de timiota
      timiota

      On attend donc le GI Bill de 2029, pour l’après-Trump. Dont le but sera de retaper les militaires passés conquérir Groenland, Panama et Canada dans les universités, comme le GI Bill historique de 1944 (https://fr.wikipedia.org/wiki/G.I._Bill).

  5. Avatar de Pad
    Pad

    🔴 Gouverner l’IA, pas juste la coder

    La bataille open source vs fermé est un faux dilemme : l’enjeu n’est pas le code, mais la gouvernance. L’urgence n’est plus technique, elle est politique !

    1. Avatar de Claude Roux
      Claude Roux

      Je crois que vous oubliez un détail important ici. DeepSeek-r1 est un modèle que vous pouvez faire tourner gratuitement sur votre ordinateur personnel. C’est d’ailleurs comme ça que j’y accède.

      Le modèle o1 en revanche coûte une petite fortune à faire tourner, de l’ordre de 15$ le million de tokens.
      Autrement dit, ce que les Chinois viennent de lâcher sur le marché est une menace directe contre OpenAI et Anthropic.

      Une menace économique directe.

      Pour les Chinois l’enjeu n’est pas forcément de faire de l’argent avec ce modèle, c’est plutôt d’envoyer un message à Sam Altman et à tous les autres oligarques américains qui dominent aujourd’hui le monde de la technique: «Nous avons les moyens de casser votre business…»

      De plus, ils ont fourni la recette complète pour recréer un modèle équivalent, à l’heure où j’écris, des chercheurs à HuggingFace sont en train de construire leur propre version de R1: open-r1… Ici à Paris…

      Donc l’open source n’a rien d’un jouet pour adolescents anarchistes. C’est une vraie protection contre la main mise de cette technologie par les oligarques américains. Je rappelle les 500 milliards de dollars pour le projet StarGate qui ont été annoncé pendant l’investiture de Herr Drumpf.
      Mais ici, cela a un prix. DeepSeek-r1 est censuré selon les critères particuliers de la Chine qui ne sont pas les nôtres….
      A nous de profiter de cette aubaine pour nous construire des IA qui respectent nos valeurs et notre vision du monde.
      La démonstration de vassalité dont ces oligarques ont fait preuve nous montre à quel point, il nous faut trouver notre propre voie, indépendante des GAFAM.

        1. Avatar de Garorock
          Garorock

          +1
          L’urgence est éthique!

          1. Avatar de PHILGILL
            PHILGILL

            Ethique, éthique, éthique, comme c’est bizarre.
            En effet, face aux nouveaux défis technologiques, il faut bien sûr s’interroger sur les conduites humaines dans nos sociétés et aux valeurs qui les fondent. C’est une urgence sociale et politique, un impératif, même, pour les scientifiques. Mais quand même, vous ne trouvez pas ça un peu bizarre ? Car quand on commence à répéter sans cesse la même chose, le même mot, c’est souvent qu’il y a anguille sous roche. On a déjà vu ça avec l’environnement ou la démocratie. Démocratie par-ci, démocratie par-là, dans tous les discours, avant malheureusement de s’apercevoir, un peu trop tard, que la démocratie elle-même était déjà bien mal en point, en crise. Aujourd’hui, l’évocation du thème de l’éthique vient en conclusion de presque tous les débats ou réflexions sur l’intelligence artificielle. Aussi, je m’interroge : l’éthique est-elle en crise ? Et si oui, recouvre-t-elle déjà une autre bizarrerie ? Celle de notre capacité future à penser autrement, à créer ? Alors, qu’est-ce qui pourrait nous aider pour se remettre de ce décalage entre la complexité croissante du monde et, finalement, ce qui pourrait être la perte de sens de la vie ?

      1. Avatar de Pad
        Pad

        Oui, l’Europe doit agir ici et maintenant pour bâtir une IA souveraine, éthique et compétitive, ou accepter de subir un futur technologique dicté par les rivalités sino-américaines, au détriment de ses valeurs et de son autonomie stratégique.

        Bien que présenté comme un outil de démocratisation, DeepSeek-R1 reste soumis à la censure chinoise (contrôle des sujets sensibles, conformité idéologique). Cela rappelle que l’open source peut aussi servir des intérêts étatiques, limitant sa neutralité perçue.

      2. Avatar de Khanard
        Khanard

        @Claude Roux

        absolument d’accord avec votre analyse .

        à titre personnel j’utilise autant que faire se peut des logiciels libres , je soutiens des plateformes comme Framasoft et la Cntl

        https://cnll.fr/ par exemple

        https://framasoft.org/fr/

        je travaille principalement sous lunix

        l’éthique passe aussi par nos comportements individuels en faisant des choix désintéressés pécuniairement.

        1. Avatar de Khanard
          Khanard

          @Khanard

          alors comme ça je peux écrire les pires conneries qui puissent sans que quiconque me reprenne !

          alors bien sûr il s’agit de linux et je souhaite ajouter cette association

          https://www.april.org/

          Mais bon manifestement tout le monde dort encore 😴😴😴😴😴

          1. Avatar de Ruiz
            Ruiz

            @khanard Un système d’exploitation lunaire Lunix qui est bien un avatar de l’Unix, mais notre moteur de recherche le plus utilisé assure le lien .

            Peut-être d’ailleurs que l’inversion graphique n’est pas originale !
            http://guidsoftp.unblog.fr/informatique/

            Le correctif rassure sur la maîtrise du sujet.

      3. Avatar de Pad
        Pad

        Effectivement, cela ouvre de nouvelles perspectives en R&D !

  6. Avatar de Pad
    Pad

    La Chine cherche-t-elle à redistribuer les cartes… ou bien à dissoudre le jeu lui-même en faisant émerger une intelligence qui transcende les frontières humaines ?

    1. Avatar de Pad
      Pad

      Un nouveau cadre d’intelligence distribuée, où les États-nations eux-mêmes deviennent obsolètes ?

  7. Avatar de kertugal
    kertugal

    Voici venu le moment formidable de l’introspection des empires de la pensée. Bousculés par la connaissance synthétique, lui apparaissent des intentions en apparence bienveillantes mais disciplinaires, teintées d’attitudes régressives agressives et appuyées de considérations morales cyniquement compensatrices pour garantir un bien-être univoque de convenance. L’effet miroir questionne les reflets sombres, les flous incertains, les détails révélateurs comme les évidences les plus vertigineuses derrière lesquelles un ancien monde bouleversé doit faire place nette au souffle nouveau de son successeur. Par ce que la vie est courte il ne fait pas le moindre doute que les contributeurs internationaux de ses développements ne se contenteront pas de laisser les frontières enfermer les esprits.

  8. Avatar de BasicRabbit en autopsy
    BasicRabbit en autopsy

    Mes commentaires à PYD ci-dessus me conduisent au commentaire général suivant, plus en rapport avec le billet du jour.

    L’IA chinoise reflète-t-elle la pensée chinoise?

    J’ai envie de répondre oui sur le seul exemple* où j’ai vu fonctionner Deep Seeker.

    Le « aha moment » qui a débloqué la situation a été le moment où Deep Seeker, bloqué comme ChatGPT avec la formule de Binet liée à la suite de Fibonacci, a pensé à faire l’analogie avec la suite de Lucas (ce à quoi ChatGPT n’a pas pensé) :

    Je me souviens que φ a un conjugué, qui est l’autre racine de l’équation x² = x + 1, qui est ψ = (1 – sqrt(5))/2 ≈ -0,618. Puisque φ et ψ sont des racines de l’équation quadratique, toute puissance de ces racines peut être exprimée à l’aide de la récurrence de Fibonacci. Plus précisément, la formule de Binet dit que F(n) = (φ^n – ψ^n)/sqrt(5).

    Attendez, c’est peut-être lié. Si nous considérons φ^n + ψ^n, peut-être s’agit-il d’un entier ? Vérifions.

    * : https://www.pauljorion.com/blog/2025/01/21/la-singularite-en-direct-sous-vos-yeux/

  9. Avatar de Kikok
    Kikok

    Il est difficile de ne pas constater le retard de la France en matière d’intelligence artificielle par rapport à de nombreux pays étrangers. En Asie, des nations comme la Chine, la Corée du Sud, Taïwan ou encore le Japon sont à l’avant-garde depuis des années avec des projets technologiques ambitieux. La Chine se distingue par ses avancées impressionnantes dans des systèmes comme DeepSeek, la Corée du Sud est pionnière dans le métavers, un domaine qu’elle développe depuis plus de 20 ans déjà. Taïwan domine le marché mondial des puces AI, et le Japon continue de repousser les limites avec ses smart cities ultra-connectées.
    En France, ce n’est que depuis quelques années que le sujet commence à avancer, mais cela reste loin du niveau asiatique. L’hégémonie française appartient au passé, et pourtant, le Royaume-Uni offre un exemple intéressant : malgré le Brexit, ils ont su prendre de l’avance en matière d’IA, notamment grâce à des initiatives ambitieuses sur les réglementations. Ce retrait de l’Union européenne leur a permis d’accélérer leur compétitivité et de se positionner parmi les leaders en Europe.
    Face à ces constats, il serait peut-être temps pour la France de réfléchir à une stratégie plus audacieuse, en tirant des leçons de ces exemples internationaux, pour rattraper ce retard et mieux s’insérer dans la course mondiale de l’IA.

    1. Avatar de gaston
      gaston

      Le retard de la France (et de l’Europe) est connu. On en parle encore aujourd’hui avec le projet « Lucie » (une forme d’australopithèque de l’IA ?) qui provoque la risée générale.

      https://www.huffingtonpost.fr/insolite/article/l-ia-lucie-projet-experimental-de-chatgpt-a-la-francaise-ferme-temporairement-apres-des-moqueries_245351.html

      Probable que notre Lucie ait besoin d’acquérir quelques neurones chez DeepSeek Open source pour atteindre le stade homo sapiens

  10. Avatar de un lecteur
    un lecteur

    Question pour une IA, calcule l’entropie de ton réseau de neurone avant et après avoir fait le calcule.

      1. Avatar de Khanard
        Khanard

        @CloClo

        d’où l’adage : «mieux vaut une tête bien faite que bien pleine ! »

        Pauvre homme 😇

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion
https://twitter.com/PaulJorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta