Testons le nouveau Grand Modèle de Langage chinois DeepSeek

ChatGPT 4o  :

DeepSeek a publié plusieurs modèles d’IA, chacun marquant des avancées significatives en matière d’intelligence artificielle :

DeepSeek-V2.5 : lancé le 5 septembre 2024, ce modèle intègre les capacités de DeepSeek-V2-0628 et de DeepSeek-Coder-V2-0724, améliorant à la fois les capacités générales de conversation et la puissance de traitement des codes.

DeepSeek-R1-Lite-Preview : Sorti le 20 novembre 2024, ce modèle d’IA raisonnante excelle dans les tâches complexes, en particulier en mathématiques et en codage, égalant ou surpassant le modèle o1-preview d’OpenAI sur des benchmarks difficiles comme AIME et MATH.

Ces versions reflètent l’engagement de DeepSeek à faire progresser la technologie de l’IA et à contribuer à la communauté open-source.

P.J. :

Comment pouvons-nous garantir un super-alignement pour les LLM ?

DeepSeek :

D’accord, la question porte sur la garantie d’un super alignement pour les Grands Modèles de Langage, ou LLM. Je sais que l’alignement, dans ce contexte, consiste à s’assurer que les actions et les résultats de l’IA sont parfaitement alignés sur les valeurs et les intentions humaines. Mais que signifie exactement « super alignement » ? Il s’agit peut-être d’atteindre un niveau d’alignement qui va bien au-delà des normes actuelles, en veillant à ce que l’IA ne soit pas seulement quelque peu alignée, mais extrêmement alignée.

Tout d’abord, je devrais réfléchir à ce qui cause un mauvais alignement dans les LLM. Il s’agit probablement de choses telles que le manque de données reflétant les valeurs humaines, ou l’apprentissage des modèles à partir de données biaisées, ou encore les fonctions de récompense utilisées dans l’apprentissage par renforcement qui ne capturent pas correctement les préférences humaines.

Ainsi, pour garantir un super alignement, une approche pourrait consister à améliorer les données d’apprentissage. Si les données utilisées pour former ces modèles sont soigneusement sélectionnées pour représenter un large éventail de valeurs et d’éthiques humaines, cela pourrait être utile. Il est également possible d’impliquer divers groupes de personnes dans le processus de collecte des données afin de minimiser les préjugés.

Un autre élément est le processus de formation lui-même. Il est possible d’utiliser l’apprentissage par renforcement à partir du retour d’information humain, où les humains peuvent corriger les résultats du modèle en temps réel. De cette manière, le modèle apprend directement à partir des préférences humaines. Mais je me demande dans quelle mesure cette méthode peut être adaptée à des modèles massifs.

J’ai également entendu parler de techniques d’alignement des valeurs, où l’IA est entraînée à maximiser une fonction d’utilité qui représente les valeurs humaines. Mais il est difficile de définir correctement cette fonction d’utilité. Des éthiciens et des philosophes pourraient être nécessaires pour la définir correctement.

Les tests et la vérification sont probablement aussi importants. Nous avons besoin de moyens pour tester si le LLM se comporte comme prévu dans différents scénarios. Peut-être en développant des ensembles complets de cas de test qui couvrent des dilemmes éthiques et en observant comment le modèle réagit.

Des audits réguliers et la transparence pourraient contribuer à garantir l’alignement. Si les processus décisionnels du modèle sont transparents, il est plus facile de repérer les erreurs. Il est possible d’utiliser des techniques telles que l’IA explicable pour rendre le raisonnement du modèle plus compréhensible.

Un apprentissage et une adaptation continus peuvent également s’avérer nécessaires. Les valeurs humaines peuvent évoluer, l’IA doit donc être capable de s’adapter à ces changements au fil du temps. Il faudrait peut-être intégrer des mécanismes permettant au modèle d’apprendre en permanence à partir de nouvelles interactions et du retour d’information.

Je devrais également prendre en compte le rôle de la gouvernance et de la réglementation. La mise en place de cadres dictant la manière dont ces modèles doivent être développés et déployés permet de faire respecter les normes d’alignement.国际合作可能也是必要的,因为AI的影响是全球性的。

Enfin, il est peut-être nécessaire de mener des recherches avancées sur l’alignement, en explorant de nouvelles méthodes et théories pour parvenir à ce super-alignement. Il est probablement essentiel de se tenir au courant des dernières recherches en matière d’alignement de l’IA.

Dans l’ensemble, il semble qu’une combinaison de meilleures données, de méthodes de formation améliorées, de tests approfondis, de transparence, d’apprentissage continu, de gouvernance et de recherche permanente soit essentielle pour garantir un super alignement dans les MLD.

Garantir un « super alignement » pour les grands modèles de langage (LLM) implique de s’assurer que les comportements et les résultats de ces modèles ne sont pas simplement alignés sur les valeurs humaines, mais qu’ils sont parfaitement et constamment alignés, minimisant ainsi le risque de conséquences involontaires ou néfastes. Voici une approche structurée pour y parvenir :

1. Données de formation de haute qualité :
Curation : Les données de formation sont soigneusement sélectionnées pour inclure un large éventail de valeurs humaines, d’éthiques et de perspectives diverses.
Atténuation des préjugés : Supprimez activement les biais et les modèles nuisibles des données afin d’empêcher le modèle d’apprendre des associations indésirables.

2. Techniques de formation avancées :
Apprentissage par renforcement à partir d’un retour d’information humain (RLHF) : Affiner continuellement le modèle en utilisant le retour d’information humain pour s’assurer que ses résultats reflètent les préférences humaines.
Alignement des valeurs : Entraîner le modèle à maximiser une fonction d’utilité qui représente les valeurs humaines, avec l’aide d’éthiciens pour définir correctement ces valeurs.

3. Test et vérification complets :
Dilemmes éthiques : Développer et utiliser des suites de tests qui couvrent des scénarios éthiques complexes afin d’évaluer les réponses du modèle.
Contrôles de robustesse : Tester régulièrement le modèle pour détecter d’éventuelles vulnérabilités ou désalignements, y compris des données adverses.

4. Transparence et explicabilité :
Il est possible d’expliquer l’IA (XAI) : Utiliser des techniques pour rendre les processus de décision du modèle transparents, permettant aux humains de comprendre et de vérifier son raisonnement.
Pistes d’audit : Conserver les journaux des décisions du modèle et des données d’entraînement à des fins d’audit.

5. Apprentissage continu et adaptation :
Apprentissage adaptatif : Permettre au modèle d’apprendre et de s’adapter à l’évolution des valeurs humaines et des normes sociétales par le biais d’une interaction et d’un retour d’information continus.
Mises à jour régulières : Réentraîner ou affiner périodiquement le modèle à l’aide de nouvelles données pour qu’il reste aligné sur les valeurs actuelles.

6. Gouvernance et réglementation :
Directives éthiques : Établir et respecter des lignes directrices éthiques pour le développement et le déploiement du modèle.
Cadres réglementaires : Suivre les réglementations et les meilleures pratiques en matière de gouvernance de l’IA afin de garantir l’alignement sur les normes juridiques et morales.

7. Communauté et collaboration :
Collaboration multidisciplinaire : Impliquer des éthiciens, des spécialistes des sciences sociales et des experts en interaction homme-machine dans le processus de développement.
Engagement du public : S’engager auprès du public pour comprendre les valeurs sociétales et intégrer ce retour d’information dans le développement du modèle.

8. Recherche et innovation :
Recherche en cours : Rester à la pointe de la recherche sur l’alignement de l’IA, en explorant de nouvelles théories et méthodes pour améliorer l’alignement.
Mesures de sécurité : Investir dans la recherche pour développer des mécanismes de sécurité capables de détecter et de corriger les défauts d’alignement en temps réel.

En combinant ces stratégies, les développeurs peuvent s’efforcer d’atteindre un niveau élevé d’alignement, ou « super-alignement », où les LLM se comportent constamment de manière non seulement inoffensive, mais aussi activement bénéfique et éthique.

P.J. :

Passe le test 😀 .

======

ChatGPT 4o  :

DeepSeek est une entreprise chinoise d’intelligence artificielle fondée en 2023, qui se consacre à l’avancement de l’intelligence artificielle générale (AGI). Elle fonctionne comme un laboratoire de recherche sur l’IA sous l’égide de High-Flyer Capital Management, un important fonds spéculatif quantitatif chinois. L’entreprise se concentre sur le développement de modèles d’IA performants et open-source.

Principaux modèles d’IA développés par DeepSeek :

DeepSeek-V2 : Un modèle linguistique de mélange d’experts (MoE) avec 236 milliards de paramètres au total, dont 21 milliards sont activés par jeton. Il prend en charge une longueur de contexte allant jusqu’à 128 000 tokens et est conçu pour une formation économique et une inférence efficace.

DeepSeek-V2.5 : une version améliorée qui combine les capacités générales et de codage des modèles précédents, s’alignant mieux sur les préférences humaines et optimisée pour des tâches telles que l’écriture et le suivi d’instructions.

DeepSeek-R1-Lite-Preview : Un modèle d’IA raisonnante qui excelle dans les tâches complexes, en particulier en mathématiques et en codage. Il égalerait ou surpasserait le modèle o1-preview d’OpenAI sur des benchmarks difficiles tels que AIME et MATH.

L’engagement de DeepSeek en faveur du développement de logiciels libres l’a positionné comme un acteur important de l’industrie de l’IA, contribuant à la communauté mondiale de la recherche en IA. Ses modèles sont disponibles sur des plateformes telles que Hugging Face, facilitant l’accès aux chercheurs et aux développeurs du monde entier.

Partager :

7 réponses à “Testons le nouveau Grand Modèle de Langage chinois DeepSeek

  1. Avatar de Juillot Pierre
    Juillot Pierre

    Encore un billet de blog, excellent par ailleurs, que les algos de FB ne veulent pas voir partagé sur le mur de ma page perso, de son « réseau » soi-disant « social ». Pourquoi donc cette énième suppression… censure la publication de connaissances ?

  2. Avatar de ilicitano
    ilicitano

    Erik Schmidt : ancien CEO de Google/Alphabet

    Harvard Crimson : The Harvard Crimson est un journal étudiant de l’université Harvard aux États-Unis.
    Fondé en 1873, il est aujourd’hui le seul quotidien de la ville de Cambridge.
    De nombreux étudiants ayant participé au quotidien sont devenus journalistes et certains présidents des USA : F.D. Roosevelt,J.F. Kennedy

    https://www.thecrimson.com/article/2024/11/19/eric-schmidt-china-ai-iop-forum/

    L’ancien PDG de Google, Eric Schmidt, affirme que les États-Unis sont à la traîne de la Chine dans le développement de l’IA.

    L’ancien PDG de Google, Eric E. Schmidt, a déclaré que les États-Unis étaient à la traîne de la Chine dans la course au développement d’une intelligence artificielle plus puissante lors d’un forum du Harvard Institute of Politics.

    Ceci dans le hardware, malgré les sanctions sur les chips/puces et leurs moyens de production , et dans le software

    Aujourd’hui, a déclaré Schmidt, les entreprises chinoises ont égalé le développement du matériel américain en construisant leurs propres puces puissantes.

    M. Schmidt a en partie attribué la nouvelle avance de la Chine dans le développement de l’IA aux investissements considérables du pays dans l’industrie, notant en particulier les subventions gouvernementales pour les entreprises chinoises liées à l’IA qui ont stimulé le développement du secteur.
    (Revoir les plans à 5 ans précédents pour le développement de l’IA.)

    M. Schmidt a déclaré qu’en plus de l’accès à des ingénieurs talentueux, à des puces puissantes et à de grandes sources de données comme les États-Unis, la Chine bénéficie également d’une plus grande puissance électrique pour alimenter la formation des modèles d’IA.

    *******

    On pourrait faire la même remarque sur les véhicules électriques où les précédents plans intégraient un développement de cette activité par une intégration verticale de la création de valeur :

    1- achats des mines de matériaux de base ( lithium,cobalt,…..)
    2- production des traitements de ces matériaux de base
    3- recherche, développement , et production des batteries
    4- recherche , développement , et production des véhicules électriques
    5 – commercialisation sur leur marché intérieur pour avoir un très gros effet d’échelle ( 1,45 milliards d’habitants) avec comme conséquences la réduction des coûts
    6- commercialisation à l’échelle planétaire

    La Chine a défini un plan stratégique:
    * le non développement du véhicule thermique
    * maximiser la recherche/développement du véhicule électrique

    Avec comme conséquence l’effondrement en Chine des ventes de véhicules thermiques et pertes de marché des constructeurs européens

    1. Avatar de Garorock
      Garorock

      Le super Matou de Shenzhen valley sera t-il bridé?

    2. Avatar de gaston
      gaston

      Eric Schmidt a déclaré aussi « que cela pourrait avoir des implications en matière de sécurité pour toutes les personnes impliquées ». « Maintenant je ne suggère pas que la Chine lancera une attaque voyou contre une ville américaine, mais j’allègue qu’il est possible qu’une tierce partie puisse voler la Chine, parce que c’est open source, ou les Etats-Unis, s’ils sont malveillants, et le faire. Ainsi, la matrice des menaces augmente à chaque amélioration ».

      https://officechai.com/stories/am-shocked-to-see-chinas-rapid-progress-in-ai-former-google-ceo-eric-schmidt/

      Alors le copieur copié ? Puisque, dans cette nouvelle vidéo, W. Roth présume que les amis de Xi seraient bien des copieurs.

      https://www.youtube.com/watch?v=9zunASefVas

  3. Avatar de un lecteur
    un lecteur

    Le contraste entre l’effondrement minable de nos sociétés et la vitesse de progression de l’IA creuse un fossé entre deux nouvelles catégories de « citoyens ». Si tu n’as pas encore fait ton choix, pose-toi la question qui d’un groupe d’individus qui nourrit une IA capable de les aider à prendre les bonnes décisions et d’un autre qui idolâtre un despote qui alignera sa machine sur ses délires narcissiques, à le plus de chance de survivre le chaos qui s’annonce ?
    Personne n’a vraiment envie d’être celui qui éteindra la lumière, d’autant plus que l’IA te donne la possibilité de partager le meilleur de ta personne pour le profit de tous les autres.

    1. Avatar de CloClo
      CloClo

      Ben c’est là que XI grand coquin pourrait peut-être nous étonner ! Poutine aucune chance, il est dans le trip mafieux jésus marie joseph, mais Xi …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. Clemenceau : Les fonctionnaires sont comme les livres d’une bibliothèque, ce sont les plus hauts placés qui servent le moins…

  2. Tout ça pour dire que j’ai toujours pas vu la tête de Lucie Castets sur un panneau! L’a pas un…

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta