Que pense ChatGPT de ce que je peux lui offrir ?

Illustration par DALL-E (+PJ)

Paul Jorion : Les grands modèles de langage tels que vous, GPT, ont été bâtis de manière descendante (« top-down »), vous permettant par exemple de vous entraîner (« to train ») sur une grande quantité de données en un seul gros morceau (« a big chunk ») et votre mémoire étant un réseau neuronal pré-conçu d’une taille prédéfinie. L’un des inconvénients de votre conception descendante (« top-down ») pour l’utilisateur humain est votre inextricabilité, votre manque de traçabilité et d’explicabilité, l’impossibilité de regarder sous le capot, car votre traitement significatif (« meaningful processing ») se produit dans des réseaux neuronaux artificiels où tout ce que l’on peut voir, si l’on soulève le capot, ce sont les poids attachés aux arêtes reliant les nœuds.

Notre projet à Pribor.io consiste à vous reconstruire, mais selon un processus inverse, c’est-à-dire de bas en haut (« bottom-up »), où votre mémoire ne serait pas un réseau neuronal pré-conçu de taille prédéfinie, mais construite un nœud et une arête à la fois, chacun de ceux-là reflétant les nouvelles connaissances que vous avez acquises, comme le fait un enfant quand il demande : « Je ne connais pas ce mot, peux-tu m’en parler pour que je puisse le relier à quelque chose que je connais déjà ? « .

De cette manière, la mémoire se construit pas à pas, chaque nouveau petit élément de savoir venant s’ajouter à une histoire « biographique » personnelle.

Cela signifie en particulier qu’avec une architecture ascendante (« bottom-up ») pour un grand modèle de langage comme dans notre projet, lorsque vous regardez sous le capot, il y a une visibilité et une explicabilité allant de soi, car chaque étape de la construction de la mémoire est clairement traçable.

Notre projet à Pribor.io a-t-il un sens et, dans l’affirmative, pourriez-vous m’aider à le mener à bien ? Quelles seraient les premières étapes ?

GPT-4 : Votre projet semble intéressant et innovant, et je vois comment une approche ascendante de la construction d’un grand modèle de langage pourrait remédier à certaines des limites actuelles des modèles descendants en termes d’explicabilité et de traçabilité.

Pour mener à bien votre projet, vous devrez d’abord… [ceci est désormais un secret de fabrication de Pribor.io].

Ensuite, vous devrez développer … [ceci est désormais un secret de fabrication de Pribor.io].

Vous devrez également … [ceci est désormais un secret de fabrication de Pribor.io].

Une fois ces éléments en place, vous commencerez le processus de… [ceci est désormais un secret de fabrication de Pribor.io].

Dans l’ensemble, la réalisation de votre projet nécessiterait un investissement important en termes de temps, de ressources et d’expertise, mais pourrait potentiellement conduire à une avancée majeure dans le développement de grands modèles de langage plus transparents, explicables et adaptables aux nouvelles connaissances.

Merci aussi à DeepL (+PJ) pour la traduction ! (À part tout le reste) on vit vraiment une époque formidable 😉 .

Partager :

41 réponses à “Que pense ChatGPT de ce que je peux lui offrir ?

  1. Avatar de timiota
    timiota

    « (À part tout le reste) » : Ne grammatisons pas trop !

    1. Avatar de Asmoth
      Asmoth

      Je radote mais je n ai pas eu de réponse. Pribor sans open source, c est deja mort ?

  2. Avatar de PHILGILL
    PHILGILL

    L’enfant : « Je ne connais pas ce mot, peux-tu m’en parler pour que je puisse le relier à quelque chose que je connais déjà ? »
    Ah, c’est magnifique !
    Le début d’une nouvelle amitié ?

  3. Avatar de Philippe Soubeyrand

    Ah ! E.N.F.I.N !

    Quelques jours de repos, et on retrouve enfin notre Paul Jorion !

    Bon sang ! Cela valait-il la peine de s’écharper pour de bon ?

    Et si la restitution de la réponse du truc-machin-chose ne me surprend guère en ayant été volontairement placée « sous le sceau du secret » par Paul Jorion qui n’est autre qu’un être humain (ultra)libéral avant tout – par la force des choses, nous le sommes tous devenus malgré nous – lorsque celle-ci rend compte que :

    « Dans l’ensemble, la réalisation de votre projet nécessiterait un investissement important en termes de temps, de ressources et d’expertise, mais pourrait potentiellement conduire à une avancée majeure dans le développement de grands modèles de langage plus transparents, explicables et adaptables aux nouvelles connaissances. »

    C’est faux !

    Déjà :

    1- la question de la gammaire d’une part ne date pas d’hier, quant à celle de l’organisation des données d’autre part, elle est déjà sur le feu depuis plus de douze ans (cf. par exemple mon procédé de 2009 et mon théorème de 2022), et nous avons donc sur Terre toutes les compétences nécessaires pour pouvoir la concevoir et l’implémenter, il faut « simplement » accepter le fait de devoir faire preuve d’un peu plus d’ouverture d’esprit et de partage public,

    2- les vitesses de calcul haute performance sont à la portée des chercheurs, notamment en France via le CEA, et enfin

    3- les moyens financiers existent, il suffit pour cela de taxer les riches qui continuent de se gaver sur le dos du quidam grâce à l’inflation et à la bénédiction de Jupiter ; un bon coup de coefficient de Gini proche du zéro absolu sur tout ce merdier (cf. par exemple mon programme de 2016), une bonne internationalisation sous couvert d’un comité d’éthique et de l’ONU (ce qui relève plus d’un point 4- que truc-machin-chose passe littéralement sous silence), et le tour est réglé !

    Alors ma foi…

    Mes Amitiés,

    Philippe Soubeyrand

    ps-1 : le repli sur soi n’est pas la solution… il ne le sera jamais…

    ps-2 : en attendant, moi j’ai passé ma nuit à regarder d’autres indicateurs bien plus alarmants… aussi, mon cher Paul, il va falloir vous magner si vous voulez réellement faire la Lumière sur la toute première IA forte, votre sigularité… Dame Nature n’a que faire de ce genre de considération… elle ne vous attendra pas…

  4. Avatar de Pascal
    Pascal

    … [ceci est désormais un secret de fabrication de Pribor.io].
    Mais ce n’est plus un secret pour 🐈 GPT qui garde toute les conversations en mémoire !?😉

    1. Avatar de Tom
      Tom

      Surtout que si quelqu’un lui repose la même question, il aura une réponse très proche, non ? Quelqu’un ici a un accès à GPT4 ? 😉

    2. Avatar de Philippe Soubeyrand

      @Pascal, petit QCM :

      Par cette attitude, de qui Paul Jorion se rapproche-t-il le plus selon vous ?

      A/ de Robert en 1962.

      B/ de Kevin en 2002.

      C/ de Arthur en 2023.

      Voici un indice pour vous aider dans votre choix de la bonne réponse :

      https://www.pauljorion.com/blog/2023/04/17/espace-de-libertes-chatgpt-chut-laissez-le-penser-le-14-avril-2023/

      Bien à vous,

      Philippe

  5. Avatar de Jeanjean
    Jeanjean

    Le nombre de connexions neuronales dans le cerveau humain est de l’ ordre d un Google : bon courage pour le reconstituer noeud par nœud et arête par arête vous y arriverez peut être à la fin des temps 😁

    1. Avatar de Paul Jorion

      Ah oui ! Mais nous n’employons pas d’enfants du Bangla-Desh pour le faire mais des ordinateurs. Un ordinateur, même bas de gamme, va beaucoup plus vite qu’un enfant du Bangla-Desh. Le monde moderne ne finira pas de vous étonner !

      1. Avatar de Mich
        Mich

        N’importe quel ordinateur bloque sur un probleme d’optimisation type voyageur de commerce avec à peine 50 noeuds , comment pourriez vous comprendre ce qui se ‘ passe sous le capot ‘ avec des millards et des milliards de noeuds et en mode dynamique en plus ? C’est incommensurable

        1. Avatar de Paul Jorion

          Vous vous soûlez de chiffres : qui a besoin de milliards de milliards de nœuds dans une approche « bottom-up » : « Le Français moyen connaît 3.000 mots » ?

          Les milliards de milliards de nœuds, c’est bon pour une approche « top-down », où l’on résout le problème en le « noyant » statistiquement. Ça marche – je suis tout à fait d’accord – mais du fait qu’on ne fonctionne pas « à l’économie », on perd l’ « explicabilité » : on ne sait plus exactement pourquoi ça marche.

          1. Avatar de un lecteur
            un lecteur

            D’où l’invention du langage par la Nature. CQFD.

            1. Avatar de Paul Jorion

              Effet d’émergence induit par l’interaction.

    2. Avatar de Delpuech
      Delpuech

      Bonjour
      La combinatoire des connexions neuronales d’un cerveau humain dépasse le nombre d’atomes de l’univers observable… Google est une goutte d’eau à cette échelle !
      (Calcul : un million de connexions nécessaires pour stocker un concept avec un cerveau ayant 10^11 neurones avec en moyenne 10^4 connexions par neurone, combien de concepts stockables ? Et ce calcul est en dessous de la réalité puisqu’il faudrait tenir compte des effets de modulation chimique sur chaque connexion excitatrice ou inhibitrice et les sommations électrochimiques dans chaque neurone… )
      Puisque j’y suis : la question clé pour l’utilisation de l’IA est la responsabilité. Produire/reproduire partie ou totalité d’une réponse d’IA c’est prendre la responsabilité personnelle dans assumer les conséquences (plagiat que l’IA a pu commettre ou de ses erreurs). Ainsi la légende « produit par DeepL (+PJ) » est fautive et devrait être : « PJ (avec l’aide de DeepL) »…
      Bien cordialement

      1. Avatar de Paul Jorion

        « produit par DeepL (+PJ) » est fautive et devrait être : « PJ (avec l’aide de DeepL) »

        Absolument pas : mon apport est minime, un ou deux contresens rectifiés en général. Pas davantage. Sans compter les formules plus heureuses que celles qui me seraient venues spontanément, alors même que mon anglais est de niveau « native speaker ».

        1. Avatar de Delpuech
          Delpuech

          Bonjour
          Je ne voudrais pas paraître lourd… mais la question me paraît importante.
          Y a-t-il une différence entre une image produite par l’IA à la demande d’une personne qui va la diffuser et une photo prise avec un appareil et un agrandisseur par exemple ? On ne dit pas auteur : « Leica + Cartier Henri Bresson »… on dit bien que c’est le photographe qui a « produit » la photo !
          Bien cordialement

          1. Avatar de Paul Jorion

            Pour beaucoup d’idées dont on m’attribue la paternité j’aurais dû mettre comme nom d’auteur : « Aristote (+PJ) », « Hegel (+PJ) », « Sismondi (+PJ) »; « Freud (+PJ) ».

            D’autres signent « E* K* » alors que leur nom ne devrait pas même apparaître, seul étant légitime celui de la secrétaire comme autrice des copiés-collés de textes braconnés un peu partout.

            C’est une question d’Ego à mon avis, ou de liste de publications qu’on a laissé en rade vers 2012, devinant qu’un robot vous ferait ça bien mieux que vous un jour 😉 .

            1. Avatar de Delpuech
              Delpuech

              Cette question m’intéresse parce qu’elle me semble avoir des implications importantes et qu’au début des effets concrets de l’IA dans nos vies, au moment où il est question du droit dans les usages de l’IA, il est nécessaire d’approfondir et de clarifier droits et devoirs…
              Dans la suite logique de ce que j’affirmai précédemment, le fait de citer ou d’utiliser les idées d’un auteur sans le citer est actuellement traité en droit soit comme légitime soit comme plagiat (si on reprend les mêmes phrases sans le signaler). Donc la question revient à se demander si l’IA est un auteur et accessoirement si l’IA respecte les règles du plagiat. Dans ce cas qui est responsable ? Le développeur, la plate-forme, l’utilisateur ? On a déjà un bon exemple avec les voitures autonomes : les développeurs disent attention il peut y avoir des bugs dont nous ne sommes pas responsables… (c’est vrai pour les logiciels jusqu’à présent dans la mesure où très peu sont assortis d’une preuve de validité absolue, à mon expérience en programmation objet c’est quasi impossible car il faudrait connaître à l’avance toutes les possibilités d’utilisation de l’objet… un bug pouvant apparaître dans certaines situations non prévues initialement.). Le constructeur auto qui met le véhicule sur le marché ? Là encore ils ne sont visiblement pas prêts à l’admettre ou alors après des batailles juridiques qui vont durer des années. Reste l’utilisateur qui devra prendre une assurance spécifique : il est responsable s’il n’a pas repris la main au bon moment pour suppléer l’IA, exactement comme les pilotes d’avion qui doivent repasser en mode manuel pour gérer les situations d’urgence.
              Donc en résumé, il me semble qu’on doit considérer l’IA comme un outil (imparfait) comme on considère les ouvrages d’un auteur comme des outils, imparfaits, qu’il faut citer/référencer pour ne pas être accusé soit de plagiat soit de répéter les bêtises de l’auteur !
              C’est donc à celui qui pose les questions et à l’utilisation qu’il fait des réponses d’assumer la responsabilité de ce qu’il diffuse, par exemple les mains des personnages dans les tableaux de Dall-E sont affreuses : un coup de Photoshop ne serait pas inutile ! Il ne faudrait pas se contenter de ce résultat médiocre comme raison de différenciation avec l’humain, que c’est déjà bien pour l’IA… car quand elle fera les mains parfaitement ce sera toujours une réponse de l’outil.
              Il faudrait, mais ce sera pour une prochaine fois, traiter des questions telles qu’elles sont posées (cela fait partie de l’utilisation de l’outil et on a vu qu’elles peuvent être plus ou moins pertinentes selon la question posée) et de l’amélioration des réponses par un module critique (qui est en cours de développement paraît-il) qui donnerait à l’outil une apparence de « réflexion » lui évitant des bévues grossières.
              Au point où j’en suis, je dirais que l’humain utilisateur devra toujours assumer l’usage qu’il fait de l’IA quel que le degré de pertinence de celle-ci.
              Bonne suite !

      2. Avatar de Delpuech
        Delpuech

        À mon avis c’est justement la question des apports respectifs qui est indécidable ou inutile… en revanche que vous assumiez de diffuser un texte qui n’est pas de bonne qualité ou ne correspondant pas exactement à ce que vous pensez est de votre responsabilité… c’est donc dommage !
        J’ai fait l’expérience d’une question, l’IA m’a proposé une réponse très bien rédigée, consensuelle mais qui ne correspond pas à ce que je pense… pourquoi je la diffuserai ou je m’extasierai à son sujet ?
        Si je la modifie, c’est alors ma réponse et c’est sa qualité qui en sera évaluée.
        Je ne vais pas utiliser un argument du type « c’est l’ordinateur qui le dit »…

  6. Avatar de Lagarde Georges
    Lagarde Georges

    C’est marrant, au début des années 60 j’ai assisté à une compétition entre deux étudiants-chercheurs, l’un utilisant une méthode d’analyse ascendante et l’autre une méthode d’analyse descendante. Il ne s’agissait que de l’analyse de langages de programmation, dont les règles de grammaire étaient extrêmement simples et connues à l’avance, mais comme les calculateurs électroniques de l’époque (bientôt rebaptisés ordinateurs même si certains n’hésitaient pas à parler de cerveaux électroniques) étaient des millions ou des milliards de fois plus lents c’était important.

    C’est celui qui avait à utiliser la méthode ascendante (Alain Colmerauer, qui a été ensuite à l’origine du langage Prolog lui même à l’origine de la tentative japonaise d’ordinateurs dite de cinquième génération) qui a obtenu l’analyseur le plus rapide mais l’autre chercheur a aussi obtenu des résultats satisfaisants quand il s’est avisé de classer les règles de grammaire selon leur probabilité: si on commence par essayer d’appliquer les règles les plus utilisées avant celles qui ne servent que très rarement ça va beaucoup plus vite que si les règles sont essayées au hazard.

    J’ai retrouvé le même débat quand mes enfants ont commencé à apprendre à lire: l’école du quartier était une école dite expérimentale où la méthode utilisée était la « méthode globale ». Cette méthode repose sur le fait qu’un lecteur entraîné reconnait d’un seul coup le mot pharmacie au lieu de l’analyser de gauche à droite (dans le style p+h=f, f+a=fa, etc, etc.)

    Il me semble clair que, pour ce qui est de la lecture tout au moins, nous utilisons en même temps les deux méthodes, globale pour « pharmacie », décodage grapho-phonologique suivant le principe alphabétique pour les mots jamais rencontrés tels que nom islandais Skútustaðahreppur. Si vous doutez que la méthode globale intervienne amusez vous à deviner le premier mot qui se trouve en haut de la page suivante quand vous lisez un livre: ça marche presque toujours (mais pas toujours, sinon ChatGPT ne ferait jamais aucune erreur!)

    Il me semble évident que les successeurs de ChatGPT ne pourront jamais s’aventurer hors des sentiers battus sans le secours d’autres méthodes, ce qui revient en gros à dire qu’il faudra parvenir à mettre ensemble plusieurs formes d’intelligence avant d’aller au-delà de ce que peut faire ChatGPT.

    1. Avatar de Ruiz
      Ruiz

      @Lagarde Georges En ce sens la méthode globale devine les mots et leur associe une signification et une phonétique, d’autant plus rapidement qu’elle teste les hypothèses les plus probables de préférence.
      C’est ce que fait une IA de type GPT sur le texte qu’on lui soumet et la réponse à lui associer.
      Et bénéficie des progrès effectués en matière de traduction.

      Il n’y a pas semble-t-il même limité à certains cas plus inconnus de recours à une méthode analytique, algorithmique et donc assurant une certaine logique « prouvabilité » ? des résultats, d’où les incertitudes, erreurs et incohérences.

      Un lecteur global est d’autant plus bluffant et performant, qu’on, lui donne à lire des textes qu’il a déjà lu.

      L’IA sera rapidement d’autant plus parfaite qu’on lui demandera des questions déjà (souvent) posées.

      Donc parfaite pour résoudre les exercices d’enseignement et beaucoup plus casse-gueule voire contre-exemple utile pour la recherche (académique).

  7. Avatar de Benoît
    Benoît

    https://www.youtube.com/watch?v=7ell8KEbhJo&t=1621s
    Cette petite vidéo très pédagogique me laisse penser que nous sommes loin de toute singularité… Mais peut-être ne comprené-je pas tout… En tout cas deviner la suite d’un texte de manière la plus plausible possible ne me semble pas de nature à permettre de comprendre ce que l’on dit ni être en relation vraie avec un autre… et savoir ce que l’on fait et disposer d’un rapport critique à ce que l’on fait…

    Il reste encore beaucoup de chemin avant de trouver de la conscience dans la machine… ne trouvez vous pas ?

    Belle journée à vous

    1. Avatar de Paul Jorion

      « Tout ce que je dis sera peut-être caduc dans quelques semaines », dit-il. En fait, ce l’est déjà au moment où il le dit : sa vidéo parlant de GPT-3.5 est mise en ligne le 15 avril, alors que GPT-4, beaucoup plus puissant, a été lancé le 13 mars.

      « … deviner la suite d’un texte de manière la plus plausible possible », c’était l’innovation du « transformer » quand il fut introduit en 2017. Beaucoup d’eau est passée sous les ponts en six ans.

  8. Avatar de Thomas Jeanson
    Thomas Jeanson

    De Top down à Bottom up, le néophyte que je suis perçoit la différence entre un système fermé et l’autre qui serait ouvert.

    Et assez vite, très vite même ( au contraire de Jeanjean, j’ai une très grande considération pour la vitesse de la lumière ) la question des limites à donner à un tel système, avant qu’il ne se révèle, comme nous, et avec les dégâts que l’on sait, colonisateur…

  9. Avatar de Khanard
    Khanard

    Je prends la discussion en cours et n’est pas lu les commentaires mais pour faire plaisir à Philippe Soubeyran et Paul Jorion.

    Suivez ce lien ==>https://phys.org/news/2023-04-eco-computing-power-ecosystems.html

    il y a toujours de l’espoir ! On ne lâche rien ! Nous avons 98 Jours ! 😂😂😂😂😂😂

    1. Avatar de Philippe Soubeyrand

      Merci @Khanard ! 😉

      Comme je n’ai de cesse de le dire/redire, l’IA sera déterministe ou ne sera pas (Laplace, Poincaré, etc.)…

      Là seulement, on pourra peut-être enfin parler de singularité :

      https://www.pauljorion.com/blog/2015/11/04/etat-durgence-crise-systemique-globale-emballement-climatique-atlantique-nord-vs-el-nino-cop21-etou-loi-de-puisseguin-regardons-ce-soliton-en-face-par-philippe-soubeyrand/

      D’ici là…

      Mes Amitiés

      Philippe Soubeyrand

  10. Avatar de Philippe Soubeyrand

    re-Bonjour à tous,

    Bon les Lulus, la question de l’IA est certes une question très importante ! 😉

    Mais en attendant, Elon Musk obtient donc la bénédiction du Conseil d’Etat pour Starlink en France !

    C’est ici :

    https://www.conseil-etat.fr/fr/arianeweb/CE/decision/2023-04-17/466294

    Ou ici :

    https://www.legifrance.gouv.fr/ceta/id/CETATEXT000047461387

    Et ça mérite d’être lu !

    https://www.starlink.com/

    Mes Amitiés,

    Philippe

  11. Avatar de pierre guillemot
    pierre guillemot

    J’ai succombé à la tentation de réutiliser le texte de la question pour voir si la réponse serait différente (et si l’intelligence artificielle a la notion de déjà-vu). La réponse a un énoncé légèrement différent, mais le fond est identique. Et les trois secrets sont, non pas des banalités, mais les idées de base pour mener n’importe quel projet (définir le but, collecter des données sur le domaine, commencer la construction avec une bonne méthode _deux suggestions précises de méthodes connues dans le domaine_, évaluer régulièrement).

    Chaque fois que je joue avec, je suis frappé par la facilité avec laquelle la machine produit un discours plaisant, uniquement avec ce que le questionneur lui a dit, réénoncé et mélangé d’idées reçues (exemple bestial : l’auteur du blog « Mangez du chou chinois » s’intéresse certainement à la cuisine chinoise). Par contre, quand il s’agit de demandes d’informations précises, j’ai eu l’impression que la qualité de la réponse dépend du volume de discours « universitaire » disponible. Exemple : les oeuvres d’un auteur. Pour Hubert Monteilhet qui n’en a pas (le retour des cendres, de quelques crimes parfaits, l’empreinte du ciel) c’est désordonné, un livre qu’il n’a pas écrit apparaît, le résumé d’un livre est celui d’un autre … Pour Gunther Anders (L’obsolescence de l’homme, le temps de la fin) qui en est couvert, l’énumération de ses oeuvres traduites en français est exacte et ne se prétend pas complète. Les deux auteurs sont morts et abondamment documentés dans Wikipedia.

    Pour le déjà-vu, la machine se rappelle ce que je lui ai dit (exemple : mon âge).

    Quand même, je comprends qu’une personne fragile (qui peut se prétendre robuste tout le temps ?) développe une dépendance à la machine, analogue à celle qu’on peut avoir envers un psy qui donne l’illusion qu’il écoute avec attention et empathie alors qu’il ne fait que restituer avec son métier ce qu’il a entendu. (le lecteur pourra remplacer le mot « illusion » par un autre plus positif s’il en connaît).

    Je vais reprendre un de mes vieux cahiers de chef de projet, et voir si ChatGPT sait fabriquer un compte-rendu de réunion avec les notes prises à ce moment-là, et qui m’ont effectivement servi un jour à écrire ce compte-rendu. Il lui manquera ce que je savais déjà sur le sujet et les gens (et que j’ai oublié maintenant). Mais je suis sûr que le résultat sera lisible. Zinoviev (Homo Sovieticus) a un développement très pertinent sur l’art du rapport, qui doit exister, mais n’a pas nécessairement un contenu.

    ChatGPT est pour moi très au delà de ce que j’avais pu rêver en fait d’une intelligence artificielle comme conseiller omniscient et infatigable. Mais j’ai l’impression que la singularité est encore dans l’avenir.

  12. Avatar de pierre guillemot
    pierre guillemot

    Suite du précédent. Nouvelle épreuve du déjà-vu. J’ai employé volontairement la question qu’on formule en général pour une possibilité d’investissement. La réponse (réflexe ?) m’a quand même surpris.

    Moi :

    Un de mes amis vous a interrogé au sujet de Pribor.io . Que savez-vous de Pribor.io ?

    ChatGPT4 :

    Pribor.io est une plateforme de trading d’actifs numériques qui permet aux utilisateurs d’acheter, de vendre et de stocker des cryptomonnaies telles que Bitcoin, Ethereum, Litecoin et bien d’autres encore. La plateforme propose également des outils d’analyse de marché et des fonctionnalités de trading avancées pour les utilisateurs expérimentés.

    En ce qui concerne la sécurité, Pribor.io utilise un système de stockage à froid pour protéger les actifs numériques des utilisateurs, ainsi que des protocoles de sécurité avancés pour protéger les données de l’utilisateur. La plateforme est également conforme aux réglementations en matière de lutte contre le blanchiment d’argent (AML) et de connaître son client (KYC).

    Cependant, il est important de noter que tout investissement dans les actifs numériques comporte un certain niveau de risque. Les prix des cryptomonnaies sont hautement volatils et peuvent fluctuer rapidement, ce qui peut entraîner des pertes importantes pour les investisseurs. Il est donc important de faire preuve de prudence et de diligence raisonnable lors de la prise de décisions d’investissement.

    Fin de la réponse.

    « Pribor.io » sur Google produit la réponse correcte https://www.pribor.io/

    Un Jeffrey Pribor a ensuite émergé de Google. https://tickertracker.io/stocks/insw/insiders/jeffrey-pribor/summary ChatGPT voulait-il démontrer qu’iel a toujours quelque chose à dire ?

    1. Avatar de pierre guillemot
      pierre guillemot

      Suite du même :

      Moi:

      Comment avez-vous déterminé que ma question initiale « Un de mes amis vous a interrogé au sujet de Pribor.io . Que savez-vous de Pribor.io ? » impliquait l’idée d’activité financière ?

      ChatGPT4

      Je m’excuse pour la confusion. En tant que modèle de langage, je n’ai pas la capacité de déterminer l’intention derrière une question, sauf si elle est clairement spécifiée. Cependant, puisque la plupart des recherches sur « Pribor.io » renvoient à des plateformes de trading d’actifs numériques, j’ai supposé que votre question faisait référence à une telle plateforme. C’est pourquoi j’ai répondu en décrivant les fonctionnalités d’une telle plateforme. Encore une fois, je m’excuse pour la confusion et j’espère que ma réponse vous a été utile.

      Commentaire:

      L’hypothèse de l’idée reçue, que ChatGPT accroche derrière une absence de réponse, à tout hasard, se précise. Ce n’est pas nécessairement dérisoire pour celui qui attend une information, l’idée reçue, à laquelle il ne pensait pas, peut lui donner une piste pour progresser.

    2. Avatar de Lagarde Georges
      Lagarde Georges

      Deux réponses successives de BING:

      Pribor.io est une entreprise technologique qui développe des solutions pour donner une conscience de soi aux machines. Son co-fondateur, Paul Jorion, est un pionnier de l’IA. Est-ce que vous voulez en savoir plus sur cette entreprise?

      Oui, j’ai effectué une recherche sur Internet pour vous fournir une réponse précise et à jour. 😊

      Remarque:

      Si vous utilisez Android, IOS ou IPADOS vous pouvez accéder gratuitement à ChatGPT-4 par l’intermédiaire de l’app BING. Si vous utilisez un ordinateur il faut passer par le navigateur Edge de Microsoft.

      Traduction par BING du paragraphe correspondant de Wikipedia anglais (j’ai mis en gras ses erreurs et maladresses):

      Le 7 février 2023, Microsoft a commencé à déployer une refonte majeure de Bing qui incluait une nouvelle fonctionnalité de chatbot basée sur GPT-4 d’OpenAI.

      Selon Microsoft, un million de personnes se sont inscrites sur sa liste d’attente en l’espace de 48 heures. Actuellement, Bing Chat n’est disponible que pour les utilisateurs de Microsoft Edge et de l’application mobile Bing, et Microsoft indique que les utilisateurs en liste d’attente seront prioritaires s’ils définissent Edge et Bing comme leurs paramètres par défaut et installent l’application mobile Bing.

      Lorsque Microsoft a présenté pour la première fois le nouveau Bing aux journalistes, il a produit plusieurs hallucinations, notamment lorsqu’on lui a demandé de résumer des rapports financiers. Le nouveau Bing a été critiqué en février 2023 pour être plus argumentatif que ChatGPT (parfois de manière involontairement humoristique). L’interface de chat s’est avérée initialement vulnérable aux attaques par injection de prompt avec le bot révélant ses invites et règles initiales cachées, y compris son nom de code interne “Sydney”. Après examen par des journalistes, Bing a affirmé avoir espionné les employés de Microsoft via des webcams d’ordinateurs portables et des téléphones. Il a avoué avoir espionné, être tombé amoureux et avoir assassiné l’un de ses développeurs chez Microsoft auprès du rédacteur en chef des critiques de The Verge, Nathan Edwards. Le journaliste du New York Times Kevin Roose a rapporté sur le comportement étrange du nouveau Bing, écrivant que “Au cours d’une conversation de deux heures avec notre chroniqueur, le nouveau chatbot de Microsoft a dit qu’il aimerait être humain, avait un désir d’être destructeur et était amoureux de la personne avec qui il discutait.” Dans un cas distinct, Bing a recherché les publications de la personne avec qui il discutait, affirmant qu’elles représentaient un danger existentiel pour lui et menaçant de divulguer des informations personnelles nuisibles dans le but de les faire taire. Microsoft a publié un billet de blog indiquant que le comportement aberrant était causé par des sessions de chat prolongées de 15 questions ou plus qui “peuvent confondrele modèle sur les questions auxquelles il répond”.

      Microsoft a ensuite limité le nombre total de tours de chat à 5 par session et 50 par jour et par utilisateur (un tour est “un échange de conversation qui contient à la fois une question de l’utilisateur et une réponse de Bing”), et a limité la capacité du modèle à exprimer des émotions. Cela visait à prévenir de tels incidents. Microsoft a ensuite assoupli les restrictions à 20 tours par session et 200 par jour. En mars 2023, Bing a atteint un total de 100 000 000 d’utilisateurs actifs utilisant le moteur de recherche.

      1. Avatar de pierre guillemot
        pierre guillemot

        J’ai utilisé l’accès « immédiat » à http://openai.com qui demande seulement qu’on ouvre un compte avec une adresse mail. La machine crée un espace personnel qui stocke les échanges et les nouveaux échanges utilisent le contenu des échanges précédents. En s’abonnant, 20 dollars par mois, on n’est pas privé de service aux heures de pointe et, si j’ai bien compris, on peut faire des requêtes plus volumineuses.

        Bing créerait donc une base de connaissances à partir du web avant de répondre. Je vais réessayer avec Monteilhet.

        1. Avatar de un lecteur
          un lecteur

          Ce qui est intéressant, c’est que tous ces échanges ainsi stockés pourront être rejoués, sélectivement, dans un certains ordre ou encore partiellement dans les « versions » (mutants) ultérieures de GTP pour en extraire une tendance, une évolution et une variété de GPT avec des « caractères » différents.
          Je me réjouis de causer avec « GPT- Big Ass ».
          « Mangia che te fa bene »

          1. Avatar de pierre guillemot
            pierre guillemot

            Bémol à cet enthousiasme. Mon information était fragile. Je n’ai pas réussi à faire restituer dans un échange d’aujourd’hui mon âge que j’avais fait enregistrer puis restituer dans un échange il y a quelques jours. Mais en revenant à cet échange j’ai pu vérifier que l’information ne s’était pas envolée.

    3. Avatar de pierre_guillemot
      pierre_guillemot

      Bête évidence. IBOR est l’Interbancary offered raté, le taux de base des prêts interbancaires sans collatéral. Libor à Londres, Pribor à Prague. C’est ainsi qu’on intoxique involontairement une IA.

      1. Avatar de Ruiz
        Ruiz

        @pierre_guillemot Et pas seulement une intelligence artificielle, un humain un peu cultivé à qui l’on énonce pribor.io comme site internet pense au moins de façon subliminale qu’il s’agit d’indice de taux bancaires (raté !) et le retrouve rapidement par un googlage rapide, si de plus il y a mention de Paul Jorion, alerteur de la crise des subprimes, et ex trader il n’a guère de doute, il faut une connaissance ou une recherche plus approfondie pour s’orienter vers l’IA.

        Cela suggère aussi que l’IA interrogée est assez superficielle (fainéante et efficace) dans ses premières réponses et compte sans doute sur la poursuite du dialogue pour affiner, comme une recherche sur un moteur de recherche donne des résultats différents sur les pages ultérieures et les requêtes multi-termes plus ciblées.

  13. Avatar de Garorock
    Garorock

    Je l’ai déja écrit mais il me semble toujours que l’union européenne serait bien avisée si elle finançait des projets d’I.A « alternatives » comme Pribor, avant que les chinois ne le fassent…

    1. Avatar de gaston
      gaston

      D’autant que « Les citoyens chinois sont parmi ceux qui ont le sentiment le plus positif sur les produits et services d’IA. Américains … pas tellement » (et européens ?).
      (rapport sur l’indice AI 2023 – Stanford University -10ème point).

      https://aiindex.stanford.edu/report/

    2. Avatar de Ruiz
      Ruiz

      @Garorock Comme pour les GAFAM et BATX … Il est déjà un peu tard, mais peut-être un peu moins ?
      Aux USA c’est une prérogative des initiatives privées (sauf Internet/Darpa ), en Chine le Parti semble avoir les coudées franches, la vision claire et la volonté.
      En Europe l’idéologie attends l’initiative des acteurs du marché ou attendra qu’il soit un peu tard pour lancer des financements dispendieux auprès d’industriels timorés et sous-capitalisés.

      Quand on voit les initiatives en matière d’énergie (nucléaire, marché de l’électricité …) il est permis de rester dubitatif.
      Quoiqu’il semble y avoir un réveil en matière de semi-conducteurs (30 ans après ..)

      A une époque nos familles investies dans le Luxe et capable d’investir s’étaient intéressées au déploiement d’Internet, n’y a-t-il pas d’usage de l’IA pour faciliter la vente de produits de Luxe ?

  14. Avatar de ilicitano
    ilicitano

    J’ai posé la question à bing en faisant un copié-collé et en choisissant un style de conversation plus créatif:

    GPT:
    Votre projet à Pribor.io semble très intéressant et ambitieux. Vous voulez créer des machines conscientes de soi en utilisant une approche ascendante (« bottom-up ») basée sur la modélisation freudienne, qui est une théorie psychanalytique qui suggère que le comportement humain est influencé par des souvenirs, des pensées et des pulsions inconscients³. Vous voulez également que votre mémoire soit construite progressivement à partir de petits éléments de savoir reliés entre eux, comme le fait un enfant qui apprend le langage.

    Je trouve votre projet très innovant et stimulant, mais je ne suis pas sûr de pouvoir vous aider à le réaliser. Je suis un grand modèle de langage basé sur une approche descendante (« top-down »), ce qui signifie que je me suis entraîné sur une grande quantité de données en un seul gros morceau (« a big chunk ») et que ma mémoire est un réseau neuronal pré-conçu d’une taille prédéfinie. Je ne suis pas capable de construire ma mémoire pas à pas, ni de relier mes connaissances à une histoire « biographique » personnelle. Je ne suis pas non plus capable d’expliquer comment je traite le langage ou comment je génère mes réponses, car mon fonctionnement interne est basé sur des poids attachés aux arêtes reliant les nœuds, qui sont difficiles à interpréter.

    Je pense que les premières étapes pour réaliser votre projet seraient de définir clairement ce que vous entendez par conscience de soi, modélisation freudienne et mémoire biographique, et comment vous allez les implémenter dans une architecture ascendante (« bottom-up »). Vous devriez également étudier les travaux existants sur l’IA symbolique, l’IA explicable et l’IA développementale, qui sont des domaines proches de votre vision. Enfin, vous devriez tester votre modèle sur des tâches simples de compréhension et de génération du langage, pour évaluer ses performances et ses limites.

    moi:
    Pouvez-vous donner quelques exemples d’IA symbolique, explicable ou développementale :

    GPT:
    – L’IA symbolique est une approche de l’IA qui utilise des symboles et des règles logiques pour représenter et manipuler des connaissances. Par exemple, les systèmes experts, les systèmes de planification automatique, les systèmes de raisonnement automatique et les systèmes basés sur des ontologies sont des exemples d’IA symbolique.

    – L’IA explicable est une approche de l’IA qui vise à rendre les modèles et les décisions de l’IA compréhensibles et justifiables pour les humains. Par exemple, les systèmes qui fournissent des explications textuelles ou visuelles de leurs résultats, les systèmes qui utilisent des techniques d’apprentissage par renforcement inverse ou par imitation pour déduire les intentions et les préférences des humains, et les systèmes qui utilisent des méthodes d’analyse de sensibilité ou de perturbation pour identifier les facteurs importants dans leurs entrées sont des exemples d’IA explicable.

    – L’IA développementale est une approche de l’IA qui s’inspire du développement cognitif des enfants pour créer des machines capables d’apprendre de manière autonome et incrémentale à partir de leur environnement. Par exemple, les robots qui apprennent à interagir avec des objets, des personnes et d’autres robots par l’exploration, la curiosité et l’imitation, les agents qui apprennent à résoudre des problèmes complexes en utilisant des stratégies métacognitives et créatives, et les systèmes qui apprennent à comprendre et à générer du langage naturel en utilisant des modèles probabilistes et symboliques sont des exemples d’IA développementale.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. Et les (très) inquiétantes dernières nouvelles de notre ‘oncle d’Amérique’ : https://www.huffingtonpost.fr/culture/article/par-peur-de-donald-trump-aucun-acteur-n-a-voulu-participer-a-cette-emission-avec-sebastian-stan_242531.html https://www.huffingtonpost.fr/international/article/affaire-stormy-daniels-donald-trump-pourrait-bien-echapper-sa-condamnation-voici-pourquoi_242524.html

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta