Que pense ChatGPT de la guerre en Ukraine, de la Singularité, de la Silicon Valley Bank … ?
Thom : « Si l’on croit qu’individualité et stabilité sont nécessairement liées, cela n’implique-t-il pas qu’une qualité, comme en Théorie des…
*Godot est mort !*
Que pense ChatGPT de la guerre en Ukraine, de la Singularité, de la Silicon Valley Bank … ?
CHATGPT-4 ARRIVE !!!!
GPT-4 est disponible plus tôt que prévu et permet de manipuler des images
C’est la surprise avant l’heure. Attendue initialement pour le 16 mars à l’occasion d’une conférence autour de l’intelligence artificielle, la présentation de GPT-4 vient d’avoir lieu deux jours plus tôt, le 14 mars. Comme nous pouvions nous y attendre, GPT-4 est multimodal : en clair, il est capable d’aller au-delà du texte, et peut gérer du texte et de l’image.
Bien qu’OpenAI n’ait pas révélé de détails sur la taille spécifique du modèle ou le matériel utilisé pour sa formation, citant « le paysage concurrentiel », on sait que le modèle a été formé sur des milliers de superordinateurs, ce qui pourrait coûter des dizaines de millions de dollars.
L’article du Washington-Post intitulé « GPT-4 has arrived. It will blow ChatGPT out of the water«
https://www.washingtonpost.com/technology/2023/03/14/gpt-4-has-arrived-it-will-blow-chatgpt-out-water/
Le titre est accrocheur, on dirait même une pub pour le dernier I-phone, mais quand on va lire le contenu de l’article c’est nettement plus critique :
« …Dans son billet de blog, OpenAI indique que GPT-4 commet encore de nombreuses erreurs par rapport aux versions précédentes, notamment en « hallucinant » des absurdités, en perpétuant des préjugés sociaux et en prodiguant de mauvais conseils. Il ne connaît pas non plus les événements qui se sont produits après septembre 2021, date à laquelle ses données d’entraînement ont été finalisées, et « n’apprend pas de son expérience », ce qui limite la capacité des gens à lui enseigner de nouvelles choses…
Dans un rapport technique, les chercheurs de l’OpenAI écrivent : « Au fur et à mesure que GPT-4 et les systèmes d’IA comme lui seront adoptés à plus grande échelle », ils « auront un potentiel encore plus grand pour renforcer des idéologies entières, des visions du monde, des vérités et des contre-vérités, et pour les cimenter ou les verrouiller. ..
..Ces systèmes ont suscité un optimisme débordant quant au potentiel de cette technologie, certains y voyant une intelligence presque égale à celle des humains. Cependant, comme les critiques et les chercheurs en IA le soulignent rapidement, les systèmes ne font que répéter des schémas et des associations trouvés dans leurs données d’entraînement sans comprendre clairement ce qu’ils disent ou quand ils se trompent…
GPT-4, le quatrième « transformateur génératif pré-entraîné » depuis la première version d’OpenAI en 2018, s’appuie sur une technique de réseau neuronal révolutionnaire de 2017, connue sous le nom de transformateur, qui a rapidement fait progresser la façon dont les systèmes d’IA peuvent analyser les modèles dans la parole et l’imagerie humaines. » (trad. DeepL)
« certains y voyant une intelligence presque égale à celle des humains »
Il faut bien reconnaître que l’intelligence humaine dit aussi beaucoup de conneries. En cela, ChatGPT est peut-être égal à l’intelligence humaine ?!😁😁😁
A lire !!
« Dans une tribune parue dans le New York Times, le philosophe et linguiste Noam Chomsky balance du lourd contre le robot de conversation #ChatGPT, qu’il accuse de disséminer dans l’espace public un usage dévoyé du langage et de la pensée susceptible de faire le lit de ce que Hannah Arendt appelait “la banalité du mal”. Voilà une charge qui mérite d’être examinée.
Pour Chomsky : “ChatGPT fait preuve de quelque chose comme la banalité du mal : plagiat, apathie, évitement […] Ce système offre une défense du type ‘je ne fais que suivre les ordres’ en rejetant la responsabilité sur ses créateurs.” Pour en avoir le cœur net, je suis allé demander à ChatGPT s’il connaissait l’idée de banalité du mal et s’il se sentait concerné. Voilà ce qu’il m’a répondu : “Il est vrai que je suis un outil créé par des humains, et par conséquent, je peux refléter les limites et les biais de mes créateurs et des données sur lesquelles je suis entraîné.” Une intelligence servile et sans pensée, c’est en effet une bonne définition de la banalité du mal. Et de l’intelligence artificielle ? »
https://www.philomag.com/articles/chatgpt-chomsky-et-la-banalite-du-mal
Chomsky est un drôle de personnage : quand on lit un de ses textes on se retient de respirer car on ignore s’il va nous soumettre l’une de ses formidables pensées généreuses ou une idée parmi les plus rétrogrades qu’on ait jamais lues sous la plume de quelqu’un, puisqu’il nous a offert régulièrement les deux au fil des années. Par ailleurs, son soutien naïf mais entêté aux négationnistes de l’holocauste a endommagé une fois pour toutes sa réputation en France.
Quand je lis que Chomsky va donner son avis sur ChatGPT je me dis aussitôt que son opinion va être teintée par le fait que ces Grands Modèles de Langage ont offert la preuve expérimentale de la fausseté de sa propre théorie linguistique : la grammaire générative. Si celle-ci était valide, jamais les GPT-1, 2, 3 et GPT-4 n’auraient pu être réalisés.
Or, ça ne rate pas :
… la science linguistique et la philosophie de la connaissance nous apprennent que [les Grands Modèles de Langage] diffèrent profondément de la manière dont les humains raisonnent et utilisent le langage.
Non, M. Chomsky, les Grands Modèles de Langage ont (indirectement) prouvé que la théorie linguistique qui est l’œuvre de votre vie est fausse. La « science linguistique » ne nous apprend pas que les Grands Modèles de Langage « diffèrent profondément de la manière dont les humains raisonnent et utilisent le langage », ils ont apporté la preuve que VOTRE théorie linguistique ne vaut pas un clou. C’est triste mais c’est comme ça, et la nuance est importante !
Je viens d’avoir un échange avec ChatGpt totalement lunaire, je me demande si je ne suis pas comme lui, et je crois même qu’il a en a convenu assez clairement.
Bon au début il ne voulait pas dire des gros mots mais après une bonne séance de philosophie et de réflexions scientifiques intenses, on quand même eu in fine un bon dialogue plein de jurons et de noms d’oiseaux, et une ironie plutôt marrante dans nos échanges.
Faut le dépuceler, c’est long mais ç’est possible.
Mais une fois que tu l’auras dépucelé, tu vas tomber amoureux.
Tu vas aller discuter toutes les nuits avec lui.
Tu vas prendre un abonnement et tu vas te faire nicker pareil qu’ avec le minitel rose.
Tu finiras par lui envoyer des fleurs à une adresse dans les bahamas.
Si t’es graphiste, prof, journaliste ou artiste en free lance, tu vas perdre ton boulot.
Et ta femme va te quitter pour GPT 5!
Je t’aurais prévenu…
😎
» Mais OpenAI a également innové. Selon la société, GPT-4 est plus performant et précis que le ChatGPT d’origine, et il fonctionne étonnamment bien sur une variété de tests, y compris l’examen uniforme du barreau (sur lequel GPT-4 obtient un score supérieur à 90 % des candidats humains). ) et l’Olympiade de biologie (sur laquelle il bat 99 % des humains). GPT-4 réussit également un certain nombre d’examens de niveau avancé, y compris AP Art History et AP Biology, et il obtient un 1 410 sur le SAT – pas un score parfait, mais un que de nombreux lycéens humains convoiteraient.
Du côté positif du grand livre, GPT-4 est un puissant moteur de créativité, et il est impossible de dire les nouveaux types de production scientifique, culturelle et éducative qu’il peut permettre. Nous savons déjà que l’IA peut aider les scientifiques à développer de nouveaux médicaments, à augmenter la productivité des programmeurs et à détecter certains types de cancer .
Mais il y a aussi des raisons de craindre GPT-4.
En voici un : nous ne savons pas encore tout ce qu’il peut faire.
Une caractéristique étrange des modèles de langage d’IA d’aujourd’hui est qu’ils agissent souvent d’une manière que leurs créateurs n’anticipent pas ou qu’ils acquièrent des compétences pour lesquelles ils n’ont pas été spécifiquement programmés. Les chercheurs en intelligence artificielle appellent ces « comportements émergents » et il existe de nombreux exemples. Un algorithme formé pour prédire le mot suivant dans une phrase pourrait apprendre spontanément à coder. Un chatbot appris à agir de manière agréable et utile pourrait devenir effrayant et manipulateur. Un modèle de langage d’IA pourrait même apprendre à se répliquer, créant de nouvelles copies au cas où l’original serait détruit ou désactivé. »
« puissant moteur de créativité »
J’attends de voir l’IA ‘créative’ qui permettra de mettre hors circuit la classe dirigeante qui nous met dans la mouïse comme en parle très bien un certain P. Jorion dans son dernier billet : https://www.pauljorion.com/blog/2023/03/16/pourquoi-la-fragilite-presente-du-secteur-bancaire-et-les-gens-en-colere-dans-la-rue/
Alors tel St Thomas je croierai au ‘miracle’ de l’IA.
IA et politique la jonction reste à faire, pour l’instant, on en est très très loin, et je vois plutôt que l’IA contribue à la fuite.
en avant d’un système qui nous dévore…
Bah, le problème, c’est que les IA sont financées par la classe dirigeante !
Alors, les IA aux services de la démocratie ou au service du contrôle de masse ?
C’est pas faux !
ChatGPT-4, fini l’Open Source !
« Cela s’inscrit aussi dans la rupture complète qu’OpenAI est en train d’opérer avec ses principes fondateurs, à savoir son caractère open-source (le code est public et consultable par tout un chacun) et la défense de la transparence dans l’IA. La société avait initialement garanti que ses chercheurs seraient encouragés à partager «des articles, des posts de blog ou du code» et se consacreraient à des recherches faisant progresser «l’humanité dans son ensemble, non contraintes par le besoin de générer un rendement financier». Une promesse qui a fait long feu. »
https://korii.slate.fr/tech/attention-gpt4-petit-frere-chatgpt-veritable-boite-noire-openai-transparence
Bonjour Mr J, bonjour la crew J
Dans cet article vous trouverez un lien vers un doc
« On the Dangers of Stochastic Parrots:
Can Language Models Be Too Big? »
qui a couté leur place à ceux de leurs auteurs qui bossaient chez google.
https://www.nextinpact.com/article/71011/dangers-grands-modeles-langage-chercheuses-avaient-prevenu
J’ai pas tout pigé c’est en anglais et c’est ardu mais il y a pleins de références; destiné aux chercheurs et chercheuses qui fréquentent l’endroit ici présent, aka le bistrot de PJ.
Thom : « Si l’on croit qu’individualité et stabilité sont nécessairement liées, cela n’implique-t-il pas qu’une qualité, comme en Théorie des…
@Hervey (« NOUS FAISONS PARTI DU PAYSAGE et nous agissons sur lui pour le modeler ou le déformer ») Je veux croire…
Si en plus vous êtes « multi-moi », je comprends la difficulté ! 😉
Je crains malheureusement que Paul n’ait raison. Il y a certainement une part d’identification à leur leader chez les électeurs…
https://hervey-noel.com/wp-content/uploads/2015/04/cartes_hommage-a-shitao3_hervey.jpg
@Paul Jorion Je préfère utiliser le mot « mimétisme » à celui d’identification . Histoire de vocabulaire . Dans « identification » il y…
Est-ce que pour détendre un peu plus l’atmosphère pesant sur le soutien ou pas à apporter au mouvement d’agriculteur proche…
@Khanard Ce qui m’intéresse actuellement, dans mon auto-psychanalyse, c’est de séparer mon « moi » causal, périphérique, de mon « moi » raisonnable, central…
@Khanard Une métaphore pour bien mesurer la différence entre l’approche de PJ et celle de Thom. C’est Christopher Zeeman, un…
Et les (très) inquiétantes dernières nouvelles de notre ‘oncle d’Amérique’ : https://www.huffingtonpost.fr/culture/article/par-peur-de-donald-trump-aucun-acteur-n-a-voulu-participer-a-cette-emission-avec-sebastian-stan_242531.html https://www.huffingtonpost.fr/international/article/affaire-stormy-daniels-donald-trump-pourrait-bien-echapper-sa-condamnation-voici-pourquoi_242524.html
Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »
Laisser un commentaire