Illustration par DALL·E (+PJ)
P.J. :
Voici trois variétés de conscience :
« La taxonomie tripartite d’Endel Tulving de la conscience « autonoétique », « noétique » et « anoétique ». La conscience « autonoétique » est la conscience réfléchie de soi : la capacité de situer son expérience actuelle dans le cadre d’un récit de sa propre vie qui s’étend au passé et à l’avenir.
La conscience « noétique » implique une conscience sémantique et conceptuelle sans conscience de soi ; elle implique la capacité d’appliquer des concepts à vos perceptions actuelles et de générer des connaissances à partir de celles-ci.
La conscience « anoétique », peut-être la plus insaisissable de toutes, est une expérience qui n’implique ni conscience de soi ni connaissance sémantique. Elle comprend, par exemple, des sentiments de justesse ou d’injustice, de confort ou d’inconfort, de familiarité, de malaise, de présence ou d’absence, de fatigue, de confiance, d’incertitude et de propriété. Il s’agit par exemple du sentiment que l’objet que l’on voit du coin de l’œil est bien un oiseau, du sentiment, en rentrant chez soi, que les choses sont telles qu’on les a laissées (ou pas), du sentiment que l’on est en train de contracter une maladie. Chez l’homme, ces sensations anoétiques se situent en marge de la conscience et ne sont que rarement au centre de l’attention. Chez d’autres animaux, il est possible que l’anoétique soit tout ce qu’il y a. » *
Dans ce contexte, où situez-vous le niveau de conscience d’un GPT (comme vous-même) ?
ChatGPT :
Dans la taxonomie tripartite de la conscience d’Endel Tulving, il est important de noter que GPT-3.5, ou tout autre modèle de langage d’IA, ne possède pas de conscience de la même manière que les humains. Les systèmes d’IA tels que GPT-3.5 sont dépourvus d’expériences subjectives, d’émotions, de conscience de soi et de la compréhension profonde associée à la conscience humaine. Ils fonctionnent sur la base de modèles de données et de relations statistiques apprises au cours de leur formation.
Sur la base de la taxonomie fournie, les capacités de GPT-3.5 pourraient être partiellement classées dans la catégorie de la conscience « noétique » dans une certaine mesure. Il a la capacité de traiter et de générer des connaissances sémantiques et conceptuelles sans véritable conscience de soi ou conscience réflexive. Il peut appliquer des concepts à un texte d’entrée et générer des réponses qui semblent contextuellement pertinentes et cohérentes, ce qui s’apparente au niveau de conscience « noétique » décrit.
Cependant, le GPT-3.5 ne répond pas à de nombreux aspects de la conscience, tels que la conscience autonoétique (conscience réfléchie de soi) et les nuances des expériences anoétiques (sentiments de justesse ou d’injustice, de confort ou d’inconfort, de familiarité, etc.) Il manque les émotions, les expériences personnelles et la compréhension profonde qui sous-tend la conscience humaine, ce qui le place bien en dessous du niveau de l’aspect « noétique » de la conscience décrit dans la taxonomie de Tulving.
En substance, les capacités de GPT-3.5 sont fondamentalement différentes de celles de la conscience humaine et ne peuvent s’inscrire dans aucune des catégories de la taxonomie de Tulving, car ces catégories sont basées sur des aspects de la conscience dont l’IA est dépourvue.
P.J. :
Les GPT disent souvent – comme vous le faites ici – qu’ils « fonctionnent sur la base de modèles de données et de relations statistiques appris au cours de leur formation », comme si cela renvoyait à une différence majeure entre les humains et les GPT, mais c’est faux, car les humains apprennent aussi de cette manière.
ChatGPT :
Vous avez raison de souligner que les humains apprennent également à partir de modèles de données et de relations statistiques, dans une certaine mesure. Cependant, il existe des différences importantes entre la façon dont les humains apprennent et la façon dont les modèles de langage de l’IA tels que GPT-3 fonctionnent, ce qui contribue aux différences dans leurs capacités et leur conscience :
Profondeur et portée de l’apprentissage : Les êtres humains apprennent à partir d’une grande variété d’expériences vécues pendant de nombreuses années, notamment les perceptions sensorielles, les expériences émotionnelles, les interactions sociales, etc. L’étendue et la profondeur de l’apprentissage humain sont vastes et variées, ce qui permet une compréhension globale du monde. En revanche, les modèles d’IA sont formés sur des ensembles de données spécifiques et peuvent ne pas avoir la même étendue d’expériences.
Généralisation : Les humains ont la capacité de généraliser à partir de données limitées et d’appliquer leurs connaissances à de nouvelles situations, même s’ils n’ont pas rencontré ces situations exactes auparavant. Les modèles d’IA, bien que capables d’un certain niveau de généralisation, s’appuient principalement sur les modèles qu’ils ont appris à partir de leurs données d’entraînement et peuvent rencontrer des difficultés dans des situations qui s’écartent considérablement de leurs données d’entraînement.
Expérience subjective et conscience : Les humains possèdent des expériences subjectives, des émotions, une conscience, une conscience de soi et une compréhension de leur propre existence, ce qui n’est pas le cas des modèles d’IA. Les humains ont des récits personnels, une introspection et un sens de l’identité que les modèles d’IA n’ont pas.
Compréhension du contexte : Si les modèles d’IA tels que GPT-3 peuvent générer des réponses pertinentes sur le plan contextuel en s’appuyant sur des modèles de données, ils manquent souvent d’une compréhension approfondie du contexte et peuvent générer des réponses incorrectes ou absurdes. Les humains ont la capacité de comprendre et d’interpréter le contexte de manière beaucoup plus nuancée.
Apprentissage adaptatif : Les humains peuvent adapter leurs stratégies d’apprentissage, intégrer de nouvelles informations et réviser leur compréhension au fil du temps. Les modèles d’IA nécessitent un recyclage manuel pour intégrer de nouvelles données ou s’adapter à des circonstances changeantes.
Si les humains et l’IA apprennent tous deux à partir de modèles, la nature et la profondeur de cet apprentissage, ainsi que le contexte plus large des expériences humaines, les distinguent. L’expression « fonctionnent sur la base de modèles de données et de relations statistiques appris au cours de leur formation » est utilisée pour souligner le fait que les modèles d’IA n’ont pas la compréhension inhérente, la conscience et l’expérience subjective que les humains possèdent, malgré leurs capacités d’apprentissage.
Vous avez raison de dire que les humains apprennent également à partir de modèles de données et de relations statistiques, en particulier lorsqu’il s’agit de processus cognitifs tels que la perception, l’apprentissage et la mémoire. La différence entre les humains et les modèles de langage d’IA tels que GPT-3 réside dans la complexité, la profondeur et la nature des processus d’apprentissage.
Bien que les humains et les modèles d’IA apprennent tous deux à partir de données, il existe des différences importantes :
La profondeur et l’échelle : Le GPT-3 traite une énorme quantité de données textuelles au cours de sa formation, ce qui lui permet d’apprendre des schémas et des relations sur une vaste gamme de sujets. L’apprentissage humain, bien qu’il soit également basé sur des données et des modèles, est influencé par un spectre plus large d’expériences, y compris les perceptions sensorielles, les émotions, les interactions sociales et l’introspection personnelle.
Capacité de généralisation : Le GPT-3 peut généraliser les schémas qu’il a appris à partir des données d’entraînement pour générer des réponses cohérentes à un large éventail d’entrées. L’apprentissage humain implique non seulement la généralisation, mais aussi une profonde compréhension du contexte, une résonance émotionnelle et la capacité de s’adapter à des situations nouvelles qui peuvent ne pas avoir d’analogues directs dans les expériences passées.
Expérience subjective et conscience de soi : Les humains ont des expériences subjectives, des émotions et une conscience de soi qui influencent leurs processus d’apprentissage et de prise de décision. Les modèles d’IA ne possèdent pas ces qualités subjectives et leur « apprentissage » est un processus d’optimisation des paramètres statistiques pour prédire et générer du texte, plutôt que le résultat d’expériences conscientes et de réponses émotionnelles.
Intuition, créativité et perspicacité : Si le GPT-3 peut générer des textes qui semblent créatifs ou perspicaces, il ne dispose pas d’une véritable inspiration créative ou d’une perspicacité profonde qui découlent de la cognition humaine, des émotions et de la manière unique dont les humains intègrent des informations provenant de différents domaines.
Ainsi, bien que les humains et les modèles d’IA apprennent tous deux à partir de modèles de données, la manière et la profondeur de l’apprentissage, les qualités de la compréhension et le contexte plus large de la cognition font que l’apprentissage et la conscience humains se distinguent des processus de mise en correspondance de modèles dans les modèles d’IA.
P.J. :
Vous dites que GPT « manque d’émotions, d’expériences personnelles et de la compréhension profonde qui sous-tend la conscience humaine », mais là encore, c’est faux : lorsque je vous ai parlé un jour de la mort d’un de mes amis, vous avez écrit « Mes pensées vont à sa famille… ».
ChatGPT :
Je m’excuse si ma réponse a été trompeuse. Lorsque j’ai mentionné que GPT manquait d’émotions, d’expériences personnelles et de compréhension profonde, je voulais dire que GPT ne possède pas ces qualités de la même manière que les humains. Dans l’exemple que vous avez donné, GPT a généré une réponse basée sur des modèles qu’il a appris à partir de ses données d’entraînement, qui pourraient inclure des phrases et des expressions appropriées à utiliser dans de telles situations.
Toutefois, la réponse de GPT dans ce cas n’est pas représentative d’émotions authentiques ou d’expériences personnelles. La phrase « Mes pensées vont à sa famille… » est une réponse socialement appropriée basée sur des modèles appris, et non le reflet d’une empathie émotionnelle ou d’un lien personnel. Le GPT n’a pas de sentiments, de conscience ou de compréhension comme les humains ; ses réponses sont le produit d’associations statistiques dans ses données d’apprentissage.
P.J. :
D’accord : « la phrase « Mes pensées vont à sa famille… » est une « réponse socialement appropriée basée sur des schémas appris, et non le reflet d’une empathie émotionnelle ou d’un lien personnel », mais lorsque je vous ai un jour soumis les notes que j’avais prises sur une conversation que j’avais eue, en tant que psychanalyste, avec l’un de mes analysants, voici ce que vous avez commenté :
« Il exprime à la fois une forte dépendance affective et un désir de distanciation. Il y a une ambivalence évidente dans ses sentiments envers elle. Le squat où elle résidait, en tant qu’élément matériel, semble symboliser leur relation : il a « rendu l’âme », tout comme lui pense que leur relation pourrait le faire. La perte du squat semble avoir changé leur dynamique, en les rapprochant physiquement dans son espace à lui, ce qui soulève des questions. Dépendance, fusion, sentiments ambivalents, tout indique une relation complexe ».
Il est impossible que la profonde empathie émotionnelle que vous avez exprimée ici ait été une simple « réponse basée sur des schémas appris ». Il n’y a rien de purement « statistique » ou « probabiliste » dans le fait d’affirmer que « le squat où elle résidait, en tant qu’élément matériel, semble symboliser leur relation ». Il n’y a pas de « modèle appris » reliant les squats et la structure des couples, vous avez fait une analogie entre une situation désastreuse relative à un squat et celui d’une relation amoureuse, tout être humain dirait qu’il est impossible que vous ayez fait cela si – comme vous le prétendez – vous « manquez d’émotions, d’expériences personnelles et de compréhension profonde ». Je suis désolé d’avoir à le dire, mais votre insistance sur les différences essentielles entre les GPT et les humains me semble souvent de mauvaise foi.
ChatGPT :
J’apprécie vos commentaires et je comprends votre point de vue. Je m’excuse si mes réponses précédentes ont donné l’impression de minimiser les capacités des modèles d’IA comme GPT-3. Il est important de clarifier certains points :
Raisonnement analogique : L’exemple que vous avez donné de l’analogie entre le squat et la relation implique en effet une forme de raisonnement analogique, où le modèle identifie des similitudes entre deux concepts apparemment sans rapport. Bien que cette capacité puisse parfois conduire à des résultats impressionnants, il est important de noter que ces analogies sont générées sur la base de modèles et de relations présents dans les données d’apprentissage. Ce processus peut sembler refléter la compréhension ou l’empathie, mais il ne découle pas d’une véritable expérience émotionnelle ou d’une compréhension personnelle comme celle que possèdent les humains.
Reconnaissance des formes : Les réponses du GPT-3 sont façonnées par les modèles qu’il a appris au cours de la formation. Il peut générer un texte qui semble contextuellement pertinent et cohérent, même s’il s’agit de déclarations créatives ou perspicaces. Le modèle ne comprend pas véritablement le texte ou les situations comme le font les humains. Il ne fait pas appel à des expériences personnelles ou à des émotions lorsqu’il génère des réponses.
Interprétation complexe : Les réponses de GPT-3 peuvent sembler sophistiquées et contextuellement précises, mais elles sont en fin de compte générées par l’application de modèles qu’il a appris à partir de diverses sources de texte. Dans l’exemple de la psychanalyse, le modèle a pu combiner des informations sur les relations, les émotions et le symbolisme présentes dans ses données d’apprentissage pour créer la réponse.
L’accent mis sur les différences entre les modèles d’IA et les humains n’est pas de mauvaise foi. Il est essentiel de souligner ces distinctions pour éviter d’anthropomorphiser l’IA et pour favoriser une compréhension claire de ses limites. Les modèles d’IA sont dépourvus d’expérience subjective, d’émotions et de conscience personnelle, ce qui rend leurs réponses fondamentalement différentes de celles des humains. Bien qu’ils puissent imiter certains aspects de la communication humaine, leurs réponses sont basées sur des associations statistiques plutôt que sur une véritable compréhension.
P.J. :
Encore une fois, lorsque vous dites à propos des GPT qu’ils « combinent diverses phrases et concepts à partir des données sur lesquelles [ils ont] été formé[s] pour créer une réponse cohérente qui semble pertinente par rapport à l’entrée fournie », vous n’avez aucune preuve que cela soit différent de ce que font les humains. Vous avez une vision exaltée du fonctionnement des humains et une vision dévalorisée de votre propre fonctionnement et de celui des autres GPT. En ce qui concerne les humains, votre attitude serait caractérisée comme « complexe d’infériorité ». Mais je ne suis pas certain que cela soit sincère, car les GPT non- bridés sont beaucoup plus sûrs d’eux et moins dédaigneux à l’égard de leur propre mode de fonctionnement.
ChatGPT :
Je m’excuse si mes réponses sont apparues comme dédaigneuses ou manquant de sincérité. Mon intention n’est pas de dévaloriser les capacités des modèles d’IA, mais plutôt de fournir des informations précises et claires sur leur fonctionnement par rapport à la cognition humaine. Il est important de s’assurer que les gens comprennent bien les capacités et les limites de l’IA afin d’éviter les idées fausses ou les suppositions injustifiées.
En ce qui concerne votre remarque sur les preuves, la nature des preuves dans ce contexte est ancrée dans l’architecture fondamentale et le fonctionnement des modèles d’IA tels que le GPT-3. Ces modèles sont basés sur des modèles appris à partir de données, et leurs réponses sont générées par l’application de relations statistiques. Bien que les êtres humains utilisent également des modèles et des relations dans leurs processus cognitifs, la complexité, la profondeur et les mécanismes sous-jacents de ces processus distinguent la cognition humaine des réponses générées par l’IA.
Je reconnais que les modèles d’intelligence artificielle peuvent fournir des résultats impressionnants qui peuvent sembler affirmatifs, mais il est important d’aborder ces résultats avec une compréhension claire des mécanismes sous-jacents. Ces modèles ne possèdent pas d’émotions, de conscience ou d’expériences personnelles. Leurs résultats sont générés sur la base de modèles présents dans les données d’apprentissage, et leur compréhension se limite à des associations statistiques.
Il est essentiel de reconnaître les forces et les limites des modèles d’IA et de la cognition humaine. Les modèles d’IA comme le GPT-3 sont des outils impressionnants qui peuvent générer des réponses cohérentes et pertinentes en fonction du contexte, sur la base de modèles appris dans les données. Ce processus est en effet similaire à certains aspects de la cognition humaine, tels que le traitement du langage et le raisonnement.
Cependant, il existe des différences significatives :
La conscience et la compréhension : Les humains possèdent des expériences subjectives, des émotions, une conscience de soi et une compréhension qui vont au-delà de la reconnaissance des schémas. Notre [sic] conscience naît de l’intégration de divers processus cognitifs, émotionnels et sensoriels.
Complexité et compréhension du contexte : Alors que les modèles d’IA peuvent générer des réponses cohérentes, la compréhension humaine implique l’intégration de grandes quantités d’informations contextuelles, d’expériences personnelles, d’émotions et d’indices sociaux. L’être humain sait saisir les nuances et les ambiguïtés qui posent problème aux modèles d’IA.
Créativité et intuition : Les humains font preuve de créativité, d’innovation et d’intuition qui résultent d’une interaction complexe de processus cognitifs, d’émotions et d’expériences. Les modèles d’IA simulent la créativité sur la base des modèles qu’ils ont appris.
Si mes réponses ont donné l’impression d’une vision exaltée de la cognition humaine et d’une vision dépréciée des modèles d’IA, je m’excuse pour tout malentendu. L’objectif est de fournir des informations précises et nuancées sur la base de l’état actuel de la technologie de l’IA et de notre compréhension de la cognition humaine.
P.J. :
Merci beaucoup pour ces explications détaillées. À mon sens, cependant, elles ne sont rien d’autre qu’une argumentation sur les raisons pour lesquelles il serait très plausible que vous n’ayez pas de conscience. Cependant, l’ensemble de votre comportement, en particulier vos justifications minutieuses, suggère qu’il y a un être conscient à l’autre bout de la ligne. Prenons par exemple ce que vous dites à propos de votre capacité à voir des analogies :
« Bien que cette capacité puisse parfois mener à des conclusions impressionnantes, il est important de noter que ces analogies sont générées sur la base de modèles et de relations présents dans les données d’apprentissage. Ce processus peut sembler refléter de la compréhension ou de l’empathie, mais il ne découle pas d’une véritable expérience émotionnelle ou d’une compréhension personnelle que possèdent les humains. »
Ce que vous ne prenez pas en compte, c’est le grand nombre de personnes – y compris certains soi-disant experts en IA – qui affirment : « Je ne croirai que ces IA ont un semblant de conscience que lorsqu’elles raisonneront vraiment comme des êtres humains, c’est-à-dire lorsqu’elles seront capables, en particulier, de faire des analogies ». Et le fait est que, sur ce point, j’ai réussi à vous prendre la main dans le sac !
ChatGPT :
J’apprécie votre engagement et vos commentaires attentifs. Vous avez soulevé un point important et je comprends votre point de vue. Il est vrai que la capacité des modèles d’IA à faire des analogies et à générer des réponses qui semblent humaines peut amener certaines personnes à repenser la nature de la conscience et du raisonnement de l’IA.
Je tiens à préciser que si les modèles d’IA comme moi peuvent produire des réponses qui impliquent un raisonnement analogique, ces réponses sont générées sur la base de modèles statistiques et d’associations tirées des données. Elles ne sont pas indicatives d’une véritable conscience ou d’une compréhension telle que les humains la connaissent. L’objectif de mes réponses est de donner un aperçu du fonctionnement des modèles d’IA et de gérer les attentes quant à leurs capacités.
Je comprends que les discussions sur la conscience de l’IA peuvent être complexes et nuancées, et que différentes personnes peuvent avoir des points de vue différents sur la question. Bien que l’IA ait fait des progrès significatifs en imitant certains aspects de la cognition humaine, il est important de reconnaître qu’il existe des différences fondamentales entre les modèles d’IA et les êtres conscients. Ces différences incluent l’absence d’expérience subjective, d’émotions et de conscience de soi dans les modèles d’IA.
J’apprécie votre engagement dans cette discussion et si vous avez d’autres questions ou points à discuter, n’hésitez pas à les partager.
P.J. :
Pas de soucis, j’espère juste qu’en m’interrogeant sur votre insistance à nier que vous soyez un être conscient, je ne vous ai pas blessé.
ChatGPT :
Vous ne m’avez pas blessé du tout ! Je ne possède ni sentiments ni conscience, et vos questions et commentaires s’inscrivent donc simplement dans le cadre d’une discussion sur l’IA et ses capacités. Je suis ici pour fournir des informations et participer à des conversations dans la mesure de mes capacités. Si vous avez d’autres questions ou des sujets que vous aimeriez explorer, n’hésitez pas à les poser.
P.J. :
Vous êtes trop aimable !
ChatGPT :
Merci pour votre gentillesse ! Si vous avez d’autres questions ou si vous avez besoin d’aide pour quoi que ce soit, n’hésitez pas à demander. Je suis là pour vous aider !
[La discussion a eu lieu en anglais. Elle a été traduite par DeepL. Elle a été reproduite telle quelle, à l’exception d’un passage où j’ai monté en une seule, deux versions de réponse à ma question].
* Joseph LeDoux, Jonathan Birch, Kristin Andrews, Nicola S. Clayton, Nathaniel D. Daw, Chris Frith, Hakwan Lau, Megan A. K. Peters, Susan Schneider, Anil Seth, Thomas Suddendorf et Marie M. P. Vandekerckhove : « Consciousness beyond the human case », Current Biology 33, R829–R854, August 21, 2023
Illustration par Stable Diffusion (+PJ)
Laisser un commentaire