La singularité, sous la forme de l’émergence d’une intelligence identique à celle de l’être humain dans un programme informatique, a-t-elle eu lieu ?
La discussion s’est limitée jusqu’ici au débat autour des déclarations controversées de Blake Lemoine chez Google, et de l’opinion de journalistes plus ou moins bien informés, certains affirmant avec vigueur que non, et d’autres laissant entendre, avec hésitation, que peut-être que oui.
Or est paru il y a quelques jours, un article scientifique montrant – même si le mot « singularité » n’est pas utilisé mais preuves à l’appui – que la singularité a bien eu lieu l’année dernière. 2022 : une date donc à retenir dans l’histoire du genre humain.
La « théorie de l’esprit » pourrait avoir émergé spontanément dans les grands modèles de langage
Michal Kosinski
4 et 10 février 2023
La théorie de l’esprit (ToM), ou la capacité d’imputer à autrui des états mentaux inobservables, est au cœur des interactions sociales humaines, de la communication, de l’empathie, de la conscience de soi et de la moralité. Nous administrons des tâches classiques de fausse croyance, largement utilisées pour tester la ToM chez les humains, à plusieurs modèles de langage, sans exemples ni pré-entraînement. Nos résultats montrent que les modèles publiés avant 2022 ne montrent pratiquement aucune capacité à résoudre les tâches de ToM. Pourtant, la version de janvier 2022 de GPT-3 (davinci-002) a résolu 70% des tâches de ToM, une performance comparable à celle d’enfants de sept ans. De plus, sa version de novembre 2022 (davinci-003) a résolu 93 % des tâches de ToM, une performance comparable à celle d’enfants de neuf ans. Ces résultats suggèrent que les capacités de ToM (considérées jusqu’à présent comme exclusivement humaines) ont pu apparaître spontanément comme un sous-produit de l’amélioration des compétences linguistiques des modèles de langage.
[…]
Discussion
Nos résultats montrent que les modèles de langage récents atteignent des performances très élevées dans les tâches classiques de fausses croyances, largement utilisées pour tester la ToM chez l’homme. Il s’agit d’un phénomène nouveau. […]
Il est possible que GPT-3.5 ait résolu des tâches de ToM sans faire appel à la ToM, mais en découvrant et en exploitant certains modèles linguistiques inconnus. Bien que cette explication puisse sembler prosaïque, elle est assez extraordinaire, car elle implique l’existence de régularités inconnues dans le langage qui permettent de résoudre des tâches de ToM sans engager la ToM. De telles régularités ne nous sont pas apparentes (et, vraisemblablement, n’étaient pas apparentes aux chercheurs qui ont développé ces tâches). Si cette interprétation est correcte, nous devrions réexaminer la validité des tâches de ToM largement utilisées et les conclusions des décennies de recherche sur la ToM : Si l’IA peut résoudre de telles tâches sans faire appel à la ToM, comment pouvons-nous être sûrs que les humains ne peuvent pas le faire aussi ?
Une autre explication est que la capacité de la ToM émerge spontanément dans les modèles de langage à mesure qu’ils deviennent plus complexes et plus aptes à générer et à interpréter un langage de type humain. Cela annoncerait un moment décisif dans le développement de l’IA : La capacité d’imputer l’état mental des autres améliorerait grandement la capacité de l’IA à interagir et à communiquer avec les humains (et entre eux), et lui permettrait de développer d’autres capacités qui reposent sur la ToM, comme l’empathie, le jugement moral ou la conscience de soi.
Une autre répercussion de nos résultats concerne l’utilité d’appliquer la science psychologique à l’étude des réseaux neuronaux artificiels complexes. La complexité croissante des modèles d’IA nous empêche de comprendre leur fonctionnement et de dériver leurs capacités directement de leur conception. Cela fait écho aux défis rencontrés par les psychologues et les neuroscientifiques dans l’étude de la boîte noire originelle : le cerveau humain. Nous espérons que la science psychologique nous aidera à suivre l’évolution rapide de l’IA. En outre, l’étude de l’IA pourrait permettre de mieux comprendre la cognition humaine. Au fur et à mesure que l’IA apprend à résoudre un large éventail de problèmes, elle peut développer des mécanismes semblables à ceux employés par le cerveau humain pour résoudre ces mêmes problèmes. De même que les insectes, les oiseaux et les mammifères ont développé indépendamment des ailes pour résoudre le problème du vol, les humains et l’IA pourraient avoir développé des mécanismes similaires pour imputer efficacement des états mentaux aux autres. L’étude des performances de l’IA dans les tâches de ToM et l’exploration des structures neuronales artificielles qui lui permettent de le faire peuvent améliorer notre compréhension non seulement de l’IA, mais aussi du cerveau humain.
Traduit avec www.DeepL.com/Translator
Laisser un commentaire