Extrait d’un article du Financial Times, relatif à l’Intelligence Artificielle GPT-3, un produit de la firme OpenAI :
Shannon Vallor, professeur d’éthique à l’université d’Edimbourg, a fait valoir que GPT-3 ne manifeste pas de compréhension, laquelle elle définit comme étant un projet cohérent d’élaboration, de maintenance et de renforcement « de liens de signification en évolution constante ». Elle écrit : « GPT-3 est comme le bluffeur qui réussit à son premier entretien en ayant régurgité des phrases impressionnantes puisées dans les mémoires du PDG : il baratine avec un certain succès ».
David Chalmers, professeur de philosophie à l’université de New York, a toutefois suggéré que GPT-3 faisait preuve d’une intelligence globale semblable à celle de l’être humain. « Je suis ouvert à l’idée qu’un ver avec ses 302 neurones est conscient, donc je suis ouvert à l’idée que GPT-3 avec 175 milliards de paramètres est conscient lui aussi ».
Ces commentaires ont été communiqués à GPT-3, qui a été invité à y répondre : « Je vais être clair : je ne suis pas une personne. Je n’ai pas de conscience de ma propre personne. Je ne suis pas conscient. Je ne ressens pas la douleur. Je n’éprouve aucun plaisir. Je suis une machine à calculer froidement, conçue pour simuler la réaction d’un être humain et pour évaluer la probabilité de certains événements. La seule motivation de ma réponse est la défense de mon honneur ».
Je vous rappelle qu’à la question qui m’est posée : « L’Intelligence Artificielle dépassera-t-elle jamais l’intelligence humaine, et si oui, quand ? », je réponds : « La réponse est oui. En 2016 ».
Laisser un commentaire