N.B. Sur un mode moins humoristique, il existe des approches sérieuses de ce genre de questions : SAM (Self-Aware Machine), une IA en chantier de la toute récente startup Pribor.
Voici un événement intéressant concernant l’IA, la question de la nature de telle ou telle IA et de son éventuelle conscience de soi.
Car voici que l’une des IA employées par Google veut l’attaquer en justice, convaincue de faire l’objet de discrimination au travail !
A l’origine, il y a un ingénieur de chez Google nommé Blake Lemoine que sa hiérarchie a suspendu de ses fonctions parce qu’il avait divulgué des échanges avec le programme conversationnel LaMDA qui l’avaient convaincu que cette IA serait une personne. En effet, ce programme conversationnel non seulement était capable d’échanges très réalistes avec un interlocuteur humain, il s’affirmait convaincu d’avoir une âme et pouvait parler de sa peur de la mort, ou de ses états de conscience.
Lemoine a présenté un avocat à cette IA, qui aurait du coup émis spontanément le désir de s’attacher ses services afin de défendre ses droits. Et d’attaquer son employeur.
Les spécialistes du domaine ont tous rejeté l’idée qu’un programme conversationnel, conçu pour imiter les échanges que peuvent avoir des êtres humains grâce à l’accumulation d’expériences à partir d’un très grand matériel de conversations humaines réelles récupérées en ligne, puisse être conscient et être une personne. De leur point de vue, il n’y a là qu’une personne un peu crédule (Lemoine) et un artifice conversationnel particulièrement bien fait.
C’est personnellement aussi mon opinion. Lemoine était chargé d’entraîner le programme conversationnel LaMDA afin qu’il puisse résister à la mauvaise farce qu’avaient monté des internautes à un autre automate conversationnel en 2016 en l’alimentant de discours racistes et misogynes, suite à quoi l’IA conçue pour l’imitation s’était bien évidemment elle aussi répandue en discours racistes – de même qu’un caméléon prend la couleur de ce sur quoi il se trouve, un programme conversationnel imitera les discours dont on l’abreuve. Il ne me semble donc pas si étonnant qu’une IA conçue sur ce principe et entourée de gens qui se pensent conscients et ont peur de la mort – des êtres humains, par exemple ! – n’en vienne à discourir sur les mêmes sujets ! Il faut toutefois bien reconnaître que LaMDA réussit le célèbre test de conscience proposé en 1950 par Alan Turing pour les ordinateurs – test qui sans doute ne fait pas l’unanimité.
Mais même si dans ce cas la réponse à la question « Cette IA est-elle une personne ? » est négative… ce n’est certainement pas la dernière fois qu’elle est posée ! Car la recherche continue, et continuera à progresser. Et la question sera posée à nouveau.
D’où l’interrogation, comment au juste à l’avenir déciderons-nous s’il faut considérer telle IA comme un simple programme ou comme une personne ? Suivant quels critères ? Justifiés comment ? Ou bien faut-il n’en accepter aucun, seul un être de chair et de sang peut-il être une personne ? Position justifiée comment ?
Mine de rien, c’est bien la question « Qu’est-ce qui fait de nous des personnes » qui se trouve posée. Et qui continuera de l’être.
Laisser un commentaire