Il s’avère que la déclaration comportait de fausses signatures et certains chercheurs ont condamné l’utilisation de leurs travaux.
Une lettre cosignée par Elon Musk et des milliers d’autres personnes demandant une pause dans la recherche sur l’intelligence artificielle a déclenché une tornade lorsque des chercheurs cités dans la lettre ont condamné l’utilisation de leurs travaux, que certains signataires se sont révélés être de fausses signatures et que d’autres sont revenus sur leur soutien.
Le 22 mars, plus de 1.800 signataires – dont M. Musk, le spécialiste des sciences cognitives Gary Marcus et le cofondateur d’Apple Steve Wozniak – ont demandé une pause de six mois dans le développement de systèmes « plus puissants » que le GPT-4. Des ingénieurs d’Amazon, de DeepMind, de Google, de Meta et de Microsoft ont également apporté leur soutien.
Développé par OpenAI, une société cofondée par Musk et désormais soutenue par Microsoft, GPT-4 a développé la capacité de tenir une conversation semblable à celle d’un humain, de composer des chansons et de résumer de longs documents. De tels systèmes d’IA dotés d’une « intelligence rivalisant avec celle de l’homme » représentent un risque profond pour l’humanité, affirme la lettre.
« Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement de l’IA avancée, qui soient rigoureusement vérifiés et supervisés par des experts externes indépendants », indique la lettre.
L’institut Future of Life, le groupe de réflexion qui a coordonné l’initiative, a cité 12 études réalisées par des experts, dont des universitaires et des employés actuels et anciens d’OpenAI, de Google et de sa filiale DeepMind. Cependant, quatre experts cités dans la lettre ont exprimé leur inquiétude quant à l’utilisation de leurs recherches pour formuler de telles affirmations.
Lors de son lancement initial, la lettre ne comportait pas de protocole de vérification des signatures et a recueilli des signatures de personnes qui ne l’avaient pas réellement signée, notamment Xi Jinping et Yann LeCun, le scientifique en chef de Meta spécialisé dans l’IA, qui a précisé sur Twitter qu’il ne la soutenait pas.
Les critiques ont accusé le Future of Life Institute (FLI), qui est principalement financé par la Fondation Musk, de donner la priorité à des scénarios apocalyptiques imaginaires plutôt qu’à des préoccupations plus immédiates concernant l’IA, telles que les préjugés racistes ou sexistes programmés dans les machines.
Parmi les recherches citées figure « On the Dangers of Stochastic Parrots », un document bien connu coécrit par Margaret Mitchell, qui a précédemment supervisé la recherche éthique sur l’IA chez Google. Mme Mitchell, aujourd’hui responsable de la recherche éthique au sein de la société d’IA Hugging Face, a critiqué la lettre, déclarant à Reuters qu’il n’était pas évident de déterminer ce qui est vu comme « plus puissant que le GPT4 ».
« En considérant un grand nombre d’idées douteuses comme acquises, la lettre affirme un ensemble de priorités et un discours sur l’IA qui profite aux partisans du Future of Life Institute », a-t-elle déclaré. « Ignorer les effets néfastes actuels est un privilège que certains d’entre nous n’ont pas. »
Ses coauteurs, Timnit Gebru et Emily M Bender, ont critiqué la lettre sur Twitter, cette dernière qualifiant certaines de ses affirmations de « farfelues » *. Shiri Dori-Hacohen, professeur adjoint à l’université du Connecticut, a également contesté la mention de son travail dans la lettre. L’année dernière, elle a cosigné un document de recherche dans lequel elle affirmait que l’utilisation généralisée de l’IA présentait déjà de graves risques.
Selon ses recherches, l’utilisation actuelle des systèmes d’IA pourrait influencer la prise de décision en matière de changement climatique, de guerre nucléaire et d’autres menaces existentielles.
Elle a déclaré à Reuters : « L’IA n’a pas besoin d’atteindre le niveau d’intelligence humaine pour exacerber ces risques.
« Il existe des risques non existentiels qui sont vraiment, vraiment importants, mais qui ne reçoivent pas le même type d’attention qu’à Hollywood.
Interrogé sur ces critiques, Max Tegmark, président du Future of Life Institute, a déclaré que les risques à court et à long terme de l’IA devaient être pris au sérieux. « Si nous citons quelqu’un, cela signifie simplement que nous affirmons qu’il approuve cette phrase. Cela ne signifie pas qu’ils approuvent la lettre, ou que nous approuvons tout ce qu’ils pensent », a-t-il déclaré à Reuters.
* On se souviendra que le terme que j’ai personnellement utilisé était celui de « cornichonnerie » 😉 .
Laisser un commentaire