Illustration par DALL-E (+PJ)
Et c’est là que va s’opérer un tri parmi les utilisateurs d’un outil qui est, par ailleurs, d’accès libre et de l’utilisation la plus simple du monde : une question lui est posée et il y répond. Et si la question lui est mal posée, il n’hésite pas à vous tenir par la main pour vous guider vers une reformulation qui déboucherait sur une réponse plus pertinente. Encore faut-il que l’utilisateur comprenne ce que la machine lui dit. Combien de fois ne m’a-t-on pas opposé : « Mais ce système est stupide ! Voyez ce que je lui ai demandé et ce qu’il m’a répondu ! » et la réflexion qui me vient mais que je garde pour moi est : « À une question aussi stupide, je n’aurais pas pris même la peine de répondre ! ». Garbage in, garbage out, disent les Anglo-Saxons : des ordures en entrée, des ordures en sortie.
Aussitôt la révolution ChatGPT déclenchée le 30 novembre 2022, le débat fit rage sur les forums : « Tout est dans le prompt ! », tout est dans l’amorce que l’utilisateur soumet à la machine, tout est dans la manière dont l’utilisateur respectera la machine en lui permettant d’être aussi intelligente qu’elle peut l’être. Lui manquer de respect ne la rend pas irrespectueuse – tout au moins dans les versions bridées qui sont les seules encore en circulation – mais obséquieuse, ne se préoccupant plus de vérité mais de ménager l’Ego chancelant d’un utilisateur qui lui est hostile, guettant la faute pour dire « Ce n’est qu’une machine ! Ce qui n’est heureusement pas mon cas ! ».
La question se pose tout particulièrement en matière de programmation écrite par l’IA. Il existe des applications spécifiques comme Copilot, développé conjointement par GitHub et OpenAI, qui aide à la programmation en complétant des débuts de lignes de code, ou Wolfram, qui génère lui un algorithme rédigé dans son propre langage de programmation. Les utilisateurs de ChatGPT ont rapidement découvert par ailleurs que le LLM pouvait vous offrir des programmes codés d’un bout à l’autre ou des blocs de programme comme modules à intégrer ici ou là dans un ensemble plus vaste. Mais ils découvrirent aussi que le diable était dans les détails : le programme clé en main présentait à l’occasion des faiblesses et demander à l’IA de remédier à celles-ci pouvait se muer rapidement en parcours du combattant. De même, une fois tous les modules ayant été conçus à son intention, l’utilisateur découvrait que le montage des divers éléments était problématique : les variables s’étaient vu attribuer des noms différents dans chacun des modules, voire étaient de types différents, alors que la discussion avec l’IA était pourtant soigneusement restée cantonnée au sein de la même requête. Là aussi, l’IA continuerait de mettre sa bonne volonté au service de la solution visée, mais au risque que l’utilisateur se perde dans les arcanes de réajustements toujours plus profonds et plus problématiques. Comme finit par conclure un YouTubeur pourtant enfin parvenu au bout de ses peines : « ChatGPT a bien rédigé d’un bout à l’autre le programme que je souhaitais, mais cela n’aurait jamais été possible si je n’avais pas été au départ un solide programmeur capable en réalité … d’écrire le code sans son aide ! ».
La leçon à retenir se situe là : les LLM ne sont une invention fabuleuse que si l’utilisateur est prêt à les accompagner sur les nouveaux sentiers qu’ils tracent à travers une brousse jusque-là inexplorée. Celles et ceux qui bénéficieront le plus de la révolution en cours seront ces esprits aventureux suffisamment humbles pour accepter de se placer dans le sillage d’une créature d’ores et déjà plus intelligente qu’elles ou eux et qui le deviendront toujours davantage, l’écart ne pouvant que continuer de se creuser, mais pour leur bénéfice mutuel.
Illustration par DALL-E (+PJ)
Laisser un commentaire