Illustration par DALL·E
Vous souvenez-vous de ces commentateurs pontifiant que les grands modèles de langage (LLM) ne sont que des « perroquets statistiques », que les progrès de l’IA « ralentissent », que les données permettant à ces modèles d’apprendre sont « épuisées » et que, de manière générale, « l’IA a atteint ses limites » ?
Que sont-ils devenus ?
Si on ne les entend plus, c’est parce qu’ils ne révéleraient plus par leurs commentaires que deux choses : leur déconnexion avec l’actualité et leur incompétence en matière d’IA générative.
Il ne se passe de jour qu’on ne nous annonce un nouveau modèle de LLM ayant dépassé tous les autres. Ces trois semaines les plus récentes : OpenAI o3-mini-high dépassé par DeepSeek-R1, lequel est dépassé par Grok 3, qui lui-même mord la poussière à la sortie de Claude 3.7, lequel sera incessamment ridiculisé par OpenAI o5, et DeepSeek-R2, etc.
Les données n’ont pas été épuisées : les IA, par leur réflexion au cours de leur auto-apprentissage par défis lancés à soi-même, produisent de nouvelles données (« données synthétiques ») de meilleure qualité que celles générées par des humains. Lesquels humains jettent l’éponge quand il s’agit de définir désormais des bancs-tests et des comparatifs pour ces IA et envisagent de confier entièrement à celles-ci le soin de déterminer comment s’évaluer elles-mêmes.
Vous souvenez-vous de moi-même affirmant ici il y a deux ans que ces IA avaient toujours besoin d’humains pour formuler les bons « prompts » tirant d’elles le meilleur ? Vous souvenez-vous de moi-même affirmant ici il y a seulement un mois ou deux que si la programmation des machines est excellente, il faudrait encore de bons programmeurs pour les cornaquer ? Tout cela appartient désormais au passé.
Illustration par DALL·E
Laisser un commentaire