Je suis en train de tester en parallèle le Chinois DeepSeek-R1 paru il y a une douzaine de jours, le 20 janvier et l’Américain ChatGPT o3-mini-high paru avant-hier, le 31 janvier, sur leur capacité à produire un programme en Python qui prend en entrée le squelette d’une phrase (quelques concepts et une caractérisation élémentaire de la relation entre eux) et qui procède ensuite à une série d’enrobages pour générer une phrase digne de ce nom.
Le contrat, c’est que je ne rédige pas une seule ligne de code.
Bon, bien sûr, le prompt est assez élaboré pour qu’ils aient une idée assez précise de ce que j’attends.
Les deux IA expliquent les étapes de leur raisonnement (un changement d’orientation pour OpenAI, une réponse sans aucun doute à la candeur de DeepSeek dès ses origines).
Première remarque : les deux IA partent sur des voies très différentes et je bénéficierai dans mon produit final d’une combinaison de leurs apports respectifs.
- DeepSeek R1 part sur les chapeaux de roue et produit un programme entier avant que vous ayez eu le temps de dire Ouf. Il ne prend pas d’initiative et vous offre ce que vous avez demandé. Vous exécutez le code et ça marche sans anicroche (« bug » en anglais).
- ChatGPT o3-mini-high est beaucoup plus prudent : il vous offre au départ un bout de code très élémentaire et vous demande de confirmer qu’il est engagé dans la bonne direction. La première version du code a un bug. Il le corrige sans difficulté. Ensuite, il prend l’initiative, vous suggérant des améliorations, toutes imaginatives et bienvenues.
(à suivre…)
Laisser un commentaire