Ouvert aux commentaires.
Quelques mots à propos d’un sujet qui revient régulièrement dans les discussions sur la technologie et les imaginaires technologiques, celui de l’information et des « ordinateurs » quantiques.
J’ai assisté lundi 3/02 à un séminaire de l’AEIS où nous avions invité Daniel Estève, Directeur de recherche au CEA et responsable de l’équipe Quantronique qui étudie les possibilités de calcul quantique, à partir de circuits électriques dits quantiques, c’est à dire très petits et mettant en œuvre des phénomènes quantiques comme la superposition des états ; avec 2 bits quantiques, on va pouvoir superposer 4 états notés 00, 01, 10 et 11, soit 2 états par particules, et mesurer ainsi la stabilité du dispositif. Il est également membre de l’académie des sciences. C’est une des références internationales en la matière ; le responsable du projet de machine quantique Sycomore, chez Google, John Martinis, a fait partie de son équipe ; ils ont même coécrit qq. articles.
Jusqu’ici, j’avais des interrogations et beaucoup de scepticisme car je n’avais jamais réussi à trouver de l’information de qualité, malgré qq. recherches restées vaines, en particulier sur la machine D-Wave à propos de laquelle je n’avais jamais rien trouvé qui ressemble, de près ou de loin, à un manuel de programmation au sens habituel du terme. J’avais tendance à m’aligner sur l’avis de physiciens comme S. Haroche, R. Laughlin, tous deux prix Nobel, assez sceptiques sur la faisabilité, ou A. Grinbaum que nous avions vu à l’Université catholique de Lille.
Pour la 1ère fois, la problématique s’éclaire, suite à cette conférence, et je comprends enfin pourquoi « Ce n’est pas pour demain », comme l’avait dit S. Haroche à l’époque de son prix Nobel !
L’échelle quantique est celle de l’atome, soit 0,1 nanomètre. C’est très petit. Le pas de l’hélice ADN de nos chromosomes, c’est 3,4 nm. Nos meilleurs circuits intégrés comme ceux de la machine NVIDIA GV100 dont j’ai déjà parlé sont gravés à 12 nm, ce qui fait un rang linéaire d’une centaine d’atomes de silicium, et en volume un petit cube qui en contiendrait 1 million [100×100×100]. On sait faire des expériences de diffraction quantique avec des molécules de fullerène qui contiennent 60 atomes de carbone, de « gros » objets à l’échelle quantique. Depuis les 1ères expériences de corrélation quantique faites par A. Aspect, on en est maintenant à plusieurs kilomètres, et même entre des satellites et la terre.
Rien de ce que l’on observe avec nos instruments n’échappe à la mécanique quantique et à ce jour il n’y a aucun contre exemple connu qui en montrerait les limites même si beaucoup de physiciens pensent que cette limite existe. Notons qu’avec la mécanique classique de Newton [1687], ce n’est que 2 siècles plus tard que les problèmes apparaissent avec les mesures d’invariance de la vitesse de la lumière. D’où les erreurs de perspective de savants comme Laplace et ceux de moindre calibre qui l’ont suivi … erreurs qui n’ont été reconnues que dans les années 1980 !
La finesse de gravure des circuits quantiques est obtenue par lithographie électronique, car à ce niveau la lithographie optique en ultraviolet n’est plus assez fine. Ces technologies, très couteuses, sont cependant bien maîtrisées au plan industriel ; les ingénieurs physiciens savent faire ! Le phénomène véritablement intéressant est la mise en œuvre d’un parallélisme vraiment massif, au delà du million, alors qu’une machine comme la NVIDIA ne sait faire travailler « que » 4096 processeurs en parallèle, une performance déjà extraordinaire, et une programmation qui commence à être vraiment complexe. Les circuits quantiques changent donc la donne, comme l’avaient fait les ordinateurs classiques de von Neumann des années 1950 et leurs 20.000 instructions à la seconde, soit 4 à 5 ordres de grandeur par rapport à l’électromécanique, avec une fiabilité de 15 à 20 minutes maximum [aujourd’hui, c’est plusieurs années grâce à de la redondance bien placée].
Les physiciens comme D. Estève ont pu mesurer la fiabilité de leurs dispositifs, soit pour 2 bits Quantiques 0,993. Avec une machine de 50 bits Q, ça fait donc (O,993)50, soit environ 0,7 ; avec 100 bits Q, là où ça commence à être intéressant, ça fait environ 0,5. C’est nettement insuffisant pour une exploitation hors du laboratoire. Pour que la fiabilité deviennent acceptable, il faudrait pouvoir doter la machine quantique de Codes Correcteurs d’Erreurs, comme ce qui se fait dans nos ordinateurs classiques, lesquels sans ces codes CCE ne fonctionneraient pas plus de qq. minutes. Peut-être qu’en enfouissant la machine au fond d’une mine pour la mettre à l’abri des rayons cosmiques, ça marcherait un peu plus longtemps …
Or dans la machine quantique on ne sait pas faire l’équivalent de ces CCE pour des raisons fondamentales de logique quantique, car on ne peut pas dupliquer les états superposés sans les détruire [donc la redondance est impossible], quand bien même on sache les télé-transporter [grâce à la non localité, ce que permet la dite logique]. La difficulté ainsi soulevée est rédhibitoire car on n’a pas à ce jour la théorie, ni même aux dires de D. Estève une idée de recherche d’une telle théorie. Il va falloir être créatif et inspiré par de nouvelles expériences …
Une autre difficulté est induite par les températures ultra-basses nécessaires à l’émergence du phénomène. Je croyais naïvement que ça se passait dans l’hélium liquide à 2,7 °K, comme les aimants du LHC ou des appareils IRM qui ont besoin de champs magnétiques intenses obtenus par supraconductivité. Beaucoup trop chaud m’a répondu D. Estève ! Ça se passe à 0,001 °K, avec des appareil que l’on sait fabriquer [ça s’appelle des réfrigérateurs à dilution], mais ça coute 300.000€. Pour stabiliser le circuit qui fonctionne avec des quantités d’énergie infimes, il faut donc refroidir bien au delà de ce que l’on sait faire en standard avec de l’air liquide, ou de l’hélium liquide. Ce n’est pas vraiment écologique comme procédé car comme l’exigent les lois de la thermodynamique il faut beaucoup d’énergie pour faire du froid, un froid qui, à cette échelle, n’existe pas dans la nature. L’objet le plus froid de la nature est le fond diffus cosmologique, le vide sidéral, à environ 3°K.
Reste le problème de la programmation ?!
En écoutant D. Estève j’ai compris pourquoi mes recherches sur D-Wave n’avaient rien donné. Et pour cause, ce n’est pas un ordinateur programmable. C’est le terme « ordinateur » qui m’a abusé, car il n’y a pas d’ordinateurs sans son [on devrait dire « ses », car il y a plusieurs niveaux !] manuel de programmation. La règle est : Ordinateur = Programmation. Le système dont on parle est une machine analogique, et d’ailleurs, dans sa conférence, D. Estève n’a jamais parlé d’ordinateur quantique, mais toujours de machine quantique. Le cœur de la machine est un circuit électrique quantique dont le fonctionnement est analogue à un calcul. Dans un calculateur dit analogique [on en a utilisé jusque dans les années 1980] on met en œuvre des circuits électroniques classiques qui permettent de calculer la dérivée ou l’intégration d’un signal électrique fournit en entrée. Dans les années 1960-70 c’était un grand classique des cours d’électroniques.
Avec le circuit électrique quantique inventé par D. Estève et ses collègues on peut faire des calculs parallèles en jouant sur la superposition des états quantiques, comme ça été dit ci-dessus, à condition qu’on sache isoler le circuit de son environnement non quantique, pendant un certain temps nécessaire au calcul. On sait depuis un bon siècle que la décomposition d’un nombre en facteurs premiers est un calcul dont la complexité est exponentielle. Les clés de codage RSA font 1.024 ou 2.048 bits. Un nombre décimal de 4000 chiffres [environ une page de texte, et environ 13.300 chiffres binaires 0/1] nécessiterait un temps de calcul de plusieurs siècles … Mais avec une machine pouvant faire plusieurs millions d’opérations en parallèle, c’est différent, et l’algorithme de factorisation s’y prête bien d’où un algorithme comme celui de Shor. Mais là encore le terme est trompeur, surtout pour un informaticien, car en informatique la règle de base est Programme = Algorithmes/Instructions + Données [Titre d’un livre célèbre de N. Wirth, connu de tous les informaticiens], alors que pour un physicien la règle dit aussi Algorithme = Un circuit ad hoc ; comme dans les calculateurs analogiques classiques. Le « programmeur » est alors un physicien qui n’a plus rien d’un programmeur, car les programmeurs actuellement formés partout ignorent en général complètement comment est faite la circuiterie hardware, et c’est ce qui les rend si efficace, car s’il fallait qu’ils connaissent le COMMENT [par exemple la machine NVIDIA et ses 21 milliards de transistors], la productivité ferait une chute drastique ! Quant au coût de fabrication d’un tel circuit, c’est en million d’€ qu’il faut compter.
Le programmeur d’une machine quantique est donc un physicien quantique, une formation exigeante qui par les temps qui courent, surtout dans nos pays occidentaux, fait fuir tout le monde … Pour conclure, l’ordinateur quantique, m’apparait comme un bel exemple de science fictive. On a une science très solide qui nous dit plutôt que c’est impossible en l’état actuel, ou si on est prudent comme S. Harroche qui dit : « Ce n’est pas pour demain ». Mais ça ne fait rien, l’imaginaire technologique va alors se substituer aux lois de la physique, et tout comme par magie va devenir possible. Le bruit et la complexité, l’ingénierie, sont mis sous le tapis. Dans mes conférences, et dans le livre qui en est issu Survivrons-nous à la technologie ?, j’ai essayé d’expliquer pourquoi et comment on avait pu passer de la machine « papier » de Turing qui naît en 1936, aux ordinateurs qui naissent eux en 1952-53. Grâce au génie de von Neumann, on avait toute la théorie, mais il a fallu une bonne dizaine d’années pour en trouver l’ingénierie, mais l’ingénierie que nous connaissons maintenant ne démarre véritablement qu’avec les transistors CMOS dans les années 1980. La situation de l’ordinateur quantique, si tant est qu’il existe un jour, est caractérisée par l’absence de théorie en support de l’ingénierie. C’est l’ingénierie qui est fictive.
Dans la série de science fiction Star Trek que je regardais avec plaisir, les machines de télé-transportation du docteur Spock nécessitaient un appareillage ad hoc et des physiciens de chaque côté du transport. C’est le physicien qui était dupliqué, sans qu’on sache trop comment, surtout pour la 1ère fois … De la bonne science fiction, avec sa part de mystère, mais sans absurdité flagrante.
PS : il y a une vidéo de D. Estève de 2019 qui explique assez bien la problématique, pour des non physiciens …
Laisser un commentaire