Ce texte est un « article presslib’ » (*)
La physique constitue aux yeux des membres de notre culture, un discours certain : la physique dit les choses comme elles sont. À ce titre elle s’assimile à ce que nous reconnaissons dans d’autres cultures comme « religion ». Différence notable cependant avec les religions monothéistes révélées : il est admis par tous que la physique est une construction humaine, son édification peut être constatée comme résultat de l’activité des hommes au fil de plusieurs siècles ; son processus est celui d’une découverte, non d’une révélation.
Autre différence avec les religions, l’efficacité empirique de la physique comme application d’un discours théorique peut être mise en évidence sans difficulté. Ainsi, dans le cas de la physique impliquée dans la construction de la bombe atomique : sa faisabilité fut acquise de manière déductive à partir d’une équation entre la masse d’un corps et son énergie, et la masse critique à mettre en présence (par rapprochement de deux demi-quantités) fut calculée avec une très grande précision à partir, une fois encore, de considérations théoriques, avant qu’ait lieu tout test pratique. Ou, dit autrement, le cas de la bombe atomique met en évidence de manière incontestable que sa mise au point ne résulte pas de manipulations empiriques fondées en réalité sur l’essai et l’erreur.
Cette efficacité réelle et indéniable n’exclut cependant pas la possibilité d’une « surdétermination », la possibilité que la physique moderne contemporaine n’ait produit que « l’un des discours théoriques possibles » sur la nature et sur le fonctionnement de l’univers qui nous entoure. Après tout, de nombreux discours « empiriques » ont eux aussi une efficacité réelle dans le monde sensible. Ce qu’ils ont découvert, c’est une manière d’appréhender les choses, qui débouche sur un efficace. Ainsi, la médecine yoruba, décrite par Buckley (1985), fondée sur une typologie des humeurs corporelles en fonction de leur couleur blanc, noir ou rouge, débouche elle aussi sur une efficacité réelle dans le monde sensible. Kojève, dans sa thèse refusée (par des savants classiques) sur la physique mettait en avant qu’un autre discours physique qui supposerait lui une causalité « approximative » où les causes ont « en général » les mêmes effets – soit une vision du monde extrêmement différente de celle qu’offre la physique contemporaine – produirait les mêmes résultats pratiques que celle-ci, et serait même irréfutable par elle (Kojève 1990).
En réalité, cette « surdétermination », qui fait que la physique moderne contemporaine produit seulement « l’un des discours théoriques possibles » sur la nature est révélée par sa constitution présente même : en réalité, la physique contemporaine est d’ores et déjà composée d’un ensemble de discours disparates, constituant chacun précisément l’un de ces « discours théoriques possibles » et leur hétérogénéité se révèle de manière flagrante là où ces discours se chevauchent de manière conflictuelle. Un exemple convaincant d’un tel conflit existe dans ce qui constitue de manière très généralement admise, « la crise contemporaine de la physique » : les conceptions contradictoires de la gravité que proposent la mécanique quantique d’une part, et la théorie générale de la relativité d’autre part.
La représentation du temps et de l’espace propre à la théorie de la relativité n’est pas celle de la mécanique quantique. Dans la théorie de la relativité, la gravité disparaît en tant que force, le parcours de l’objet qui résulte du fait qu’une « force » s’exerce apparemment, est en réalité le parcours qu’impose une certaine courbure de l’espace-temps à proximité d’un autre objet « grave »
Dans la mécanique quantique, les forces sont toujours des forces au sens newtonien, c’est-à-dire des actions à distance. Le concept d’une gravitation quantique tente alors, dans le cadre quantique, de réintroduire la gravité comme une force classique exercée – évidemment – par des particules appelées « gravitons ». Du coup, une réconciliation entre théories prend la forme hétérogène d’un basculement de l’une à l’autre, fondé sur un changement d’échelle – ou de niveau d’énergie – à la suite duquel on passe d’une réalité gravitationnelle géométrique à une réalité gravitationnelle corpusculaire. Einstein aurait voulu unifier l’ensemble des forces de la manière qu’il appliqua à la gravitation, mais les forces intranucléaires forte et faible ont résisté au même type d’approche.
En mécanique quantique, héritière de la mécanique classique sur ce point, la gravité est une force que des particules, substrats de ces forces, exercent à distance les unes sur les autres. Dans ce cadre, la gravité est l’une des forces universelles, au même titre que la force électro-magnétique, la force intra-nucléaire forte et la force intra-nucléaire faible. Une explication de la gravité au niveau quantique passe par la découverte de particules appelées « gravitons » supports de la force de gravité.
La mécanique quantique parle d’un monde microscopique. La relativité générale parle d’un monde macroscopique, et plus volontiers encore d’un monde dont les principaux éléments sont des corps généralement très grands (les étoiles) ou sinon extrêmement denses (les trous noirs). Dans le cadre de la relativité générale, la gravité n’implique pas l’existence de substrats particuliers : la gravité résulte de distorsions dans le tissu de l’espace-temps introduites par la présence de masses. La densité de l’univers n’est pas uniforme du fait de la distribution hétérogène de la matière. La présence de masses discrètes introduit dans leur voisinage, et avec une influence diminuant avec le carré de la distance, des effets que l’on a pu interpréter autrefois comme l’action de forces semblant émaner du centre de gravité de ces masses. Autrement dit, et en particulier, l’interprétation de la gravité par la mécanique quantique, comme l’exercice d’une force émanant d’une particule, est un type d’explication considéré comme dépassé dans le cadre de la relativité générale.
Ceci dit, les deux théories, la mécanique quantique d’une part, la relativité générale d’autre part, sont considérées comme « vraies » par la quasi totalité des physiciens. Le conflit entre les deux interprétations des faits de gravité s’exacerbe cependant lorsqu’on est obligé, pour éviter une contradiction entre les deux représentations, d’imaginer un niveau d’échelle où la gravité cesse d’être une distorsion de l’espace-temps introduite par des masses pour devenir une force exercée par des particules. D’où le terme justifié de « crise » pour caractériser l’existence d’un tel conflit.
Comment expliquer l’existence de deux interprétations conflictuelles quant aux faits de gravité ? Par la présence de la « surdétermination » évoquée plus haut : mécanique quantique et relativité générale sont deux de ces « discours théoriques possibles » sur la nature, rendant compte de manière satisfaisante, chacun à sa manière, du comportement de leurs objets théoriques de prédilection, objets extrêmement petits pour la première, objets extrêmement massifs ou extrêmement denses pour la seconde. Par ailleurs, ces deux théories sont nées à des endroits très distants l’un de l’autre sur le spectre des domaines du savoir : la mécanique quantique est née, dans le sillage de la mécanique classique, au pôle expérimental de la physique, la relativité générale, à l’instar de la thermodynamique, au pôle déductif de la science, à partir d’arguments fondés essentiellement sur la nécessité logique. Pour la science « constructiviste », le principe de progrès dans la connaissance est l’apparition d’anomalies expérimentales lors de la prévision à l’aide des modèles admis, alors que pour la science d’inspiration « déductiviste », l’expérimentation n’intervient qu’au niveau du test de ses prédictions.
Dans le cas de la relativité générale – et à la consternation de certains de ses collègues – Einstein manifestait personnellement peu d’intérêt pour les « preuves » empiriques de ses déductions, la nécessité logique de sa démonstration lui semblant une garantie suffisante de sa véracité. On pense en particulier à son remarquable manque d’intérêt pour l’expérience de Michelson et Morley établissant la constance de la vitesse de la lumière, principe pourtant crucial pour son système. C’était délibérément et en fonction d’une intention explicitement formulée, qu’il produisit avec la relativité générale une théorie engendrée sur le mode déductif, et non réactive à la détection d’anomalies expérimentales. Einstein explique dans ses notes autobiographiques qu’il voulait mettre au point avec la relativité une théorie semblable à la thermodynamique : fondée non sur l’élimination d’anomalies mais organisées autour d’un principe tel que l’exclusion du mouvement perpétuel. Dans ses Notes biographiques, compilées à l’occasion d’un volume commémoratif en son honneur, il écrivait : « Plus je m’essayais et plus mon désespoir croissait, plus je me convainquais que seule la découverte d’un principe formel universel était susceptible de déboucher sur des résultats assurés. L’exemple que j’avais devant moi était celui de la thermodynamique […] Les lois de la physique sont invariantes par rapport aux transformations de Lorentz, […] il s’agit là d’un principe restrictif pour les lois naturelles, comparable à celui de l’inexistence du mouvement perpétuel qui sous-tend la thermodynamique » (Einstein 1949 : 53 & 57 ; voir aussi Holton 1973 : 252).
Utilisant une distinction introduite par Poincaré dans La science et l’hypothèse entre « science constructive » et « science à principe » (Poincaré 1906), Einstein caractérisait le style de sa démarche de « science à principe ». Dans une allocation en hommage à Max Planck, il avait déclaré en 1918 : « La tâche suprême du physicien est de parvenir à ces lois élémentaires universelles à partir desquelles le cosmos peut être bâti par déduction pure » (in MacKinnon 1982 : 307). Il insistait cependant sur le fait que le point de départ de cette déduction devait être un fait d’observation de très grande généralité, ainsi en 1907 : « On n’a pas affaire ici […] à un « système » au sein duquel les lois individuelles seraient implicitement contenues et ne pourraient être trouvées que par déduction à partir de lui, mais à un principe qui (à la manière de la seconde loi de la thermodynamique) permet la réduction de certaines lois à d’autres » (in Stachel 1998 : 19). En fait il ne s’agissait là de rien d’autre que d’une science générée sur le mode déductif, en fonction de nécessités logiques, et comme dans le cas de la relativité, à partir de considérations très générales sur la nature du temps et de l’espace. Einstein se situait dans la ligne de ce que Goethe appelait une « philosophie de la Nature ».
———————————
Buckley, Anthony D., Yoruba Medecine, Oxford : Clarendon Press, 1985
Einstein, Albert, “Autobiographical Notes”, in Paul Arthur Schilpp (sous la dir.), Albert Einstein : Philosopher-Scientist, La Salle (Ill.) : Open Court, 1949 : 2-94
Holton, Gerald, Thematic Origins of Scientific Thought. Kepler to Einstein, Cambridge (Mass.) : Harvard University Press, 1973
Kojève, Alexandre, L’idée du déterminisme dans la physique classique et dans la physique moderne, Paris : Librairie Générale Française, 1990
MacKinnon, Edward M., Scientific Explanation and Atomic Physics, Chicago (Ill.) : Chicago University Press, 1982
Poincaré, Henri, La Science et l’Hypothèse, Paris : Flammarion, 1906
Stachel, John, Einstein’s Miraculous Year. Five Papers That Changed the Face of Physics, Princeton (N.J.) : Princeton University Press, 1998
(*) Un « article presslib’ » est libre de reproduction en tout ou en partie à condition que le présent alinéa soit reproduit à sa suite. Paul Jorion est un « journaliste presslib’ » qui vit exclusivement de ses droits d’auteurs et de vos contributions. Il pourra continuer d’écrire comme il le fait aujourd’hui tant que vous l’y aiderez. Votre soutien peut s’exprimer ici.
247 réponses à “Deux approches conflictuelles pour la gravité”
@M.Peltier
J’ai extrait la version forte du « free will theorem » de Conway-Cochen (12 juin 2008 departement des maths de Princeton) en suivant le lien de Blob. Je commenterais ce texte de 11 pages en Anglais apres lecture…….au premier abord il a l’air interressant et sérieux.
>Bernard Laget
C’est effectivement le résultat récent le plus excitant en mécanique quantique. Les notices AMS ont publié d’ailleurs un article simplifié sur le sujet:
http://www.ams.org/notices/200902/rtx090200226p.pdf
>Paul Jorion
J’ai lu votre post, mais vous commettez une erreur d’interprétation de la théorie de Nottale: c’est de fait une théorie à variable cachée et du type le plus classique qui soit puisque ce sont des variables cachés locales, car dans son espace-temps fractale, il considère des trajectoires de particules.
Or son erreur fondamentale est là: en fait, sa « redécouverte » des équations de Schrodinger est un raisonnement assez classique, puisque c’est celui de la mécanique de Nelson, où l’on considère une trajectoire classique à laquelle on superpose un bruit blanc.
On peut montrer alors que l’on a un phénomène de diffusion, amenant si l’on s’y prends bien à une équation de type Schrodinger.
Le raisonnement de Nottale l’amene à considérer qu’une particule se balade dans un espace temps fractal, non différentiable donc, et qu’il doit changer les règles de dérivations pour cela.
Il n’y a ainsi pas de sources de hasard, mais comme souvent en physique, il construit une distribution de probabilités liée à ce mouvement complexe, traduisant notre difficulté à accéder à ces états microscopique déterministes.
L’origine de ceci vient de l’analogie de cette équation et de celle de la diffusion, qui, les mathématiciens l’on montré possède une solution sous forme d’intégrale de chemin. (c’est à dire en terme de processus stochastique continue que l’on appelle aussi mesure de Wiener).
Les première a avoir vu cela furent Richard Feynman et le mathématicien Mark Kac dans les années 40, qui comprirent que l’on pouvait construire une solution de cette équation en considérant que les valeurs d’une grandeur physique d’une particule comme l’énergie était égale à la somme de toute les valeurs possibles de cette valeur pondérée par un poids statistique exponentiel complexe dont la valeur est prise par l’action de cette particule le long du chemin suivi. L’action est définie par la différence entre l’énergie cinétique et l’énergie potentielle. Il s’en suit que si votre chemin est très irrégulier, les dérivées de position, donc aussi de la vitesse deviennent très grande et donc l’action devient très grande.
La solution classique étant plus lisse, elle contribue alors beaucoup plus que les solutions complexes, qui ont une action grande et qui donc font beaucoup osciller le terme exponentiel complexe. On retrouve donc l’idée physique que la mécanique quantique « corrige » par des petits termes la mécanique classique.
C’est donc cette idée que reprends Nottale, qui a des bases profondes et pertinente.
Cependant dans le cas de la mécanique quantique, on a une équation à coefficient complexe, et la solution en terme d’intégrale de chemin est mal définie, parce que tout simplement la mesure de Wiener (c’est à dire en faite la « mesure » sur l’espace de tout les chemins continus et donc non nécessairement différentiables) n’est pas prolongeable dans le plan complexe: cela se démontre même rigoureusement.
Cela n’a pas arrêté les physiciens, et d’ailleurs, au bout d’un très long travail les mathématiciens, notamment Pierre Cartier, ont pu démontrer l’existence des dites mesures.
On s’est entêté parce que ce type d’outils s’avèrent extrêmement fécond tant du point de vue heuristique que pratique, parce que notamment, on peut faire des calculs numériques très facilement parallélisables (on attribue à un noeud d’un cluster le calcul de l’action suivant certaines trajectoires et l’on fait sommer tout par un noeud maître, et hop, on a fait un calcul de mécanique quantique, souvent complexe, sans résoudre d’équations aux dérivées partielles, dont les schémas numériques sont souvent très instables et difficilement parallélisables.)
Cependant, en fait, démontrer l’équation de Schrodinger n’est qu’une partie du travail : l’autre c’est le postulat de la mesure et surtout la non préexistence des valeurs assignées à une observables avant sa mesure : or cette condition est très fortement contrainte par le théorème de Bell, que l’on vérifie expérimentalement, qui montre qu’une théorie à variables cachées doit vérifier des contraintes drastiques, notamment, en termes de corrélations statistiques entre variables non mesurées. Or justement, la théorie de Nottale rentre totalement dans ce type de théories, et donc ne peut vérifier les contraintes de Bell, parce qu’il suppose qu’avant toute mesure il existe des valeurs pré-assignées, qui constituent ce que l’on appelle des « éléments de réalité ».
Pire, le Free Will theorem vient encore plus contraindre les choses et cette fois ci, interdit jusqu’à l’existence de variables pré-assignées même non locales (sous certaines contraintes toutefois.)
La théorie de Nottale est donc mort-née: elle ne passe ni Bell, ni le Free Will Theorem.
Le reste n’est que du bricolage et de la tentative désespérée de sauver son amour propre.
@ blob
Merci pour cette explication détaillée. C’est, en mieux encore, celle que j’avais entendue de la bouche de collègues qui s’étaient penchés sur le problème pendant un bon moment. Y auarait-il moyen que vous corrigiez la page de Wikipédia ?
Vous semblez avoir un point de vue précis et équilibré, qui irait très bien pour le ton Wikipédia. Je suivrais alors vos modifs, en vous y apportant mon aide.
Merci beaucoup, Blob! C’est ce genre de contribution que j’attends du blog. Je vais prendre le temps de digérer tout ça.
Je vous trouve dur d’attribuer l’obstination de Nottale, qui s’accroche aux « élements de réalité », à son seul amour propre : Après tout, Einstein a eu la même attitude, sur le même enjeu, et il est mort dans cet état d’esprit…
N’y a-t-il pas une faiblesse dans la séquence suivante que je résume :
1 – La mesure de Wiener n’est pas prolongeable dans le plan complexe, on le démontre
2 – Après efforts, les mathématiciens ont démontré le contraire (?)
3 – On avait raison de s’obstiner, parce que ce formalisme est très opérationnel
On peut comprendre que l’outil prévaut sur le concept, et Paul Jorion va avoir beaucoup à (re)dire…
Blob :
Marc Peltier :
Bien vu Marc : on a poursuivi dans cette direction parce qu’il se trouvait là un outil mathématique bien pratique. Autrement dit, un choix a été fait à la bifurcation (qui n’est pas sans conséquences puisqu’il déterminera ensuite quels sont les observables) en raison de la facilité qu’offrait une technique mathématique.
Quand on examine l’histoire de la physique, on constate non seulement que des outils mathématiques sont inventés par des physiciens pour résoudre des problèmes qui se posent en physique (le calcul différentiel, par exemple) – ce qui va de soi – mais aussi que les physiciens recourent énormément à des outils mathématiques qui viennent d’être mis au point (les tenseurs pour la relativité, par exemple). Pour expliquer ce dernier point, il faudrait imaginer un « démon » qui cordonne l’évolution de la physique et des mathématiques. De là à penser – ce dont je m’abstiendrai très soigneusement ! – que l’histoire de la physique et notre représentation de la réalité atomique et subatomique pourraient être très différentes si les outils mathématiques avaient été mis au point dans un ordre différent…
Je pense qu’il est utile de s’interroger sur le sens d’une formulation du type « Telle théorie ne passe pas tel théorème ». Dites-moi si je me trompe, mais ce que les théories passent ou ne passent pas, ce sont les expériences qui tentent de les falsifier. Les théorèmes sont, eux, d’essence mathématique et expriment la cohérence d’une proposition par rapport à des prémisses imbriquées, dont les sources ultimes sont, pour les mathématiques, les axiomes, et pour la physique, les principes.
Je ne connais pas encore le Free Will Theorem. Je comprends mieux celui de Bell, que Bernard d’Espagnat nous a magistralement expliqué il y a une vingtaine d’années. J’ai retenu (dites-moi si je me trompe) que pour toute théorie déterministe et locale, certaines inégalites s’imposent à un ensemble de variables corrélées. Les inégalités de Bell s’imposent donc à la Relativité d’Echelle. Ce que vous dites, mais avec un glissement que je souhaite souligner :
Le théorème de Bell n’exclut absolument pas l’existence d’éléments de réalité préassignés. Il nous démontre simplement que s’ils existent, alors certaines inégalités s’imposent.
Ce sont les expériences , comme celles d’Alain Aspect, qui indiquent que chaque fois qu’elle est interrogée, la nature répond avec obstination que les inégalités sont violées.
Comme toute théorie faisant l’hypothèse d’un réel indépendant et local, la Relativité d’Echelle semble donc avoir du plomb dans l’aile. Mais pas parce qu’elle souffre consubtantiellement d’une contradiction logique avec un théorème. Elle n’est pas « mort née », elle est, en bonne compagnie avec toutes les théories réalistes locales, falsifiée au sens de Popper. C’est moins vexant, pour une théorie… 😉
Votre formulation montre que, pour les physiciens, le débat sur le réalisme est clos et qu’Einstein peut reposer en paix : Il avait tort! Peut-être, mais, si cela se confirme, ce ne seront pas les mathématiques qui lui auront donné tort, mais les expériences.
@Paul Jorion
« De là à penser – ce dont je m’abstiendrai très soigneusement ! – que l’histoire de la physique et notre représentation de la réalité atomique et subatomique pourraient être très différentes si les outils mathématiques avaient été mis au point dans un ordre différent… »
L’hypothèse que les mathématiques élargissent simplement les possibles en matière de modélisation n’est elle pas suffisante pour expliquer l’histoire de la science ? Pourquoi ne voit-on jamais en science (à ma connaissance) des conceptions complètement différentes mais pourtant tout aussi valides des mêmes phénomènes ou même de phénomènes cohabitant dans un même cadre ? Pourquoi les modèles de la réalité, dans un cadre donné, sont toujours uniques ?
Je suis comme saint Thomas, je ne crois que ce que je vois. J’aimerai avoir un exemple de vraie surdétermination du réel, ne serait-ce qu’au sein d’une expérience de pensée, avant de croire que ça existe. La relativité et la physique quantique ne conviennent pas, puisque les cadres sont différents, ce n’est pas la même partie du réel qui est observée (il ne s’agit pas simplement de différents « observables », mais bien de différents cadres d’observation éloignés).
On ne saurait trop remercier Blob pour la référence qu’il a faite au Théorème du Libre Arbitre (Free Will Theorem) des mathématiciens de Princeton John H. Conway et Simon Kochen. C’est de toute évidence un monument, dont les conséquences n’ont pas fini de nous interpeller.
Je n’aurai pas la prétention de prétendre le résumer ou le discuter. Je vais en revanche examiner l’objection qu’il représente pour la Relativité d’Echelle. Pour permettre la compréhension des lecteurs, et la discussion de mes arguments, je dois néanmoins présenter rapidement le théorème :
——————–
Conway et Kochen construisent trois AXIOMES, sur la base de la Mécanique Quantique et de la Relativité :
AXIOME SPIN : La mesure des carrés des composantes de spin d’une particule de spin 1 selon trois axes orthogonaux sera toujours 1,0,1, ou ces valeurs dans un ordre différent.
AXIOME TWIN : Soit un couple de particules de spin 1 en corrélation quantique. Si un expérimentateur A mesure les carrés des composantes du spin de l’une des particules selon trois axes x,y,z, et qu’un autre physicien B mesure le spin de l’autre particule selon un axe w, parallèle à l’un des axes x,y ou z, les mesures des carrés seront nécessairement identiques pour la composante considérée.
AXIOME MIN : Dans le cas où les expérimentateurs A et B appartiennent à des référentiels distincts, séparés dans l’espace, A et B peuvent, chacun, choisir librement et indépendamment les axes de mesure x,y,z et w (en fait parmi 40 triplets pour x,y,z et 33 directions pour w, mais cette restriction n’est pas significative quant aux conclusions). Les mesures faites seront néanmoins conformes aux axiomes SPIN et TWIN.
Le THEOREME est le suivant :
SI
et SPIN et TWIN et MIN sont posés,
ALORS
la réponse aux mesures faites sur les carrés des composantes de spin d’une particules de spin 1 est LIBRE : elle ne dépend d’aucune propriété antérieure de l’univers, d’aucune nature, quels que soient les référentiels considérés.
Les auteurs résument ainsi leur proposition : « Si nous disposons d’un libre arbitre, alors il faut en reconnaitre un aussi aux particules! ».
On ne peut que citer Pierre Desproges : « Étonnant, non? »
Stupéfiant, oui!
———————-
Dans l’exposé, Conway et Kochen justifient les axiomes SPIN et TWIN en référence à la Mécanique Quantique, et MIN en référence à la Relativité Restreinte.
Il est donc patent que le Théorème du Libre Arbitre s’inscrit dans la problématique de la confrontation de la M.Q. et des théories réalistes locales. On peut dire qu’il synthétise et englobe peu ou prou tous les paradoxes antérieurs (EPR, le chat de Schrödinger…) sous la forme d’un théorème plus profond, d’une pureté cristalline.
———————-
J’en viens maintenant à l’objection qu’il pourrait constituer pour toute théorie synthétique, comme la Relativité d’Echelle. Dans la mesure ou la R.E. transcende les théories de la Relativité ainsi que la Mécanique Quantique, il ne me semble pas cohérent de lui objecter quelque théorème que ce soit qui inclurait précisément dans ses prémisses la M.Q. et le Relativité. Cela reviendrait à dire « La Mécanique Quantique EST VRAIE », ainsi que la Relativité, par principe, et toute théorie nouvelle doit commencer par en accepter les formalismes et les concepts.
C’est évidemment absurde. On ne peut pas affirmer que la M.Q. est vraie. Ce que l’on ne peut nier, ce sont les innombrables expériences très précises qu’elle est jusqu’ici seule à expliquer (si l’on peut dire…). Il appartiendra à toute théorie à prétention synthétique de reconstruire tous les concepts mobilisés par la M.Q. (dont par exemple le spin), en leur donnant sans doute un sens profondément différent, et sans remettre en cause les résultats d’expériences déjà acquis.
———————-
Ceci confirme, à mon sens, la pertinence des questions que pose Paul Jorion à propos des modèles mathématiques que l’on finit par prendre pour la réalité même. C’est flagrant ici : Les physiciens sont confrontés dans les années 20 à une nature qui défie les catégories supposées acquises de la pensée. Ils construisent alors un Edifice Mathématique Imbitable (E.M.I. 😉 ), comme Feynmann le reconnait avec l’humour et l’honnêteté qu’on lui connait, mais qui est merveilleusement opérationnel et fécond.
90 ans plus tard, tous nos étalons de mesure sont fondés sur cet E.M.I., parce que c’est de loin ce que la science a produit de plus précis de tous les temps, et donc tous les physiciens lui font confiance, au point que si une théorie nouvelle survient, on n’éprouve pas de scrupule à crier « STOP : Cette théorie ne passe pas tel théorème cristallin issu de l’E.M.I. : elle est mort-née! »
@Marc Pelletier
Ce n’est donc pas une question d’illusion, mais une question de confiance. Nous ne prenons pas le modèle mathématique pour la réalité, simplement l’extrême vraisemblance de ce modèle nous rend extrêmement exigent quant à la mise en place d’un nouveau modèle : celui-ci doit se montrer au moins aussi vraisemblable. Ce genre de théorèmes fondamentaux sont de cet ordre : il s’agit d’une exigence qu’on ne peut pas se permettre de contourner sans explication. Je ne sais pas exactement en quoi la théorie de la relativité d’échelle viole les différents théorèmes (Bell, …), mais si c’est le cas, ça signifie sans doute qu’on peut déduire des théorèmes des expériences qui la discrédite… Ou alors c’est à sa charge d’expliquer pourquoi ce n’est pas le cas, je suppose.
@ Quentin
Il y a une excellente formalisation de la notion de surdétermination dans Max Jammer, The Philosophy of Quantum Mechanics. The Interpretations of Quantum Mechanics in Historical Perspective, New York: John Wiley & Sons, 1974 : 104.
La surdétermination, c’est donc le fait que les deux descriptions D1 et D2 rendent compte chacune de manière exhaustive de certains phénomènes de U, sans pouvoir ni l’une ni l’autre rendre compte de tous les phénomènes de U. Ces « certains » phénomènes constituent donc l’intersection des phénomènes dont D1 et D2 rendent compte de manière exhaustive et c’est au sein de cette intersection qu’il y a surdétermination.
Or Jammer ne se contente pas de proposer dans ce passage une définition formelle de la surdétermination, il affirme aussi qu’il s’agit là très précisément de l’interprétation de la complémentarité qu’avait Niels Bohr.
Mais il n’y a pas que Bohr qui soit prêt à envisager une surdétermination dans l’explication, Erwin Schrödinger, par exemple, fait la même chose quand il écrit : “to admit the quantum postulate in conjunction with the resonance phenomenon means to accept two explanations of the same process” (Jammer : 28).
Sinon pour répondre directement à votre question: oui, le spin est une quantité que l’on retrouve au moyen de l’équation de Dirac. En fait, il caractérise les rotations d’un vecteur à plus de deux dimensions dans notre espace à 3D.
Comme le groupe topologique des rotations à 3D à une structure non connexe, il existe deux types de représentations dans un espace vectoriel (c’est à dire dans un espace muni d’une base dans laquelle écrire un système de coordonnée), ce qui se traduit par deux types de valeur pour le spin, puisque la mécanique quantique considère les actions de ces opérations géométrique dans l’espace à trois dimension sur un vecteur d’état d’un espace de Hilbert.
L’origine de ceci vient du postulat à la base de l’écriture de l’équation de Dirac. Ce dernier à chercher une équation invariante sous l’effet des transformations autorisées par la mécanique relativiste, groupe qui contenait en plus des translations dans l’espace et le temps les rotations de l’espace. Ceci était d’assurer encore une fois que la mécanique quantique s’écrive de la même façon dans tout les référentiels, quelques soit les transformations agissant sur ces référentiels.
Il est donc normal d’une certaine façon de traduire l’invariance par rotation des particules.
Mais non, ce n’est donc pas un artefact, parce qu’il est essentiel pour comprendre les choses suivantes entre autres:
– la stabilité de la matière à l’échelle cosmique.
– le magnétisme sous toute ces formes.
– la chimie et notamment la nature des liaisons chimiques.
– la supraconductivité et la superfluidité.
– le théorème spin statistique reliant la nature bosonique ou fermionique et leur statistique au spin des particules.
Je croyais que le spin avait été constaté expérimentalement avant que Dirac ne propose son équation.
(Un faire-part de sa mort, que j’avais conservé).
@BLOB
J’ai lu que en 1931 fut découvert expérimentalement le spin du photon par Raman et …….un deuxieme chercheur, ce qui alimente votre position sur le non « artefact » du spin; mais élargi son étrangeté de nombre quantique de moment cinétique attribuée à une particule sans masse. Peut t’on faire jouer l’équivalence masse/energie pour attribuer un spin au photon ? ( m=masse équivalente = h.f/c²= p/c ) .Il s’agit peut etre d’une question naive, mais, si j’ai bien compris, les mesures de polarisations faites par A.Aspect sur les photons intriqués sont celles des projections vectorielles du spin, qui pour le photon est un pur moment electro-magnétique; sinon faut t’il passer au concept de champ électro-magnétique, et renoncer définitivement à l’image de rotations?
Pourriez vous indiquer si il existe un modele physico-mathématique relativiste de l’électron consistant . merci de vos réponses.
J’oubliais de dire: si Nottale retrouve l’équation de Dirac, il retrouve donc le spin: il n’y a pas de mystère.
Mais bon, comme je l’ai précédemment dit, il y a une faille fondamentale dans son travail, qui ne rends non pertinent.
En fait, quand on se penche vraiment sur son travail, on se rends compte que Nottale passe son temps à cacher la poussière sous le tapis. Vous me direz que Feynman le faisait aussi, mais lui, il le reconnaissait tout le temps, même dans le discours qu’il prononça pour l’obtention de son Nobel de Physique!
Mais bon, ne montre pas vraiment la manière dont il obtient ses résultats: du coup, il n’y a que lui qui semble réussir à les obtenir. Et ces disciples: ça devient donc louche comme démarche…
De plus en plus, je constate que les scientifiques d’aujourd’hui raisonnent à partir de cadres, modèles ou hypothèses préétablis sans les remettre en question, souvent au détriment de la recherche fondamentale. C’est pour cela que j’apprécie les écrits de Paul qui essaie de remonter à la source des choses, même s’il prend le risque de se tromper parfois. A mon tour, j’aimerais essayer de réfléchir à quelques hypothèses, en liaison avec mon interrogation sur le raisonnement scientifique en général. Comme je suis un ex-marin, je vais partir d’un raisonnement sur la mer et la faune aquatique.
Tout le monde accepte l’idée qu’à l’origine, la mer était vide : une cellule y est entrée, elle s’est adaptée au milieu marin, et cette adaptation s’est manifestée par la naissance d’une énorme quantité d’êtres très différents les uns des autres (poissons, mollusques…). Il ne vient jamais à l’esprit de personne qu’une cellule a explosé et a donné naissance à la mer ainsi qu’à tous les autres êtres… Pourtant, c’est le raisonnement suivi au sujet du big bang : une particule hautement énergétique aurait explosé et donné naissance à l’espace-temps et tout ce qu’il contient… Pourquoi ne pas envisager plutôt que « l’espace » existait déjà, qu’une particule s’y est introduite, a explosé et donné naissance à un ensemble d’autres particules qui se sont adaptées et donc différenciées, du plus léger au plus lourd….
On pourrait dire la même chose à propos du temps : en effet, pour reprendre le modèle du monde aquatique, ce sont les poissons, suite à leur évolution (variation d’état), qui ont créé le temps, et non pas la mer… Au niveau de l’espace, c’est la variation d’état des objets (particules) qui a donné naissance à la notion du temps .L’ appréhension du temps varie en fonction de cette modification d’état des particules .Toutes les particules ont leur « temps « propre (variation de leur état) bien que la notion du temps peut changer selon la façon (vitesse…) dont elles se comportent entre elles au sein de l’espace.
En revenant à mon analogie de départ, je pourrais dire aussi que certaines cellules et poissons ont pu quitter la mer et évoluer dans le milieu terrestre. De la même manière, il se peut que dès la première explosion, certaines particules ont quitté l’espace et d’autres se sont adaptées (ont évolué).Il sera peut-être possible un jour pour l’homme de recréer ce genre de particules.
Ce ne sont là que quelques réflexions et pistes que j’explore, en rapport avec ma conception du monde et des sciences. J’ai également écrit ce post suite à une discussion antérieure avec un intervenant, où j’insistais surtout sur la rigueur et les preuves scientifiques. Par ce que je viens d’exposer, j’admets cependant que l’imagination et la philosophie ont leur place dans la science. Je sais aussi que la première critique des scientifiques portera sur mon manque de preuves et d’observations pour étayer les idées développées ici. Mais, à ma connaissance, il n’existe pas non plus de preuves permettant de les invalider et de les écarter définitivement. Bien que…
Y aurait-il un Blob « économie » pour nous expliquer si les deux approches du système financier et de la monnaie , celle de Allais et celle de Jorion , sont vraiment conflictuelles et/ou compatibles , et si la batterie des mesures qu’ils proposent pourrait être rapidement adoptée à défaut d’être inscrite dans Wikipédia .
Parce que là , tout de suite , je vous « fais part » que ça urge .
Le débat ne date apparemment pas d’hier… ni n’est propre à la France. En voici la preuve – qu’auront d’ailleurs découvert ceux qui auront eu la curiosité de suivre un lien proposé par Vincent Wallon vers un article de Pepita Ould-Ahmed : LES TRANSITIONS MONÉTAIRES EN URSS ET EN RUSSIE : UNE CONTINUITÉ PAR-DELÀ LA RUPTURE.
Ma propre position s’identifie bien entendu à celle de Konnik.
Il ya donc bien contradictions sinon conflit entre vous deux et vous situez bien les concepts et la filiation historique qui vous séparent .
Je n’ai pas la compétence et la mesure de Blob pour « peser » la richesse propre des deux approches .
Je n’ai donc que ma motivation et jugement « d’usager citoyen » , pour apprécier , Et ça presse comme déjà dit .
Je ne peux donc ,dans le délai supportable , que tenter de peser la meilleure des issues sinon la meilleure des analyses .
La batterie de vos solutions se résume à l’interdiction des paris sur les fluctuations de prix .
Comme Cécile , j’ai un besoin urgent de votre étude d’impact ( pardon si c’est déjà fait !) dans une forme et un niveau de préoccupations suffisamment accessibles au commun des mortels . Il n’y a selon moi que trois à quatre mois pour rendre cet effort utile et moulinable par les seules forces que je reconnaisse : citoyens ,syndicalistes , élus et candidats à l’élection .
A défaut votre vérité devrait rejoindre la sphère des officines ou clubs d’influence , pour y trouver les prises en considération auxquelles elle aspire .
Ce qui serait pour moi une tare rédhibitoire , qui me ferait la haïr .
Mais peut être que d’autres approches , moins éclairées , mais plus conflictuelles auront tranché entre temps ces noeuds trop gordiens .
« « Chaque versement de numéraire effectué à partir des caisses de la banque suppose un mouvement scriptural antérieur, inversement, chaque mouvement de monnaie scripturale est la conclusion de la rotation de monnaie fiduciaire ». »
Un peu comme l’histoire de la poule et de l’oeuf….
>Marc Peltier
En fait l’existence de la mesure des intégrales de Feynman a été démontré d’une autre façon qu’un simple prolongement analytique, qui ne permet pas d’obtenir de mesure bornée sur l’espace fonctionnel des chemins non différentiables.
L’idée de Pierre Cartier repose sur une construction inspiré du travail des physiciens en théorie des champs et sur des résultats de probabilités. C’est un résultat récent et qui semble être plus féconds que des travaux similaires, notamment ceux de Itô, plus probabiliste mais perdant l’aspect ondulatoire du problème et ceux de Sergio A. Albeverio qui se consacraient plus sur l’aspect ondulatoire et interferentiel de la question mais perdait alors les outils probabilistes.
Voir pour cela Mathematical Theory of Feynman Path Integrals de Sergio A. Albeverio · Raphael J. Høegh-Krohn
Sonia Mazzucchi chez Springer ou Kiyosi Itô: Wiener Integral and Feynman Integral.
http://projecteuclid.org/DPubS/Repository/1.0/Disseminate?view=body&id=pdf_1&handle=euclid.bsmsp/1200512604
Ce n’est pas la première fois que les physiciens inventent des outils remarquables d’efficacité mais peu fondé en apparence. Le « vol » de ces outils par les mathématiciens est devenu courant: Edward Witten qui est physicien théoricien par exemple a obtenu une médaille Fields pour cela et d’un autre côté, Michaël Atiyah, le très grand géomètre anglais, démontre à longueur d’articles des théorèmes de topologie avec des outils souvent inspiré de la physique théorique et avec un niveau de rigoureux proche.
Il en est de même de Maxime Kontsevitch, qui est s’est fait connaître en partie pour des résultats géométriques et algébriques traitant des procédures de quantification.
A tel point que certains mathématiciens, comme Maxim Gromov je crois considèrent qu’il existe une véritable Mathématique Physique, pendant de la Physique Mathématique, où l’on utilise des procédures proche des méthodes calculatoires des physiciens pour attaquer des problèmes mathématiques inattaquables jusqu’à présent…
>Paul Jorion
Le spin a été découvert expérimentalement avant l’équation de Dirac.
Mais l’ancienne mécanique quantique, avant sa formalisation moderne échoppait sérieusement sur ce point: c’est le travail de Dirac qui a permit de bien mieux comprendre cela.
>Bernard Laget
Dans le cas du photon, ce que l’on considère c’est l’hélicité, la projection du spin suivant un axe, parce que l’on n’a pas de photons au repos.
C’est un effet lié aux symétries du groupe de Poincaré et à ces représentations.
En fait, l’hélicité n’a que deux états, parce que l’on a un effet assez subtil d’annulation de deux composantes du photon. Pour décrire un champs électromagnétique en effet, on a la somme d’une quantité vectorielle ( à trois composantes) et d’une quantité scalaire : de faite, une composante vectorielle et la composante scalaire s’annule, ce qui nous donne que deux grandeurs vectorielles, correspondant aux deux états de polarisations.
Toutefois, dans des régimes ultra-relativistes (vitesse proche de celle de la lumière), cette annihilation cesse, et l’on a des effets subtils se produisant, qui ont été observé expérimentalement, ce qui confirme alors l’électrodynamique quantique.
On pourra consulter pour en savoir plus : Quantum Field Theory de J.B Zinn Justin et Claude Itzykson chez McGraw Hill
Références pour le spin:
The Story of Spin de Sin-itiro Tomonaga chez University Of Chicago Press
Pauli and the Spin-Statistics Theorem de E. C. G. Sudarshan chez World Scientific Press
@ blob
Cela m’a épaté de voir comment vous expliquez des théories et expériences scientifiques sans faire appel au moindre dessin ni à aucune formule…
Permettez moi quand même de formuler quelques remarques à propos de la « découverte » du Spin (moment cinétique intrinsèque des particules élémentaires). Déjà, au début du 19ème siècle, le Français André Marie Ampère avait démontré que le magnétisme était la conséquence d’un mouvement de charges électriques. Ce sont des physiciens néerlandais, George Uhlenbeck et Samuel Goudsmit qui, en suivant son idée, ont démontré que seul un mouvement particulier de l’électron pouvait produire des propriétés magnétiques, c’est-à-dire un mouvement en rotation. On peut aussi citer l’expérience très connue qui a mis en évidence le spin, à savoir celle de Stern et Gerlach(1921), ainsi que celle de Rabi (1938) pour la détermination des spins nucléaires de plus faibles valeurs. En ce qui concerne le physicien britannique Dirac, il a surtout formulé une nouvelle version de la mécanique quantique qui tenait compte du spin.
>Marc Peltier
En fait le théorème de Bell impose une contrainte forte sur les théories à variables cachées.
Une théorie violant les inégalités de Bell de la même façon que la mécanique quantique vérifie une des trois conditions suivantes:
1) Elle est non locale, autrement dit la déscription des particules intriqués est indépendante de l’espace physique.
2) On admet des transferts d’information plus rapide que la vitesse de la lumière
3) les valeurs des observables ne sont pas préassignées.
Au moins une de ces conditions doit être vérifié par une théorie violant les inégalités de Bell. On sait expérimentalement depuis les expériences de Alain Aspect que c’est le cas de la mécanique quantique. On peut donc plus présenter de théories alternatives ne tenant pas compte de ce fait depuis cette époque: c’est pour cela quec’est pour cela que je dit que la théorie de Nottale est mort-née car il ne tient absolument pas contre de ces contraintes pourconstruire sa théorie.
>Marc Peltier
En fait le théorème de Bell impose une contrainte forte sur les théories à variables cachées.
Une théorie violant les inégalités de Bell de la même façon que la mécanique quantique vérifie une des trois conditions suivantes:
1) Elle est non locale, autrement dit la déscription des particules intriqués est indépendante de l’espace physique.
2) On admet des transferts d’information plus rapide que la vitesse de la lumière
3) les valeurs des observables ne sont pas préassignées.
Au moins une de ces conditions doit être vérifié par une théorie violant les inégalités de Bell. On sait expérimentalement depuis les expériences de Alain Aspect que c’est le cas de la mécanique quantique. On ne peut donc plus présenter de théories alternatives ne tenant pas compte de ce fait depuis cette époque: c’est pour cela que je dit que la théorie de Nottale est mort-née car il ne tient absolument pas compte de ces contraintes pour construire sa théorie.
PS: pouvez vous remplacez l’ancien poste par ce nouveau post, qui corrige les nombreuses fautes de frappes.
Le « free will theorem », n’est-ce pas à peu près équivalent à admettre la condition 3) ?
J’ai aussi la même impression et la même question.
Le libre arbitre n’est-il pas essentiellement la non prédictibilité des choix ?
Dans l’article résumé, ils disent : « To say that A’s choice of x, y, z is free means more precisely that it is not determined by (i.e., is not a function of) what has happened at earlier times (in any inertial frame). Our theorem is the surprising consequence that particle a’s response must be free in exactly the same sense, that it is not a function of what has happened earlier (with respect to any inertial frame). »
Mince alors, j’avais fait la conjecture sans le savoir ? Ou alors j’ai raté une grande subtilité. (nota : pas encore lu l’article).
@blob
A la base…. la fonction d’onde (l’état quantique – prononcé psi ) est la somme pondérée à coefficients complexes (w,z) de tous les états de base du système……. »psi »=w A +z B (excusez-moi de devoir l’écrire ainsi mais je ne peux accéder aux caractères grecs dans cette application).
w et z sont des nombres complexes. (A,B) sont deux localisations d’une particule (localisation en A ou localisation en B).
La grandeur de « psi » (ainsi que de A et B) est souvent appelée vecteur d’état.
« psi » ne répresente pas un état d’un système physique, mais un ensemble d’états physiques possibles…
« psi » emmêlé d’une façon complexe a, en pratique, le même comportement qu’un ensemble de systèmes physiques : comme disait Bell, « psi », c’est FAPP (for all practical purposes…)
« psi »ne peut pas décrire une réalité quantique, car cela n’a aucun sens d’attribuer une telle réalité au monde dans lequel nous vivons.
La réalité ne peut qu’être mesurée !!!
@blob
NB:C’est Bell qui disait que la réalité ne peut qu’être mesurée : pas moi , ni Werner Heisenberg… 😉
Il me semble que des commentaires ont été modérés négativement dans ce fil, ou bien perdus ?
Le ton commençait à monter et j’ai conseillé à certains de revoir leur copie dans le sens de la courtoisie. À ma connaissance, tous ceux qui ont été contactés dans ce sens se sont exécutés. En tout cas, aucun message n’a été affiché pour être supprimé ensuite. Ceci dit, le choix offert à chacun de répondre à l’intérieur d’un échange ou d’ajouter sa contribution en bout de queue introduit parfois une certaine confusion… il m’arrive bien entendu de m’y perdre moi-même !
Moi aussi, je m’y perd, surtout lorsque le fil devient très long comme ici.
Peut-être serait-il utile que vous formuliez des conseils de bonne pratique, comme vous l’avez fait pour le formatage?
>Marc Peltier
Je pense que vous commettez une erreur en disant ceci:
« Dans la mesure ou la R.E. transcende les théories de la Relativité ainsi que la Mécanique Quantique, il ne me semble pas cohérent de lui objecter quelque théorème que ce soit qui inclurait précisément dans ses prémisses la M.Q. et le Relativité. Cela reviendrait à dire « La Mécanique Quantique EST VRAIE », ainsi que la Relativité, par principe, et toute théorie nouvelle doit commencer par en accepter les formalismes et les concepts. »
Cela me semble faux parce que les trois axiomes du Free Will Theorem n’engendre ni la relativité restreinte, ni la mécanique quantique.
Le premier, SPIN, est un théorème vérifié par la mécanique quantique : c’est le théorème de Kochen Specker vérifié par la mécanique entre autre, mais que toute théorie alternative doit vérifier. On peut le tester expérimentalement, et donc cela contraint les théories alternatives, qui doivent donner le même résultats.
Il implique que les quantités que l’on mesure ne peuvent exister avant leurs mesures. C’est un résultat de nature combinatoire et géométrie du point de vue mathématique, extrêmement peu « gourmand » en structures mathématiques.
Le deuxième, TWIN, est un axiome qui dérive d’un résultat de la mécanique quantique, mais qui ne peut à lui tout seule engendrer cette branche de la physique. Il contient par ailleurs essentiellement un résultat expérimental que doivent la encore vérifier les théories alternatives à la mécanique quantique, à savoir l’intrication des particules liés au paradoxe EPR. Il découle d’axiomes plus profonds de la mécanique quantique, mais il ne peut à lui tout seul ré-engendrer cette théorie
Le troisième MIN cette fois si est inspiré de la relativité restreinte: il traduit la liberté d’un physicien de choisir ces référentiels inertiels et la causalité s’en suivant. Il s’agit là d’un résultat que d’autres théories doivent partager si l’on veut conserver la causalité en physique.
Ce principe n’est pas suffisant à lui tout seul pour nous redonner la relativité restreinte.
Ces trois axiomes synthétise des propriétés profondes des deux théories, que doivent aussi respecter des théories alternatives, parce qu’elles sont soit centrales en physique comme la causalité, soit des propriétés expérimentales non triviales et non susceptibles d’échappatoires par une amélioration expérimentale.
Conway et Kochen en réduisant à l’extrême les propriétés que doivent vérifier des théories en compétition avec la relativité restreinte et la mécanique quantique leur donnent ainsi des contraintes logiques et expérimentales très fortes.
C’est un mode de raisonnement courant en physique ou en mathématique: il suffit de penser au deuxième principe de la thermodynamique.
Je pense donc qu’il est légitime d’avoir recours à ce théorème pour critiquer la théorie de Nottale: cette dernière doit respecter d’une façon ou d’une autre ces trois axiomes, parce qu’elle doit reproduire le théorème EPR, et qu’elle doit faire les même prédictions que la mécanique quantique.
Or, dans la théorie de Nottale, on fixe de fait les observables avant leur mesures: Elle ne peut donc de fait vérifier un de ces trois axiomes, et donc elle ne peut redonner les résultats expérimentaux de ces deux théories.
Elle n’est donc pas correcte .
@Blob,
Vous présentez SPIN comme un théorème. Conway et Kochen le présentent comme un axiome. Ils parlent bien de trois AXIOMES, SPIN, TWIN et MIN.
Je m’efforce de comprendre votre point de vue, que je sens bien sous-tendu par une grande quantité de faits et d’idées qui forment la pratique d’un physicien, ce que je ne suis pas.
Néanmoins, sur le plan strictement logique, comment peut-on contraindre une pensée quelle qu’elle soit à accepter un AXIOME comme étant OBLIGATOIRE? Par définition, ce n’est qu’un point de départ que l’on se donne pour en explorer les conséquences. On ne peut ni le prouver, ni donc l’objecter. Si vous postulez l’axiome d’Euclide, vous obtenez la géométrie euclidienne. Si vous postulez son contraire, vous obtenez autre chose, à savoir un ensemble de géométries non euclidiennes, tout aussi intéressantes. Diriez-vous à un mathématicien « Vous devez respecter l’axiome d’Euclide, sinon votre géométrie ne sera pas correcte.« ?
Les axiomes et les principes ne s’imposent pas à priori. Ils peuvent être si évidents que leur mise en cause semble déraisonnable, mais l’histoire des sciences est justement faite de ces remises en cause tonitruantes…
Les théorèmes, eux, s’imposent à tout raisonnement qui se situe en aval d’axiomes ou de principes reconnus par ce raisonnement.
S’agissant de physique, les théorèmes doivent être respectés par une théorie nouvelle pour autant que le nouveau cadre conceptuel ne déplace pas le cadre axiomatique ou principiel duquel découlaient lesdits théorèmes. Il me semble qu’on l’oublie souvent, et que l’on considère les théorèmes comme des vérités en soi, absolues, ce qu’ils ne sont en aucun cas. Ce sont toujours des vérités contingentes, qui dépendent d’axiomes (ou de principes).
Après vous avoir lu, je pense que le théorème de Bell est l’objection la plus sérieuse que doit prendre en compte la Relativité d’Echelle, parce qu’il s’agit d’un théorème dont les axiomes sont extérieurs à la mécanique quantique, et qui vise les théories réalistes locales à variables cachées, ce que la Relativité d’Echelle est, tout à fait clairement. Les constructeurs de la R.E. doivent donc s’attacher à démontrer :
– soit que le nouveau formalisme respecte l’une des trois conditions que vous avez, très justement, rappelées.
– soit que la théorie, par sa nature même, change le cadre axiomatique du théorème de Bell (ou de ses généralisations applicables).
Intuitivement, je dirais que ça ne semble pas hors de portée, car la prise en compte d’un espace-temps fractal change très largement la donne conceptuelle pour ce qui concerne la localité, d’une part, et l’interprétation de l’invariance de la vitesse de la lumière, d’autre part.
Je me risque à formuler mes propres spéculations : A mon sens, le caractère fractal de l’espace-temps implique de ne plus concevoir la localité comme tout ou rien, local ou non local, comme l’impose la M.Q.
La localité devient nécessairement une notion dépendant elle-même de l’échelle. Aux très petites échelles, la localité se perdrait avec la complexification des trajectoires géodésiques fractales. Elle serait « floue ». La non localité et l’indétermination des phénomènes seraient complètes à l’échelle de Plank, qui constitue en R.E. un horizon des échelles, jouant un rôle semblable à celui de l’horizon des vitesses c en Relativité Restreinte, avec mise en jeu d’une énergie infinie. A nos échelles sensibles dont la dimension fractale est 1, l’univers serait réel, déterminé et local.
Dans une perspective cosmologique, la localité et la détermination physique des phénomènes, ainsi que l’apparition et la diversification des forces fondamentales, auraient accompagné le développement de l’espace-temps et l’expansion de l’univers. Le Big Bang s’interprète alors naturellement comme un évènement intrinsèquement non local (avec nécessairement une certaine [ou totale] indétermination par rapport aux lois physiques), évoluant vers un espace-temps structuré par des lois et déterminations locales.
Une telle façon de voir change nécessairement la formulation et le domaine de validité des théorèmes portant sur la localité, et donc, la façon dont ils peuvent être objectés à la R.E.
Merci encore de prendre la peine de me répondre; Vos commentaires éclairés me sont très précieux.
@ blob
« Le troisième MIN cette fois si est inspiré de la relativité restreinte: il traduit la liberté d’un physicien de choisir ces référentiels inertiels. »
Comment un physicien peut-il choisir ses référentiels inertiels si les images le montrant faire son choix peuvent être perçues, par un observateur en mouvement rapide par rapport à lui, avant qu’il le fasse ?
Cela me semble contradictoire, si l’équivalence entre les référentiels postulée par la théorie de la relativité restreinte implique comme Gödel l’a démontré à Einstein que le passé, le présent et le futur sont concomitants.
Auriez-vous une explication à donner ? Une subtilité m’aurait-elle échappée ?
Ce fil m’ayant branché à nouveau sur la Relativité d’Echelle, j’ai cherché à faire l’état des lieux, et j’ai extrait ceci d’une discussion sur le blog de jean Zin. L’auteur signe Eric (avril 2007).
J’ai remarqué au passage la violence des attaques personnelles contre Laurent Nottale, sur un ton qui ne devrait pas avoir cours entre des gens « d’esprit ». Un troll particulièrement venimeux s’y distingue, partout où il est question de Relativité d’Echelle. Puisse-t-il ne jamais arriver jusqu’ici!!!
@Marc Peltier
J’appuie les remarques de Marc Peltier.
+1
Merci d’avoir trouvé ces extraits.
Il me semblait bien avoir lu cela.
Aussi dans « The Pauli equation in scale relativity » du 20 sept 2006 il écrit :
« This allows one to have a physical geometric picture of what spin is. Such a picture may help understanding more thoroughly the various features of EPR spin experiments (which, as already remarked in [4], is accounted for in its essence in the scale relativity framework since it alows one to derive the standard properties of Dirac bi-spinors). This will be developed in a forthcoming work, including a scale-relativistic analysis of density matrices, which are at the heart of some of the subtleties of the EPR experiment. »
La ref [4] c’est « J. Phys. A: Math. Gen. 37 931 »
Il précise : « essentiellement », donc potentiellement, pas complètement.
Je ne me souviens pas d’avoir vu passer depuis l’analyse des « density matrices »
Sinon, ENFIN une discussions constructive sur le RE sur internet !
Vous savez blob toutes les théories sont incorrectes ;c’est justement pour cela que tout le monde cherche….
et peut-être on trouvera une plus correcte que l’autre grâce au CERN…..
Interventions récentes (ordre chronologique)
H.F.D
Envoyé le 14/12/2009 à 19 h 27 min
quentin
Envoyé le 14/12/2009 à 19 h 35 min
Paul Jorion
Envoyé le 14/12/2009 à 19 h 35 min
quentin
Envoyé le 14/12/2009 à 19 h 54 min
blob
Envoyé le 14/12/2009 à 21 h 15 min
Le marin
Envoyé le 14/12/2009 à 23 h 28 min
Marc Peltier
Envoyé le 15/12/2009 à 1 h 09 min
Marc Peltier
Envoyé le 15/12/2009 à 3 h 52 min
Dissonance
Envoyé le 15/12/2009 à 6 h 27 min
Bon , pourquoi utiliser le terme de « conflictuel » pour qualifier l’incomplétude des deux approches (la relativité et la MQuantique)
tout le monde cherche une solution conhérente…par « les deux bouts » , si j’ose dire…
deux métaphores :
1- percer un tunnel : deux équipes qui cherchent à se rejoindre , en partant de deux points opposés,le crainte de ne pas se croiser , les tatonnements pour rectifier la direction du tracé…..
2-un photographe , son appareil, un même paysage ,un objectif avec une profondeur de champ encore trop faible : soit il fait sa mise au point sur un objet proche , l’arrière plan est flou ….soit le contraire…
courage , nous finirons bien par trouver une approche satisfaisante…
pour l’instant , nous ne disposons pas de l’appareillage formel qui puisse prendre en compte tous les facteurs , d’où cette apparente dystonie…
place à l’imagination+++
cordialement à tous
Pourquoi conflictuel ?
D1 and D2 are mutually exclusive in the sense that their combination into a single description would lead to logical contradictions.
« deux approches conflictuelles »…non ?
Deux descriptions conflictuelles seraient idéalement amenées à être dépassées par une description qui les englobe. C’est ce qui semble se produire généralement en sciences…
L’idée de la surdétermination serait de dire que dans certaines situations une telle description englobante ne peut pas exister ?
Je me permets encore de conseiller un bon livre que j’ai fort apprécié et qui s’adresse à tous ceux qui désirent mieux comprendre l’essentiel de la physique quantique. Il s’agit du livre de Roland Omnès, dont le titre est « Les indispensables de la mécanique quantique ».
Note méthodologique sur le théorème de Conway
Le théorème de Conway-Kochen 2007, fait suite au paradoxe de Kochen (1967) et à d’autres travaux en physique mathématique. Il est présenté par ses auteurs dans sa version forte comme l’aboutissement d’une chaine logico-déductive, commencée dans les années 60 en physique quantique. Il suppose et démontre l’hypothèse de « la liberté de choix » i.e. non influencé par un état passé ou influence venant du passé de phénomènes quantiques, et sur cette hypothèse formellement consistante en tire des conséquences qui ne seront pas débattues ici, seule la méthode et les questions qu’elle peut susciter est évoquée, sans prétendre aboutir à des conclusions tant sur le théorème lui-même que l’outillage mathématique formel, qui dépasse mes capacités.
En préambule du texte est évoqué le paradoxe relativiste sur le déroulement temporel d’événements qui se produisent en dehors du cône de lumière, car selon le choix des référentiels inertiels le passé devient le futur d’un événement. La causalité impose donc une contrainte axiomatique fortes aux auteurs. Le théorème intègre aussi la méthode des intégrales de chemin de R.Feymann , qui prennent en compte pour le calcul toutes les possibilités de choix offertes aux particules arrivées à un « Nœud », lieu ou se produit au sens quantique un événement. On perçoit les liens avec EPR, le théorème de Bell, l’hypothèse d’introduction en physique quantique des variables cachées. D’autre part le théorème est présenté par ses auteurs, comme l’avait indiqué BLOB , non contradictoire avec ceux qui l’ont précèdes dans un registre qu’avait ouvert D .Böhm sur les variables cachées qui pouvaient redonner une complétude à la P.Q. , son incomplétude ayant été l’objet de l’objection EPR.
Nous sommes, est t’il besoin de le rappeler, dans des questions limitées a la localité, à la causalité, aux variables cachées, qui n’embrassent pas tous les développements de la physique quantique, comme la gravitation quantique et les cordes.
Conformément aux idées de P.Jorion sur les bifurcations cognitives, je voudrais commenter sous cet angle le théorème du « Free Will » et de sa genèse. Les trois axiomes, dont l’analyse a été faite dans les échanges entre « Blob » et M.Peltier, constituent une fondation compatible avec un état « Des lieus »défriché par les formalismes mathématiques et les retours expérimentaux factuels, comme les expériences D’A .Aspect ; les retombées de la QED et de la CDQ.
Pour illustrer partiellement cet « état des lieus » j’extrais de Wilkipedia :
En 1967, fut démontré : le théorème de Kochen et Specker. Ce théorème démontre que toute théorie à variables cachées rendant compte des résultats des expériences de physique quantique est contextualiste, c’est-à-dire que les valeurs mesurées des paramètres physiques dépendent nécessairement du contexte expérimental, et non des entités physiques seules. Ce théorème porte un autre coup à la vision réaliste d’Einstein….En 2003, Anthony Leggett établit des inégalités, semblables à celles de Bell, potentiellement testables expérimentalement, qui doivent être vérifiées par toute théorie à variables cachées non locales vérifiant certains pré-requis raisonnables. La violation de ces inégalités rendrait donc une classe importante de théories à variables cachées, (mais cette fois-ci non-locales ), incompatibles avec l’expérience…..En 2007, Anton Zeilinger réussit à tester ces inégalités, qui s’avèrent violées. Ainsi, il semble qu’il devienne difficile de maintenir des théories à variables cachées, locales ou non, car les hypothèses retenues par Legget pour bâtir le modèle aboutissant à ses inégalités sont raisonnables. Toutefois, selon Alain Aspect, la violation avérée des inégalités de Legett ne remet pas en cause le modèle à variables cachées non-locales de Bohm.
Dans une situation ou sont opères des choix entre plusieurs pistes, hypothèses de travail ; se produit l’étape bifurcatrice. Elle est généralement clairement « justifiée », mais fini par constituer un « empilage »dont l’origine a tendance à se perdre 40 ou 50ans après, ce sera ma première remarque interrogative, et non conclusive. La deuxième concerne l’axiome MIN, qui élimine le « paradoxe » (si c’en est un) des possibles A-Causalités de la relativité ; si le « ver était dans le fruit » depuis 1915, faut t’il le purger à postériori par un axiome Ad-Hoc ou à l’intérieur même du fruit ? Faut t’il amender la source ? Les auteurs semblent répondre négativement, au motif que le formalisme reste « vrai », indépendant des amendements possibles de la relativité.
On peut souligner qu’autour de ces questions et, en dépit de l’indéniable esthétique physique et métaphysique du « Free Will Theorem » les physiciens débattent encore ; Je cite (de mémoire) G.Cohen- Tanoudji qui écrit à propos de la P.Q….. « Elle comporte des questions profondes non encore résolues, et l’absence d’un opérateur temps lui fait cruellement défaut ». Ainsi que les positions prises par Aspect (voir supra).
Pour terminer ce commentaire, et sans narcissisme lié à mon billet sur l’intrication, ce théorème ré-oxygène mes réflexions sur les référentiels et les événements qui s’y produisent, mais ne suis pas en mesure de prétendre l’avoir distillé.
En particulier j’ai noté dans le texte introductif : « notez que notre démonstration ne fait ni mention aux probabilités ou aux états qui les déterminent, ce qui est heureux car ces notions théoriques ont conduit à bien des confusions » cette remarque conforte la position que j’avais adoptée dans le billet et fut je l’avoue réconfortante, car je ne savais pas en juillet si il était possible de s’extraire du formalisme quantique pour avoir une crédibilité opérationnelle sur la théorie ; alors même que «Les maestros »de cette discipline ont une tendance naturelle à ramener les débats externes au sein de son strict formalisme !!
@Blob/Peltier
J’ai oublié dans le commentaire sur le théoreme de Conway, de signaler que , certes Blob a marqué un but dans les filets de L.Nottale; mais l’approche de Nottale ne me parait pas désespérement perdue; en raison méme du concept de bifurcation. Cette partie me semble intérressante à suivre. Il y a dans la relativité d’échelle une esthétique qu’on a envie de défendre.
>Marc Peltier
Je vais essayer de répondre à votre long post:
Tout d’abord, comme le fait justement remarquer Bernard Laget, le premier axiome du Free Will Theorem est en fait l’énoncé d’un théorème démontré en 1967: Ce théorème est testable expérimentalement mais surtout, il ne s’appuie pas sur les lois de probabilités, ce qui a l’avantage d’éliminer les longues discussions sur les échappatoires expérimentales.
Le fait que ce théorème soit testables expérimentalement en fait une forte contrainte pour toute les autres théories alternatives à la mécanique quantique, mais aussi aux théories la surpassant. Il faut que toute ses théories donnent en limites ultimes les mêmes résultats que la mécanique quantique.
Donc il s’en suit que le théorème de Kochen Spencer doit être redémontrable dans ce cadre alternatif, d’une manière ou d’une autre. Comme évidemment on ne connaît pas ce nouveau cadre axiomatique où l’on pourrait redémontrer ce théorème, il n’est pas aberrant d’imposer comme nouvel axiome de la physique ce théorème, en ayant ainsi recours à la figure familière du Modus Ponens logique. S’il s’avère que cet axiome peut découler d’axiome plus profond, il perdra alors son status d’axiome pour redevenir un autre théorème.
La logique de l’axiomatisation est toutefois en physique un peu différente de celle des mathématique, parce que ces propositions de base, qui génèrent par l’intermédiaire de la logique toutes les propositions vrais doit en plus en physique généré toute les propositions vrai et vérifiable expérimentalement.
L’avantage de cette façon de faire est d’imposer des contraintes sur les possibilités accessible à l’imagination des physiciens, ce qui nous permet « en creux » d’explorer le champs du possible physique.
Par ailleurs, je voudrais revenir sur votre idée que vous exprimez dans le passage suivant:
« Je me risque à formuler mes propres spéculations : A mon sens, le caractère fractal de l’espace-temps implique de ne plus concevoir la localité comme tout ou rien, local ou non local, comme l’impose la M.Q.
La localité devient nécessairement une notion dépendant elle-même de l’échelle. Aux très petites échelles, la localité se perdrait avec la complexification des trajectoires géodésiques fractales. Elle serait « floue ». La non localité et l’indétermination des phénomènes seraient complètes à l’échelle de Plank, qui constitue en R.E. un horizon des échelles, jouant un rôle semblable à celui de l’horizon des vitesses c en Relativité Restreinte, avec mise en jeu d’une énergie infinie. A nos échelles sensibles dont la dimension fractale est 1, l’univers serait réel, déterminé et local. »
Je pense que ce n’est pas une spéculation fertile: le caractère fractale de la trajectoire n’implique pas de non localité malheureusement. Votre particule reste dépendante du voisinage des points l’entourant, parce que si votre courbe cesse d’être différentiables et se trouve dotée de propriétés statistiques ou géométrique d’invariance d’échelle, elle reste à la fois locale (c’est un objet continue respectant les règles usuelles de la topologie de IR^4 par exemple) et déterministe. Un processus de Wiener, même en utilisant les règles des entiers non standard reste en effet un objet régit par des équations différentielles stochastiques donc il obéit aussi à un théorème d’existence des solutions et d’unicité.
S’il y a une non-localité intervenant quelque part, c’est nécessairement quelque chose provenant d’en dehors de cette théorie, parce qu’il n’existe pas ici de processus intrinsèque assurant l’apparition de cette non localité: votre courbe a beau un moment ou l’autre dans son extension finir par passer par tout les points, elle y passe les uns après les autres et non pas en même temps. Il faut imaginer un chemin devenant de plus en plus contourné, pour finir par passer par tout point de l’espace, ce qui n’est pas la même chose que de dépendre à tout instant de points arbitrairement éloigné, comme pourrait l’être une vrai théorie non locale.
Votre idée introduit un mécanisme en quelques sorte de « coarse graining » un peu tordu, parce qu’il n’a pas la même origine statistique que celui de la mécanique statistique d’équilibre surgissant de la mécanique statistique hors d’équilibre par le moyen du chaos déterministe, et qui me semble hors de la théorie de Nottale…
Cette théorie a encore besoin d’une couche de bidouillages pour fonctionner, ce qui lui fait perdre beaucoup de son élégance.
Pire, elle ne renouvelle pas vraiment notre vision sur la physique, puisque ces notions d’invariance d’échelle sont finalement au coeur de la théorie quantique des champs au travers du processus de la renormalisation.
>Marc Peltier
J’ai lu attentive l’article de Nottale que vous citez: l’affirmation que vous rapportez y est, mais il n’y a aucune démonstration d’une telle affirmation.
En l’état, je ne comprends pas comment Nottale peut vérifier le cadre du théorème de Bell: il faut soit que ces chemins aient lieu dans univers parallèle différent chacun, et alors on est dans une Many Worlds interprétation, ce qui ne me dérange pas mais nous ramène à des choses connues, soit il estime que l’on a une infinité de chemin classique en chaque point, ce qui est absurde du fait de la conservation de l’énergie: une infinité de particules, massive ou pas signifie qu’elles transportent une infinité d’énergie chacune.
> Zut, erreur sur mon dernier post:
il faut lire:
En l’état, je ne comprends pas comment Nottale peut vérifier le cadre du théorème de Bell: il faut soit que ces chemins aient lieu dans univers parallèle différent chacun, et alors on est dans une Many Worlds interprétation, ce qui ne me dérange pas mais nous ramène à des choses connues, soit il estime que l’on a une infinité de chemin classique en chaque point, ce qui est absurde du fait de la conservation de l’énergie: une infinité de particules, massive ou pas signifie qu’elles transportent une infinité d’énergie au total.
@Blob
Merci pour ces riches retours.
1 – L’axiome SPIN
J’avais bien noté que cet axiome découle du théorème de Kochen-Specker. Je retiens donc que transformer ce théorème de M.Q. en axiome revient à dire « Cette partie de la M.Q. est assez solide et assez testée pour que nous la considérions comme acquise, et nécessairement fondatrice pour toute autre théorie ». Votre formulation sur ce point est presqu’acceptable pour moi, et nous sommes donc presque d’accord, avec cette petite nuance : la Relativité d’Echelle doit absolument reconstruire tout ce pan de la Mécanique Quantique, ce qui est très contraignant, mais elle n’a pas nécessairement à en accepter d’emblée les termes et les concepts mêmes. Il s’agit d’un axiome.
2 – La non-localité
J’espère avoir compris votre argument. Le fait qu’une trajectoire géodésique fractale soit néanmoins continue lui interdirait l’accès à la « vraie » non localité, bien que tous les points de l’espace puissent éventuellement être intéressés, à tous les instants, au prix d’une énergie infinie. J’avoue que je suis perplexe et qu’il me faudra du temps pour savoir ce que j’en pense vraiment. Qu’est-ce que la « vraie » non localité? Pourquoi doit-elle être vraie? Pourquoi cette non-localité métaphysique serait-elle exigible, si une non-localité relative mais physique permet de reproduire les inégalités de Bell? Par ailleurs, cette exigence d’absolu n’est-elle pas contradictoire avec le principe même qui fonde la Relativité d’Echelle, à savoir de s’interdire le zéro et l’infini de toute quantité, pour les remplacer par des horizons?
Vous me parlez de « coarse graining » et de mécanique statistique d’équilibre ou hors équilibre : Ces notions dépassent ma culture actuelle. J’étais, dans mon intuition, tout à fait physique. Acceptons un instant les concepts de la R.E. : Si l’énergie mise en jeu dans votre expérience implique une échelle où la fractalité de l’espace-temps se fait sentir, vous aurez, de fait, dans vos mesures faites à une échelle moins affectée par la fractalité, l’apparition nécessaire d’une relative ubiquité ou non-localité, et ce comportement sera de plus en plus affirmé avec l’augmentation de l’énergie (ou plutôt de l’écart relatif d’énergie ou d’échelle).
Je traduirais cette intuition par une image : Si, dans un plan, vous coupez une droite par une autre droite (une forme imagée de mesure), l’intersection est un point unique (une forme imagée de localité). Remplaçons maintenant une des droites par une courbe fractale. Vous aurez en général plusieurs points d’intersection, et d’autant plus que la courbe fractale, est « dézoomée ». L’opération d’intersection révèle une entité de moins en moins « locale » à mesure que la fractalité s’affirme. On peut utiliser deux courbes fractales identiques, à des échelles différentes, et sans doute démontrer que, dans une portion bornée du plan, le nombre de points d’intersection est fonction de l’écart d’échelle des deux courbes, et tend vers l’infini avec cet écart. Excusez-moi de devoir recourir à une analogie pour pallier mon incapacité à formuler cela dans le langage de la physique. J’espère être compris.
A vrai dire, cela me semble moins mystérieux que la zone de transition classique/quantique en M.Q.
3 – Retour sur le théorème du libre arbitre (Free Will Theorem, FWT)
On lit dans l’article de « Notices of the AMS »
Je suis un peu choqué : Trois axiomes, pour reprendre une formule célèbre, « obligent Dieu à jouer aux dés »!
Selon moi, en toute rigueur, ces axiomes exprimant la quintessence de la M.Q. d’une part, et de la Relativité d’autre part, il faut comprendre « Si la M.Q. et la R.R. sont toutes deux vraies ensemble, alors la nature n’est pas déterministe ». Selon la façon de dire la même chose, on ne dit pas la même chose…
4 – Laurent Nottale
En enquêtant sur la toile, on se rend compte que Laurent Nottale fait l’objet de controverses assez violentes, qui le font passer de génie qui finira certainement par avoir le prix Nobel, à fumiste et escroc, qui n’explicite jamais complètement ses résultats proclamés, fait des fautes grossières et brouille les pistes à plaisir. Lui-même se plaint de l’ostracisme dont il fait l’objet, et d’un système de referees complètement dévoyé par la concurrence entre chercheurs. Il y a des noms célèbres dans chaque camp.
Nous n’avons évidemment pas à arbitrer ici. Ce qui me paraît important, c’est de discuter la Relativité d’Echelle en tant que telle, sans tirer argument du fait que Laurent Nottale est ou n’est pas pris au sérieux par la communauté scientifique.
Selon moi, le principe de relativité est irrésistible. A partir de l’instant ou l’échelle est reconnue comme relative, au même titre que la vitesse (Petit ou grand n’a de sens que relatif, comme rapide ou immobile), et qu’elle caractérise une relation inévitable entre le système physique dans lequel on peut faire des mesures et le phénomène observé, il DOIT y avoir une théorie de la relativité d’échelle, Nottale ou pas. Je souhaite bien sûr, pour Nottale, que ce soit la sienne.
>Marc Peltier
J’aurai une grande objection au sujet de l’article de Nottale que vous m’avez cité.
En fait, il y a une grande erreur dedans: Nottale prétends vérifier le paradoxe EPR parce qu’il retrouve l’équation de Schrodinger.
Or c’est totalement faux: le paradoxe EPR est indépendant de l’équation de Schrodinger, qui est un postulat dynamique de la mécanique quantique.
Les choses importantes pour le paradoxe EPR du type Bell, ce sont:
1)l’existence d’une fonction d’onde
2)le postulat de la mesure qui associe au carré de la fonction d’onde une probabilité
3)la possibilité d’avoir des états non factorisables à plus d’une particule (produit tensoriel de fonction d’onde qui est aussi une fonction d’onde
4)le postulat d’additivité des fonctions d’ondes, qui muni cet espace d’une structure d’espace vectoriel (qui s’étant en une structure d’espace de Hilbert)
La non localité est liée à 3) et 4): la fonction d’onde est un objet qui ne dépends pas uniquement du point où l’on est, puisque une paire intriquée de photons formée d’un photon situé dans la Voie Lactée et un autre dans la galaxie d’Andromède est décrite par un seul objet, la fonction d’onde formée par cette paire, qui évolue dans un espace distinct de l’espace physique.
En effet, la position des deux photons est purement arbitraire et donc virtuellement, tout les points de l’espace sont considérés.
2) n’est pas essentiel, puisque l’on peut bâtir des théorèmes de type EPR sans probabilité.
C’est pour cela qu’avoir une géodésique contourné dans l’espace physique ne nous donne pas particulièrement d’information. Dans le cas de l’intégrale de chemin, les chemins classiques sont des chemins potentiels, qui n’existent pas réellement et correspondent à des chemins suivit pour chaque mesure par une particule, ou qui existe dans des univers parallèles distincts du notre suivant l’interprétation que l’on choisit.
Feynman en effet conserve le postulat 2) (la loi de probabilité donnée par le carré du module de la fonction d’onde) pour réaliser sa pondération. Il obtient alors une moyenne sur l’ensemble des chemins que peut suivre potentiellement sa particule.
L’article de Nottale ne fait pas cela: ce qu’il considère comme moyenne statistique, c’est une moyenne spatiale, sur un voisinage de la trajectoire, et non une moyenne sur un ensemble de réalisation d’une mesure d’une grandeur quantique. Or dans ce cas là, on revient à notre situation de départ: une théorie de type variable cachée locale, puisque l’on a une et une seule trajectoire d’une particule physique qui, certes, à une trajectoire complexe.
Nottale n’a donc pas retrouvé les bases du paradoxe EPR dans cette article: soit il l’a fait plus tard dans un autre article que je ne connais pas, soit il commet une erreur très grave de raisonnement. J’ai tendance malheureusement à pencher pour cette deuxième hypothèse parce que rien dans sa théorie ne me semble produire les différents éléments que j’ai cité.
>Marc Peltier
Vous dites:
» Acceptons un instant les concepts de la R.E. : Si l’énergie mise en jeu dans votre expérience implique une échelle où la fractalité de l’espace-temps se fait sentir, vous aurez, de fait, dans vos mesures faites à une échelle moins affectée par la fractalité, l’apparition nécessaire d’une relative ubiquité ou non-localité, et ce comportement sera de plus en plus affirmé avec l’augmentation de l’énergie (ou plutôt de l’écart relatif d’énergie ou d’échelle).
Je traduirais cette intuition par une image : Si, dans un plan, vous coupez une droite par une autre droite (une forme imagée de mesure), l’intersection est un point unique (une forme imagée de localité). Remplaçons maintenant une des droites par une courbe fractale. Vous aurez en général plusieurs points d’intersection, et d’autant plus que la courbe fractale, est « dézoomée ». L’opération d’intersection révèle une entité de moins en moins « locale » à mesure que la fractalité s’affirme. On peut utiliser deux courbes fractales identiques, à des échelles différentes, et sans doute démontrer que, dans une portion bornée du plan, le nombre de points d’intersection est fonction de l’écart d’échelle des deux courbes, et tend vers l’infini avec cet écart. Excusez-moi de devoir recourir à une analogie pour pallier mon incapacité à formuler cela dans le langage de la physique. J’espère être compris. »
En fait, c’est un peu ce que fait la théorie quantique des champs, puisque l’on a des échelles différentes reliées ensemble par ce que l’on appelle des transformations de renormalisation, qui traduise physiquement l’invariance des lois et donc de la forme des équations de la physique pour différentes échelles.
L’idée profonde est que les grandeurs réelles physiques à calculer sont inaccessibles physiquement, mais que l’on accède donc à des grandeurs écrantées et donc moyennée par des fluctuations à toutes les échelles.
Plus l’on diminue la résolution de nos mesures et plus ces grandeurs divergent.
Prenez l’exemple d’un électron en mouvement: pour mesurer sa charge, vous devez interagir avec lui au moyen d’un champs électrique par exemple, ce qui se traduit par une modification de sa trajectoire, donc par la création d’un champs électromagnétique de type rayonnement, donc par un champs magnétique et un champs électrique modifiant sa trajectoire et ainsi de suite.
Ce que vous mesurer résulte alors d’une somme de champs qui s’ajoute et qui font que la charge observée est différente de ce que vous observeriez si vous n’interagissiez pas avec.
Vous pouvez consulter cette article sur cette question: http://arxiv.org/abs/hep-th/0212049
@Blob
J’aurai besoin de temps pour apprécier votre critique. Ce que je peux dire dès maintenant, c’est que je suis frappé du fait qu’elle est entièrement inscrite dans le cadre conceptuel de la Mécanique Quantique. C’est très compréhensible, et d’ailleurs j’observe que Nottale s’y soumet spontanément.
Je me suis fait la réflexion suivante : Si un autre Benoît Mandelbrot avait inventé les fractales avant 1920 (rien ne s’y opposait), la Relativité d’Echelle aurait peut-être émergé avant que la Mécanique Quantique ne s’impose, et les questions dont nous débattons, sur la localité, le paradoxe EPR, et le théorème de Bell, seraient formulées dans le cadre conceptuel de la R.E., et pas dans celui qu’implique aujourd’hui la M.Q. par sa seule antériorité.
(Voir Paul Jorion supra.)
Le retour à la bifurcation, dans ce cas, suppose un saut en arrière d’un siècle, alors que ce siècle concentre la majeure partie de la production scientifique de l’humanité, de tout temps. Toute théorie synthétique doit donc, d’une certaine façon, reconstruire un siècle de physique. C’est une bonne raison de laisser un peu de liberté aux bébé-théories.
Ne nous faisons pas les eugénistes des bébé-théories, en les déclarant prématurément mort-nées. Laissons les vivre! 😉
>Marc Peltier
Je suis obligé de juger de la R.E dans le cadre théorique et expérimentale que nous connaissons: encore une fois, une théorie alternative doit donner les mêmes résultats que la M.Q mais tant qu’à faire aussi expliquer ce qui n’est pas contenue dedans, c’est à dire par exemple l’origine de la mesure, ou des fonctions d’ondes, ou l’équation de Schrodinger, ( que l’on retrouve de toute façon formellement par des considération de symétrie voir pour cela l’ouvrage de Michel Le Bellac Mécanique Quantique chez EDP).
L’idée de la R.E est très jolie effectivement, mais ce que j’en ai lu en décortiquant les papiers que l’on me donne à lire sur le sujet ne corresponds pas à ce qui est annoncé. De plus nombre des résultats énoncés sont douteux: soit les données expérimentales sont sélectionnées pour fitter la théorie (cas des positions des planètes, qui sont des données possèdant un biais systématiques et donc ne sont pas statistiquement valables), soit les résultats ne semblent pas sortir directement de la théorie sans approximations non maîtrisées.
Du coup, je ne pense pas qu’il faille perdre du temps sur ce sujet: il y a bien d’autres théories aussi élégantes et bien mieux fondé qui s’avèrent aussi intéressante à étudier, et qui, elle, s’applique avec plus de bonheur à la réalité, ou du moins aux mathématiques.
@Blob
Je crois que nous arrivons au bout de ce que l’échange via le blog peut apporter.
En tout cas, je tiens à vous remercier d’avoir bien voulu débattre d’un domaine que vous connaissez bien avec un inconnu qui le connaît bien moins, pour la seule gloire de la « culture ambiante ». Ce fut pour moi très enrichissant, et il me reste beaucoup à méditer, ce qui constitue mon plaisir coupable…
Amicalement.
>Marc Peltier et Bernard Laget.
Je suis moi aussi très content de la courtoisie que vous avez manifesté durant cette échange. j’espère que nous aurons d’autres occasions de discuter de ce sujet ou d’autres.
Je vous en remercie.
@Blob /Peltier
Nous autres spectateurs de vos échanges vous remercions aussi.
On se trompe de débat, vous Etes « X » :
– X verra de façon corpusculaire tout ce qui externe (comprendre ici macroscopique)
– X verra de façon ondulatoire tout ce qui est interne (comprendre ici microscopique)
Les deux sont là, mais où est X…
Newton s’est trompé, la gravitation n’existe pas et c’est une immense révolution !
En ce 14 juillet 2010, rien de tel qu’une révolution en sciences physiques pour accompagner notre fête national et si le banquet élyséen est annulé, un étrange banquet à la fois philosophique et scientifique vient de commencer. Le maître de cérémonie est un physicien hollandais, Eric Verlinde qui, avec son frère jumeau, forme un sacré tandem réputé pour leurs compétences dans les théories mathématiques les plus abscondes comme la fameuse théorie des cordes dont on attend depuis des décennies qu’elle livre le secret de la grande unification des quatre forces fondamentales. Or, ce que nous dit Verlinde est proprement hallucinant. La force de gravitation, telle qu’elle a été conçue par Newton, puis utilisé pendant trois siècles de cosmologie, eh bien cette force n’existe pas !
http://www.agoravox.fr/actualites/technologies/article/newton-s-est-trompe-la-gravitation-78450