Initiation à la physique quantique

Initiation à la physique quantique, la matière et ses phénomènes, Valerio Scarani, Vuibert, 2003
L'intérêt de ce livre, préfacé par Jean-Marc Lévy-Leblond, est moins dans sa tentative d'initiation à la physique quantique que dans la reformulation de ses paradoxes à la lumière des dernières expériences (qui datent de 1998). Il faut dire que ces vérifications expérimentales répétées ne sont pas encore assez prises en compte par les physiciens eux-mêmes, alors que les interprétations initiales des mystères quantiques ne sont plus tenables, pas plus d'ailleurs qu'une prétendue remise en cause de notre logique qui nourrit tous les délires sous prétexte de notre incompréhension (on est toujours tenté d'expliquer les mystères par des causes encore plus mystérieuses). L'étonnant c'est que l'incertitude quantique ne se réduit pas aux limitations expérimentales, comme on l'a longtemps cru, ni aux contraintes de l'information, ce qui est la dernière mode, mais relève plus fondamentalement du monde quantique lui-même où les particules n'existent pas en dehors de leurs interactions. Nous verrons que la primauté du continu sur le discontinu est une contrainte ontologique avant d'être épistémologique. La discontinuité de la matière est constitutive, elle ne peut être divisible à l'infini comme le montrait déjà le sophisme d'Achille qui ne peut jamais rattraper la tortue car il lui faudrait parcourir une infinité de points... Il ne faut pas se précipiter à conclure pour autant que cela supprimerait toute continuité physique alors que la continuité reste indispensable à la topologie de l'espace, au mouvement comme à la durée des choses. Il ne peut y avoir de discontinuité sans continuité, ce qui devient une question entièrement physique avec la "dualité onde-particule" qui se manifeste notamment par les corrélations de particules jumelles aussi éloignées qu'elles soient. La vérification répétée de ces corrélations pose des problèmes difficiles de représentation d'action à distance, comme si on revenait au temps de Newton, mais réfute le caractère aléatoire des phénomènes quantiques. Certes, il n'y a pas de stabilité au niveau quantique (il n'y a stabilité que des liaisons électromagnétiques des atomes et des contraintes de symétrie) mais si les fonctions d'onde ne sont effectivement que des probabilités, ce sont des probabilités absolument déterministes et rigoureuses, jusqu'à relier rigidement les propriétés de deux particules corrélées.

On comprend donc un peu mieux le monde quantique qui semble même très simple, cela ne veut pas dire qu'on le comprenne vraiment, ni qu'il soit facile de se faire une représentation ondulatoire de la matière ou des corrélations à distance. L'électrodynamique quantique est à peu près complète dans l'unification des forces. Reste la difficulté à construire une théorie quantique de la gravitation, ce que tente la "théorie des Cordes" de façon purement mathématique. On peut s'étonner de l'incompatibilité, proclamée par Einstein lui-même, de la physique quantique avec la relativité alors qu'elles semblent procéder de la même source. Une alternative à la théorie des cordes qui tente de géométriser toutes les forces serait peut-être, si on suit Feynman, de remettre en cause la géométrisation de la gravitation par la Relativité Générale, ce dont il faut mesurer toutes les conséquences. Tout ceci montre que si nous en savons beaucoup sur la matière, nous ne savons pas encore vraiment ce que c'est !

1. Discontinuité de la matière (quanta) et continuité des champs

Max Planck montre en 1900 que pour rendre compte de l'expérience des rayonnements d'un four (qui est une sorte de "corps noir" sans rayonnement extérieur ou presque), il fallait introduire une constante h proportionnelle à la fréquence et qu'il appelle QUANTUM. L'étonnant, en effet, c'est que l'énergie des ondes électromagnétiques ne varie pas de manière continue mais admet seulement des multiples de cette constante h x f (où h = 6,63 x 10-34 Joules par seconde et f représente la fréquence mesurée). Il faut comprendre que si la constante de Planck a été introduite seulement pour rendre compte des mesures effectives, ce n'est pourtant pas à cause d'une limitation de l'expérience car si les variations étaient réellement complètement continues et non quantifiées, comme la théorie le prétendait jusqu'alors, cela aurait eu pour impossible conséquence une énergie totale de rayonnement à l'intérieur d'un four qui aurait été infinie puisqu'il y aurait une infinité de rayonnements. Au contraire, à partir des ultra-violets, plus la fréquence était élevée et moins il y avait de rayonnements (c'est ce qu'on a appelé la "catastrophe ultraviolette"). La quantification est une contrainte du réel, de sa finitude, et non une limitation théorique. Cette découverte est la base de la physique quantique, même si elle ne devait commencer vraiment qu'en 1905 avec Einstein qui en généralise la portée, en établissant l'équivalence entre masse et énergie (E=mc2), à partir du fait que la lumière est elle-même quantifiée, constituée de photons, expliquant ainsi notamment l'effet photoélectrique (on y reviendra). C'est d'ailleurs en grande partie contre Einstein, mais dans un dialogue intense avec lui, que se construira la physique quantique dont il n'acceptera jamais le caractère probabiliste lié à la discontinuité des quanta (alors même qu'il avait prouvé en 1905 l'existence des atomes à partir d'une interprétation probabiliste des fluctuations d'entropie dans le mouvement brownien).
Les physiciens contemporains sont convaincus qu'il est impossible de rendre compte des traits essentiels des phénomènes quantiques (changements apparemment discontinus et non déterminés dans le temps de l'état d'un système, propriétés à la fois corpusculaires et ondulatoires des entités énergétiques élémentaires) à l'aide d'une théorie qui décrit l'état réel des choses au moyen de fonctions continues soumises à des équations différentielles. [...] Surtout, ils croient que le caractère discontinu apparent des processus élémentaires ne peut être représenté qu'au moyen d'une théorie d'essence statistique, où les modifications discontinues des systèmes seraient prises en compte par des modifications continues des probabilités relatives aux divers états possibles. (1949) Einstein, p221-222
Toute la spécificité et les paradoxes de la physique quantique découlent donc de ce caractère discontinu des quanta qui s'opposent à la mécanique classique avec ses mouvements continus à base de fonctions mathématiques continues dont on peut calculer une dérivée. L'existence d'un saut quantique (on passe d'un quantum à un autre sans transition) introduit un effet de seuil qui est aussi un effet de particule mais qui n'est plus entièrement calculable et garde une part d'incertitude, liée à la sensibilité aux conditions initiales comme au contexte immédiat, ce que les théories du chaos ont généralisé (Prigogine), mais aussi aux fluctuations quantiques d'autant plus grandes que le temps est court. Il y a une limite à la connaissance du Réel, pas seulement l'absence d'accès aux dynamiques sub-quantiques ou l'impossibilité d'intégrer des données innombrables car le caractère imprévisible des phénomènes chaotiques, comme des sauts quantiques, n'est pas dû à une limitation de notre savoir, c'est une composante intrinsèque du phénomène (l'effet de particule est bien réel). Nos connaissances relèvent toujours en fin de compte des probabilités, qui peuvent être très grandes sans jamais pouvoir être complètement exactes. Aussi bien les théories du chaos que la théorie quantique nous obligent à intégrer les processus non-linéaires de transition de phase, nouvelle physique prenant ses distances avec la géométrie du continu et le réductionnisme mathématique. Il semble que l'aboutissement actuel en soit la théorie des cordes qui remet en cause la notion de point sans dimension en physique. En effet, il faudra ajouter à la constante de Planck une longueur de Planck (2 x 10-35 mètres) et un temps de Planck (10-43 seconde) en dessous desquels on perd tout sens physique, toutes les valeurs devenant infinies. La matière et l'énergie sont discontinus, ils ont une épaisseur et une localisation, rugosité sur l'espace lisse de la géométrie.

D'une certaine façon, Zénon d'Elée avec ses sophismes (Achille et la tortue, la flèche immobile) avait déjà montré que la divisibilité à l'infini du continu abolit le mouvement et qu'un point sans dimension n'a aucune existence. Le caractère discontinu, fini, des phénomènes est une condition de l'existence elle-même ("Il est nécessaire que chaque existant ait une certaine grandeur, une certaine épaisseur, et qu'il y ait une certaine distance de l'un par rapport à l'autre"). L'infini est le signe qu'on a quitté la physique. Une physique entièrement continue est donc bien contradictoire. Ce n'est pourtant pas une raison pour abolir toute continuité, comme John Archibald Wheeler voulant tout réduire à l'information ("IT from BIT", l'être vient du bit prétend-il. Il serait plus juste de dire que l'être est relation, interaction). On ne peut penser la discontinuité des choses sans la continuité des mouvements dans l'espace et le temps.

René Thom qui, dans "Prédire n'est pas expliquer", attribuait "l'origine de la pensée scientifique" aux paradoxes de Zénon (p82), soutenait pourtant bien que toute discontinuité phénoménologique renvoyait à une dynamique sous-jacente (L'Antériorité Ontologique du Continu sur le Discret), les singularités ou les catastrophes constituant des points de rupture de fonctions continues, saillances qui ne peuvent surgir que d'un fond continu sur lequel elles se détachent. Toute topologie se définit par la continuité de son substrat et ne peut être reconstruite à partir du discontinu. Pourtant rien n'existe que le discontinu, ce qui a un bord (cobordisme). Le mouvement et l'espace impliquent donc aussi bien la continuité que la discontinuité car "seule la discontinuité se propage" (p104). Pour René Thom, "la mécanique quantique est incontestablement le scandale intellectuel du siècle" (p86) car il est persuadé qu'"il y a une dynamique continue, infra-particulaire, sous-jacente à la mécanique quantique" (p85). Dans la lignée de la théorie des cordes, il prenait d'ailleurs l'image d'une "ficelle enroulée autour d'un tambour [...] Un tour de tambour, c'est le quantum" (p83). Pour lui, on peut rendre compte des discontinuités et des phénomènes aléatoires par des "variables cachées" correspondant à des dimensions supplémentaires.

Les singularités apparaissent lorsque l’on soumet en quelque sorte l’espace à une contrainte. La manche de ma veste, si je la comprime, je fais apparaître des plis. C’est une situation générale. Cela ne relève pas de la mécanique des matériaux. J’énonce en réalité un théorème abstrait : lorsque’un espace est soumis à une contrainte, c'est-à-dire lorsqu'on le projette sur quelque chose de plus petit que sa propre dimension, il accepte la contrainte, sauf en un certain nombre de points où il concentre, si l’on peut dire, toute son individualité première.

La difficulté est bien de penser en même temps la continuité topologique et la discontinuité matérielle sans confondre les caractères ondulatoire et corpusculaire de la lumière ou de la matière en général. C'est une contrainte ontologique plus qu'épistémologique, ne pouvant justifier la réduction de la matière à l'information. En effet, contrairement à l'information, ce qui définit la matière ou une force c'est d'être localisée, d'occuper un lieu bien délimité. Le principe d'exclusion de Pauli qui stipule qu'un fermion ne peut pas prendre la même place qu'un autre fermion est donc absolument essentiel, principe fondateur de l'espace matériel, d'une position occupée ou non, niveau d'énergie piégé par une liaison électrique et qui fait masse.

S'il y a des positions matérielles, inévitablement discrètes, ayant une épaisseur minimale et des bords, celles-ci se détachent pourtant d'un substrat continu et de l'espace qui les sépare, par leur mouvement au moins. D'ailleurs, la physique quantique se caractérise par la généralisation des ondes électro-magnétiques comme la lumière (constituée d'un champ magnétique et d'un champ électrique oscillants), c'est une "mécanique ondulatoire" ce qui implique que "la somme de deux ondes est encore une onde. Cette propriété formelle qu'on appelle le principe de superposition, traduit en quelque sorte la quintessence du concept d'onde. La physique quantique va la reprendre et la généraliser afin de lui donner une portée beaucoup plus vaste [...] Cette description des états physiques par des vecteurs d'état (ou, si l'on préfère, l'affirmation équivalente que le principe de superposition leur est applicable) est l'idée fondamentale de la physique quantique. En somme, elle exige l'addition pour tout le monde" Étienne Klein, p74-76. Ces vecteurs d'état qu'on appelait aussi fonctions d'onde, forment un espace vectoriel qui est bien continu. "Ils sont des fonctions de l'espace et du temps" 76 même s'il ne s'agit finalement que de probabilité et de la superposition de tous les états possibles.

C'est donc bien à la fois par une fréquence continue, une fonction d'onde qui se propage, et par une interaction discontinue que les particules peuvent être décrites. Le caractère corpusculaire de la matière ou de l'énergie, de même que l'effet de seuil quantique, loin de réfuter toute physique du continu, et donc toute mathématisation, sont impensables sans la continuité de l'espace et de dynamiques sous-jacentes (un jeune physicien, Peter Lynds, a insisté récemment sur le caractère continu du temps indispensable à la continuité des choses et du mouvement, temps qu'on ne peut arrêter. 09/2003). La physique quantique n'apporte qu'une imprécision locale à des forces continues de longue portée puisqu'il n'y a rien que des ondes qui interagissent.

2. Dualité onde-particule

On peut dire que la dualité onde-particule renvoie à la dualité ontologique du continu et du discontinu, cependant avec la "mécanique ondulatoire" cette dualité devient une question entièrement physique se manifestant à la fois dans l'effet corpusculaire photoélectrique et dans les phénomènes d'interférences ou de diffraction ondulatoires (comme l'arc-en-ciel).

Dès 1905 Einstein expliquait l'effet photoélectrique par le fait que la lumière était constituée de quanta d'énergie, appelés photons, dont l'absorption par un métal produisait de l'électricité, ou pour un gaz une ionisation, car "leur énergie est transformée, au moins en partie, en énergie cinétique des électrons" (p247). Ce n'est pourtant qu'en 1917 qu'il donnera la véritable "théorie quantique du rayonnement". En 1913, Niels Bohr avait bâti un modèle d'atome basé sur la discontinuité quantique, interprétant les niveaux d'énergie de l'électron comme autant d'ondes stationnaires séparées par un quantum d'énergie, l'électron ne pouvant sauter d'un niveau à l'autre si l'énergie est insuffisante (inférieure à hf). Ces niveaux d'énergie croissante correspondent à des états stables d'inertie sans rayonnement (l'électron ne tourne pas mais tombe dans un puits de potentiel). La production d'électricité solaire applique quotidiennement ce principe de transformation des photons en électricité.

L'existence des quanta produit ainsi des sauts quantiques et des effets de seuil qui vont se répercuter à tous les niveaux phénoménaux (électrons, atomes, molécules, etc.). Toute réalité physique se retrouve soumise aux perturbations des transitions de phase, à l'indétermination chaotique dès le plus bas niveau. Ces discontinuités sont responsables du caractère corpusculaire de la lumière, comme de tous les rayonnements qui sont pourtant clairement ondulatoires comme on va le voir, puisqu'ils manifestent des phénomènes d'interférence et de diffraction.

Il a fallu attendre 1923 pour que Louis de Broglie généralise cette dualité onde-particule à toute la matière en posant l'équivalence mC2=hf qui semble impliquer la fusion de la mécanique ondulatoire (mécanique quantique) avec la relativité restreinte. La quatrième relation d'incertitude d'Heisenberg implique aussi que plus la longueur d'onde est petite et plus l'énergie est grande (paradoxalement, les transferts d'énergie sont d'autant plus élevés que les distances sont petites, ce qu'on constate avec une corde mollement ou fortement agitée). Dans ce cadre la matière se caractérise par une longueur d'onde trop courte pour se transmettre, sauf si on peut refroidir considérablement les atomes, et donc en diminuer la fréquence, jusqu'à obtenir ce qu'on appelle un condensat de Bose-Einstein exhibant leurs propriétés ondulatoires dans des "lasers de matière" par exemple (voir les atomes ultra-froids). Aussi étonnant que cela puisse paraître on obtient des signes caractéristiques d'interférence avec des "ondes" de matière. La matière est donc un "train d'ondes" (ou "paquet d'ondes") qui reste normalement localisé, comme l'électron qui se stabilise sur une onde stationnaire compatible avec sa longueur d'onde, piégé dans une interaction électrique (force de couplage, puits de potentiel). Mais le plus troublant c'est que l'atome lui-même, avec tous ses constituants, se ramène à une fréquence et un spectre uniques (spectrographie de masse). Pour Einstein, ce qui fait que l'énergie reste enfermée dans la masse, ce qui arrête sa propagation, c'est d'avoir une longueur d'onde trop courte (qui rebondit?), et pour retrouver ses propriétés ondulatoires macroscopiques, il suffit d'arriver à une longueur d'onde plus grande que la taille de la molécule (en la refroidissant, ce qui baisse son énergie, sa masse et sa fréquence en augmentant donc la longueur d'onde). Il est paradoxal que plus la masse est grande et plus sa longueur d'onde est petite, comme si on s'enfonçait dans les profondeurs. Le fait que les fréquences de la matière soient plus courtes que celles des rayonnements lumineux explique pourquoi les microscopes électroniques sont plus précis que les microscopes optiques puisque la longueur observable L = h /(mv). Aussi étonnant que cela nous paraisse, les particules ont vraiment des propriétés ondulatoires alors qu'elles ont à l'évidence des comportements corpusculaires. En fait, on verra qu'il semble qu'on puisse considérer que les constituants élémentaires de l’atome ne sont pas à la fois des particules et des ondes mais alternativement, selon qu'il y a interaction (échange d'énergie) ou transmission de l'énergie (onde).

Interféromètre de Young
Interféromètre de Young

On peut noter que la théorie des cordes semble résoudre cette dualité onde-particule puisqu'une corde est un objet discontinu doté de vibrations ondulatoires, se déplaçant dans des dimensions continues. Il n'en reste pas moins difficile de comprendre l'articulation entre ces deux aspects contradictoires d'objet localisé et de champs ondulatoires à longue portée. L'expérience décisive ici est celle de la double fente de l'interféromètre de Young. Il s'agit d'un montage très simple : une source de lumière qui éclaire une plaque avec 2 fentes et derrière, un écran qui reçoit la lumière qui passe par les fentes (voir schéma). Le résultat manifeste classiquement le caractère ondulatoire de la lumière par une alternance de zones sombres ou éclairées. Rien que de très banal pour l'instant. L'étonnement vient lorsqu'on envoie un seul photon à la fois, en contrôlant l'énergie d'émission et de réception (un laser excite un atome qui absorbe un photon puis le reémet) : les interférences apparaissent encore manifestant que cet unique photon est bien passé par les deux fentes, ce qui semble pourtant incompatible avec le caractère quantique de la lumière puisqu'il faudrait admettre qu'un demi photon est passé par chaque fente. Voilà comment se pose physiquement l'énigme d'un photon à la fois onde et particule depuis les travaux de David Bohm (interférence à une particule, dit effet Aharonov-Bohm).

En fait ce n'est que depuis 1974 et les expériences de Davisson et Germer montrant ces phénomènes d'interférences avec un seul électron qu'on a du écarter l'explication d'une interférence entre plusieurs particules. Il s'agit bien d'une seule particule qui emprunte plusieurs chemins à la fois, chemins dits "indiscernables" (on en reparlera). Cette expérience a été répétée avec des neutrons en 1975 par Rauch et même sur de grandes molécules en 1998 par Zeilinger (molécule de 60 atomes de carbone, notées C60) ce qui semble bien impliquer une sorte de division de la molécule (particules et interactions) entre les fentes et sa reconstitution ultérieure !
 
3. Principe d'indiscernabilité ou de complémentarité (Principe d'incertitude)

Il faut souligner que les interférences disparaissent si on veut mesurer par quel trou passe une particule. La mesure effectuée sur une des deux fentes a pour conséquence de matérialiser la particule entièrement du côté où elle est détectée. Comme plus rien ne passe de l'autre côté, il n'y a plus d'interférence du tout ni d'indiscernabilité. Ce phénomène est d'ailleurs à la base de la cryptographie quantique car toute tentative d'espionnage est immédiatement détectée par la perturbation qu'elle introduit. En fait on peut montrer que la condition pour qu'une particule se divise en deux est la stricte égalité des distances à parcourir. Pour être indiscernables deux parcours doivent être équivalents, de même longueur notamment, ce qui veut dire de probabilités approchées. Si un des parcours est plus long il ne sera jamais emprunté comme le prouvent les expériences avec l'interféromètre de Mach-Zehnder déséquilibré (ci-dessous où la rallonge de gauche fait passer la probabilité d'arriver en TT de 50% à 100%). La transmission va (presque) toujours au plus court. C'est la raison pour laquelle toute mesure intermédiaire détruit l'égalité des parcours et l'indétermination initiale, faisant passer la probabilité de détection de la particule de 50% à 100% du côté mesuré. C'est le paradoxe connu sous le nom du chat de Schrödinger : impossible de ne pas déterminer la réalité quantique en voulant la mesurer (cela n'a rien à voir avec un subjectivisme où la réalité dépend de l'observateur car "les résultats des expériences seront rigoureusement les mêmes quelle que soit la personne qui les lit" Étienne Klein, p146).

Interféromètre de Mach-Zehnder déséquilibré
Interféromètre de Mach-Zehnder (déséquilibré à gauche)
Les miroirs semi-transparents agissent comme séparateurs de photons qui les traversent ou s'y réfléchissent selon une probabilité de 50% normalement.


Jusqu'à ces interférences à une seule particule, on expliquait l'influence de la mesure sur le résultat par le "mécanisme d'Heisenberg" ou principe d'incertitude d'Heisenberg qui se ramène à la grossièreté de nos mesures à l'échelle de Planck, ou des problèmes de collisions, et non à une modification effective des trajectoires, encore moins à la multiplication de ces trajectoires. Les dernières expériences nous obligent à une toute autre interprétation qu'une limitation dans la précision des mesures, bien plus proche du principe de complémentarité de Bohr entre dispositif et mesure. C'est bien le chemin emprunté qui est modifié par l'interposition d'un instrument de mesure et l'incertitude engendrée par l'indiscernabilité disparaît lorsqu'on rend les différentes trajectoires discernables, c'est-à-dire inégales.

Les relations d'incertitude - ou d'indétermination - de Heisenberg semblaient dire tout autre chose par l'impossibilité de mesurer en même temps la position et la vitesse d'une particule. L'incertitude sur l'autre mesure étant au moins de l'ordre de la constante de Planck, on pouvait penser qu'on avait seulement très légèrement perturbé sa vitesse, mais c'est plus grave. "Lorsque la quantité de mouvement d'une particule est connue, sa position n'a pas de réalité physique" (EPR 1935) Einstein, p459. Une conséquence, c'est que plus un atome est froid, et donc plus sa vitesse se précise (proche de zéro), et plus sa localisation devient floue formant alors "des taches des dizaines de milliers de fois plus grosses qu'un atome à température ambiante" (Pour la Science, 07/2004, p68). En fait, au regard de l'indiscernabilité, il faut comprendre cette limitation comme n'étant pas due à l'imprécision de la mesure mais bien au fait que "les deux grandeurs ne peuvent avoir de réalité simultanée". Ce que Einstein refusait c'est qu'entre deux boîtes qui ont 50% de chances d'avoir une bille dedans, le simple fait d'ouvrir la boîte suffisait à ce que la bille y soit, selon une probabilité de 100% ! C'est pourtant bien ce qui se passe dans le monde quantique où il est impossible de ne pas interagir avec l'objet mesuré, au-delà de l'aspect quantifié et corpusculaire qui ne s'actualise que ponctuellement dans une interaction (le quantum étant le niveau minimum d'interaction), alors que l'énergie, elle, peut tout-à-fait se diviser entre plusieurs fentes avec un niveau infraquantique, pour reconstituer ensuite un unique photon sur une cible, par une interaction de niveau quantique. On ne doit donc pas concevoir les photons comme des billes dans leur rayon de lumière, encore moins un chat en chair et en os, mais plutôt comme une dilution (onde) et une recomposition (particule). Seulement il ne faut pas voir l'onde comme un rayon mais comme un champ, une surface, un tissu sur lequel s'applique une tension. Pour montrer que le photon n'est pas simplement reflété par le milieu du miroir, il suffit d'enlever le milieu et constater qu'il est alors reflété par les bords ! Il faut distinguer ainsi la transmission ondulatoire de l'énergie par tous les chemins possibles d'avec sa matérialisation où elle se condense et se dépense dans une interaction. L'interprétation statistique des fonctions d'onde d'Erwin Schrödinger ne résulte pas d'une incomplétude de la théorie encore moins d'une remise en cause du déterminisme mais simplement du fait que l'interaction dépend du contexte, de la mesure ou des interventions extérieures qui expliquent ainsi le fait que différentes mesures puissent donner des résultats différents.

La fonction d'onde d'Erwin Schrödinger

fonctions d'onde d'Erwin Schrödinger

Fonction d'onde
Y (x) = cos (px/h) + i sin (px/h)
px est l'impulsion de x : vitesse * masse (mv)
 
La fonction d'onde, notée psy, est un nombre complexe fonction de la position et du temps. Son interprétation ne peut pas être "réaliste" mais seulement d'une probabilité de matérialisation, comme Max Born l'a montré, puisque c'est la mesure qui crée l'interaction (constituant "l'effondrement de la fonction d'onde" ou une "réduction du paquet d'onde", passage de la probabilité au fait). On additionne des "amplitudes" dont le carré (|Y|2) donnera la probabilité de mesure. "Une amplitude de probabilité est un nombre complexe, défini par une partie réelle et une partie imaginaire, ou par un module et une phase, dont le carré du module est une probabilité, c’est-à-dire un nombre réel compris entre zéro et un qui donne la probabilité de position" Gilles Cohen-Tannoudji). La fonction d'onde pourrait se déduire du principe de moindre action.

A partir de là, le monde quantique est principalement celui de l'interaction des photons avec les électrons, leur absorption (excitation), leur réémission (rayonnement) ainsi que la création de paires électron-positron (creux et bosses) sous l'effet de la perturbation magnétique d'un photon au voisinage d'un noyau lourd, et la production de photons par une collision électron-positron, ou toute autre création et désintégration de particules (plus l'énergie d'une particule est élevée, plus courte est sa durée de vie).


Reste la quatrième relation d'incertitude qui énonce que l'énergie peut fluctuer dans un rapport inverse au temps (dt x dE >= h ou h /2p ce qui est strictement la généralisation de la constante de Planck et qui établit un rapport entre le temps et la portée d'une interaction). Plus le temps mesuré est court, plus la fluctuation d'énergie est grande (notamment la fluctuation du vide). Là aussi, ce pourrait être un défaut des instruments de mesure alors qu'on peut en déduire que, "tout se passe comme si le temps de vie fini d'un système instable impliquait une indétermination de son énergie, appelée largeur (en énergie) du système" Cnrs p43. On pourrait presque imaginer qu'au plus petit écart de temps possible (inférieur au temps de Planck ?), la fluctuation de l'énergie est telle qu'elle peut s'étendre à l'univers entier, sans pourtant se matérialiser (la portée de la fluctuation est inversement proportionnelle à la masse se propageant sur un rayon r = h/mc). Je suis malgré tout gêné par le fait qu'on fait comme si cette fluctuation était une déduction de principe et non une observation expérimentale. Il y a une image intéressante du vide quantique donnée par Gilles Cohen-Tannoudji, c'est celle du moment de vide qui précède une élection. Le vote est encore indéterminé et fluctuant avant l'ouverture des bureaux de vote, mais une fois exprimé, c'est comme si le 21 avril par exemple, existait depuis toujours. C'est dire que la tension préexistait mais ne s'était pas encore matérialisée dans l'interaction avec le dispositif.
 
4. Corrélations entre particules et non localité

Interféromètre de Franson 
déséquilibré
Interféromètre de Franson (déséquilibré)
La source lumineuse du milieu envoie 1 photon de chaque côté sur des miroirs semi-transparents

L'expérimentation des interférences avec une seule particule change donc l'interprétation des phénomènes quantiques et de la dualité onde-particule, mais le passage à deux particules va nous apporter de nouveaux enseignements, faisant intervenir cette fois la corrélation entre particules. Ainsi, un interféromètre de Franson (ci-dessus) qui envoie deux particules (deux photons reémis par un atome excité) dans des sens opposés vers des montages identiques où elles peuvent aboutir, avec des probabilités de 50%, sur deux cibles correspondant soit à un chemin court, soit un chemin long, permet de montrer que "les deux particules ont donné chaque fois le même résultat", observant ainsi une étonnante "corrélation parfaite" quelque soit la distance. Ce n'est pas tout. Il suffit en effet de légèrement rallonger un des deux chemins longs (pas l'autre) pour s'apercevoir que "les deux particules ont donné chaque fois le résultat opposé", manifestant cette fois, lorsque l'interféromètre est déséquilibré, une "anti-corrélation parfaite" (p68).
Lorsque deux systèmes quantiques sont corrélés, il devient impossible de les décrire séparément (Schrödinger), et cela quelle que soit la distance qui les sépare (EPR) p85.
Non seulement donc tout se passe comme si une particule explorait tous les chemins pour trouver le plus court, en passant malgré tout par tous les chemins possibles, toutes les ouvertures, tous les interstices, pour aboutir finalement en un seul point, mais en plus, des particules peuvent être en corrélation parfaite et immédiate quelque soit la distance qui les sépare ! A ce stade "la délocalisation induite par le principe d'indiscernabilité est encore plus dramatique" p70. C'est ce que Einstein considérait comme un preuve d'inconsistance de la physique quantique dans l'article EPR de 1935 : qu'un système séparé puisse être influencé par une mesure sur un autre système. C'est pourtant bien ce que l'expérience confirme : une intrication des états quantiques, une non-séparabilité quelque soit la distance, comme s'il pouvait y avoir une action à distance immédiate (ne respectant pas la limite de la vitesse de la lumière et donc d'ordre géométrique). Il faut préciser que la non-séparabilité se manifeste au niveau des propriétés, par exemple des spins opposés, alors même que le spin de l'une ou de l'autre peut prendre toutes sortes de valeurs imprévisibles. Ce qui est prévisible c'est uniquement la corrélation. Du coup, on n'est plus du tout ici dans les probabilités mais dans une exacte corrélation, ce qui amène à réviser la place de l'indétermination au niveau quantique qui n'est pas, comme en statistique, due au trop grand nombre de particules, ni à un quelconque déterminisme mou qui pourrait enfreindre en quoi que ce soit le principe de causalité (Comme disait Léon Rosenfeld : "Une loi statistique est avant tout une loi, l’expression d’une régularité, un instrument de prévision"), mais bien aux variations contextuelles (il faudrait d'ailleurs distinguer probabilité, marge d'incertitude, effets de seuil et fluctuations quantiques). Le caractère rigide du déterminisme est même ce qui permet de concevoir un ordinateur quantique ou bien la cryptographie quantique qui n'admettent pourtant aucune erreur.

Les expériences décisives dont le livre de Valério Scarani rend compte en détail, ont établi qu'il ne s'agissait pas simplement de corrélations établie à la source, à variables cachées (ce qui impliquerait de respecter "l'inégalité de Bell" entre les mesures a ou a' d'un côté et b ou b' de l'autre, d'une valeur 0 ou 1 : (a+a')b+(a-a')b' <= 2). Alain Aspect a montré en 1981-1982 que les corrélations quantiques violent l'inégalité de Bell, résultat confirmé sur une portée de 400m par Zeilinger en 1998, avec changements rapides de configurations postérieures à l'envoi des particules. "Les corrélations persistent et violent l'inégalité de Bell : l'échappatoire de localité est définitivement fermée !" p92, sans qu'il puisse y avoir échange d'information à une vitesse supérieure à celle de la lumière. Il faudra attendre pourtant les premières tentatives de cryptographie quantique pour faire tomber ces résultats étonnants du statut de problèmes philosophiques insolubles à celui de réalités physiques concrètes, bien que tous les physiciens n'en tiennent pas assez compte encore, loin de là.
Parfois on entend formuler l'interprétation orthodoxe de manière plus rapide, en disant que d'après cette approche la théorie quantique ne décrit pas directement la réalité "en soi", mais l'information que nous pouvons avoir sur elle. Il y a un goût kantien dans cette formulation.

En disant cela, on ouvre cependant les portes à un raisonnement qu'il est difficile d'éviter - c'est d'ailleurs le raisonnement qui marque le passage de Kant à l'idéalisme de Fichte : si la chose en soi est de toute façon inconnaissable, comment savons-nous qu'elle existe ? Pourquoi ne pas en conclure que l'information elle-même est la réalité? p100

David Deutsch se base sur la notion d'ordinateur quantique, notion dont il est un des créateurs. L'idée de l'ordinateur quantique consiste à regarder le fait qu'un objet quantique explore différents chemins à la fois, comme une forme de calcul en parallèle, un calcul dans lequel le résultat final dépend de toutes les variantes possibles. p100

Pour finir, penchons-nous sur l'interprétation dite des "ondes-guides" ou des "ondes vides", suggérée par Louis de Broglie et formalisée par David Bohm. Il s'agit d'une interprétation qui essaye de remplacer le critère d'indiscernabilité par un mécanisme physique sous-jacent.

Nous avons vu dans les premiers chapitres de ce livre que les particules quantiques se comportent tantôt comme des corpuscules (chaque particule n'excite qu'un détecteur), tantôt comme des ondes (interférences). L'idée astucieuse de de Broglie consiste à explorer la possibilité que le corpuscule et l'onde ont tous deux une réalité physique. Plus précisément, les particules quantiques seraient des corpuscules, bien localisés, qui se déplaceraient guidés par une onde. C'est l'onde qui explore tous les chemins possibles, et c'est la modification des propriétés de l'onde qui influence les "choix" du corpuscule à chaque séparateur [...] L'hypothétique onde quantique ne doit pas transporter d'énergie, d'où le nom d'onde vide avec laquelle on la connaît. En fait, l'onde quantique qui guide le corpuscule serait inobservable [...] mais si l'on considère les interférences des corrélations entre deux particules distantes l'image devient plus problématique. En effet, pour expliquer les corrélations quantiques à distance, il faudrait postuler que les opérations effectuées sur une particule changent l'onde ressentie par l'autre particule de manière instantanée. Ceux qui connaissent un peu l'histoire de la physique ne tarderont pas à remarquer que les ondes vides de De Broglie et Bohm constituent en fait une version quantique de l'éther, ce support hypothétique pour la lumière dont la théorie de la relativité d'Einstein a décrété l'inutilité. Troisièmement, l'onde vide n'est pas une onde dans l'espace à trois dimensions, comme les vagues de la mer ou les ondes sonores. Pour s'en rendre compte, il suffit de rappeler que les interférences ne dépendent pas seulement des différences de longueur des chemins, mais de n'importe quelle différence (le spin de l'expérience de Rauch, l'état d'énergie dans l'expérience de Constance, la polarisation dans l'expérience d'Aspect...) p104-105

Même si cette théorie des ondes vides semble la plus proche de la réalité, elle n'est pas entièrement satisfaisante. Il semble bien, en effet, que les quanta se matérialisent là où une interaction est sollicitée (c'est un quantum d'action, un échange d'énergie, produit d'une durée par l'énergie transférée ou d'une longueur par une impulsion), et par le plus court chemin, celui qui dépense le moins de temps ou d'énergie. Plutôt que d'ondes vides, je parlerais plutôt de tension, de champ, d'ondes d'énergie infraquantique mais qui semblent occuper tout l'espace (éther, topologie, cordes), les interactions ayant un rôle d'attracteur, de puits de potentiel capables d'aspirer de l'énergie qui ne peut s'échanger que par quanta. Les quanta n'ont pas une réalité constante, comme une bille lancée d'un endroit à l'autre, mais sont la force d'arrachement de l'énergie de sa forme d'onde, force d'échange et de localisation d'une énergie ondulatoire qui est bien, elle, fréquence continue et non locale. Le caractère fondamental des ondes, le caractère ondulatoire de l'être qu'on retrouve partout est remarquable. Il résulte d'une agitation, une tension appliquée à un support qui la propage en se déformant plus ou moins rapidement. L'existence des ondes me semble impliquer l'existence d'un éther, d'une substance vibrante et donc qu'il n'y a pas vraiment de vide dans l'espace (on retrouve Aristote).

Par leur immédiateté, les corrélations semblent relever de contraintes géométriques de symétrie qui nous échappent encore mais plaident pour une dimension supplémentaire réunissant les particules éloignées, ou bien, à l'opposée, pour l'hypothèse "holographique" faite par Susskind et 't Hooft réduisant l'espace à deux dimensions au lieu des trois habituels. On peut d'ailleurs se demander si le comportement des bosons (comme le photon) est comparable sur ce plan à celui des fermions (comme l'électron). Je trouve pour ma part qu'une corrélation entre fermions (interférences localisés) est beaucoup moins compréhensible qu'une corrélation entre bosons qui ne font que matérialiser un champ d'ondes.

En tout cas, il faut préciser, comme Alain Aspect le souligne, que la non-séparabilité ne se manifeste qu'en l'absence de perturbations. Toute mesure ou interaction a un effet de décohérence (perte d'information dont on peut penser qu'elle fonde, avec la durée de vie des particules, l'irréversibilité du temps et l'entropie). Dès lors la séparabilité peut être considérée comme un effet du bruit environnant qui isole chaque particule dans des interactions locales (sinon "mathématiquement, la cohérence quantique est traduite par la propriété de linéarité de l’espace de Hilbert" Gilles Cohen-Tannoudji, sauf qu'il ne se passe jamais rien dans l'espace de Hilbert que toute mesure va perturber).

5. Physique quantique et gravitation

Il est admis par la plupart des physiciens, en premier lieu par Einstein lui-même, qu'il y aurait une incompatibilité entre la mécanique quantique et la relativité, mais c'est une affirmation qu'il faut fortement nuancer car les deux théories ont de nombreux recoupements et bases communes (E=mc2, équations relativistes de l'électron de Dirac, théorie quantique des champs, etc.). En fait, à part le problème de l'immédiateté des corrélations qui semblent briser la limite de la vitesse de la lumière (paradoxe EPR), il y a surtout une difficulté à construire une théorie quantique de la gravitation (ce à quoi travaille la théorie des cordes pourtant), ne serait-ce qu'à cause de l'extrême faiblesse des forces gravitationnelles au niveau quantique par rapport aux autres forces. S'il y a incompatibilité ce n'est sans doute pas avec la relativité restreinte mais peut-être avec la géométrisation de la gravité opérée par la relativité générale.
En théorie de la relativité générale, la gravitation joue donc un rôle qui la distingue des autres forces - en particulier des forces électromagnétiques - dans la mesure où les dix fonctions qui représentent le champ de gravitation déterminent également les propriétés métriques de l'espace de mesure à quatre dimensions. Einstein, p344
Pour Richard P. Feynman "l'un des aspects les plus curieux de la théorie de la gravitation, c'est qu'elle admet à la fois une interprétation en termes de champ et une interprétation géométrique [...] L'interprétation géométrique n'est pas vraiment nécessaire, ni indispensable à la physique. Il se pourrait bien que toute cette coïncidence ne représente qu'une sorte d'invariance de jauge" p138. La géométrisation implique une immédiateté des forces alors qu'un champ se caractérise par des ondes gravitationnelles qui se transmettent à la vitesse de la lumière. En tout cas, particulariser la gravitation en l'assimilant à une déformation de l'espace est un obstacle à l'unification des forces électro-magnétiques et de la gravitation, comme le note Einstein lui-même. Ce qui particularise la gravité et permet d'assimiler le champ gravitationnel à une courbure de l'espace, c'est l'absence de pôles négatif et positif dans la gravitation contrairement aux forces électromagnétiques (de spin 1/2 ou 1). La gravitation n'intervient qu'entre des corps neutres (mais formés de charges électriques opposées), ce n'est pas une mince différence avec l'intervention de forces de liaison par complémentarité (entre + et -), forces d'attraction et de couplage résultant donc d'une symétrie brisée qui se reconstitue. On peut constater cette différence avec le caractère fractal de la gravitation (étoiles, galaxies, amas de galaxie, etc.), ce qui n'est pas le cas des phénomènes électromagnétiques qui s'annulent par paire et ne laissent que de très légères traces d'ionisation et de rares éclairs d'électricité aux niveaux supérieurs. D'un autre côté ce caractère fractal de la gravitation selon des échelles de temps proportionnelles aux échelles d'observation semble plaider pour un champ de forces gravitationnelles qui n'est pas immédiat, et donc pas d'ordre géométrique, mais implique une vitesse limitée de transmission. La Théorie des Cordes tente pourtant d'unifier toutes les forces en faisant de la gravitation un "monopôle magnétique" (inspirés des instantons de Donaldson), supposant une bien curieuse fuite énergétique dans d'autres dimensions, ainsi qu'en géométrisant les forces électromagnétiques dans des dimensions supplémentaires comme l'avait proposé Theodor Kaluza en 1919 déjà (Einstein p224), la dimension supplémentaire n'étant pas perceptible car elle serait plus petite que la longueur d'onde de la matière. Si Einstein avait rejeté la suggestion, c'est bien que cela remettait en cause la Relativité Générale et le privilège donné à la gravitation.

Il faut donc revenir sur ce qui motive la relativité générale, c'est-à-dire le principe d'équivalence entre gravitation et accélération (entre le poids et l'inertie), cas particulier de l'exigence d'une physique qui doit être indépendante des coordonnées et donc de l'accélération des corps. Les lois de la physiques doivent ainsi être covariantes non seulement à la transformation de Lorentz (vitesse de la lumière constante quelque soit notre vitesse, comme dans la relativité restreinte), mais elles devraient aussi être covariantes à tous les mouvements accélérés, non linéaires, dont la chute dans un champ de gravitation n'est qu'un exemple. Accélérations et vitesses relatives n'ont de sens qu'entre des masses et non par rapport à la vitesse de la lumière. Feynman remarque pourtant "qu'une charge accélérée rayonne, tandis qu'on n'attend pas d'une charge soumise à un champ gravitationnel qu'elle émette du rayonnement" p149. Il y a donc peut-être un moyen de différencier accélération et champ de gravité, mais ce que la Relativité Générale prétend obtenir par sa métrique riemannienne résultant de la déformation de l'espace physique sous l'influence de la matière, c'est bien l'indépendance de tout référentiel. Pour Einstein, "les coordonnées sont des paramètres mathématiques sans signification physique" p308. L'universalité des lois, quelque soit le lieu de l'univers ou le déplacement, est un principe de base de la physique depuis Galilée, auquel la Relativité Générale ajoute simplement "quelque soit l'accélération", car l'accélération est elle-même relative aux autres mouvements. Ces équivalences sont d'ailleurs formalisées par ce qu'on appelle maintenant les "théories de jauge".

Pour comprendre si la gravitation a une spécificité qui l'oppose aux champs polarisés, il faudrait sans doute mieux comprendre la masse, la matière elle-même, sa gravité qui se confond avec son inertie (bien que le photon, sans masse ni inertie, soit courbé par la gravitation comme s'il subissait la pesanteur, poids sans masse ?). Einstein s'inspirant de Ernst Mach considérait qu'il y avait inertie ou accélération seulement relativement aux autres masses. Il n'y a "pas accélération en soi mais accélération par rapport aux masses des autres corps" p305. "L'inertie dans ma théorie, c'est juste en fin de compte une interaction entre les masses" p388. Ce qui peut se comprendre lorsqu'on prend les masses comme déjà données, selon un arrangement arbitraire, mais devient carrément problématique lorsqu'on prend en compte la formation de la matière et de l'inertie elle-même à partir de l'absorption de rayonnements. En effet, l'acquisition de masse apparaît alors comme ce qui limite la portée d'une interaction, la ralentit ou la fixe, constituant sans doute une interférence localisée, une dissymétrie (fermions), une relation qui elle n'est pas relative. Rappelons que la masse ne dépend pas de la vitesse, c'est une masse au repos. Une particule sans masse n'est jamais au repos mais toujours à la vitesse de la lumière. On pourrait mettre ainsi en doute les principes de la Relativité Générale tout en gardant la spécificité de la gravitation par rapport à l'électromagnétisme. Cela supprimerait du même coup le conflit avec la mécanique quantique mais aussi les rêves de grande unification de la théorie des cordes. (Le rôle de l'entropie thermodynamique, du refroidissement qui pourrait augmenter l'intensité des liaisons ne devrait pas être négligé non plus). Mais revenons au niveau quantique.

En effet, qu'est-ce que la matière ? Selon la formule bien connue, E=mc2, c'est de l'énergie emprisonnée, de l'inertie, caractérisée par une longueur d'onde ultra-courte qui ne se propage plus mais s'enferme dans sa masse ou occupe un niveau d'énergie sous l'effet d'une force électrique, d'une interaction locale où les forces électriques s'annulent, produisant du même coup sa force d'inertie et de gravité (le temps). Ce qu'il faut comprendre, c'est la transformation d'énergie en matière, d'une interférence en inertie localisée. Pour Einstein (en 1905) "le rayonnement transfère de l'inertie entre les corps qui émettent et les corps qui absorbent". Les photons, bien que sans masse (ou si peu), transportent de la masse pourtant puisque la masse c'est de l'énergie. Une collision de photons produit des particules (et anti-particules : paire électron-positron, voir Dirac et l'antimatière), donc de la masse mais qui ne dure qu'à être prise dans une liaison électrique : seules existent des relations. Les constituants de la matière sont les quarks et les électrons qui forment les fermions chargés électriquement (sauf les neutrinos) et s'opposent aux bosons dont certains pourraient avoir une masse énorme, ce que je ne comprends pas. En effet, les bosons (spin 1 ou 0) sont de simples véhicules des interactions comme le photon, c'est de l'énergie libre qui se transmet à des vitesses proches de celles de la lumière, émission ou absorption d'énergie, et se manifestent quantiquement seulement dans les interactions, alors que les fermions (spin 1/2) constituent l'inertie elle-même, la matière, sa localisation (principe d'exclusion de Pauli), son épaisseur, sa résistance, sa gravité. C'est, semble-t-il, le caractère impair des fermions, leur incomplétude qui les rend réactifs et manifeste leur existence matérielle localisée, bien différemment d'une matérialisation quantique de particule énergétique. En effet, les fermions ont tendance à se lier par paire et les paires liées se comportent alors comme des bosons (ils ne sont plus réactifs). Ceux qui restent fermions solitaires, donc incomplets, forment ainsi des fermions composites qui peuvent se décrire comme une assemblage de n bosons + 1 fermion, le "plus-un" constituant le défaut de transmission, la brisure de symétrie de la matière, ce que Aristote appelait sa privation, déterminant son orientation, sa cause finale.

A cette analyse de la matière comme improbable brisure de symétrie se manifestant par ses interactions durables et son caractère incomplet, il faut ajouter que les particules (ou les cordes) se caractérisent par un certain nombre de dimensions qui rendent compte des types de liaison des particules, de leurs complémentarités, ce qu'on appelle l'espace interne quantique. Ce sont ces dimensions que la théorie des cordes ajoute à notre espace-temps comme modes de vibration des cordes, multiples brisures de symétrie (ou degrés de liberté) dans différentes dimensions qui sont sans doute, selon la théorie quantique : charge, masse, isospin, hypercharge, étrangeté, couleur (types de quarks). Avec les 4 dimensions de l'espace-temps, on en est donc déjà à 10. On voit que la masse n'est ici qu'une valeur comme une autre, dont un hypothétique "boson de Higgs" de spin 2 serait porteur, ce qui semble contradictoire avec une masse résultant de l'inertie de liaisons de charges électriques opposées, et encore plus d'une déformation de l'espace.

Il me semble nécessaire de séparer la cause de la matière, comme force électromagnétique de cohésion, et son effet inertiel localisé déterminant sa géométrie, son accélération et sa gravité. Il semble bien, en effet, que c'est l'énergie de liaison qui est la véritable cause de la matière puisque cela implique qu'il faut dés lors un apport d'énergie extérieur pour "briser cette brisure de symétrie", c'est-à-dire que la force de liaison empêche désormais la désintégration de la particule malgré les fluctuations quantiques (en l'absence d'apport d'énergie). Il n'y a donc pas de commune mesure entre les effets quantiques de fluctuation de l'énergie et la rigidité d'une matière constituée de relations très solides, matière cristallisée qui dure et pèse de tout son poids, ayant besoin d'une énergie plus ou moins importante pour se désintégrer en libérant l'énergie considérable qu'elle retenait dans son inertie. La matière relève de la relativité (inertie, relation) plus que des quanta (énergie, transmission) qui la constituent pourtant. Il n'y a pas grand chose de commun entre ces différents niveaux de réalité qui n'obéissent pas aux mêmes lois.

Examinons pour finir quelques hypothèses hétérodoxes. Ainsi un inconnu, Glen Angus Graham, suggère qu'il y aurait une contradiction à parler d'une longueur de Planck dans le cadre de la théorie de la relativité pour laquelle distance et taille dépendent de la vitesse. Par contre, le principe d'incertitude (vitesse/position) en Mécanique Quantique découlerait de la relativité elle-même. Il va jusqu'à dire que "La Mécanique Quantique résulte de la Relativité générale qui est sujette aux lois de la Relativité restreinte (dualité taille/distance)". Dans ce cadre, la dualité onde-particule serait une question de vitesse, la particule s'observant à l'arrêt (interaction), alors que l'onde transporte l'énergie à la vitesse de la lumière. Tout ceci me semble sujet à caution, pas du tout assez fondé, mais suscite quelques questions à creuser. Etant complètement incompétent en physique, je ne prétend à rien d'autre qu'à témoigner des questions suscitées par ce que je peux en comprendre, c'est-à-dire fort peu, comme la plupart.


Annexe sur les constantes de la physique :

La matière se caractérisant par une longueur d'onde implique longueur, durée et localisation.

Il y a 3 grandeurs fondamentales : longueur, durée et masse auxquelles sont associées 3 constantes fondamentales : c, h et G (il faudrait ajouter la charge électrique eV). "c", vitesse de la lumière, est une fréquence multipliée par une longueur d'onde. Dans les formules E=mc2 ou E=1/2mv2, l'énergie correspond à une masse multipliée par une longueur au carré divisée par un temps au carré même si dans le cadre de la relativité générale longueur et durée sont inséparables (temps propre).

Rappelons que, selon la formule de Louis de Broglie, la masse m=hf/c2.

On peut vouloir relier comme Einstein (note page 200) les constantes à des phénomènes physiques au-delà bien sûr de leur valeur numérique qui dépend de l'échelle de mesure choisie.

Pour un amateur comme Glen Angus Graham, il faudrait relier G et h, la constante de Planck représentant l'énergie minimum nécessaire pour échapper à G.

"La force gravitationnelle entre deux électrons est 1043 inférieure à la force de répulsion électrique entre leurs charges négatives" (Pour la Science p108). Dirac remarquait que ce rapport de 1043 est approximativement égal au nombre de tours effectués par l'électron autour du proton depuis le big bang" ! Selon cette hypothèse "la constante gravitationnelle est proportionnelle à l'inverse de l'âge de l'univers" (p100).

On peut préférer l'hypothèse de Di Mario pour qui le rapport entre gravité et force électrique (2.4001117x10-43 ) est à rapprocher plutôt du temps de Planck. A l'inverse (pour Feynman) le rapport force électrique sur force gravitationnelle est de 4,17 x 1042.

Pour des physiciens très sérieux, du CNRS par exemple, le proton ayant une masse 1019 fois inférieure à l'énergie de Planck et une taille 1019 fois supérieure à la distance de Planck, il pourrait y avoir unification des forces de gravitation et des forces électromagnétiques à des distances de 10-19 mètre, mais tout cela reste plus qu'hypothétique (rappelons que cela impliquerait que la charge électrique soit une forme de gravitation alors que la gravitation n'a pas de pôles opposés ce qui permet sa géométrisation).

- c = 299 792,458 km/s (vitesse de la lumière)
- G = 6.6729177325x10-11 m3 kg-1 S-2(force de gravité)
- eV = 1,6 x 10-19 J (charge de l'électron correspondant à une longueur d'onde de 1,2 nanomètre)

- h = 6.62606883731x10-34 J (constante de Planck)
- La longueur de Planck est 2 x 10-35 mètre, correspondant à la force gravitationnelle au niveau quantique. L=racine de Gh/c3
- Le temps de Planck, 10-43 seconde permet de parcourir la longueur de Planck à la vitesse de la lumière. Plus exactement : Planck time = 2.3950193x10-43
- La fréquence de Planck est 1043 hertz.
- L'énergie de Planck est de 1019 gigaélectronvolts (ou 1028 électronvolts), énergie maximum correspondant à la longueur de Planck ("plus un choc met d'énergie en jeu, plus les distances qui interviennent dans la collision sont petites" Pour la Science 01/2003, p108).

Il faudrait ajouter la constante K de Boltzmann, coefficient de proportionnalité de l'entropie, ou quantum d'information, permettant de calculer l'entropie S = K log W, où W est le nombre de complexions, de variables indépendantes, de degrés de liberté c'est-à-dire la probabilité de son état (position, vitesse). L'entropie peut se définir comme l'information perdue, le désordre, la multiplication des configurations possibles, des irrégularités, la perte de forces structurantes à longue portée et le manque d'information qui en résulte. Pour toute augmentation d'entropie on a dS = Se + Si, combinant entropie externe qui peut être réversible (Se) et "génération d'entropie" interne irréversible (Si) dont s'occupe la thermodynamique des processus irréversibles. L'irréversibilité est liée aux frottements, aux échanges (thermiques ou autres), aux phénomènes de décohérence, au temps de désintégration (durée de vie) mais surtout à l'évolution vers l'état de plus grande probabilité, la perte des contraintes initiales.

k =
1,380 66 × 10-23 JK-1
ou = 8,617 x 10-5 électron-volt/Kelvin

L'information exprime une interaction. La constante de Planck h est interprétée comme la quantité minimale d'interaction et la constante de Ludwig Boltzmann K comme le coût minimal d’une information (en fait le rapport entre quantum d'énergie en Joule et quantum de température de Kelvin, l'énergie qu'il faut pour élever la température d'un degré à pression et volume constant, or la température, l'agitation des molécules, c'est l'entropie de Clausius). Dans la "constante des gaz parfaits" R = KBNA, KB est la constante de Boltzmann et NA le nombre d'Avogadro (6,022 x 10-23) mais c'est la constante de Boltzmann qui est déduite de la constante des gaz parfaits et non l'inverse. On comprend qu'on retrouve K dans la formule de Shannon mesurant la quantité d'information puisque c'est basé sur le coût électrique d'une information transmise.La statistique quantique est basée sur ces deux constantes h et K alors que la théorie du champ quantique est basée sur h et c, comme la relativité générale sur G et c. La longueur de Planck, à la base de la théorie des cordes unifie h, c et G. 

Valeur des constantes et unités de mesure : http://hpiers.obspm.fr/eop-pc/models/constants_fr.html

Gilles Cohen-Tannoudji sur les constantes de la physique :
http://perso.club-internet.fr/gicotan/DossierPoly2003/2003_IV2.htm


Références :

Initiation à la physique quantique, Valerio Scarani, Vuibert, 2003
Petit voyage dans le monde des quanta, Etienne Klein, Flammarion, 2004
Voyage au coeur de la matière, Belin-CNRS, 2002
Albert Einstein, Textes choisis et commentés par Françoise Balibar, Points, 2002
Richard P. Feynman, Leçons sur la gravitation, Odile Jacob, 2001
Particules et lois de la physique, Richard Feynman - Steven Weinberg, Interéditions, 1989
Pour la Science  (spécial Gravitation) 01/2003

René Thom, Prédire n'est pas expliquer, 1991, Flammarion, Champs
La théorie de la relativité d'Einstein, Ernst Cassirer (1921), Cerf, 2000
http://nazim.fates.free.fr/Epistemo/Cassirer1921/commentaire_Cassirer.html



JZ 15/03/03
Jean Zin - http://jeanzin.fr/ecorevo/sciences/quanta.htm

Index