L'intérêt de ce livre, préfacé
par Jean-Marc Lévy-Leblond, est moins dans sa tentative d'initiation
à la physique quantique que dans la reformulation de ses paradoxes
à la lumière des dernières expériences (qui datent de 1998). Il faut
dire que ces vérifications expérimentales répétées
ne sont pas encore assez prises en compte par les physiciens eux-mêmes,
alors que les interprétations initiales des
mystères
quantiques ne sont plus tenables, pas plus d'ailleurs qu'une
prétendue
remise en cause de notre logique qui nourrit tous les délires
sous
prétexte de notre incompréhension (on est toujours
tenté
d'expliquer les mystères par des causes encore plus
mystérieuses). L'étonnant c'est que l'incertitude
quantique ne se réduit pas
aux limitations expérimentales, comme on l'a longtemps cru, ni
aux
contraintes de l'information, ce qui est la dernière mode, mais
relève
plus fondamentalement du monde quantique lui-même où les
particules n'existent pas en dehors de leurs interactions. Nous verrons
que la primauté du continu sur le discontinu est une contrainte
ontologique avant d'être épistémologique. La
discontinuité de la matière est constitutive, elle ne
peut être divisible à
l'infini comme le montrait déjà le sophisme d'Achille qui
ne
peut jamais rattraper la tortue car il lui faudrait parcourir une
infinité
de points... Il ne faut pas se précipiter à conclure pour
autant
que cela supprimerait toute continuité physique alors que la
continuité
reste indispensable à la topologie de l'espace, au mouvement
comme
à la durée des choses. Il ne peut y avoir de
discontinuité
sans continuité, ce qui devient une question entièrement
physique
avec la "dualité onde-particule" qui se manifeste notamment par
les corrélations de particules jumelles aussi
éloignées qu'elles soient. La vérification
répétée
de ces corrélations pose des problèmes difficiles de
représentation
d'action à distance, comme si on revenait au temps de Newton,
mais
réfute le caractère aléatoire des
phénomènes
quantiques. Certes, il n'y a pas de stabilité au niveau
quantique
(il n'y a stabilité que des liaisons
électromagnétiques
des atomes et des contraintes de symétrie) mais si les fonctions
d'onde
ne sont effectivement que des probabilités, ce sont des
probabilités
absolument déterministes et rigoureuses, jusqu'à relier
rigidement
les propriétés de deux particules corrélées.
On comprend donc un peu mieux le monde quantique qui semble même
très simple, cela ne veut pas dire qu'on le comprenne vraiment,
ni qu'il soit facile de se faire une représentation ondulatoire
de la matière ou des corrélations à distance.
L'électrodynamique quantique est à peu près
complète dans l'unification des forces. Reste la
difficulté à construire une théorie quantique
de la
gravitation, ce que tente la "
théorie des Cordes" de façon purement mathématique. On peut s'étonner de l'incompatibilité, proclamée
par Einstein lui-même, de la physique quantique avec la relativité
alors qu'elles semblent procéder de la même source. Une alternative
à la théorie des cordes qui tente de géométriser
toutes les forces serait peut-être, si on suit Feynman, de remettre
en cause la géométrisation de la gravitation par la Relativité
Générale, ce dont il faut mesurer toutes les conséquences.
Tout ceci montre que si nous en savons beaucoup sur la matière, nous ne savons pas encore
vraiment ce que c'est !
1. Discontinuité de la matière (quanta) et continuité des champs
Max Planck montre en 1900 que pour rendre compte de l'expérience des
rayonnements d'un four (qui est une sorte de "corps noir" sans rayonnement
extérieur ou presque), il fallait introduire une constante h proportionnelle à la fréquence et qu'il appelle QUANTUM.
L'étonnant, en effet, c'est que l'énergie des ondes électromagnétiques
ne varie pas de manière continue mais admet seulement des multiples
de cette constante h x f (où h = 6,63 x 10-34
Joules par seconde et f représente la fréquence
mesurée).
Il faut comprendre que si la constante de Planck a été
introduite seulement pour rendre compte des mesures effectives, ce
n'est pourtant pas
à cause d'une limitation de l'expérience car si les
variations
étaient réellement complètement continues et non
quantifiées, comme la théorie le prétendait
jusqu'alors, cela aurait eu pour impossible conséquence une
énergie totale de rayonnement à l'intérieur d'un
four qui aurait été infinie puisqu'il y aurait une
infinité de rayonnements. Au contraire, à partir des
ultra-violets, plus la fréquence était
élevée et moins il y avait de rayonnements (c'est ce
qu'on a appelé la
"catastrophe ultraviolette"). La quantification est une contrainte
du réel, de sa finitude, et non une limitation théorique.
Cette découverte
est la base de la physique quantique, même si elle ne devait
commencer
vraiment qu'en 1905 avec Einstein qui en généralise la
portée,
en établissant l'équivalence entre masse et
énergie
(E=mc2), à partir du fait que la
lumière est elle-même quantifiée, constituée
de photons, expliquant ainsi notamment l'effet photoélectrique
(on y reviendra). C'est d'ailleurs en grande partie contre Einstein,
mais dans un dialogue intense avec lui, que se construira la physique
quantique dont il n'acceptera jamais le caractère probabiliste
lié à la discontinuité des quanta (alors
même qu'il avait prouvé en 1905 l'existence des atomes
à partir d'une interprétation probabiliste des
fluctuations d'entropie dans le mouvement brownien).
Les physiciens contemporains sont convaincus qu'il est
impossible de rendre compte des traits essentiels des phénomènes
quantiques (changements apparemment discontinus et non déterminés
dans le temps de l'état d'un système, propriétés
à la fois corpusculaires et ondulatoires des entités énergétiques
élémentaires) à l'aide d'une théorie qui décrit
l'état réel des choses au moyen de fonctions continues soumises
à des équations différentielles. [...] Surtout, ils
croient que le caractère discontinu apparent des processus élémentaires
ne peut être représenté qu'au moyen d'une théorie
d'essence statistique, où les modifications discontinues des systèmes
seraient prises en compte par des modifications continues des probabilités
relatives aux divers états possibles. (1949) Einstein, p221-222
Toute la spécificité et les paradoxes
de la physique quantique découlent donc de ce caractère
discontinu
des quanta qui s'opposent à la mécanique classique
avec ses mouvements continus à base de fonctions
mathématiques continues
dont on peut calculer une dérivée. L'existence d'un saut
quantique
(on passe d'un quantum à un autre sans transition) introduit un
effet
de seuil qui est aussi un effet de particule mais qui n'est plus
entièrement
calculable et garde une part d'incertitude, liée à la
sensibilité
aux conditions initiales comme au contexte immédiat, ce que les
théories du chaos ont généralisé
(
Prigogine), mais aussi aux fluctuations quantiques d'autant plus grandes que le temps est court. Il y a une
limite à la connaissance du Réel, pas seulement l'absence
d'accès aux dynamiques sub-quantiques ou l'impossibilité
d'intégrer des données innombrables car le
caractère imprévisible des phénomènes
chaotiques, comme des sauts quantiques, n'est pas dû à une
limitation de notre savoir, c'est une composante intrinsèque du
phénomène (l'effet de
particule est bien réel). Nos connaissances relèvent
toujours
en fin de compte des probabilités, qui peuvent être
très grandes sans jamais pouvoir être complètement
exactes. Aussi bien les théories
du chaos que la théorie quantique nous obligent à
intégrer
les processus non-linéaires de transition de phase, nouvelle
physique
prenant ses distances avec la géométrie du continu et le
réductionnisme
mathématique. Il semble que l'aboutissement actuel en soit la
théorie
des cordes qui remet en cause la notion de point sans dimension en
physique.
En effet, il faudra ajouter à la constante de Planck une
longueur
de Planck (2 x 10
-35 mètres) et un temps de Planck (10
-43 seconde) en dessous desquels on perd tout sens physique, toutes les valeurs devenant
infinies.
La matière et l'énergie sont discontinus, ils ont une épaisseur
et une localisation, rugosité sur l'espace lisse de la géométrie.
D'une certaine façon,
Zénon d'Elée avec ses
sophismes (Achille et la tortue, la flèche immobile) avait déjà
montré que la divisibilité à l'infini du continu abolit
le mouvement et qu'un point sans dimension n'a aucune existence. Le caractère
discontinu, fini, des phénomènes est une condition de l'existence
elle-même ("
Il est nécessaire
que chaque existant ait une certaine grandeur, une certaine épaisseur,
et qu'il y ait une certaine distance de l'un par rapport à l'autre"). L'infini est le signe qu'on a quitté la physique. Une physique
entièrement continue est donc bien contradictoire. Ce n'est pourtant
pas une raison pour abolir toute continuité, comme John Archibald Wheeler
voulant tout réduire à l'information ("IT from BIT", l'être
vient du bit prétend-il. Il serait plus juste de dire que l'être
est relation, interaction). On ne peut penser la discontinuité des
choses sans la continuité des mouvements dans l'espace et le temps.
René Thom qui, dans "
Prédire n'est pas expliquer", attribuait "
l'origine de la pensée scientifique" aux paradoxes de Zénon (p82), soutenait pourtant bien que
toute
discontinuité phénoménologique renvoyait à une
dynamique sous-jacente (
L'Antériorité Ontologique du Continu sur le Discret), les singularités ou les catastrophes constituant des points de
rupture de fonctions continues, saillances qui ne peuvent surgir que d'un
fond continu sur lequel elles se détachent. Toute topologie se définit
par la continuité de son substrat et ne peut être reconstruite
à partir du discontinu. Pourtant rien n'existe que le discontinu,
ce qui a un bord (cobordisme). Le mouvement et l'espace impliquent donc aussi bien la
continuité que la discontinuité car "
seule la discontinuité se propage" (p104). Pour René Thom, "
la mécanique quantique est incontestablement le scandale intellectuel
du siècle" (p86) car il est persuadé qu'"
il y a une dynamique continue, infra-particulaire, sous-jacente à la mécanique quantique" (p85). Dans la lignée de
la théorie des cordes, il prenait d'ailleurs l'image d'une "
ficelle enroulée autour d'un tambour [...] Un tour de tambour, c'est le quantum" (p83). Pour lui, on peut rendre compte
des discontinuités et des
phénomènes aléatoires par des "variables cachées"
correspondant à des dimensions supplémentaires.
Les singularités
apparaissent lorsque l’on soumet en quelque sorte l’espace à une
contrainte. La manche de ma veste, si je la comprime, je fais apparaître
des plis. C’est une situation générale. Cela ne relève
pas de la mécanique des matériaux. J’énonce en réalité
un théorème abstrait : lorsque’un espace est soumis à
une contrainte, c'est-à-dire lorsqu'on le projette sur quelque chose
de plus petit que sa propre dimension, il accepte la contrainte, sauf en
un certain nombre de points où il concentre, si l’on peut dire,
toute son individualité première.
La difficulté est bien de penser en même temps la continuité
topologique et la discontinuité matérielle sans confondre les
caractères ondulatoire et corpusculaire de la lumière ou de
la matière en général. C'est une contrainte ontologique
plus qu'épistémologique, ne pouvant justifier la réduction
de la matière à l'information. En effet, contrairement à
l'information, ce qui définit la matière ou une force c'est
d'être
localisée, d'occuper
un lieu bien délimité. Le
principe d'exclusion de Pauli
qui stipule qu'un fermion ne peut pas prendre la même place qu'un autre
fermion est donc absolument essentiel, principe fondateur de l'espace matériel,
d'une position occupée ou non, niveau d'énergie piégé
par une liaison électrique et qui fait masse.
S'il y a des
positions matérielles, inévitablement discrètes, ayant
une épaisseur minimale et des bords, celles-ci se détachent
pourtant d'un substrat
continu et
de l'espace qui les sépare, par leur mouvement au moins. D'ailleurs, la physique quantique se
caractérise par la généralisation des ondes
électro-magnétiques comme la lumière
(constituée d'un champ magnétique et d'un champ
électrique oscillants), c'est une "mécanique
ondulatoire" ce qui implique que "
la
somme de deux ondes est encore une onde. Cette propriété
formelle qu'on appelle le principe de superposition, traduit en quelque
sorte la quintessence du concept d'onde. La physique quantique va la
reprendre et la généraliser afin de lui donner une
portée beaucoup plus vaste [...] Cette description des
états physiques par des vecteurs d'état (ou, si l'on
préfère, l'affirmation équivalente que le principe
de superposition leur est applicable) est l'idée fondamentale de
la physique quantique. En somme, elle exige l'addition pour tout le
monde" Étienne Klein, p74-76. Ces vecteurs d'état qu'on
appelait aussi fonctions d'onde, forment un espace vectoriel qui est
bien continu. "
Ils sont des fonctions de l'espace et du temps" 76 même s'il ne s'agit finalement que de probabilité et de la superposition de tous les états possibles.
C'est donc bien à la fois par une fréquence continue, une
fonction d'onde qui se propage, et par une interaction discontinue que les particules peuvent
être décrites. Le caractère corpusculaire de la matière
ou de l'énergie, de même que l'effet de seuil quantique, loin
de réfuter toute physique du continu, et donc toute mathématisation,
sont impensables sans la continuité de l'
espace et de dynamiques
sous-jacentes (un jeune physicien,
Peter Lynds,
a insisté récemment sur le caractère continu du
temps
indispensable à la continuité des choses et du mouvement,
temps
qu'on ne peut arrêter. 09/2003). La physique quantique n'apporte
qu'une
imprécision locale à des forces continues de longue
portée puisqu'il n'y a rien que des ondes qui interagissent.
2. Dualité onde-particule
On peut dire que la dualité onde-particule
renvoie à la dualité ontologique du continu et du discontinu,
cependant avec la "mécanique ondulatoire" cette dualité devient
une question entièrement physique se manifestant à la fois
dans l'effet corpusculaire photoélectrique et dans les phénomènes
d'interférences ou de diffraction ondulatoires (comme l'arc-en-ciel).
Dès 1905 Einstein expliquait l'effet
photoélectrique
par le fait que la lumière était constituée de quanta
d'énergie, appelés photons, dont l'absorption par un métal
produisait de l'électricité, ou pour un gaz une ionisation,
car "
leur énergie est transformée, au moins en partie, en énergie cinétique des électrons" (p247). Ce n'est pourtant qu'en 1917 qu'il donnera la véritable
"
théorie quantique du rayonnement". En 1913, Niels Bohr avait bâti un modèle d'atome basé sur
la discontinuité quantique, interprétant les niveaux d'énergie
de l'électron comme autant d'ondes stationnaires séparées
par un quantum d'énergie, l'électron ne pouvant sauter d'un
niveau à l'autre si l'énergie est insuffisante (inférieure
à
hf). Ces niveaux d'énergie croissante correspondent
à des états stables d'inertie sans rayonnement (l'électron
ne tourne pas mais tombe dans un puits de potentiel). La production d'électricité
solaire applique quotidiennement ce principe de transformation des photons
en électricité.
L'existence des quanta produit ainsi des sauts
quantiques et des effets de seuil qui vont se répercuter à
tous les niveaux phénoménaux (électrons, atomes, molécules,
etc.). Toute réalité physique se retrouve soumise aux perturbations
des transitions de phase, à l'indétermination
chaotique dès le plus bas niveau. Ces discontinuités sont responsables du caractère
corpusculaire
de la lumière, comme de tous les rayonnements qui sont pourtant clairement
ondulatoires comme on va le voir, puisqu'ils manifestent des phénomènes d'interférence
et de diffraction.
Il a fallu attendre 1923 pour que Louis de Broglie
généralise cette dualité onde-particule à toute
la matière en posant l'équivalence mC
2=
hf
qui semble impliquer la fusion de la mécanique ondulatoire
(mécanique quantique) avec la relativité restreinte. La
quatrième relation
d'incertitude d'Heisenberg implique aussi que plus la longueur d'onde
est
petite et plus l'énergie est grande (paradoxalement, les
transferts
d'énergie sont d'autant plus élevés que les
distances
sont petites, ce qu'on constate avec une corde mollement ou fortement
agitée). Dans ce cadre la matière se caractérise
par
une longueur d'onde trop courte pour se transmettre, sauf si on peut
refroidir considérablement les atomes, et donc en diminuer la
fréquence, jusqu'à obtenir ce qu'on appelle un condensat de Bose-Einstein exhibant
leurs propriétés ondulatoires dans des "lasers de matière" par exemple (voir
les atomes ultra-froids).
Aussi étonnant que cela puisse paraître on obtient des
signes caractéristiques d'interférence avec des "ondes"
de matière.
La matière est donc un "train d'ondes" (ou "paquet d'ondes") qui
reste normalement localisé, comme l'électron qui se
stabilise sur une
onde stationnaire compatible avec sa longueur d'onde,
piégé dans une interaction électrique (force de
couplage, puits de potentiel). Mais le plus troublant c'est que l'atome
lui-même,
avec tous ses constituants, se ramène à une
fréquence et un spectre uniques (spectrographie de masse). Pour
Einstein, ce qui fait que
l'énergie reste enfermée dans la masse, ce qui
arrête sa propagation, c'est d'avoir une longueur d'onde trop
courte (qui rebondit?), et pour retrouver ses propriétés
ondulatoires macroscopiques, il suffit d'arriver à une longueur
d'onde
plus grande que la taille de la molécule (en la refroidissant,
ce qui baisse son énergie, sa masse et sa fréquence en
augmentant donc la longueur d'onde). Il est paradoxal que plus la masse
est grande et plus sa longueur d'onde est petite, comme si on
s'enfonçait dans les profondeurs. Le fait que les
fréquences
de la matière soient plus courtes que celles des rayonnements
lumineux
explique pourquoi les microscopes électroniques sont plus
précis
que les microscopes optiques puisque la longueur observable L =
h
/(mv). Aussi étonnant que cela nous paraisse, les particules ont vraiment
des propriétés ondulatoires alors qu'elles ont à l'évidence
des comportements corpusculaires. En fait, on verra qu'il semble qu'on puisse
considérer que les constituants élémentaires de l’atome
ne sont pas
à la fois des particules et des ondes mais
alternativement, selon qu'il y a interaction (échange d'énergie) ou transmission de l'énergie (onde).
Interféromètre de Young On peut noter que la théorie des
cordes semble résoudre cette dualité onde-particule puisqu'une
corde est un objet discontinu doté de vibrations ondulatoires, se
déplaçant dans des dimensions continues. Il n'en reste pas
moins difficile de comprendre l'articulation entre ces deux aspects contradictoires
d'objet localisé et de champs ondulatoires à longue portée.
L'expérience décisive ici est celle de la double fente de l'interféromètre
de Young. Il s'agit d'un montage très simple : une source de lumière
qui éclaire une plaque avec 2 fentes et derrière, un écran
qui reçoit la lumière qui passe par les fentes (voir schéma).
Le résultat manifeste classiquement le caractère ondulatoire
de la lumière par une alternance de zones sombres ou éclairées.
Rien que de très banal pour l'instant. L'étonnement vient lorsqu'on
envoie un seul photon à la fois, en contrôlant l'énergie d'émission
et de réception (un laser excite un atome qui absorbe un photon puis
le reémet) : les interférences apparaissent encore manifestant
que cet unique photon est bien passé par les deux fentes, ce qui semble
pourtant incompatible avec le caractère quantique de la lumière
puisqu'il faudrait admettre qu'un demi photon est passé par chaque
fente. Voilà comment se pose physiquement l'énigme d'un photon
à la fois onde et particule depuis les travaux de David Bohm (interférence
à une particule, dit effet Aharonov-Bohm).
En fait ce n'est que depuis 1974 et les expériences
de Davisson et Germer montrant ces phénomènes d'interférences
avec un seul électron qu'on a du écarter l'explication d'une
interférence entre plusieurs particules. Il s'agit bien d'une seule
particule qui emprunte plusieurs chemins à la fois, chemins dits "indiscernables" (on en reparlera). Cette expérience a été répétée
avec des neutrons en 1975 par Rauch et même sur de grandes molécules
en 1998 par Zeilinger (molécule de 60 atomes de carbone, notées C60) ce qui semble bien impliquer une sorte de division de la molécule
(particules et interactions) entre les fentes et sa reconstitution ultérieure !
3. Principe d'indiscernabilité ou de complémentarité (Principe d'incertitude)
Il faut souligner que les interférences disparaissent si on veut mesurer
par quel trou passe une particule. La mesure effectuée sur une des
deux fentes a pour conséquence de matérialiser la particule
entièrement du côté où elle est détectée.
Comme plus rien ne passe de l'autre côté, il n'y a plus d'interférence
du tout ni d'indiscernabilité.
Ce phénomène est
d'ailleurs à la base de la cryptographie quantique car toute
tentative d'espionnage est immédiatement détectée
par la perturbation qu'elle introduit. En fait on peut montrer que la
condition pour qu'une particule se divise en deux est la stricte
égalité des distances à parcourir. Pour être
indiscernables deux parcours doivent être équivalents, de
même longueur notamment, ce qui veut dire de probabilités approchées. Si un des parcours
est plus long il ne sera jamais emprunté comme le prouvent les
expériences avec l'interféromètre de Mach-Zehnder
déséquilibré (ci-dessous où la rallonge de
gauche fait passer la probabilité
d'arriver en TT de 50% à 100%). La transmission va (presque) toujours au
plus
court. C'est la raison pour laquelle toute mesure intermédiaire
détruit
l'égalité des parcours et l'indétermination
initiale,
faisant passer la probabilité de détection de la
particule
de 50% à 100% du côté mesuré. C'est le
paradoxe
connu sous le nom du chat de Schrödinger : impossible de ne pas
déterminer
la réalité quantique en voulant la mesurer (cela n'a rien
à voir avec un subjectivisme où la réalité
dépend de l'observateur car "les résultats des expériences seront rigoureusement les mêmes quelle que soit la personne qui les lit" Étienne Klein, p146).
Interféromètre
de Mach-Zehnder (déséquilibré à gauche)
Les miroirs semi-transparents agissent comme séparateurs
de photons qui les traversent ou s'y réfléchissent selon une
probabilité de 50% normalement.
Jusqu'à ces interférences à
une seule particule, on expliquait l'influence de la mesure sur le résultat
par le "mécanisme d'
Heisenberg" ou
principe d'incertitude
d'Heisenberg qui se ramène à la grossièreté
de nos mesures à l'échelle de Planck, ou des
problèmes de collisions, et non à une modification
effective des trajectoires, encore moins à la multiplication de
ces trajectoires. Les dernières expériences nous
obligent à une toute autre interprétation qu'une
limitation
dans la précision des mesures, bien plus proche du
principe de complémentarité
de Bohr entre dispositif et mesure. C'est bien le chemin emprunté
qui est modifié par l'interposition d'un instrument de mesure et l'incertitude
engendrée par l'indiscernabilité disparaît lorsqu'on
rend les différentes trajectoires discernables, c'est-à-dire
inégales.
Les relations d'incertitude - ou d'indétermination
- de Heisenberg semblaient dire tout autre chose par l'impossibilité
de mesurer en même temps la position et la vitesse d'une particule.
L'incertitude sur l'autre mesure étant au moins de l'ordre de la constante
de Planck, on pouvait penser qu'on avait seulement très légèrement
perturbé sa vitesse, mais c'est plus grave. "
Lorsque la quantité de mouvement d'une particule est connue, sa position n'a pas de réalité physique"
(EPR 1935) Einstein, p459. Une conséquence, c'est que plus un
atome est froid, et donc plus sa vitesse se précise (proche de
zéro), et plus sa localisation devient floue formant alors "
des taches des dizaines de milliers de fois plus grosses qu'un atome à température ambiante" (
Pour la Science,
07/2004, p68). En fait, au regard de l'indiscernabilité,
il faut comprendre cette limitation comme n'étant pas due à
l'imprécision de la mesure mais bien au fait que "
les deux grandeurs ne peuvent avoir de réalité simultanée". Ce que Einstein refusait c'est qu'entre deux boîtes
qui ont 50%
de chances d'avoir une bille dedans, le simple fait d'ouvrir la boîte
suffisait à ce que la bille y soit, selon une probabilité de
100% ! C'est pourtant bien ce qui se passe dans le monde quantique où il
est impossible de ne pas interagir avec l'objet mesuré, au-delà
de l'aspect quantifié et corpusculaire qui ne s'actualise que ponctuellement
dans une interaction (le quantum étant le niveau minimum d'interaction), alors que l'énergie, elle,
peut tout-à-fait se diviser entre plusieurs fentes avec un niveau
infraquantique,
pour reconstituer ensuite un unique photon sur une cible, par une
interaction de niveau quantique. On ne doit
donc pas concevoir les photons comme des billes dans leur rayon de
lumière, encore moins un chat en chair et en os, mais
plutôt comme une dilution (onde) et une recomposition
(particule).
Seulement il ne faut pas voir l'onde comme un rayon mais comme un
champ, une surface, un tissu sur lequel s'applique une tension. Pour
montrer que le photon n'est pas simplement reflété
par le milieu du miroir, il suffit d'enlever le milieu et constater
qu'il est alors reflété par les bords ! Il faut
distinguer ainsi la transmission ondulatoire de l'énergie
par tous les chemins possibles d'avec sa matérialisation
où elle se condense et se dépense dans une interaction.
L'interprétation statistique des fonctions d'onde d'Erwin
Schrödinger ne résulte
pas d'une incomplétude de la théorie encore moins d'une
remise
en cause du déterminisme mais simplement du fait que
l'interaction
dépend du contexte, de la mesure ou des interventions
extérieures qui expliquent
ainsi le fait que différentes mesures puissent donner des
résultats
différents.
La fonction d'onde d'Erwin Schrödinger
Y (x) = cos (px/h) + i sin (px/h)
px est l'impulsion de x : vitesse * masse (mv)
La fonction d'onde, notée psy, est
un nombre complexe fonction de la position et du temps. Son
interprétation ne peut pas être "réaliste" mais
seulement d'une probabilité de matérialisation, comme Max
Born l'a montré, puisque c'est la mesure qui crée
l'interaction (constituant "l'effondrement de la fonction d'onde" ou
une "réduction du paquet d'onde", passage de la
probabilité au fait). On additionne des "amplitudes" dont le
carré ( |Y|2)
donnera la probabilité de mesure. " Une amplitude de probabilité est un nombre complexe, défini
par une partie réelle et une partie imaginaire, ou par un module et une phase,
dont le carré du module est une probabilité, c’est-à-dire un nombre réel
compris entre zéro et un qui donne la probabilité de position" Gilles Cohen-Tannoudji).
La fonction d'onde pourrait se déduire du principe de moindre action.
A partir de là, le monde quantique est
principalement celui de l'interaction des photons avec les
électrons, leur absorption (excitation), leur
réémission (rayonnement) ainsi que la
création de paires électron-positron (creux et bosses)
sous l'effet de la perturbation magnétique d'un photon au
voisinage d'un noyau lourd, et la production de photons par une
collision électron-positron, ou toute autre création et
désintégration de particules (plus l'énergie d'une
particule est élevée, plus courte est sa durée de
vie).
|
Reste la quatrième
relation d'incertitude qui énonce que l'énergie peut fluctuer dans un rapport inverse au temps (dt x dE >=
h ou
h
/2
p ce qui est strictement la généralisation de la constante
de Planck et qui établit un rapport entre le temps et la portée
d'une interaction). Plus le temps mesuré est court, plus la
fluctuation d'énergie est grande (notamment
la fluctuation du vide). Là aussi, ce pourrait être un défaut
des instruments de mesure alors qu'on peut en déduire que, "
tout se passe comme
si le temps de vie fini d'un système instable impliquait une indétermination
de son énergie, appelée largeur (en énergie) du système" Cnrs p43. On pourrait presque imaginer qu'au plus petit écart de
temps possible (inférieur au temps de Planck ?), la fluctuation de
l'énergie est telle qu'elle peut s'étendre à l'univers
entier, sans pourtant se matérialiser (la portée de la fluctuation
est inversement proportionnelle à la masse se propageant sur un rayon
r =
h/mc).
Je suis malgré tout gêné par le fait qu'on fait
comme si cette fluctuation était une déduction de
principe et non une observation expérimentale. Il y a une image
intéressante du vide quantique donnée par
Gilles Cohen-Tannoudji,
c'est celle du moment de vide qui précède une
élection.
Le vote est encore indéterminé et fluctuant avant
l'ouverture des bureaux
de vote, mais une fois exprimé, c'est comme si le 21 avril par
exemple,
existait depuis toujours. C'est dire que la tension préexistait
mais ne s'était pas encore matérialisée dans
l'interaction avec le dispositif.
4. Corrélations entre particules et non localité
Interféromètre
de Franson (déséquilibré)
La source lumineuse du milieu envoie 1 photon de chaque côté sur des miroirs semi-transparents
L'expérimentation des interférences
avec une seule particule change donc l'interprétation des phénomènes
quantiques et de la dualité onde-particule, mais le passage à
deux particules va nous apporter de nouveaux enseignements, faisant intervenir
cette fois la
corrélation entre particules. Ainsi, un interféromètre
de Franson (ci-dessus) qui envoie deux particules (deux photons reémis
par un atome excité) dans des sens opposés vers des montages
identiques où elles peuvent aboutir, avec des probabilités de
50%, sur deux cibles correspondant soit à un chemin court, soit un
chemin long, permet de montrer que "
les deux particules ont donné chaque fois le même résultat", observant ainsi une étonnante "
corrélation parfaite" quelque
soit la distance. Ce n'est pas tout. Il suffit en effet de légèrement rallonger
un des deux chemins longs (pas l'autre) pour s'apercevoir que "
les deux particules ont donné chaque fois le résultat opposé", manifestant cette fois, lorsque l'interféromètre
est déséquilibré, une "
anti-corrélation parfaite" (p68).
Lorsque deux systèmes quantiques sont corrélés,
il devient impossible de les décrire séparément (Schrödinger),
et cela quelle que soit la distance qui les sépare (EPR) p85.
Non seulement donc tout se passe comme si une particule
explorait tous les chemins pour trouver le plus court, en passant malgré
tout par tous les chemins possibles, toutes les ouvertures, tous les interstices, pour
aboutir finalement en un seul point, mais en plus, des particules peuvent être
en corrélation parfaite et immédiate quelque soit la distance
qui les sépare ! A ce stade "la délocalisation induite par le principe d'indiscernabilité
est encore plus dramatique" p70. C'est ce que Einstein considérait
comme un preuve d'inconsistance de la physique quantique dans l'article EPR
de 1935 : qu'un système séparé puisse être influencé
par une mesure sur un autre système. C'est pourtant bien ce que l'expérience
confirme : une intrication des états quantiques, une non-séparabilité
quelque soit la distance, comme s'il pouvait y avoir une action à
distance immédiate (ne respectant pas la limite de la vitesse de la
lumière et donc d'ordre géométrique). Il faut préciser
que la non-séparabilité se manifeste au niveau des propriétés,
par exemple des spins opposés, alors même que le spin de l'une
ou de l'autre peut prendre toutes sortes de valeurs imprévisibles.
Ce qui est prévisible c'est uniquement la corrélation. Du coup,
on n'est plus du tout ici dans les probabilités mais dans une exacte
corrélation, ce qui amène à réviser la place
de l'indétermination au niveau quantique qui n'est pas, comme en statistique,
due au trop grand nombre de particules, ni à un quelconque déterminisme
mou qui pourrait enfreindre en quoi que ce soit le principe de causalité (Comme disait Léon
Rosenfeld : "Une loi
statistique est avant tout une loi, l’expression d’une régularité, un
instrument de prévision"),
mais bien aux variations contextuelles (il faudrait d'ailleurs distinguer
probabilité, marge d'incertitude, effets de seuil et fluctuations quantiques).
Le caractère rigide du déterminisme est même ce qui permet
de concevoir un ordinateur quantique ou bien la cryptographie quantique qui
n'admettent pourtant aucune erreur.
Les expériences
décisives dont le livre de Valério Scarani rend compte en
détail, ont établi qu'il ne s'agissait pas simplement de
corrélations
établie à la source, à variables cachées
(ce qui impliquerait de respecter "l'inégalité
de Bell" entre les mesures a ou a' d'un côté et b ou b' de
l'autre, d'une valeur 0 ou 1 : (a+a')b+(a-a')b' <= 2). Alain Aspect
a montré en 1981-1982
que les corrélations quantiques violent
l'inégalité
de Bell, résultat confirmé sur une portée de 400m
par
Zeilinger en 1998, avec changements rapides de configurations
postérieures
à l'envoi des particules. "Les corrélations persistent et violent l'inégalité
de Bell : l'échappatoire de localité est définitivement
fermée !" p92, sans qu'il puisse y avoir échange d'information
à une vitesse supérieure à celle de la lumière.
Il faudra attendre pourtant les premières tentatives de cryptographie
quantique pour faire tomber ces résultats étonnants du statut
de problèmes philosophiques insolubles à celui de réalités
physiques concrètes, bien que tous les physiciens n'en tiennent pas
assez compte encore, loin de là.
Parfois on entend formuler l'interprétation
orthodoxe de manière plus rapide, en disant que d'après cette
approche la théorie quantique ne décrit pas directement la
réalité "en soi", mais l'information que nous pouvons avoir sur elle. Il y a un goût kantien dans cette formulation.
En disant cela, on ouvre cependant les portes à un raisonnement qu'il
est difficile d'éviter - c'est d'ailleurs le raisonnement qui marque
le passage de Kant à l'idéalisme de Fichte : si la chose en
soi est de toute façon inconnaissable, comment savons-nous qu'elle
existe ? Pourquoi ne pas en conclure que l'information elle-même est la réalité? p100
David Deutsch se base sur la notion d'ordinateur quantique, notion
dont il est un des créateurs. L'idée de l'ordinateur quantique
consiste à regarder le fait qu'un objet quantique explore différents
chemins à la fois, comme une forme de calcul en parallèle,
un calcul dans lequel le résultat final dépend de toutes les
variantes possibles. p100
Pour finir, penchons-nous sur l'interprétation dite des "ondes-guides"
ou des "ondes vides", suggérée par Louis de Broglie et formalisée
par David Bohm. Il s'agit d'une interprétation qui essaye de remplacer
le critère d'indiscernabilité par un mécanisme physique
sous-jacent.
Nous avons vu dans les premiers chapitres de ce livre que les particules
quantiques se comportent tantôt comme des corpuscules (chaque particule
n'excite qu'un détecteur), tantôt comme des ondes (interférences).
L'idée astucieuse de de Broglie consiste à explorer la possibilité
que le corpuscule et l'onde ont tous deux une réalité physique.
Plus précisément, les particules quantiques seraient des
corpuscules, bien localisés, qui se déplaceraient guidés
par une onde. C'est l'onde qui explore tous les chemins possibles, et c'est la modification des propriétés
de l'onde qui influence les "choix" du corpuscule à chaque séparateur
[...] L'hypothétique onde quantique ne doit pas transporter d'énergie,
d'où le nom d'onde vide avec laquelle on la connaît.
En fait, l'onde quantique qui guide le corpuscule serait inobservable [...]
mais si l'on considère les interférences des corrélations
entre deux particules distantes l'image devient plus problématique.
En effet, pour expliquer les corrélations quantiques à distance,
il faudrait postuler que les opérations effectuées sur une
particule changent l'onde ressentie par l'autre particule de manière
instantanée. Ceux qui connaissent un peu l'histoire de la physique
ne tarderont pas à remarquer que les ondes vides de De Broglie et
Bohm constituent en fait une version quantique de l'éther,
ce support hypothétique pour la lumière dont la théorie
de la relativité d'Einstein a décrété l'inutilité.
Troisièmement, l'onde vide n'est pas une onde dans l'espace à
trois dimensions, comme les vagues de la mer ou les ondes sonores. Pour s'en
rendre compte, il suffit de rappeler que les interférences ne dépendent
pas seulement des différences de longueur des chemins, mais de n'importe
quelle différence (le spin de l'expérience de Rauch, l'état
d'énergie dans l'expérience de Constance, la polarisation dans
l'expérience d'Aspect...) p104-105
Même si cette théorie des ondes vides semble la plus proche
de la réalité, elle n'est pas entièrement satisfaisante.
Il semble bien, en effet, que les quanta se matérialisent là
où une interaction est sollicitée (c'est un
quantum d'action,
un échange d'énergie, produit d'une durée par
l'énergie transférée ou d'une longueur par une
impulsion), et par le plus court chemin,
celui qui dépense le moins de temps ou d'énergie.
Plutôt que d'ondes
vides, je parlerais plutôt de tension, de champ, d'ondes d'énergie
infraquantique mais qui
semblent occuper tout l'espace (éther, topologie, cordes), les
interactions
ayant un rôle d'
attracteur,
de puits de potentiel
capables
d'aspirer de l'énergie qui ne peut s'échanger que par
quanta.
Les quanta n'ont pas une réalité constante, comme une
bille
lancée d'un endroit à l'autre, mais sont la force
d'arrachement
de l'énergie de sa forme d'onde, force d'échange et de
localisation
d'une énergie ondulatoire qui est bien, elle, fréquence
continue et non
locale. Le caractère fondamental des ondes, le caractère
ondulatoire de l'être qu'on retrouve partout est remarquable. Il
résulte d'une agitation, une tension appliquée à
un support qui la propage en se déformant plus ou moins
rapidement. L'existence des ondes me semble impliquer l'existence d'un
éther, d'une substance vibrante et donc qu'il n'y a pas vraiment
de vide dans l'espace (on retrouve Aristote).
Par leur immédiateté,
les corrélations semblent relever de contraintes
géométriques
de symétrie qui nous échappent encore mais plaident pour
une
dimension supplémentaire réunissant les particules
éloignées,
ou bien, à l'opposée, pour l'hypothèse
"
holographique" faite
par Susskind et 't Hooft réduisant l'espace à deux dimensions au lieu des trois habituels. On peut d'ailleurs
se demander si le comportement des bosons (comme le photon) est
comparable sur ce plan à celui des fermions (comme
l'électron). Je trouve pour ma part qu'une corrélation
entre fermions (interférences localisés) est
beaucoup moins compréhensible qu'une corrélation entre
bosons
qui ne font que matérialiser un champ d'ondes.
En tout cas, il
faut préciser, comme Alain Aspect le souligne, que la
non-séparabilité
ne se manifeste qu'en l'absence de perturbations. Toute mesure ou
interaction a un effet de
décohérence
(perte d'information dont on peut penser qu'elle fonde, avec la durée de vie des particules,
l'irréversibilité du temps et
l'entropie). Dès
lors la séparabilité
peut être considérée comme un effet du bruit
environnant
qui isole chaque particule dans des interactions locales (sinon "
mathématiquement, la cohérence quantique est traduite
par la propriété de linéarité de l’espace de Hilbert"
Gilles Cohen-Tannoudji, sauf qu'il ne se
passe jamais rien dans l'espace de Hilbert que toute mesure va perturber).
5. Physique quantique et gravitation
Il est admis par la plupart des physiciens,
en premier lieu par Einstein lui-même, qu'il y aurait une incompatibilité
entre la mécanique quantique et la relativité, mais c'est une
affirmation qu'il faut fortement nuancer car les deux théories ont
de nombreux recoupements et bases communes (E=mc2, équations
relativistes de l'électron de Dirac, théorie quantique des champs, etc.). En fait, à part
le problème de l'immédiateté des corrélations
qui semblent briser la limite de la vitesse de la lumière (paradoxe
EPR), il y a surtout une difficulté à construire une théorie
quantique de la gravitation (ce à quoi travaille la théorie
des cordes pourtant), ne serait-ce qu'à cause de l'extrême faiblesse
des forces gravitationnelles au niveau quantique par rapport aux autres forces.
S'il y a incompatibilité ce n'est sans doute pas avec la relativité
restreinte mais peut-être avec la géométrisation de la
gravité opérée par la relativité générale.
En théorie de la relativité
générale, la gravitation joue donc un rôle qui la distingue
des autres forces - en particulier des forces électromagnétiques
- dans la mesure où les dix fonctions qui représentent le champ
de gravitation déterminent également les propriétés
métriques de l'espace de mesure à quatre dimensions. Einstein,
p344
Pour Richard P. Feynman "l'un des
aspects les plus curieux de la théorie de la gravitation, c'est qu'elle
admet à la fois une interprétation en termes de champ et une
interprétation géométrique [...] L'interprétation
géométrique n'est pas vraiment nécessaire, ni indispensable
à la physique. Il se pourrait bien que toute cette coïncidence
ne représente qu'une sorte d'invariance de jauge"
p138. La géométrisation implique une
immédiateté des forces alors qu'un champ se
caractérise par des ondes gravitationnelles qui se transmettent
à la vitesse de la lumière. En tout cas, particulariser
la
gravitation en l'assimilant à une déformation de l'espace
est un obstacle à l'unification des forces
électro-magnétiques et de la gravitation, comme le note
Einstein lui-même. Ce qui particularise
la gravité et permet d'assimiler le champ gravitationnel
à
une courbure de l'espace, c'est l'absence de pôles négatif
et positif dans la gravitation contrairement aux forces
électromagnétiques
(de spin 1/2 ou 1). La gravitation n'intervient qu'entre des corps
neutres
(mais formés de charges électriques opposées), ce
n'est
pas une mince différence avec l'intervention de forces de
liaison
par complémentarité (entre + et -), forces d'attraction
et de couplage résultant
donc d'une symétrie brisée qui se reconstitue. On peut
constater
cette différence avec le caractère fractal de la
gravitation (étoiles, galaxies, amas de galaxie, etc.), ce qui
n'est pas le
cas des phénomènes électromagnétiques qui
s'annulent
par paire et ne laissent que de très légères
traces
d'ionisation et de rares éclairs d'électricité aux
niveaux supérieurs. D'un autre côté ce
caractère
fractal de la gravitation selon des échelles de temps
proportionnelles
aux échelles d'observation semble plaider pour un champ de
forces
gravitationnelles qui n'est pas immédiat, et donc pas d'ordre
géométrique,
mais implique une vitesse limitée de transmission. La
Théorie
des Cordes tente pourtant d'unifier toutes les forces en faisant de la
gravitation
un "monopôle magnétique" (inspirés des instantons
de Donaldson),
supposant une bien curieuse fuite énergétique dans
d'autres dimensions, ainsi qu'en géométrisant les forces
électromagnétiques dans des dimensions
supplémentaires comme l'avait proposé Theodor Kaluza en
1919 déjà (Einstein p224), la dimension
supplémentaire n'étant pas perceptible car elle serait
plus petite que la longueur d'onde de la matière. Si Einstein
avait rejeté la suggestion, c'est bien que cela remettait en
cause la Relativité Générale et le
privilège donné à la gravitation.
Il faut donc revenir sur ce qui motive la relativité générale,
c'est-à-dire le principe d'équivalence entre gravitation et
accélération (entre le poids et l'inertie), cas particulier
de l'exigence d'une physique qui doit être indépendante des
coordonnées et donc de l'accélération des corps. Les
lois de la physiques doivent ainsi être covariantes non seulement
à la transformation de Lorentz (vitesse de la lumière constante
quelque soit notre vitesse, comme dans la relativité restreinte),
mais elles devraient aussi être covariantes à tous les mouvements
accélérés, non linéaires, dont la chute dans
un champ de gravitation n'est qu'un exemple. Accélérations
et vitesses relatives n'ont de sens qu'entre des masses et non par rapport
à la vitesse de la lumière. Feynman remarque pourtant "qu'une charge accélérée rayonne, tandis qu'on n'attend
pas d'une charge soumise à un champ gravitationnel qu'elle émette
du rayonnement" p149. Il y a donc peut-être un moyen de différencier
accélération et champ de gravité, mais ce que la Relativité
Générale prétend obtenir par sa métrique riemannienne
résultant de la déformation de l'espace physique sous l'influence
de la matière, c'est bien l'indépendance de tout référentiel.
Pour Einstein, "les coordonnées
sont des paramètres mathématiques sans signification physique" p308. L'universalité des lois, quelque soit le lieu
de l'univers ou le déplacement, est un principe de base de la physique
depuis Galilée, auquel la Relativité Générale ajoute simplement "quelque
soit l'accélération", car l'accélération est elle-même relative aux autres mouvements. Ces
équivalences sont d'ailleurs formalisées par ce qu'on appelle maintenant
les "théories de jauge".
Pour comprendre si la gravitation a une spécificité qui l'oppose aux champs polarisés, il faudrait sans
doute mieux comprendre la masse, la matière elle-même, sa gravité
qui se confond avec son inertie (bien que le photon, sans masse ni
inertie, soit courbé par la gravitation comme s'il subissait la pesanteur,
poids sans masse ?). Einstein s'inspirant de Ernst Mach considérait
qu'il y avait inertie ou accélération seulement relativement aux
autres masses. Il n'y a "pas accélération en soi mais accélération par rapport aux masses des autres corps" p305. "L'inertie dans ma théorie, c'est juste en
fin de compte une interaction entre les masses" p388. Ce qui peut se comprendre lorsqu'on prend les masses comme déjà
données, selon un arrangement arbitraire, mais devient carrément
problématique lorsqu'on prend en compte la formation de la matière
et de l'inertie elle-même à partir de l'absorption de rayonnements. En effet, l'acquisition de masse
apparaît alors comme ce qui limite la portée d'une interaction,
la ralentit ou la fixe, constituant sans doute une interférence localisée,
une dissymétrie (fermions), une relation qui elle n'est pas relative.
Rappelons que la masse ne dépend pas de la vitesse, c'est une masse
au repos. Une particule sans masse n'est jamais au repos mais toujours à
la vitesse de la lumière. On pourrait mettre ainsi en doute les principes
de la Relativité Générale tout en gardant la spécificité
de la gravitation par rapport à l'électromagnétisme.
Cela supprimerait du même coup le conflit avec la mécanique
quantique mais aussi les rêves de grande unification de la théorie
des cordes. (Le rôle de l'entropie thermodynamique, du refroidissement
qui pourrait augmenter l'intensité des liaisons
ne devrait pas être négligé non plus). Mais revenons
au niveau quantique.
En effet, qu'est-ce que la matière ? Selon la formule bien connue, E=mc
2,
c'est de l'énergie emprisonnée, de l'inertie,
caractérisée par une longueur d'onde ultra-courte qui ne
se propage plus mais s'enferme dans sa masse ou occupe un niveau d'énergie sous l'effet d'une force
électrique, d'une interaction
locale où les forces électriques s'annulent, produisant
du même coup sa force d'inertie et de gravité (le temps). Ce qu'il
faut comprendre, c'est la transformation d'énergie en
matière,
d'une interférence en inertie localisée. Pour Einstein
(en
1905) "
le rayonnement transfère
de l'inertie entre les corps qui émettent et les corps qui absorbent".
Les photons, bien que sans masse (ou si peu), transportent de la masse
pourtant puisque la masse c'est de l'énergie. Une collision
de photons produit des particules (et anti-particules : paire
électron-positron,
voir
Dirac et l'antimatière), donc
de la masse mais qui ne dure qu'à être prise dans une liaison
électrique : seules existent des relations. Les constituants de la matière sont les quarks
et les électrons qui forment les
fermions chargés électriquement
(sauf les neutrinos) et s'opposent aux bosons dont
certains pourraient avoir une masse énorme, ce que je ne comprends
pas. En effet, les bosons (spin 1 ou 0) sont de simples véhicules
des interactions comme le photon, c'est de l'énergie libre qui se
transmet à des vitesses proches de celles de la lumière,
émission ou absorption d'énergie, et se manifestent quantiquement
seulement dans les interactions, alors que les fermions (spin 1/2) constituent
l'inertie elle-même, la matière, sa localisation (principe
d'exclusion de Pauli), son épaisseur, sa résistance, sa gravité.
C'est, semble-t-il, le caractère impair des fermions, leur incomplétude
qui les rend réactifs et manifeste leur existence matérielle
localisée, bien différemment d'une matérialisation quantique
de particule énergétique. En effet, les fermions ont tendance
à se lier par paire et les paires liées se comportent alors
comme des bosons (ils ne sont plus réactifs). Ceux qui restent fermions solitaires, donc incomplets,
forment ainsi des fermions composites qui peuvent se décrire comme
une assemblage de n bosons + 1 fermion, le "plus-un" constituant le défaut
de transmission, la brisure de symétrie de la matière, ce
que Aristote appelait sa privation, déterminant son orientation,
sa cause finale.
A
cette analyse de la matière comme improbable brisure de symétrie
se manifestant par ses interactions durables et son caractère incomplet,
il faut ajouter que les particules (ou les cordes) se caractérisent
par un certain nombre de dimensions qui rendent compte des types de
liaison des particules, de leurs complémentarités, ce qu'on appelle l'espace interne quantique. Ce sont
ces dimensions que la théorie des cordes ajoute à notre espace-temps
comme modes de vibration des cordes, multiples brisures de symétrie (ou degrés de liberté)
dans différentes dimensions qui sont sans doute, selon la théorie
quantique : charge, masse, isospin, hypercharge, étrangeté,
couleur (types de quarks). Avec les 4 dimensions de l'espace-temps, on en
est donc déjà à 10. On voit que la masse n'est ici qu'une
valeur comme une autre, dont un hypothétique "boson de Higgs" de spin 2 serait
porteur, ce qui semble contradictoire avec une masse résultant de
l'inertie de liaisons de charges électriques opposées, et encore plus d'une déformation de l'espace.
Il me semble nécessaire de séparer la cause de la matière,
comme force électromagnétique de cohésion, et son effet
inertiel localisé déterminant sa géométrie, son
accélération et sa gravité. Il semble bien, en effet,
que c'est l'énergie de liaison qui est la véritable
cause de la matière puisque cela implique qu'il faut dés lors
un apport d'énergie extérieur pour "briser cette brisure de
symétrie", c'est-à-dire que la force de liaison empêche
désormais la désintégration de la particule malgré
les fluctuations quantiques (en l'absence d'apport d'énergie). Il
n'y a donc pas de commune mesure entre les effets quantiques de fluctuation
de l'énergie et la rigidité d'une matière constituée
de relations très solides, matière cristallisée qui
dure et pèse de tout son poids, ayant besoin d'une énergie
plus ou moins importante pour se désintégrer en libérant
l'énergie considérable qu'elle retenait dans son inertie. La
matière relève de la relativité (inertie, relation)
plus que des quanta (énergie, transmission) qui la constituent pourtant.
Il n'y a pas grand chose de commun entre ces différents niveaux de
réalité qui n'obéissent pas aux mêmes lois.
Examinons pour finir quelques hypothèses hétérodoxes.
Ainsi un inconnu, Glen Angus Graham, suggère qu'il y aurait une contradiction
à parler d'une longueur de Planck dans le cadre de la théorie
de la relativité pour laquelle distance et taille dépendent
de la vitesse. Par contre, le principe d'incertitude (vitesse/position) en
Mécanique Quantique découlerait de la relativité elle-même.
Il va jusqu'à dire que "La Mécanique Quantique résulte de la Relativité générale
qui est sujette aux lois de la Relativité restreinte (dualité
taille/distance)". Dans ce cadre, la dualité onde-particule
serait une question de vitesse, la particule s'observant à l'arrêt
(interaction), alors que l'onde transporte l'énergie à la vitesse
de la lumière. Tout ceci me semble sujet à caution, pas du
tout assez fondé, mais suscite quelques questions à creuser.
Etant complètement incompétent en physique, je ne prétend
à rien d'autre qu'à témoigner des questions suscitées
par ce que je peux en comprendre, c'est-à-dire fort peu, comme la
plupart.
Annexe sur les constantes de la physique :
La matière se caractérisant par une longueur d'onde implique longueur, durée et localisation.
Il y a 3 grandeurs fondamentales : longueur, durée et masse auxquelles
sont associées 3 constantes fondamentales : c, h et
G (il faudrait ajouter la charge électrique eV). "c", vitesse
de la lumière, est une fréquence multipliée par une
longueur d'onde. Dans les formules E=mc2 ou E=1/2mv2, l'énergie correspond à une masse multipliée par une
longueur au carré divisée par un temps au carré même
si dans le cadre de la relativité générale longueur
et durée sont inséparables (temps propre).
Rappelons que, selon la formule de Louis de Broglie, la masse m=hf/c2.
On peut vouloir relier comme Einstein (note page 200) les constantes à des phénomènes
physiques au-delà bien sûr de leur valeur numérique qui dépend
de l'échelle de mesure choisie.
Pour
un amateur comme Glen Angus Graham, il faudrait relier G et h, la constante de Planck représentant l'énergie minimum nécessaire pour échapper à G.
"La force gravitationnelle entre deux électrons est 1043
inférieure à la force de répulsion électrique
entre leurs charges négatives" (Pour la Science p108). Dirac remarquait que ce rapport de 1043 est approximativement
égal au nombre de tours effectués par l'électron autour
du proton depuis le big bang" ! Selon cette hypothèse "la constante
gravitationnelle est proportionnelle à l'inverse de l'âge de
l'univers" (p100).
On peut préférer l'hypothèse de Di Mario pour
qui le rapport entre gravité et force électrique (2.4001117x10-43
) est à rapprocher plutôt du temps de Planck. A l'inverse (pour
Feynman) le rapport force électrique sur force gravitationnelle est
de 4,17 x 1042.
Pour des physiciens très sérieux, du CNRS par exemple, le proton ayant une masse 1019 fois inférieure à l'énergie
de Planck et une taille 1019 fois supérieure à
la distance de Planck, il pourrait y avoir unification des forces de gravitation
et des forces électromagnétiques à des distances de 10-19
mètre, mais tout cela reste plus qu'hypothétique (rappelons
que cela impliquerait que la charge électrique soit une forme de gravitation
alors que la gravitation n'a pas de pôles opposés ce qui permet
sa géométrisation).
- c = 299 792,458 km/s (vitesse de la lumière)
- G = 6.6729177325x10-11 m3 kg-1 S-2(force de gravité)
- eV = 1,6 x 10-19 J (charge de l'électron correspondant à une longueur d'onde de 1,2 nanomètre)
- h = 6.62606883731x10-34 J (constante de Planck)
- La longueur de Planck est 2 x 10-35 mètre, correspondant à la force gravitationnelle au niveau quantique. L=racine de Gh/c3
- Le temps de Planck, 10-43 seconde permet de parcourir la longueur
de Planck à la vitesse de la lumière. Plus exactement : Planck
time = 2.3950193x10-43
- La fréquence de Planck est 1043 hertz.
- L'énergie de Planck est de 1019 gigaélectronvolts (ou 1028 électronvolts), énergie
maximum correspondant à la longueur de Planck ("plus un choc met d'énergie en jeu, plus les distances qui interviennent dans la collision sont petites" Pour la Science 01/2003, p108).
Il faudrait ajouter la constante K de Boltzmann, coefficient de
proportionnalité
de l'entropie, ou quantum d'information,
permettant de calculer l'entropie S = K log W, où W est le
nombre
de complexions, de variables indépendantes, de degrés de
liberté c'est-à-dire la probabilité de son
état (position, vitesse). L'entropie peut se définir comme l'information
perdue, le désordre, la multiplication des configurations
possibles, des irrégularités, la perte de forces structurantes à longue
portée et le manque d'information qui en résulte. Pour toute augmentation d'entropie on a dS = Se + Si,
combinant entropie externe qui peut être réversible (Se) et "génération d'entropie" interne irréversible
(Si)
dont s'occupe la thermodynamique des processus irréversibles.
L'irréversibilité est liée aux frottements, aux
échanges (thermiques ou autres), aux phénomènes de
décohérence, au temps de désintégration
(durée de vie) mais surtout à l'évolution vers
l'état de plus grande probabilité, la perte des
contraintes initiales.
k = 1,380 66 × 10-23 JK-1
ou = 8,617 x 10-5 électron-volt/Kelvin
L'information exprime une interaction. La
constante de Planck h
est interprétée comme la quantité
minimale d'interaction
et la constante de Ludwig Boltzmann K comme le coût minimal d’une
information (en fait le rapport entre quantum d'énergie en Joule
et quantum de température de Kelvin, l'énergie qu'il faut
pour élever la température d'un degré à
pression et volume constant, or la température, l'agitation des
molécules, c'est l'entropie de Clausius). Dans la "constante des
gaz parfaits" R = KBNA, KB est la constante de Boltzmann et NA le nombre d'Avogadro (6,022 x 10-23)
mais c'est la constante de Boltzmann qui est déduite de la
constante des gaz parfaits et non l'inverse. On comprend qu'on retrouve
K dans la formule de Shannon mesurant la quantité d'information
puisque c'est basé sur le coût électrique d'une
information transmise.La statistique quantique est basée sur ces deux
constantes h et K alors que la théorie du champ quantique est basée
sur h et c, comme la relativité générale sur
G et c. La longueur de Planck, à la base de la théorie des
cordes unifie h, c et G.
Valeur des constantes et unités de mesure : http://hpiers.obspm.fr/eop-pc/models/constants_fr.html
Gilles Cohen-Tannoudji sur les constantes de la physique :
http://perso.club-internet.fr/gicotan/DossierPoly2003/2003_IV2.htm
Références :
Initiation à la physique quantique, Valerio Scarani, Vuibert, 2003
Petit voyage dans le monde des quanta, Etienne Klein, Flammarion, 2004
Voyage au coeur de la matière, Belin-CNRS, 2002
Albert Einstein, Textes choisis et commentés par Françoise Balibar, Points, 2002
Richard P. Feynman, Leçons sur la gravitation, Odile Jacob, 2001
Particules et lois de la physique, Richard Feynman - Steven Weinberg, Interéditions, 1989
Pour la Science (spécial Gravitation) 01/2003
René Thom, Prédire n'est pas expliquer, 1991, Flammarion, Champs
La théorie de la relativité d'Einstein, Ernst Cassirer
(1921), Cerf, 2000
http://nazim.fates.free.fr/Epistemo/Cassirer1921/commentaire_Cassirer.html