Il faut saluer ce numéro qui profite du 25ème
anniversaire de la revue pour faire le point sur les 25 ans passés
de recherche et surtout faire un état des lieux de la Science aujourd'hui. Nous
allons tenter d'en restituer la richesse et la grande continuité qui
s'en dégage d'un bout à l'autre du numéro où chaque discipline semble prendre le relais de l'autre.
- On commence par les premières traces de vie et les "Catastrophes cosmiques et extinctions" qui montrent le rôle du hasard dans l'évolution et l'extinction
d'espèces suite à des cataclysmes improbables (qui ne sont pas cycliques donc).
- "La modernité des dinosaures" confirme d'ailleurs que les dinosaures n'ont pas
disparus, ils sont parmi nous puisque les oiseaux en sont les descendants !
- "Une évolution buissonante", tente
de faire la balance des résultats récents de la paléontologie
sur la multiplication des types de pré-hominiens. Il y a bien eu toutes
sortes de cerveaux et d'outils mais "il semble que
notre espèce soit passée par une phase de sélection
drastique, un goulot d'étranglement, avec une population réduite
à quelque 60 000 individus, il y a entre 100 000 et 50 000 ans."
C'est sans doute notre véritable origine avec l'apparition des premières
tombes et peu avant les grottes ornées (pour d'autres ce qui est décisif
c'est la maîtrise du feu qui nous protège des prédateurs
sans doute depuis 1 millions d'années mais nous sommes presque identiques
à l'homo sapiens sapiens d'il y a 50 000 ans. 100 000 ans correspondent
à un pic de réchauffement, 50 000 ans à une période
glaciaire).
- De l'astronomie et de l'origine du monde, on passe au mystère de la masse cachée de l'univers, puis "le modèle standard" fait le point sur la physique des particules, modèle
à la
fois vérifié de toutes parts et insuffisant. "Nous avons compris que les forces ne sont
pas des ingrédients qu'il faut introduire de façon arbitraire
dans nos théories, aux côtés des particules qui y sont
soumises. Au contraire, nous comprenons aujourd'hui qu'elles résultent
des propriétés de symétrie auxquelles obéissent
ces particules. De même, la masse que l'on attribuait, autrefois, de
façon intrinsèque à chaque particule comme une propriété
fondamentale, est comprise comme une réaction du vide à sa
présence, c'est-à-dire comme un effet dynamique". Le vide
lui-même n'étant pas vide mais seulement sub-quantique, énergie
inférieure au quantum nécessaire à la matérialisation
d'une particule. Le mécano semble assez compréhensible des
3 quarks formant des fermions (neutron ou proton) constituant la matière
et se différenciant des bosons qui transmettent l'énergie (comme
le photon). Masse cachée et gravité exigent pourtant un dépassement
de cette base solide.
- "Le monde des cordes est-il le nôtre ?" Je répondrais
bien non, pour ma part. Ces nouvelles théories des particules, qui
tentent d'unifier la gravité aux autres forces (grande unification
de la théorie de la relativité et de la mécanique quantique),
semblent bien confuses et largement incompréhensibles. L'unification
avec la gravité ne me semble pas indispensable si elle résulte
de propriétés géométriques de déformation
de l'espace par la vitesse des corps. Comme la question de "la masse cachée"
semble remettre en cause ces conceptions, on est obligé de réintroduire
au delà de la matière sombre, une "matière non baryonique"
dont on ne sait rien et une "énergie sombre" dont on sait encore moins
! L'éther me semble donc encore là, qu'on ne peut réduire
au vide quantique, et la gravité pourrait s'expliquer par notre déplacement
dans cet éther, comme le sillage d'une planète nous entraînant
au sol et non pas comme une force électromagnétique. La gravitation
serait une conséquence de notre mouvement (l'univers n'est pas immobile)
plutôt que d'une interaction comme les particules. Vision trop littéraire
sans doute mais les 9 dimensions des cordes, si ce n'est pas 15, vont au-delà
de mes possibilités ! Il faudrait sans doute changer de point de
référence comme lorsqu'on a mis le soleil au centre plutôt
que de multiplier les épicycles. La complexité est un signe
d'égarement semble-t-il mais on verra bien les résultats. Voir plutôt le texte postérieur sur la théorie des cordes et les concepts fondamentaux
de la physique
.
- On peut constater l'importance prise par la question du Climat
avec le nombre d'articles qui abordent la question, et son caractère
polémique par la diversité des points de vue. Ainsi Claude Allègre plaide contre tout catastrophisme
: "Toutes les prédictions quantitatives
ayant été balayées par le temps, il est sage de rester
prudent et pour les spécialistes qui se sont tant trompés dans
leurs prévisions de rester modestes!". Cela ne devrait pas vouloir
dire être aveugle aux menaces avérées ! Les trois autres
articles font d'ailleurs le point de façon plus circonstancié
(climats, océans, effet de serre) ne laissant guère de doute
sur l'étendue des conséquences d'un réchauffement si
rapide. Même si la vie résiste à tout, l'Europe du nord
semble la plus mal placée, l'arrêt du Gulf Stream pouvant baisser
considérablement la température malgré le réchauffement.
Il est vrai que la simplicité de la cause (CO2) n'empêche pas
une grande complexité dans les effets.
Il est intéressant de souligner que la vie est apparue dès qu'elle a été possible. "La vie est apparue et s'est développée en moins de
150 millions d'années" puisque la Terre était invivable à -4 milliards d'années
et qu'il y a trace de vie il y a au moins 3.85 milliards d'années.
Cela tempère son caractère improbable et semble lui donner
un caractère de nécessité inéluctable.
- L'article sur "la théorie synthétique de l'évolution" insiste pourtant sur le côté bricolage du vivant, de conflit
entre gènes (et sélection), loin de tout plan préconçu
et de déroulement linéaire. Ainsi, la classification des espèces
n'étant plus fondée sur l'apparence mais sur la descendance,
il faut rapprocher crocodiles et oiseaux qui ont tous deux un gésier,
et non crocodiles et lézards qui se ressemblent comme "reptiles" dans
leurs stratégies d'adaptation.
- "Anthropologie et génétique" tempère les conclusions
hâtives sur des données insuffisantes, des séries incomplètes
pour décider de nos origines et fustige les "articles à sensation" ainsi que le
"copinage quasi maffieux" des revues scientifiques ! Les études
de génétique des populations ont révélé
leur productivité lorsqu'on les a couplées avec les répartitions
linguistiques. On retrouve inévitablement une certaine inégalité
entre les hommes même si, plutôt que de races, on parle de prédispositions
génétiques, terrain miné mais dont l'importance pour
la médecine ne devrait pas être négligée. "La connaissance des origines précises d'un patient
peut être un élément déterminant du diagnostic
de certaines maladies, exotiques en particulier, dans la détermination
des risques pour beaucoup de pathologies, ou dans l'établissement
des posologies optimales en pharmacologie. Souvent ces risques et ces posologies
varient beaucoup selon les origines des patients". On peut ajouter qu'en
l'absence de cette prise en compte se développent des typologies grossières
selon les groupes sanguins.
- Malgré "L'envol d'une discipline : l'immunologie", on est
convaincu du champ immense qui s'ouvre à la neuro-immunologie devant la complexité mise en jeu, bien plus que de
ses résultats qui n'intègrent pas assez, à mon avis,
la notion de système pourtant revendiquée. "L'immunologie serait-elle stérile ? Certainement pas. Elle est seulement complexe et difficile". En tout cas la similarité
entre les mécanismes neurologiques
et immunologiques, leur imbrication est de plus en plus évidente, plus que l'article ne le suggère.
- De la chimie retenons ce résumé de l'apport de Prigogine
avec les "structures dissipatives" à l'origine de la vie : "Prigogine
a formalisé sur le plan thermodynamique, l'approche que le mathématicien
anglais Alan Turing avait ébauché dès 1952 dans "Les
bases chimiques de la morphogenèse", où il imaginait un mécanisme
de réaction entre deux molécules biochimiques, qui diffusent
dans un tissu, engendrant spontanément une répartition périodique.
Ces phénomènes d'auto-organisation apparaissent quand deux
substances agissant l'une sur l'autre sont placées dans un milieu
où elles diffusent : l'une est dite activatrice, l'autre inhibitrice.
La première favorise sa propre production ainsi que celle de la seconde.
En revanche cette dernière inhibe la production de l'activateur. Quand
on laisse le système évoluer, des motifs apparaissent spontanément
: des taches, des zébrures... Les motifs résultent d'une compétition
entre une activation locale et une inhibition à longue portée.
De telles structures, dites dissipatives, ne se maintiennent que dans un
système qui n'est pas en équilibre et que l'on alimente sans
cesse en réactifs. Sinon, la réaction s'épuise et la
diffusion classique reprend ses droits". Ce n'est pas sans rapports avec les automates cellulaires ou avec les fractales.
- "L'universalité des fractales" montre l'étendue des phénomènes couverts par les fractales qui sont qualifiées de "cristallographie du hasard" : "Jusqu'ici
le calcul des probabilités
ne s'intéressait qu'à déterminer la quantité
de prévisible dans l'imprévisible. L'élargissement de
son champ à la géométrie de la réalisation d'une
suite d'événements aléatoires constitue une ouverture
immense et un des grands succès des fractales". Autrement dit
les probabilités ne sont pas celles d'un mouvement brownien, bruit
blanc uniforme purement aléatoire, mais de variations structurées
(la probabilité d'une valeur dépend des valeurs précédentes
ou voisines) et cela de façon invariante par rapport à l'échelle
bien qu'on reste dans l'imprévisible. On peut expliquer les fractales
comme un auto-amortissement par fragmentation, force à longue portée
qui rencontre une résistance locale, une friction qui fracture le
paysage, géométrie des frontières, des bords, des seuils,
du vivant.
- "Les atomes ultra froids" nous introduisent dans un univers étrange
où grâce à un système astucieux de lasers décalés
on arrive à refroidir à des températures extrêmement
basses des atomes qui prennent alors un état dit "condensat de Bose-Einstein".
Il faut savoir que si toute particule est associée à une longueur d'onde, "
les particules matérielles n'exhibent pas leurs propriétés
ondulatoires tant la longueur d'onde qui les décrit est petite. Cette
longueur d'onde, dite de Broglie, est inversement proportionnelle à
la vitesse et à la masse de l'objet considéré..." (
hn=mC
2 où n est la fréquence. La vitesse est C
2/n) La matière a donc une longueur
d'onde trop petite pour qu'on la
voit (un
fermion comme l'électron ne transmet
pas son énergie, sa masse, au contraire d'un boson comme le photon
qui n'a pas de masse mais une longueur d'onde). La vitesse, c'est la chaleur
et donc en refroidissant les atomes on augmente leur longueur d'onde jusqu'à
en faire des bosons, des condensats de Bose-Einstein, condensation figée
et cohérente qui n'est pas solide mais n'a pas non plus la viscosité
d'un liquide. Cet état ni solide, ni liquide, ni gazeux, manifeste
le caractère ondulatoire de la matière, constituant un "champ
atomique", une sorte de laser d'atomes. A la différence des lasers
de photons, les atomes étant réactifs on produit ainsi une optique
atomique non-linéaire très nouvelle. Cette évaporation
de la matière à basse température confirme le fait que
la matière est constituée d'une longueur d'onde trop petite
pour se transmettre (sorte de quanta des longueurs d'onde) constituant son
inertie par rapport à la vitesse de la lumière.
- "Gels, milieux poreux et sable" ne sont pas si loin
de ce cristal mou, leur intérêt étant de manifester l'universalité des
phénomènes critiques au voisinage d'un seuil, par exemple la
percolation. "Ce qui caractérise tous ces problèmes est
le fait qu'ils sont non locaux, c'est-à-dire que les propriétés
de l'ensemble ne se réduisent pas à l'étude des propriétés
locales". La sauce prend d'un coup, réorganisation générale comme la cristallisation. "Au seuil le système est auto-similaire", "le modèle est fractal".
Ces questions concrètes ont permis d'unifier la mécanique des ingénieurs
avec celle des physiciens. Il est amusant de constater d'heureuses surprises
comme les "supraconducteurs sales" qui fonctionneraient à température
ambiante : "tout fonctionne bien, sauf la théorie".
- "La pensée mathématique" aurait permis ces dernières années à S. Donaldson de montrer que l'espace euclidien à
4 dimensions est complètement différent de tous les autres,
comportant une infinité de "structures lisses". Ce qu'il appelle les "instantons", qui sont des "excitations du vide dues à la topologie particulière de l'espace" (!?),
ont été à l'origine de la théorie des cordes.
Plus tangible, l'importance prise par les fractales, omniprésentes
on l'a vu, mais aussi les théories du chaos introduisant l'imprévisibilité
dans les systèmes dynamiques non linéaires, ainsi que les théories
de la complexité qui représentent l'exact opposé des
théories du chaos puisqu'en montrant que le tout est plus que la somme
des parties, elles construisent des modèles qui permettent une certaine
prévisibilité (on retrouve l'article précédent
sur l'universalité des phénomènes de seuil). On est
très proche ici de la théorie des systèmes. Je regrette
que la théorie des catastrophes ne soit pas citée car elle
représente une généralisation de la modélisation, de la morphogenèse.
- "Le décryptage de l'économie" est bien décevant,
modélisation naïve, application trop mécanique des mathématiques
à l'économie. L'auteur se plaint des anciennes prétentions
des marxistes à la scientificité alors même qu'il témoigne
de la fausse scientificité du modèle d'Arrow-Debreu qu'il défendait
auparavant en y croyant dur comme fer ! Pour lui les avancées significatives
invalidant les théories néoclassiques se réduisent aux
"anticipations rationnelles" ou "prédictions auto-réalisatrices"
par esprit moutonnier, justifié car la valeur dépend de la demande
(du point de vue de la demande, pas de la production...), ainsi que la théorie
des contrats mettant en évidence les asymétries de l'information
entre contractants alors que pour la théorie néoclassique la
seule information consiste dans le prix connu de tous. Ces réfutations
de la théorie libérale sont effectivement importantes, d'autant
que la généralisation de la gestion des portefeuilles d'action
par programme donne une importance décuplée aux "anticipations
rationnelles", à l'influence des théories de la valeur sur
la valeur effective (participant à l'emballement de la bulle spéculative
comme au krach). Se limiter à ces avancées, en ignorant notamment
Amartya Sen, c'est cultiver l'illusion que le modèle standard puisse
être sauvé de la tourmente, ce qui est douteux. Il faudrait
ajouter bien d'autres réfutations de l'optimisation marchande, ne
serait-ce que celle d'une "rationalité limitée" se substituant
au calcul rationnel, ou bien la sociologie économique réduisant
la portée des mécanismes de concurrence par les inerties sociales
mais surtout la prise en compte des externalités écologiques
et sociales. Il ne reste plus grand chose de l'idéologie libérale
comme Jacques Généreux s'est employé à le montrer
point par point dans Alternatives économiques chaque mois. Mais qui
donc reste libéral à part le FMI ? Le protectionnisme ne se cache même plus.
Il faut noter que les fractales s'imposent dans l'analyse de la volatilité
des titres, l'amplitude de leurs variations. Or c'est pour l'analyse des
cours de la bourse que Benoît Mandelbrot a exhumé les fractales
pour la première fois. Ce qui veut dire que l'amplitude des cours
reflète l'incertitude sur la valeur avec des variations locales semblables
aux variations à plus long terme selon une géométrie
fractale (une invariance d'échelle) amortissant les tendances lourdes
par des contre-tendances locales (rien de rassurant pour la chute actuelle
qui suit des envolées jamais vues et se caractérise effectivement
par des variations importantes et rapides, une très grande volatilité).
- "
Simulation et modélisations" reste
dans la modélisation qui prend de plus en plus d'importance, mais on quitte ici la mathématique
du continu pour une "
physique numérique", de la discontinuité,
du simple fait d'être informatisée, numérisée. On distingue deux sortes
de simulations : la
simulation prédictive permettant de simuler l'évolution
imprévisible de lois connues comme la mécanique des fluides (prévisions météo)
ou la
modélisation explicative qui tente de reproduire le fonctionnement
d'un système dont on ne connaît que les entrées et les
sorties (modèles atomiques, cognitifs ou économiques). On n'est pas loin du
Macroscope
de Joël de Rosnay. La
concordance des résultats est supposée refléter le fonctionnement
réel avec le risque de prendre la carte pour le territoire. Il y a
une troisième voie, plus ambitieuse, celle de Stephen Wolfram et
de sa
nouvelle science
des automates cellulaires
puisqu'il pense qu'à reproduire une forme naturelle, l'automate cellulaire
en constitue l'
explication réelle, non pas approchée
par bricolage du système mais générée par ses
contraintes locales (sans doute trop beau, trop lisse pour être vrai
puisque le rôle de l'improbable est inéliminable des grands
nombres en jeu dans l'évolution).
- On glisse ensuite "
vers une robotique animale" où la modélisation
laisse la place à une biologisation de la robotique, de l'ordre d'une
simulation de plus en plus explicative et de moins en moins prédictive
donc. Doter un robot d'autonomie, c'est lui permettre de faire face à
l'imprévu, l'équiper des fonctions nécessaires. Pour
cela, rien de mieux que les mécanismes de la vie : que ce soit l'imitation
des mécanismes biologiques (de locomotion par exemple), les méthodes
évolutionnistes de sélection de programmes aléatoires,
ou l'utilisation de composants biologiques (neurones, tissus) jusqu'à
téléguider un rat. "
Verrons-nous
apparaître, ce que beaucoup redoutent, des manifestations non-prévues
a priori par les concepteurs et ayant les mêmes fonctions que les émotions
animales" ? Pourtant il me semble évident que sans émotions,
les robots ne pourront jamais être vraiment autonomes ni aller bien
loin dans l'apprentissage des interactions humaines. La question n'est pas
tant de ce que les robots deviendraient alors des êtres humains mais
de ce que nous aurons tendance à les considérer comme tel, à nous identifier à la machine !
Les frontières se brouillent plus qu'elles ne s'effacent. On peut
même penser que la différence ne fait que se creuser entre notre
subjectivité, de plus en plus précieuse, et nos automatismes laissés aux automates (voir
L'informatique autonome).
Ce survol me semble donner une bonne vision de l'état
de la Science à l'aube du troisième millénaire, plutôt
décevante, avouons-le, par rapport à ce qu'on aurait pu imaginer d'une science triomphante multipliant
plutôt les questions, nous confrontant à nos limites de plus en plus mais
ouvrant encore des perspectives inouïes, peut-être insensées, qui annoncent notre monde à venir.