25 ans de Science

Pour la Science no 300, octobre 2002
Il faut saluer ce numéro qui profite du 25ème anniversaire de la revue pour faire le point sur les 25 ans passés de recherche et surtout faire un état des lieux de la Science aujourd'hui. Nous allons tenter d'en restituer la richesse et la grande continuité qui s'en dégage d'un bout à l'autre du numéro où chaque discipline semble prendre le relais de l'autre.

- On commence par les premières traces de vie et les "Catastrophes cosmiques et extinctions" qui montrent le rôle du hasard dans l'évolution et l'extinction d'espèces suite à des cataclysmes improbables (qui ne sont pas cycliques donc).

- "La modernité des dinosaures" confirme d'ailleurs que les dinosaures n'ont pas disparus, ils sont parmi nous puisque les oiseaux en sont les descendants !

- "Une évolution buissonante", tente de faire la balance des résultats récents de la paléontologie sur la multiplication des types de pré-hominiens. Il y a bien eu toutes sortes de cerveaux et d'outils mais "il semble que notre espèce soit passée par une phase de sélection drastique, un goulot d'étranglement, avec une population réduite à quelque 60 000 individus, il y a entre 100 000 et 50 000 ans." C'est sans doute notre véritable origine avec l'apparition des premières tombes et peu avant les grottes ornées (pour d'autres ce qui est décisif c'est la maîtrise du feu qui nous protège des prédateurs sans doute depuis 1 millions d'années mais nous sommes presque identiques à l'homo sapiens sapiens d'il y a 50 000 ans. 100 000 ans correspondent à un pic de réchauffement, 50 000 ans à une période glaciaire).

- De l'astronomie et de l'origine du monde, on passe au mystère de la masse cachée de l'univers, puis "le modèle standard" fait le point sur la physique des particules, modèle à la fois vérifié de toutes parts et insuffisant. "Nous avons compris que les forces ne sont pas des ingrédients qu'il faut introduire de façon arbitraire dans nos théories, aux côtés des particules qui y sont soumises. Au contraire, nous comprenons aujourd'hui qu'elles résultent des propriétés de symétrie auxquelles obéissent ces particules. De même, la masse que l'on attribuait, autrefois, de façon intrinsèque à chaque particule comme une propriété fondamentale, est comprise comme une réaction du vide à sa présence, c'est-à-dire comme un effet dynamique". Le vide lui-même n'étant pas vide mais seulement sub-quantique, énergie inférieure au quantum nécessaire à la matérialisation d'une particule. Le mécano semble assez compréhensible des 3 quarks formant des fermions (neutron ou proton) constituant la matière et se différenciant des bosons qui transmettent l'énergie (comme le photon). Masse cachée et gravité exigent pourtant un dépassement de cette base solide.

- "Le monde des cordes est-il le nôtre ?" Je répondrais bien non, pour ma part. Ces nouvelles théories des particules, qui tentent d'unifier la gravité aux autres forces (grande unification de la théorie de la relativité et de la mécanique quantique), semblent bien confuses et largement incompréhensibles. L'unification avec la gravité ne me semble pas indispensable si elle résulte de propriétés géométriques de déformation de l'espace par la vitesse des corps. Comme la question de "la masse cachée" semble remettre en cause ces conceptions, on est obligé de réintroduire au delà de la matière sombre, une "matière non baryonique" dont on ne sait rien et une "énergie sombre" dont on sait encore moins ! L'éther me semble donc encore là, qu'on ne peut réduire au vide quantique, et la gravité pourrait s'expliquer par notre déplacement dans cet éther, comme le sillage d'une planète nous entraînant au sol et non pas comme une force électromagnétique. La gravitation serait une conséquence de notre mouvement (l'univers n'est pas immobile) plutôt que d'une interaction comme les particules. Vision trop littéraire sans doute mais les 9 dimensions des cordes, si ce n'est pas 15, vont au-delà de mes possibilités ! Il faudrait sans doute changer de point de référence comme lorsqu'on a mis le soleil au centre plutôt que de multiplier les épicycles. La complexité est un signe d'égarement semble-t-il mais on verra bien les résultats. Voir plutôt le texte postérieur sur la théorie des cordes et les concepts fondamentaux de la physique .

- On peut constater l'importance prise par la question du Climat avec le nombre d'articles qui abordent la question, et son caractère polémique par la diversité des points de vue. Ainsi Claude Allègre plaide contre tout catastrophisme : "Toutes les prédictions quantitatives ayant été balayées par le temps, il est sage de rester prudent et pour les spécialistes qui se sont tant trompés dans leurs prévisions de rester modestes!". Cela ne devrait pas vouloir dire être aveugle aux menaces avérées ! Les trois autres articles font d'ailleurs le point de façon plus circonstancié (climats, océans, effet de serre) ne laissant guère de doute sur l'étendue des conséquences d'un réchauffement si rapide. Même si la vie résiste à tout, l'Europe du nord semble la plus mal placée, l'arrêt du Gulf Stream pouvant baisser considérablement la température malgré le réchauffement. Il est vrai que la simplicité de la cause (CO2) n'empêche pas une grande complexité dans les effets.

Il est intéressant de souligner que la vie est apparue dès qu'elle a été possible. "La vie est apparue et s'est développée en moins de 150 millions d'années" puisque la Terre était invivable à -4 milliards d'années et qu'il y a trace de vie il y a au moins 3.85 milliards d'années. Cela tempère son caractère improbable et semble lui donner un caractère de nécessité inéluctable.

- L'article sur "la théorie synthétique de l'évolution" insiste pourtant sur le côté bricolage du vivant, de conflit entre gènes (et sélection), loin de tout plan préconçu et de déroulement linéaire. Ainsi, la classification des espèces n'étant plus fondée sur l'apparence mais sur la descendance, il faut rapprocher crocodiles et oiseaux qui ont tous deux un gésier, et non crocodiles et lézards qui se ressemblent comme "reptiles" dans leurs stratégies d'adaptation.

- "Anthropologie et génétique" tempère les conclusions hâtives sur des données insuffisantes, des séries incomplètes pour décider de nos origines et fustige les "articles à sensation" ainsi que le "copinage quasi maffieux" des revues scientifiques ! Les études de génétique des populations ont révélé leur productivité lorsqu'on les a couplées avec les répartitions linguistiques. On retrouve inévitablement une certaine inégalité entre les hommes même si, plutôt que de races, on parle de prédispositions génétiques, terrain miné mais dont l'importance pour la médecine ne devrait pas être négligée. "La connaissance des origines précises d'un patient peut être un élément déterminant du diagnostic de certaines maladies, exotiques en particulier, dans la détermination des risques pour beaucoup de pathologies, ou dans l'établissement des posologies optimales en pharmacologie. Souvent ces risques et ces posologies varient beaucoup selon les origines des patients". On peut ajouter qu'en l'absence de cette prise en compte se développent des typologies grossières selon les groupes sanguins.

- Malgré "L'envol d'une discipline : l'immunologie", on est convaincu du champ immense qui s'ouvre à la neuro-immunologie devant la complexité mise en jeu, bien plus que de ses résultats qui n'intègrent pas assez, à mon avis, la notion de système pourtant revendiquée. "L'immunologie serait-elle stérile ? Certainement pas. Elle est seulement complexe et difficile". En tout cas la similarité entre les mécanismes neurologiques et immunologiques, leur imbrication est de plus en plus évidente, plus que l'article ne le suggère.

- De la chimie retenons ce résumé de l'apport de Prigogine avec les "structures dissipatives" à l'origine de la vie : "Prigogine a formalisé sur le plan thermodynamique, l'approche que le mathématicien anglais Alan Turing avait ébauché dès 1952 dans "Les bases chimiques de la morphogenèse", où il imaginait un mécanisme de réaction entre deux molécules biochimiques, qui diffusent dans un tissu, engendrant spontanément une répartition périodique. Ces phénomènes d'auto-organisation apparaissent quand deux substances agissant l'une sur l'autre sont placées dans un milieu où elles diffusent : l'une est dite activatrice, l'autre inhibitrice. La première favorise sa propre production ainsi que celle de la seconde. En revanche cette dernière inhibe la production de l'activateur. Quand on laisse le système évoluer, des motifs apparaissent spontanément : des taches, des zébrures... Les motifs résultent d'une compétition entre une activation locale et une inhibition à longue portée. De telles structures, dites dissipatives, ne se maintiennent que dans un système qui n'est pas en équilibre et que l'on alimente sans cesse en réactifs. Sinon, la réaction s'épuise et la diffusion classique reprend ses droits". Ce n'est pas sans rapports avec les automates cellulaires ou avec les fractales.

- "L'universalité des fractales" montre l'étendue des phénomènes couverts par les fractales qui sont qualifiées de "cristallographie du hasard" : "Jusqu'ici le calcul des probabilités ne s'intéressait qu'à déterminer la quantité de prévisible dans l'imprévisible. L'élargissement de son champ à la géométrie de la réalisation d'une suite d'événements aléatoires constitue une ouverture immense et un des grands succès des fractales". Autrement dit les probabilités ne sont pas celles d'un mouvement brownien, bruit blanc uniforme purement aléatoire, mais de variations structurées (la probabilité d'une valeur dépend des valeurs précédentes ou voisines) et cela de façon invariante par rapport à l'échelle bien qu'on reste dans l'imprévisible. On peut expliquer les fractales comme un auto-amortissement par fragmentation, force à longue portée qui rencontre une résistance locale, une friction qui fracture le paysage, géométrie des frontières, des bords, des seuils, du vivant.

- "Les atomes ultra froids" nous introduisent dans un univers étrange où grâce à un système astucieux de lasers décalés on arrive à refroidir à des températures extrêmement basses des atomes qui prennent alors un état dit "condensat de Bose-Einstein".

Il faut savoir que si toute particule est associée à une longueur d'onde, "les particules matérielles n'exhibent pas leurs propriétés ondulatoires tant la longueur d'onde qui les décrit est petite. Cette longueur d'onde, dite de Broglie, est inversement proportionnelle à la vitesse et à la masse de l'objet considéré..." (hn=mC2 où n est la fréquence. La vitesse est C2/n) La matière a donc une longueur d'onde trop petite pour qu'on la voit (un fermion comme l'électron ne transmet pas son énergie, sa masse, au contraire d'un boson comme le photon qui n'a pas de masse mais une longueur d'onde). La vitesse, c'est la chaleur et donc en refroidissant les atomes on augmente leur longueur d'onde jusqu'à en faire des bosons, des condensats de Bose-Einstein, condensation figée et cohérente qui n'est pas solide mais n'a pas non plus la viscosité d'un liquide. Cet état ni solide, ni liquide, ni gazeux, manifeste le caractère ondulatoire de la matière, constituant un "champ atomique", une sorte de laser d'atomes. A la différence des lasers de photons, les atomes étant réactifs on produit ainsi une optique atomique non-linéaire très nouvelle. Cette évaporation de la matière à basse température confirme le fait que la matière est constituée d'une longueur d'onde trop petite pour se transmettre (sorte de quanta des longueurs d'onde) constituant son inertie par rapport à la vitesse de la lumière.

- "Gels, milieux poreux et sable" ne sont pas si loin de ce cristal mou, leur intérêt étant de manifester l'universalité des phénomènes critiques au voisinage d'un seuil, par exemple la percolation. "Ce qui caractérise tous ces problèmes est le fait qu'ils sont non locaux, c'est-à-dire que les propriétés de l'ensemble ne se réduisent pas à l'étude des propriétés locales". La sauce prend d'un coup, réorganisation générale comme la cristallisation. "Au seuil le système est auto-similaire", "le modèle est fractal". Ces questions concrètes ont permis d'unifier la mécanique des ingénieurs avec celle des physiciens. Il est amusant de constater d'heureuses surprises comme les "supraconducteurs sales" qui fonctionneraient à température ambiante : "tout fonctionne bien, sauf la théorie".

- "La pensée mathématique" aurait permis ces dernières années à S. Donaldson de montrer que l'espace euclidien à 4 dimensions est complètement différent de tous les autres, comportant une infinité de "structures lisses". Ce qu'il appelle les "instantons", qui sont des "excitations du vide dues à la topologie particulière de l'espace" (!?), ont été à l'origine de la théorie des cordes.

Plus tangible, l'importance prise par les fractales, omniprésentes on l'a vu, mais aussi les théories du chaos introduisant l'imprévisibilité dans les systèmes dynamiques non linéaires, ainsi que les théories de la complexité qui représentent l'exact opposé des théories du chaos puisqu'en montrant que le tout est plus que la somme des parties, elles construisent des modèles qui permettent une certaine prévisibilité (on retrouve l'article précédent sur l'universalité des phénomènes de seuil). On est très proche ici de la théorie des systèmes. Je regrette que la théorie des catastrophes ne soit pas citée car elle représente une généralisation de la modélisation, de la morphogenèse.

- "Le décryptage de l'économie" est bien décevant, modélisation naïve, application trop mécanique des mathématiques à l'économie. L'auteur se plaint des anciennes prétentions des marxistes à la scientificité alors même qu'il témoigne de la fausse scientificité du modèle d'Arrow-Debreu qu'il défendait auparavant en y croyant dur comme fer ! Pour lui les avancées significatives invalidant les théories néoclassiques se réduisent aux "anticipations rationnelles" ou "prédictions auto-réalisatrices" par esprit moutonnier, justifié car la valeur dépend de la demande (du point de vue de la demande, pas de la production...), ainsi que la théorie des contrats mettant en évidence les asymétries de l'information entre contractants alors que pour la théorie néoclassique la seule information consiste dans le prix connu de tous. Ces réfutations de la théorie libérale sont effectivement importantes, d'autant que la généralisation de la gestion des portefeuilles d'action par programme donne une importance décuplée aux "anticipations rationnelles", à l'influence des théories de la valeur sur la valeur effective (participant à l'emballement de la bulle spéculative comme au krach). Se limiter à ces avancées, en ignorant notamment Amartya Sen, c'est cultiver l'illusion que le modèle standard puisse être sauvé de la tourmente, ce qui est douteux. Il faudrait ajouter bien d'autres réfutations de l'optimisation marchande, ne serait-ce que celle d'une "rationalité limitée" se substituant au calcul rationnel, ou bien la sociologie économique réduisant la portée des mécanismes de concurrence par les inerties sociales mais surtout la prise en compte des externalités écologiques et sociales. Il ne reste plus grand chose de l'idéologie libérale comme Jacques Généreux s'est employé à le montrer point par point dans Alternatives économiques chaque mois. Mais qui donc reste libéral à part le FMI ? Le protectionnisme ne se cache même plus.

Il faut noter que les fractales s'imposent dans l'analyse de la volatilité des titres, l'amplitude de leurs variations. Or c'est pour l'analyse des cours de la bourse que Benoît Mandelbrot a exhumé les fractales pour la première fois. Ce qui veut dire que l'amplitude des cours reflète l'incertitude sur la valeur avec des variations locales semblables aux variations à plus long terme selon une géométrie fractale (une invariance d'échelle) amortissant les tendances lourdes par des contre-tendances locales (rien de rassurant pour la chute actuelle qui suit des envolées jamais vues et se caractérise effectivement par des variations importantes et rapides, une très grande volatilité).

- "Simulation et modélisations" reste dans la modélisation qui prend de plus en plus d'importance, mais on quitte ici la mathématique du continu pour une "physique numérique", de la discontinuité, du simple fait d'être informatisée, numérisée. On distingue deux sortes de simulations : la simulation prédictive permettant de simuler l'évolution imprévisible de lois connues comme la mécanique des fluides (prévisions météo) ou la modélisation explicative qui tente de reproduire le fonctionnement d'un système dont on ne connaît que les entrées et les sorties (modèles atomiques, cognitifs ou économiques). On n'est pas loin du Macroscope de Joël de Rosnay. La concordance des résultats est supposée refléter le fonctionnement réel avec le risque de prendre la carte pour le territoire. Il y a une troisième voie, plus ambitieuse, celle de Stephen Wolfram et de sa nouvelle science des automates cellulaires puisqu'il pense qu'à reproduire une forme naturelle, l'automate cellulaire en constitue l'explication réelle, non pas approchée par bricolage du système mais générée par ses contraintes locales (sans doute trop beau, trop lisse pour être vrai puisque le rôle de l'improbable est inéliminable des grands nombres en jeu dans l'évolution).

- On glisse ensuite "vers une robotique animale" où la modélisation laisse la place à une biologisation de la robotique, de l'ordre d'une simulation de plus en plus explicative et de moins en moins prédictive donc. Doter un robot d'autonomie, c'est lui permettre de faire face à l'imprévu, l'équiper des fonctions nécessaires. Pour cela, rien de mieux que les mécanismes de la vie : que ce soit l'imitation des mécanismes biologiques (de locomotion par exemple), les méthodes évolutionnistes de sélection de programmes aléatoires, ou l'utilisation de composants biologiques (neurones, tissus) jusqu'à téléguider un rat. "Verrons-nous apparaître, ce que beaucoup redoutent, des manifestations non-prévues a priori par les concepteurs et ayant les mêmes fonctions que les émotions animales" ? Pourtant il me semble évident que sans émotions, les robots ne pourront jamais être vraiment autonomes ni aller bien loin dans l'apprentissage des interactions humaines. La question n'est pas tant de ce que les robots deviendraient alors des êtres humains mais de ce que nous aurons tendance à les considérer comme tel, à nous identifier à la machine ! Les frontières se brouillent plus qu'elles ne s'effacent. On peut même penser que la différence ne fait que se creuser entre notre subjectivité, de plus en plus précieuse, et nos automatismes laissés aux automates (voir L'informatique autonome).

Ce survol me semble donner une bonne vision de l'état de la Science à l'aube du troisième millénaire, plutôt décevante, avouons-le, par rapport à ce qu'on aurait pu imaginer d'une science triomphante multipliant plutôt les questions, nous confrontant à nos limites de plus en plus mais ouvrant encore des perspectives inouïes, peut-être insensées, qui annoncent notre monde à venir.
28/09/02
Jean Zin - http://jeanzin.fr/ecorevo/grit/25ans.htm

Index