Revue des sciences 09/08

Temps de lecture : 107 minutes

Leonard de Vinci

<- Revue des sciences précédente | Revue des sciences suivante ->
Revues : Pour la Science 
Brèves : Physique - Climat - Biologie - Santé - Technologie

Je pense que la nature est plus intelligente que les physiciens. Nous devrions avoir le courage de dire : "Que la nature nous dise ce qui se passe". Notre expérience du passé a démontré que dans le monde de l'infiniment petit, il est extrêmement stupide de prédire la nature de la prochaine découverte physique et d’où elle viendra. De multiples façons, ce monde nous surprendra toujours. (Carlo Rubbia)

Attendre la surprise ! Alors que le LHC, véritable illustration des démesures de la technoscience, devrait commencer ses expériences décisives le 10 septembre, c'est la physique qui est à l'honneur ce mois-ci. En effet, l'effervescence théorique des physiciens est à son comble témoignant de tout ce qu'on ignore encore malgré tout ce qu'on croit savoir. Rien de tel pour éprouver les limites de notre rationalité. La physique a toujours défié l'imagination et détrompé des plus belles théories. C'est bien ce qui est passionnant dans les sciences, plus que le résultat dogmatique (technique), et c'est pourquoi on rend compte ici de théories qui n'ont presque aucune chance d'être vérifiées mais, justement, tout est dans le presque et ce qui rend possible que ce ne soit pas pur délire en dehors du discours scientifique. La biologie n'est pas en reste avec l'hypothèse (farfelue?) que papillons et chenilles seraient 2 organismes distincts ayant fusionné leurs génomes ! Sinon, j'ai été très ému par l'histoire du chimpanzé qui se prenait pour un enfant, histoire rapportée par Courrier International, à la fois très troublante sur notre proximité avec les singes et révoltante sur l'irresponsabilité des chercheurs... Récit capable de nous faire éprouver colère et pitié. L'utilisation de véritables neurones pour contrôler des robots est aussi troublante. Pour le climat, la menace se précise hélas d'une fonte du permafrost, véritable bombe climatique aux risques démesurés qui devrait nous mobiliser sans plus tarder alors que se renforce l'hypothèse que les conditions de la vie évoluée sont exceptionnelles dans tout l'univers.

On trouvera une version éclatée en plusieurs articles de cette revue des sciences sur le site du GRIT-Transversales : physique - climat - biologie - santé - technologies.


Pour la Science no 371, Le verre biologique


Pour la Science

- L’investissement écologique, p8
Ivar Ekeland

Les actions écologiques nécessitent des investissements actuels pour un bienfait à très long terme. Comment pouvons-nous évaluer les taux d’intérêt de l’argent investi ?

Le long terme n’est plus ce qu’il était. Voici quelques années encore, il s’arrêtait à 30 ans : au-delà commençait le royaume de l’utopie. La préoccupation nouvelle pour l’environnement a changé tout cela. Ainsi, selon le très influent rapport de Nicholas Stern sur le réchauffement climatique (disponible sur la Toile), l’inertie du système atmosphérique est telle que le cours des 50 prochaines années est déjà déterminé : les mesures que nous prendrons (ou ne prendrons pas) aujourd’hui n’influeront sur le climat qu’entre 2050 et 2200. C’est, à ma connaissance, la première fois que les économistes se projettent aussi loin dans l’avenir et les conclusions sont percutantes : si nous ne faisons rien, le coût du réchauffement climatique pour l’économie mondiale sera de 5 à 20 pour cent du pnb par an, mais des mesures préventives efficaces mises en place dès aujourd’hui coûteraient moins de 1 pour cent du PNB.

Le problème, c'est que les taux à très long terme sont très bas. Un calcul théorique les situe autour de 1,5% par an (en fait les taux à 50 ans sont de 5% et il n'y en a pas à 200 ans) mais à condition d'une inflation maîtrisée ce qui est peu probable sur cette durée. Le marché se révèle ainsi complètement incapable de satisfaire ces investissements à très long terme, hors de toute visibilité dans un monde incertain (on est dans le principe de précaution), et qui sont donc inévitablement publics.

- L’univers quantique auto-organisé, p44

Une nouvelle approche du problème de la gravitation quantique, qui tourmente les physiciens depuis des décennies, propose que des briques d’espace et de temps s’assemblent et s’auto-organisent pour engendrer l’Univers tel que nous le connaissons.

Quelle est la nature profonde de l’espace et du temps ? Pourquoi forment-ils un continuum apparent à quatre dimensions – trois d’espace et une de temps – qui sert de toile de fond à notre monde physique ? Sont-ils continus ou discrets à très petite échelle ? Comment sont-ils apparus ? De telles questions, à la frontière de la physique actuelle, sont l’objet des théories quantiques de la gravitation, qui cherchent à réaliser l’unification de la théorie de la relativité générale d’Einstein avec la théorie quantique. La théorie de la relativité décrit comment se comporte l’espace-temps à grande échelle, produisant ce que nous appelons la gravitation. À l’opposé, la théorie quantique décrit les lois de la physique aux échelles atomique et subatomique, en ignorant complètement les effets de la gravitation. Les deux semblent à première vue incompatibles, et résistent depuis plusieurs décennies à toute tentative d’unification. Toutes les théories de la gravitation quantique ont pour but de décrire la nature de l’espace-temps aux très petites échelles par des lois quantiques, et si possible de les expliquer en termes de constituants fondamentaux.

L'idée de cette gravitation quantique euclidienne (ou triangulations dynamiques causales) défendue par Renate Loll et Jan Ambjorn (dont parle Lee Smolin dans son livre "Rien ne va plus en physique"), c'est de raisonner à partir d'éléments d'espaces triangulaires, aussi petits que possibles mais granulaires (quantiques, non nuls), et de leur appliquer les règles de la superposition quantique, ce qui produit un enchevêtrement chaotique d'une infinité de dimensions. En appliquant simplement le principe de causalité, c'est-à-dire en donnant une orientation temporelle à chaque triangle, on retrouverait magiquement notre espace-temps à 4 dimensions. Il est trompeur de parler d'émergence de l'espace et du temps car le temps on l'a introduit avec la causalité et l'espace avec les triangles déterminant une surface. Tout ce qu'on peut dire, c'est qu'on a trouvé ainsi une théorie quantique (granulaire) de l'espace-temps, ramené à des interactions entre "atomes d'espace-temps". On ne devrait même plus parler d'espace-temps car le temps a été détaché de l'espace. Insister sur sa supposée auto-organisation signifie simplement que l'apparence de l'espace macroscopique résulte de lois statistiques appliquées à des éléments fluctuants au niveau quantique. Une des conséquences les plus étonnantes, c'est que le nombre de dimensions dépendrait de l'échelle et que l'espace-temps pourrait être fractal (auto-similaire) bien en dessous de la longueur de Planck, ce qui signifie que "le concept de taille n'y existe tout simplement plus", notre espace-temps n'étant qu'un effet d'échelle émergeant d'une dynamique sous-jacente entre éléments fluctuants, un peu comme dans un gaz.

A des échelles encore plus petites, à l'échelle de Planck et au-dessous, les fluctuations quantiques de l'espace-temps deviennent tellement prédominantes que les notions de géométrie classique cessent d'être valables. Le nombre de dimensions tombe de 4 à environ 2 ! Néanmoins, pour autant qu'on puisse se prononcer, l'espace-temps reste continu et ne présente pas de trous-de-ver (...) A ces échelles, la géométrie de l'espace-temps obéit à des règles non classiques, mais le concept de distance s'applique toujours.

Nous explorons actuellement des échelles encore plus petites. Une possibilité est que l'univers devienne autosimilaire et présente alors le même aspect à toutes les échelles au-dessous d'un certain seuil.

Scientific American qui édite Pour la Science aime bien l'auto-organisation mise à toutes les sauces depuis l'économie (libérale) jusqu'à l'origine de la vie (métabolique) ou la religion (God 2.0) et maintenant appliquée à la constitution de l'espace-temps. Il ne s'agit pas de contester l'auto-organisation qui est un fait : l'univers tout entier est auto-organisé puisqu'il n'a pas d'organisateur ni de créateur. Ce qu'il faut contester, c'est que l'auto-organisation vaille comme explication, de même que le hasard ne peut être la cause de rien, de même l'auto-organisation n'explique absolument rien. Ce qui importe, ce sont les forces de sélection qui vont opérer pour sculpter l'organisme final. Le darwinisme doit être compris comme une causalité descendante opérant après-coup par sélection des structures les plus durables (l'entropie c'est que le plus probable est le plus probable à chaque instant, selon les lois de la probabilité. L'évolution signifie que le plus durable est le plus durable, sur la durée, selon la loi de l'improbabilité et de l'exception qui confirme la règle). Les mutations aléatoires tout comme les ajustements de l'auto-organisation ne valent qu'à explorer les possibilités immédiates, à court terme, mais ce qui compte c'est la réalité qui s'impose à la fin dans une configuration durable sur le long terme. Là aussi, tout dépend de l'échelle de temps considérée entre l'instabilité élémentaire et une stabilité globale beaucoup plus durable (la sociologie n'est pas la psychologie). Comme dit René Thom, expliquant les fondements de sa "théorie des catastrophes" :

"Il est illusoire de vouloir expliquer la stabilité d’une forme par l’interaction d’êtres plus élémentaires en lesquels on la décomposerait (..) La stabilité d’une forme, ainsi que d’un tourbillon dans le flot héraclitéen de l’écoulement universel, repose en définitive sur une structure de caractère algébrico-géométrique (..), dotée de la propriété de stabilité structurelle vis-à-vis des perturbations incessantes qui l’affectent. C’est cette entité algébrico-topologique que nous proposons d’appeler - en souvenir d’Héraclite - le logos de la forme". René Thom, Mathématiques de la Morphogénèse, p205

- Chenilles et papillons : fusion de 2 organismes ?, p52

La forme larvaire de certains animaux diffère notablement de la forme adulte. Ces différences morphologiques traduiraient la fusion d’organismes dont les génomes s’exprimeraient l’un après l’autre au cours de la vie de l’animal.

Dans son œuvre, Darwin mettait l’accent sur le caractère graduel de l’évolution, l’accumulation de modifications mineures transmises via les mécanismes de l’hérédité. Ce gradualisme a aussi été prôné par les partisans de la théorie synthétique de l’évolution, dans les années 1960-1970. Cependant, il ne fait pas l’unanimité. De fait, certaines formes ne peuvent s’expliquer que par un changement soudain. C’est notamment le cas des larves, les formes juvéniles de nombreux animaux. Elles diffèrent parfois si notablement des adultes qu’elles deviennent, qu’un observateur non averti pourrait y voir deux espèces. En un sens, il pourrait avoir raison ! Selon l’hypothèse du « transfert larvaire » que nous proposons, les larves, et les gènes qui les spécifient, auraient été transférés d’une lignée animale à une autre par une hybridation entre espèces. En d'autres termes, les animaux qui ont une forme larvaire seraient-ils issus de la fusion de génomes exprimés l'un après l'autre ?

C'est l'hypothèse la plus étonnante de ce mois, hypothèse contestable mais stimulante. La chenille serait à l'origine une chenille (comme les péripates qui restent des chenilles une fois adultes) et le papillon un papillon avant qu'ils ne mélangent leurs génomes ou plutôt, ils ne les mélangent pas mais les ajoutent pour les exprimer l'un après l'autre ! C'est là la nouveauté, une nouvelle forme de symbiose qui est un partage du travail dans le temps avec une phase larvaire destinée à l'accumulation de réserves et une phase sexuelle dédiée à la reproduction (les papillons sont tout de séduction). En fait ce transfert larvaire n'a été étudié pour l'instant que chez des crabes, étoiles de mer et autres concombres de mer mais il se base sur le contraste entre le fait que des larves paraissent identiques avant de se métamorphoser en organismes très différenciés. Il permettrait d'expliquer certains sauts de l'évolution (révolutionnaires) qui se produisent par réorganisation et transfert de gènes plutôt que par optimisation des fonctions existantes et ne se limitent pas à l'acquisition d'une forme larvaire (absent des pieuvres et calamars par exemple).

Cette hybridation est contestée par Marc-André Selosse qui privilégie l'hypothèse d'un ancêtre commun ou de la convergence bien connue (entre dauphins et poissons par exemple), si ce n'est les différences d'expression des gènes au cours du temps (sevrage). Il y a souvent aussi un dimorphisme prononcé entre mâles et femelles sans que ce soit le résultat d'une fusion d'organismes différents. Le phénomène de transfert de gène par fusion semble bien problématique enfin, mais l'idée est nouvelle et ne manque pas d'intérêt. Les larves comme les chenilles auraient pu acquérir cette propriété d'accepter un génome étranger pour lui passer la main dans la métamorphose. Mais si l'état larvaire est un caractère primitif, ce n'est qu'un cas particulier d'arrêt du développement, comme un prolongement de l'enfance. En tout cas, c'est bien le même organisme qui se métamorphose puisque le papillon garderait une certaine mémoire du temps qu'il était chenille ! A signaler quand même que Sciences&Avenir (p24) fait état de la perplexité provoquée par le génome d'un ver (meloidogyme incognita) qui semble constitué de 2 génomes différents. A suivre...

- Les ARN des bactéries pathogènes, p66

Les bactéries pathogènes perçoivent leur environnement grâce à des systèmes sensoriels élaborés et reprogramment l’expression de leurs gènes dédiés à l’infection. Des ARN sont au cœur de cette adaptation.

Ce sont les ARN les véritables acteurs de la vie à qui l'ADN sert de mémoire et les protéines d'outils. On se rend compte qu'ils servent aux bactéries à se coordonner, à se réguler, à déclencher la virulence en fonction de la température, etc. Le danger dans le fonctionnement de la cellule, c'est de se perdre dans sa complexité entre processus correctifs et correctifs des processus correctifs, par un système d'inhibition et d'inhibition de l'inhibition... En programmation, on appelle cela des verrues et l'on sait que cela rend vite les programmes illisibles et difficiles à modifier.

- Un bras qui repousse ?, p76

Quand une salamandre perd une patte, le membre repousse spontanément. Les biologistes commencent à comprendre les mécanismes d’une telle régénération et espèrent améliorer la « réparation » des amputations et des blessures graves.

Cela fait quelques temps maintenant qu'on espère pouvoir retrouver la capacité des salamandres à régénérer leurs membres, comme nous le faisons pour la peau, les muscles ou le foie, mais ce n'est pas pour demain, au moins 10 à 20 ans, si on y arrive ! car rien ne garantit qu'on arrive à reconstituer les articulations de la main en particulier. Il n'en est pas moins fascinant d'essayer de comprendre le développement des cellules souches selon leur position dans le corps jusqu'à reconstituer le "plan initial".

- Les hydrates de gaz, un rouage du climat ?, p84

De la glace d’eau emprisonne des hydrocarbures au fond des océans et les empêche d’être libérés dans l’atmosphère. Cette « bombe à retardement » influe-t-elle sur notre climat ? Peut-être. Qui plus est, elle façonne les paysages sous-marins.

En fait l'article reconnaît peu de participation des hydrates de méthane aux modifications climatiques en dehors du très meurtrier PETM (Maximum Thermique du Paléocène-Eocène, il y a 55 millions d'années), sans doute par la rencontre de laves volcaniques et de gisements organiques. "Cet épisode constitue donc, à quelques différences près, un analogue géologique de la perturbation anthropique". D'autres études les rendent pourtant responsables de bien d'autres extinctions massives mais ces épisodes ne durant que quelques dizaines d'années, ils ne sont sans doute pas déterminants sur les évolutions du climat à plus long terme (sauf si c'est ce qui a mis fin à la "Terre boule de neige"?). Si la libération des hydrates de gaz du pôle Nord ne fait guère de doutes avec la fonte des glaces accélérée, l'échelle de temps considéré va de 1000 à 100 000 ans pour un réchauffement de 1,5°C. Le problème, c'est qu'on risque d'aller bien au-delà... En fait, à relativement court terme, le plus grand danger serait celui de la déstabilisation des pentes continentales, de glissements de terrain provoqués par la dislocation des hydrates et qui peuvent provoquer des tsunamis meurtriers comme il y a 8100 ans.

L'influence des hydrates de méthane sur le climat a probablement été anecdotique au cours de l'ère quaternaire, mais ils ont toujours leur place dans les scénarios catastrophiques.

- Les racines de la Méditerranée et de l’Europe,
Jean Guilaine, Collège de France/Fayard, 2008, 94 pages

Rien de tel qu’un texte court et dense pour aborder une question immense : la néolithisation. Dans sa leçon de clôture, l’auteur peint une grande fresque de la protohistoire couvrant plusieurs millénaires. Il distingue le Néolithique précurseur du Proche-Orient méditerranéen de celui de l’Europe. Pour autant, il souligne les caractéristiques propres du Néolithique européen, qui sont à l’origine des mondes grecs, italique et celtique, dont sortira l’Occident médiéval.




Brèves et liens



Physique


cosmologie, astronomie, physique quantique

- Plus rapide que la lumière

On sait que la déviation d'un faisceau lumineux éclairant la Lune à partir de la Terre se déplace plus vite que la vitesse de la lumière à la surface de la Lune, sans que la lumière elle-même dépasse la vitesse limite, ce qui faisait penser qu'on ne pouvait pas envoyer d'information plus vite que cette vitesse sauf, justement, à utiliser le déplacement de la lumière pour transmettre l'information... Je n'ai pas compris comment les chercheurs comptaient s'y prendre sinon que c'est à base de nanosphères métalliques servant de guide d'onde (plasmons). La vitesse pourrait atteindre 2,5 fois la vitesse de la lumière !

Théorie développée au Department de Bioengineering de l'University of Pennsylvania par le post-doc Alexander Govyadinov et Vadim Markel, assistant professeur : Physical Review B “From slow to superluminal propagation: Dispersive properties of surface plasmon polaritons in linear chains of metallic nanospheroids” (Volume 78, Number 3, Article 035403, July 15, 2008).

Nous étudions la propagation de polaritons plasmoniques dans des chaînes linéaires périodiques (LPCs) de sphéroïdes métalliques. Nous montrons que leur vitesse peut être efficacement contrôlée par une variation de leur sphéricité.

The dependence of the dispersion curves on the spheroid aspect ratio leads to a number of interesting effects. In particular, bandwidth of SPPs that can propagate in an LPC can be substantially increased by utilizing prolate or oblate spheroids. When q is close to a critical value, (...) the decay length of the SPPs is dramatically increased. In addition, the dispersion curves acquire a very large positive or negative slope. This can be used to achieve superluminal group velocity for realistic chain parameters. We demonstrate superluminal propagation of Gaussian wave packets in numerical simulations. Both theory and simulations are based on Maxwell equations with account of retardation and, therefore, are fully relativistic.

- Dans une bulle plus rapide que la lumière: le moteur à distorsion

De quoi faire gamberger même si cela n'a rien de réalisable : le "moteur à distorsion" permettrait d'aller plus vite que la lumière sans bouger mais en faisant bouger l'espace grâce à des bulles d'inflation !

"Nous pensons que nous pouvons créer un moteur de distorsion, basé sur la relativité générale et la théorie des cordes," déclare Gerald Cleaver, co-auteur du papier qui est apparu sur ArXiv.org en prépublication.

Le moteur à distorsion est basé sur une conception datant de 1994 proposée initialement par Michael Alcubierre. Le "moteur Alcubierre" implique de comprimer le tissu de l'espace-temps devant un vaisseau et de l'étirer à l'arrière, créant une bulle dans laquelle reposerait ce dernier. L'astuce est que le vaisseau ne se déplacerait pas réellement: c'est l'espace qui se déplacerait autour du vaisseau spatial resté stationnaire.

Le tissu de l'espace s'est étendu plus rapidement que la vitesse de la lumière par le passé, indique Cleaver, juste après le Big Bang: "nous recréerions la période inflationniste de l'univers derrière le vaisseau".

Si la 11ème dimension pouvait être comprimée devant le vaisseau, elle créerait une bulle d'énergie noire, la même énergie qui engendre l'expansion de l'univers. Son étirement derrière lui ferait par la suite décroitre cette énergie.

Tandis que les défis pour créer un moteur à distorsion sont tout à fait énormes, le concept est intéressant, selon le physicien théorique Lawrence Ford de la Tufts University. "Si il existe des dimensions supplémentaires, et que nous pouvons les manipuler, cela ouvre toutes sortes de possibilités passionnantes", indique-t-il. "Je n'entend pas la création immédiate d'un moteur à distorsion, cela pourrait aboutir à d'autres possibilités intéressantes dans la recherche scientifique fondamentale".

- Non localité ou signaux 10000 fois plus rapides que la lumière ?

En fait il s'agit dune expérience, inspirée de John Bell, qui tente de tester l'existence d'un référentiel absolu, en contradiction avec la relativité, mais qui établit que s'il y a des particules échangées entre particules intriquées leur vitesse devrait être plus de 10 000 fois plus rapide que la lumière.

Ne pourrait-il pas exister, au fond, une sorte de référentiel absolu, un peu comme dans la physique de Newton pré-relativiste, où une sorte de dynamique sub-quantique prendrait place avec certaines interactions pouvant effectivement se déplacer plus vite que la lumière ?

C’est dans ce cadre que l’on peut replacer les travaux du groupe de Nicolas Gisin à l’Université de Genève. Utilisant les fibres optiques du réseau de Swisscom s’étendant sur 18 km entre Satigny et Jussy dans la région de Genève, les physiciens ont réalisé une expérience de type EPR avec des paires de photons intriquées. En profitant de la rotation de la Terre sur une période de 24 h, il est alors possible de tester des théories reposant sur l’existence d’une sorte de référentiel absolu, un éther en quel que sorte, par rapport auquel la Terre ne se déplacerait pas avec une vitesse supérieure à un millième de celle de la lumière.

La conclusion des chercheurs est la suivante comme ils l’expliquent dans Nature : si un tel référentiel absolu existait, la vitesse des interactions entre particules intriquées devrait être au moins 10000 fois plus rapide que la lumière pour expliquer les corrélations quantiques bizarres se manifestant avec le phénomène de non-localité observé.

- Intrication quantique, nouvelles questions

En fait, je n'ai rien compris, sinon que certaines mesures, dites faibles, ne produiraient pas un effondrement de la fonction d'onde et ne permettraient donc pas de déterminer l'état d'une particule liée à une autre, laissant ouvertes les probabilités.

Selon une interprétation de la mesure en mécanique quantique proposée il y a quelques années par Yakir Aharonov , il existerait des mesures dites faibles où l’effondrement du vecteur d’état n’est pas vraiment complet. Un chat de Schrödinger « mort » pourrait donc être d’une certaine façon ressuscité dans un état à la fois mort et vivant si l’on s’y prend bien.

Cette théorie viendrait d’être testée avec des qubits par Nadav Katz de l’Université de Santa Barbara et elle semble effectivement être correcte. Les résultats des expériences ont été publiés sur arXiv et la communauté des physiciens va devoir maintenant se pencher sur ces derniers.

par ailleurs, l'intrication a été de nouveau vérifiée sur une distance de 9 km.

- A la frontière du classique et du quantique : les états cohérents

Rien compris non plus, sinon que c'est un pas vers l'ordinateur quantique et la compréhension de la frontière entre physique quantique et physique classique...

En utilisant un circuit électronique supraconducteur capable de simuler un atome artificiel avec deux états d’énergie pour créer un qubit, des physiciens du groupe de recherche dirigé par John Martinis sont parvenus à contrôler la création de photons un à un dans des états de Fock. En se servant de ce dispositif, ils ont pompé 6 photons dans une cavité résonnante supraconductrice. Inversement, grâce à ce dispositif, un état cohérent présent dans la cavité, et qui semblait donc classique en première approximation, a pu être finement analysé et le caractère essentiellement discret de ce dernier, c'est-à-dire composé d’une somme discrète d’états de Fock, a été observé. Ce genre d’expérience, à la frontière du classique et du quantique, qui intervient souvent lorsque l’on considère un grand nombre de quanta, conformément au principe de correspondance de Bohr faisant intervenir des grands nombres quantiques, nous donne des informations sur la façon de s’y prendre pour créer des ordinateurs quantiques.

- L'antimatière peut "rebondir" sur la matière

L'antimatière interagit moins avec la matière que nous ne le pensions, elle peut "rebondir" dessus, ce qui pourrait changer notre compréhension dans la répartition de la matière et de l'antimatière dans l'Univers.

Dans leur expérience, les chercheurs italiens ont créé un faisceau d'antiprotons en utilisant le "Low Energy Antiproton Ring" du CERN. Le faisceau a été dirigé sur un cylindre d'aluminium rempli d'hélium, d'hydrogène ou de deutérium. Comme prévu, beaucoup des antiprotons sont entrés en contact avec la matière du cylindre et se sont annihilés immédiatement. Néanmoins, certaines de ces antiparticules ont rebondi sur la matière sans s'annihiler.

Dans ce type d'évènements, il y a en général trois possibilités: les particules peuvent se "rater", peuvent entrer en collision et générer une grande quantité d'énergie, ou peuvent former une structure atomique exotique matière-antimatière appelé protonium.

Mais quelle est la fréquence des collisions ? Les recherches ont montré qu'elles sont moins fréquentes que prévu. Dans l'expérience, quelques 30% des antiprotons ont survécu pendant plusieurs microsecondes avant d'être annihilés.

Selon Igor Bray, du Center for Antimatter-Matter Studies de l'Université de Technologie Curtin à Perth en Australie, cette expérience à des implications sur notre compréhension de la dissymétrie matière-antimatière dans l'Univers. Les physiciens n'arrivent en effet pas à expliquer pourquoi notre univers est apparemment riche en matière alors que selon nos connaissances en physique fondamentale, les deux formes matière et antimatière devraient exister en proportion égale. Mais cette expérience montre que le problème peut provenir d'une mauvaise compréhension de l'interaction matière-antimatière, l'annihilation pouvant ne pas être immédiate ou systématique.

- Le Tevatron sur la voie du boson de Higgs avant le LHC

Le boson de Higgs n'est qu'une pure hypothèse pour tenter d'expliquer, sans y parvenir d'ailleurs, l'inexplicable différence de masse des particules par une sorte de résistance du vide résultant d'une brisure de symétrie d'un supposé champ de Higgs qui pourrait tenir lieu de texture de l'espace. En fait, ce "boson scalaire" (sans direction ni polarité, comme une pression) vise à unifier à plus haute température les forces électro-magnétiques qui peuvent agir à très grande distance avec les forces nucléaires faibles ou fortes mais il devrait s'appeler boson BEH (Brout-Englert-Higgs) et son champ pourrait être identique au champ de Brans-Dicke, autre pure invention sensée rendre compte de l'inflation cette fois...

Ici, il ne s'agit que d'une observation bien en amont, celle d'un quark top sans son antiparticule mais avec un autre quark (d'une autre "saveur"). Phénomène très rare mais dont l'observation sera utile pour détecter la désintégration d'un boson de Higgs, s'il existe !

Le savoir-faire acquis lors de ces expériences est important car certains canaux de désintégration du mythique boson de Higgs font justement intervenir la production d’un seul quark top. Les physiciens sont donc désormais mieux armés pour découvrir ce mythique boson qui expliquerait l’origine des masses des particules de l’Univers. Cela veut dire aussi que s'il existe, le boson de Higgs pourrait très bien être découvert prochainement au Tevatron et pas au LHC.

- Qu'attendre du LHC ?

Le 10 septembre 2008, les premiers faisceaux de protons parcourront les 27 kilomètres de circonférence du LHC. Il y a peu de temps, 500 jeunes scientifiques ont été invités à rencontrer sur le bord du lac Constance plusieurs prix Nobel. A cette occasion, certains d’entre eux ont fait part de ce qu’ils pensaient au sujet des révélations qu’apportera peut-être cette incroyable machine.

Je pense que la nature est plus intelligente que les physiciens. Nous devrions avoir le courage de dire : "Que la nature nous dise ce qui se passe". Notre expérience du passé a démontré que dans le monde de l'infiniment petit, il est extrêmement stupide de prédire la nature de la prochaine découverte physique et d’où elle viendra. De multiples façons, ce monde nous surprendra toujours. (Carlo Rubbia)

"J’attends la découverte de la supersymétrie au LHC, et cette énorme découverte, si elle se produit, ouvrira un nouveau monde - un "super monde". Son exploration occupera le LHC pendant vingt ans et cela nous aidera à comprendre certains des problèmes les plus profonds concernant la structure de la matière et la physique des particules élémentaires et même au-delà. La supersymétrie n'est pas seulement une belle idée spéculative, elle est fortement supportée par trois prédictions que l’on peut explorer expérimentalement avec la gamme d’énergie accessible au LHC : l'unification des forces, la hiérarchie des masses des particules et l'existence de la matière noire". (David Gross)

- Une mesure directe de l'expansion

On appelle une mesure directe de l'énergie sombre le fait d'avoir mesuré le gain d'énergie d'un photon traversant une galaxie en expansion !

On sait que l'on gagne de l'énergie potentielle gravitationnelle lorsque l'on gravit par exemple une côte ; de façon analogue, un photon acquiert de l'énergie quand il se trouve confronté au saut énorme de gravité que représente un super amas. Mais on pourrait penser que le photon perde cette même énergie quand il s'échappe de l'autre côté de l'amas. Cependant, si le super amas est en expansion pendant que le photon le traverse, ce dernier percevra une modification moindre de gravité quand il partira que lorsqu'il est entré. En d'autres termes, le photon gardera un témoignage de cette énergie supplémentaire.

Un consensus semble s'orienter en faveur d'une "constante cosmologique" se manifestant comme une énergie du vide, bien qu'il y ait plusieurs autres options. L'une d'elles est que la théorie de la relativité générale n'est pas à 100% complète et nécessite d'être "arrangée" pour expliquer l'accélération cosmique. L'effet ISW est particulièrement adapté pour tester de telles "théories de la gravitation modifiée" parce qu'il concerne particulièrement la force apparente de la gravitation à grande échelle.

- Mesure de la matière sombre dans une collision d'amas de galaxies

La collision en question a été observée par les télescopes Hubble et Chandra et l'image ci-dessus combine des données des deux observatoires spatiaux. Elle a séparé la matière ordinaire de la sombre et fournit un aperçu de ses propriétés.

La détection de la matière noire s'explique par la déformation des images des galaxies d'arrière-plan, sous l'effet du potentiel gravitationnel de l'amas (lentille gravitationnelle faible). L'observation de cet effet par Hubble permet de reconstruire le potentiel gravitationnel de l'amas. Concrètement, les astronomes ont mesuré la force de gravité nécessaire à cet effet en déduisant la distribution de la masse responsable de ces mirages. La masse de matière ordinaire présente dans cet amas est insuffisante pour expliquer ces déformations d'où la présence de matière noire.

Ce n'est donc que la mesure de ce qui manque, de ce qu'on ne voit pas ou de l'écart entre la théorie de la gravitation et l'observation (MOND : Modified Newton Dynamics), pas la preuve d'une existence, comme le prétend l'article, mais d'une incomplétude de notre représentation.

- Découverte du plus massif amas de galaxies de l'Univers connu

Le télescope spatial XMM-Newton fonctionnant dans le rayonnement X de l'Agence spatiale européenne (ESA) vient de découvrir l'amas de galaxies le plus massif connu dans l'Univers. Cette découverte confirme également l'existence de l'énergie sombre.

Cet amas se situe à quelque 7,7 milliards d'années de nous. Sa présence à cette distance n'est pas une surprise pour les astronomes, mais sa taille en est une. Une taille qui peut s'expliquer que par la présence d'énergie sombre. Cette découverte est très importante pour les cosmologistes qui ont toujours pensé que ce type d'objet très rare devait exister.

- Des plus vieilles aux plus jeunes étoiles

Plusieurs générations des étoiles peuvent être observées dans ce nouveau cliché infrarouge du télescope spatial Spitzer. Dans cette pépinière d'étoiles, appelée W5, les étoiles les plus anciennes sont les taches bleues aux centres des deux cavités (d'autres points bleus sont des étoiles de fond ou de premier plan non associées à la région). De plus jeunes étoiles tapissent les rebords des cavités, comme les taches roses situées aux bouts des piliers en forme de trompe d'éléphant. De plus jeunes étoiles se forment dans des zones blanches inextricables. Les endroits de couleur rouge représentent des secteurs où la poussière échauffée infiltre les cavités, ceux de couleur verte sont des régions de nuages denses.

- Des images de Hubble pour sa 100 000ème

Un trou noir actif au coeur d'une galaxie géante :

- Les trous noirs plus créateurs que destructeurs

Les trous noirs sont des créateurs de galaxie et ce n'est donc pas un hasard qu'on trouve des trous noirs supermassifs au coeur de chaque galaxie car ils ne font pas qu'absorber la matière, ils favorisent la création d'étoiles massives, ce qu'établit une nouvelle simulation mais que l'observation confirme depuis longtemps.

Auparavant, les chercheurs pensaient que les forces gravitionnelles d'un trou noir disloqueraient quelque chose d'aussi fragile qu'un nuage de molécules avant qu'il ne puisse donner un quelconque objet stellaire. Mais cette nouvelle simulation contredit donc cette vision traditionnelle. Selon les auteurs, la zone entourant le trou noir central serait le théâtre d’une production stellaire régulière donnant naissance à des étoiles dont la durée de vie est très courte.

- Le Système Solaire : une exception dans la Galaxie ?

Notre Système Solaire serait une exception dans l’Univers si l’on en croit une simulation numérique très détaillée réalisée par un groupe d’astrophysiciens. Si cela se confirmait, malgré l’abondance d’exoplanètes présentes dans la Galaxie, l’apparition d’une vie complexe pourrait bien être une rareté, résolvant du coup le paradoxe de Fermi.

Si le disque contient une quantité importante de gaz, celui-ci force les planètes à se rapprocher de l’étoile centrale à cause des forces de frottement et les interactions gravitationnelles entre les planètes en formations deviennent fortes, de sorte que des phénomènes de résonance importants se produisent entre les orbites qui deviennent vite chaotiques et avec une forme elliptique marquée. C’est le scénario de gauche dans le schéma ci-dessus.

Si le disque contient assez peu de gaz, aucune planète d’une masse supérieure à celle de Neptune ne se forme mais les orbites sont néanmoins, là aussi, assez elliptiques et instables. C’est le scénario de droite sur le même schéma.

Le premier scénario reproduit assez bien les observations avec les exoplanètes mais cela implique donc que les estimations optimistes pour le nombre de civilisations extraterrestres en état de communiquer avec nous par radio dans la Galaxie doit être revu à la baisse. En effet, l’un des termes dans l’équation de Drake donnant la probabilité de formation d’une planète capable de permettre le développement d’une vie complexe, car située à bonne distance de son étoile et sur une orbite circulaire et stable, vient probablement de voir sa valeur chuter dramatiquement.

Une explication au paradoxe de Fermi ? Peut-être, en tout cas de même que les planètes avec un double coucher de Soleil sont probablement la règle et pas l’exception, notre planète doit elle aussi être très singulière dans la galaxie.

- Exploser la Lune pour y trouver de l'eau

On ne sait si c'est raisonnable mais pour s'assurer qu'il y a de l'eau sur la Lune, on envisage de faire s'écraser un satellite sur ses pôles. Il se pourrait qu'on dissipe ainsi une bonne part de l'eau disponible s'il y en a ?

Le but de Lunar CRater Observation and Sensing Satellite (LCROSS), qui sera lancé probablement entre Mai et Août 2009, est d’effectuer une mission kamikaze en s’écrasant, telle une météorite, sur la surface de la Lune. En fonçant à près de 9000 km/h dans un des cratères polaires, l’explosion produite par l’impact sera équivalente à celle de 900 kg de TNT et un panache d’éjectas devrait s’élever à 6km de hauteur pour retomber sur une zone circulaire de 40 km de rayon.

Même si le sol lunaire ne contient à cet endroit que 0,5% d’eau, celle-ci sera détectable dans les éjectas s’élevant au dessus de la surface lunaire comme le montre le schéma ci-dessus. Sous l’action du rayonnement solaire, l’eau émettra en effet dans l’infra-rouge proche et il y aura même une portion des molécules d’H20 qui seront dissociées par le rayonnement UV (Ultraviolet) pour donner des radicaux OH dont la présence sera trahie par l'émission d'une raie caractéristique à 308 nanomètres.

Voir article AgoraVox.

- Le noyau terrestre oscille mais ne tourne pas

Vue écorchée de l'intérieur de la Terre. A la frontière noyau/manteau, les différences latérales de température (tâches rouges et bleues) créent un vent thermique (ligne grise dans le noyau) qui font croître la graine plus vite dans l'hémisphère est (tâche rouge sur la graine). Le « double visage » de la graine est la signature sismique de ce mécanisme.

Selon les chercheurs, la rotation de la graine serait en réalité une oscillation, sans aucun déplacement moyen à long terme, causée par l’influence du manteau pendant des centaines de millions d’années. Ils suggèrent même qu’une sorte de couplage mécanique de la graine avec des ondes de torsion, une catégorie particulière de mouvements rapides dans le noyau liquide dont la période est de quelques dizaines d'années, est responsable de cette oscillation.

Le cyclone serait la partie visible d'une grande colonne de matière plongeant profondément dans le noyau, amenant de la matière froide jusqu'à l'hémisphère est de la graine. Cela y provoquerait une cristallisation plus rapide de l’alliage fer-nickel responsable en moyenne d’une croissance de quelques dixièmes de millimètres par an de la graine. Ce serait d’ailleurs ainsi que serait libérée l’énergie thermique responsable de la convection turbulente dans le noyau et qui entretient la génération du champ magnétique.

- La carte géologique de la Terre sur internet

79 organismes internationaux travaillent à la réalisation de la première carte géologique numérique du globe terrestre. Le projet, baptisé OneGeology, consiste à rendre ces données disponibles sur le web et à les actualiser régulièrement.

Pour l’instant les pays qui participent au projet OneGeology couvrent plus de 102 millions de kilomètres carrés soit 69% de la surface émergée de la Terre. Aujourd’hui, chacun peut consulter le site internet OneGeology afin d'accéder à des cartes géologiques du monde entier, en partant d’une vue générale de notre planète sur des cartes à grande échelle présentant des masses rocheuses situées dans des pays bien spécifiques

Les cartes géologiques visent principalement à renseigner sur les ressources naturelles renfermées par le sous-sol (eau, hydrocarbures, minéraux) et aident à pallier aux risques géologiques comme les séismes, les volcans ou le radon. Beaucoup d’économies sont en effet basées sur l’exploitation de ces ressources et la géologie est au cœur de nombreuses problématiques environnementales actuelles. L’enfouissement des déchets en est un exemple. OneGeology catalogue par conséquent des milliers de masses rocheuses en partant des plus anciennes, plus de 3 milliards d’années, jusqu’à celles qui sont actuellement en formation. Les résultats de plus de 170 études réalisées depuis le 19e siècle ont déjà été intégrés. L’échelle choisie est 1/1 000 000 mais le projet se veut pragmatique et accepte d’autres échelles.

Voir aussi actu-environnement.

- Un volcan encore actif en France sous le Lac Pavin

Célèbre lac d’Auvergne, le lac Pavin occupe ce que l'on appelle le cratère de maar d’un volcan dont la dernière éruption remonte à 6.700 ans environ. Mais certains chercheurs affirment qu'il a peut-être été le siège d’une activité volcanique il y a seulement 700 à 800 ans, ce qui en ferait un volcan actif. Et sa ressemblance avec le lac Nyos, de sinistre mémoire pour avoir causé près de deux mille morts, a conduit à l'étudier de plus près.

Climat


- La fonte de l'Arctique, une bombe climatique à retardement

Contrairement à l'étude qui se voulait rassurante et dont on rendait compte au mois de février, la fonte du permafrost pourrait bien déclencher une bombe climatique décuplant le réchauffement bien au-delà des prévisions actuelles. Il est possible que ce ne soit pas un danger imminent et que cela prenne beaucoup de temps mais tout s'accélère semble-t-il puisque le pôle Nord pourrait être libre de glace avant la fin du mois de septembre, et ce, pour la première fois depuis des dizaines de milliers d'années (et bien que 2008 soit sans doute l'année la plus froide du XXIè siècle) ! Comme je le martèle depuis un moment, c'est cela qui devrait être notre préoccupation principale, éviter ce risque majeur jugé peu probable jusqu'ici mais qui se précise et qui n'a rien à voir avec les débats actuels autour de 2° à 6°C. Il n'est plus temps de se poser la question si c'est un phénomène naturel ou non car ce serait en tout cas terriblement meurtrier. En effet, ce n'est pas seulement du CO2 mais surtout du méthane qui est contenu dans le sol gelé, or le méthane est un gaz à effet de serre 23 fois plus puissant que le CO2. Même s'il se décompose plus rapidement, on aurait le temps de griller la planète en quelques dizaines d'années, au risque de déclencher d'autres phénomènes amplificateurs comme le dégagement du méthane marin. Les risques sont vraiment démesurés. Il faut s'assurer qu'ils ne se produiront pas, puisque c'est ce qu'on croit encore, ou bien empêcher qu'ils ne se produisent s'il s'avère que les nouvelles ne sont pas si rassurantes...

D'importantes quantités de CO2 contenues dans les sols gelés de l'Arctique pourraient être relâchées dans l'atmosphère sous l'effet du réchauffement climatique, ce qui pourrait accélérer ce phénomène, indique une nouvelle étude scientifique.

Les scientifiques savaient que la fonte du permafrost se traduirait par des émissions importantes de gaz à effet de serre mais ils n'avaient pas une idée claire des quantités de carbone piégées dans les sols gelés de l'Arctique.

Pour le déterminer, une équipe de chercheurs américains dirigée par Chien-Lu Ping de l'Université de Fairbanks en Alaska a étudié une large portion de territoire des régions septentrionales d'Amérique du nord, prélevant des échantillons de sol provenant de 117 sites différents, tous situés à au moins un mètre de profondeur.

Jusqu'alors, seules quelques mesures avaient été effectuées et à une profondeur de seulement 40 cm. Rien qu'en Amérique du Nord, les chercheurs se sont ainsi aperçus que les quantités de carbone piégées dans l'Arctique étaient "bien plus importantes que ce que l'on croyait jusqu'alors", jusqu'à 60 fois plus que les estimations précédentes, selon l'étude publiée dans le magazine scientifique britannique Nature Geoscience.

Et les territoires du nord de l'Europe et de la Russie contiennent probablement des quantités équivalentes de carbone piégées par le froid, selon l'étude.

Or le risque de voir le permafrost fondre est bien réel, selon les experts du climat qui estiment que la hausse des températures pourrait aller jusqu'à 6 degrés celsius d'ici la fin du siècle dans l'Arctique, une région particulièrement sensible au changement climatique.

"Le relâchement d'une partie seulement de ce carbone dans l'atmosphère, sous forme de méthane ou de dioxyde de carbone, aurait un impact significatif sur le climat sur terre", souligne dans Nature Geoscience Christian Beer, biochimiste de l'Institut Max Planck de Jena en Allemagne.

Le méthane, autre gaz à effet de serre, est moins abondant que le dioxyde de carbone, mais peut avoir un effet beaucoup plus important sur la hausse des températures.

Les modèles actuels de prévisions climatiques, souligne Christian Beer, ne tiennent pas compte de l'impact potentiel des émissions de gaz retenus dans les sols de l'Arctique.

- La désagrégation des glaciers du Groenland s'aggrave

Un fragment de 29 kilomètres carrés du glacier de Petermann, dans le nord du Groenland, s’est détaché et est parti à la dérive entre les 11 et 24 juillet dernier. Cette glace flottante équivaut en surface à environ une fois et demie celle de la ville de Paris, et constitue la perte la plus importante depuis la désagrégation de 86 km² de banquise entre 2000 et 2001.

Mais ce n’est pas tout. L’équipe de Jason Box, qui travaille quotidiennement sur les données transmises par les images satellites de la Nasa, a observé une énorme faille dans les glaces en bordure du glacier Petermann, et qui pourrait annoncer une cassure beaucoup plus conséquente. Si celle-ci se poursuivait jusqu’au rift situé en amont du glacier, en suivant l’orientation actuelle, elle provoquerait immanquablement une brisure qui isolerait quasi-instantanément plus de 160 km² dans sa partie la plus épaisse, soit un tiers de la masse totale du glacier.

Selon les chercheurs, la région n’a jamais été aussi pauvre en glaces depuis 4 à 6 millénaires, et la tendance se poursuit en s’accélérant.

Au cours de la dernière saison, le bras nord du glacier s’est détaché, larguant un morceau d'environ 10 km² de glaces, alors qu’il avait déjà perdu 94 km² entre 2001 et 2005, cet évènement ayant fait prendre conscience dans le monde de l’ampleur du réchauffement climatique.

- Refroidissement attendu... dans 500 ans !

Une stalagmite trouvée dans la grotte de Buckeye Creek (Etat de Virginie-Occidentale), a donné les renseignements les plus détaillés à ce jour sur les cycles climatiques dans l'est de l'Amérique du nord au cours des sept derniers millénaires. Son étude confirme que pendant les périodes où la Terre a reçu moins de rayonnement solaire, l'océan Atlantique nord a refroidi, entraînant des augmentations de la quantité d’icebergs et des diminutions des précipitations connues sous le nom d'événements de Bond.

Ce Bond-là se prénomme Gérard. Il y a une dizaine d’années, ce géologue et ses collègues avaient découvert que l’Holocène (période commencée il y a dix mille ans et dans laquelle nous nous trouvons toujours) avait été beaucoup moins calme qu'on ne le pensait, avec un cycle de refroidissements tous les 1.500 ans environ pour l’Atlantique nord. Durant les périodes froides, la quantité d’icebergs augmentait et les précipitations diminuaient. Des études complémentaires avaient même montré que des sécheresses prolongées, de quelques dizaines d’années à un siècle, s’étaient même très probablement produites.

Les résultats publiés dans un article de Geophysical Research Letters confirment bien une connexion entre la baisse de l’activité solaire durant l’Holocène et des refroidissements dans l’Atlantique nord, accompagnés de sécheresse pouvant durer un siècle. Si l’on en croit cette étude, un prochain refroidissement devrait se produire d’ici 500 à 1.000 ans mais, selon les chercheurs, le réchauffement climatique causé par l’Homme interférera sûrement avec ce cycle.

- Bientôt le déluge ?

Le dernier réchauffement climatique, à la fin de la dernière glaciation, avait provoqué des pluies diluviennes dont nos mythes ont gardé la trace, il est d'autant plus étonnant que les modèles actuels sous-estiment cette augmentation de l'évaporation et des précipitations. La correction des modèles pour tenir compte de ce phénomène pourrait changer significativement les projections, ce qui va dans le sens des sceptiques sans doute, sauf que cela n'annulera pas le réchauffement mais pourrait faire reverdir le Sahara par exemple ?

Les fortes chutes de pluies deviennent plus fréquentes avec le réchauffement global et surviennent plus souvent que ne l'avaient prédit les modèles climatiques indiquent des chercheurs. Ce résultat implique que l'impact du réchauffement sur le cycle global de l'eau pourrait être plus sévère que tout ce que l'on avait imaginé.

- De plus en plus d'ouragans ?

Il faudra vérifier après-coup ces prévisions tant il est difficile de savoir s'il y aura plus de petits ouragans inoffensifs ou bien au contraire des ouragans plus destructeurs.

C'est au moins dix-sept tempêtes tropicales, dont cinq se transformeront en ouragans violents, qui frapperont les côtes ouest de l’Atlantique Nord durant la saison 2008.

Rien que pour le mois d’aout ces experts annoncent quatre tempêtes, dont trois ouragans, parmi lesquels un ouragan violent.

Les deux facteurs qui ont amené les experts à relever leurs prévisions pour cette saison sont l’élévation des températures de surface des océans (les cyclones se forment dans des eaux chaudes, d'au-moins 26°C) et les basses pressions observées en juin et juillet.

- Accord pour lutter contre la déforestation

Des progrès importants ont été réalisés à Accra sur un certain nombre de sujets clés pour permettre un accord à la Conférence sur le changement climatique à Copenhague en décembre 2009.

Parmi les points positifs figure un accord sur un point : réduire la déforestation dans les pays en développement doit devenir une priorité.

Pour les moyens de réduire les émissions de gaz à effet de serre, les 1.600 participants se sont également mis d'accord sur des approches différenciées selon les secteurs industriels.

- La tectonique des plaques a fertilisé les océans et favorisé la production d'oxygène

C'est un complément à ce qu'on disait dans "La part maudite" sur la production d'oxygène par les premières formes de vie à l'origine de la modification du climat, simplement, il faut ajouter que sans la tectonique des plaques, il y aurait eu beaucoup moins de nutriments, de vie, d'oxygène produit et qu'il faut donc voir dans la tectonique des plaques une origine plus primitive de ce bouleversement climatique. Il n'empêche que c'est la vie qui devra se réguler assez pour préserver ses conditions de possibilité et ne pas trop refroidir l'atmosphère comme il faut qu'on ne la réchauffe pas trop désormais ! Cela veut dire aussi qu'il y a moins de chance qu'il y ait une forme de vie évoluée sur une planète dépourvue de tectonique des plaques.

Des collisions de continents, des chaînes de montagnes brusquement érigées puis rapidement érodées et enfin un boom planctonique : ce scénario complexe, concentré sur quelques millions d'années, expliquerait l'enrichissement de l'atmosphère terrestre en oxygène.

Au début de l'histoire de la Terre et durant deux milliards d'années, l'atmosphère ne contenait pratiquement pas d'oxygène. Puis la quantité de ce gaz corrosif s'est mise à grimper par à-coups jusqu'à la concentration actuelle, de 21% en volume. On considère que cette augmentation s'est réalisée en six étapes. Exprimées en années, leurs datations, de la plus ancienne à la plus récente, sont de 2,65 milliards, 2,45 milliards, 1,8 milliard, 600 millions, 300 millions et enfin 40 millions. Un septième épisode est cependant suspecté à 1,2 milliard d'années avant le présent.

Mais quel rapport avec l'oxygène ? Pour comprendre, il faut prendre un peu de recul, regarder la planète d'assez haut et accélérer le déroulement du temps pour percevoir les mouvements géologiques. A peine surgis, ces massifs montagneux sont attaqués par l'érosion, aérienne et fluviale, qui arrache des milliards de tonnes de poussières riches en minéraux de toutes sortes, et notamment du fer. Charriées par les fleuves ou transportées par les vents, elles finissent toujours par rejoindre l'océan.

Pendant des millions d'années, toutes les mers du globe reçoivent ainsi une pluie continuelle d'engrais, une aubaine pour les organismes planctoniques photosynthétiques. Les algues et les cyanobactéries prolifèrent de plus belle et répandent autour d'elles de l'oxygène, ce gaz qui fut longtemps un poison pour la vie. De plus, l'intense sédimentation enterre au fond des océans des masses de carbone et de pyrite, les empêchant de réagir avec l'oxygène libre, dont la quantité dans l'atmosphère augmentait donc d'autant.

- Les oiseaux en retard sur le réchauffement climatique

Le réchauffement climatique prend les déplacements des populations d’oiseaux de vitesse, ce qui pourrait provoquer des dommages irréversibles à la biodiversité et à l’équilibre biologique.

Au cours des 18 dernières années, les températures moyennes se sont élevées de 0,068°C chaque année, provoquant un glissement de la carte de répartition des températures de 273 kilomètres vers le nord. En général, les espèces tant végétales qu’animales ont suivi ce mouvement, ainsi trouve-t-on fréquemment dans une région déterminée des spécimens habituellement rencontrés dans des habitats situés plus au sud.

Mais cette forme d’adaptation au climat a ses limites. Si l'on considère les aires de distribution des oiseaux en France, on constate que celles-ci n’ont migré vers le nord que de 91 kilomètres en moyenne, restant ainsi à la traîne de 182 kilomètres sur les effets du réchauffement climatique et en se séparant d’autres espèces qui, autrefois, appartenaient au même biotope.

L’équilibre biologique, ainsi que la biodiversité, sont gravement menacés par les effets de cette désynchronisation, qui sépare dramatiquement des espèces dépendantes, notamment sur le plan de la nourriture, mais aussi d’autres fonctions capitales. Ainsi, certaines populations d’insectes pourraient se voir éliminées, ou au contraire proliférer sans contrôle suite à l’apparition ou la raréfaction de certains prédateurs, et avoir des répercutions inattendues sur la croissance et la reproduction des plantes.

- Sauvetage de 1000 manchots au Brésil

Après leur période de reproduction, les manchots migrent vers le Nord entre mars et septembre de chaque année, jusqu’au Sud-Ouest du Brésil. Mais le réchauffement anormal des eaux océaniques (1°C de plus que la moyenne annuelle) aurait trompé leur instinct, les conduisant à poursuivre leur route au-delà des limites habituelles. Ils ont été alors privés de leur nourriture habituelle, et faute d’une alimentation adéquate, se sont échoués sur les côtes brésiliennes en état d’extrême faiblesse.

Actuellement, plusieurs centaines de ces manchots de Magellan sont hébergés dans des centres et nagent afin de se rééduquer et récupérer un maximum de forces. Ils sont alimentés de poissons et reçoivent aussi des compléments vitaminés.

Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

- Nim Chimpsky, le chimpanzé qui se prenait pour un enfant

Avant l'âge de 1 an, le singe connu sous le nom de Nim Chimpsky vivait dans une famille d'Américains moyens, savait réclamer de la nourriture, faire des blagues, la vaisselle et même s'excuser... Il pouvait rester des heures plongé dans des livres d'enfant ou des magazines, buvait du Coca cola, regardait la télé et fumait même un petit joint de temps en temps ! Hélas, il a été abandonné ensuite, sans plus personne à qui parler. Il est mort d'une crise cardiaque le 10 mars 2000 à 26 ans. Histoire très triste et bien troublante à la frontière entre l'animal et l'humain.

- L'apparition d'un gros cerveau encore inexpliqué

Il consiste à s'interroger sur la raison évolutive expliquant l'expansion brutale de la taille du cerveau chez les hominidés, dans le délai relativement court de 5 millions d'années. Pourquoi chez eux et pas chez les grands singes ? Pourquoi au sein d'espèces qui autant que l'on sache, concernant les plus primitives, ne disposaient pas du langage mais avaient commencé à maîtriser la fabrication d'outils ?

Il ne s'agit pas d'une question anodine, notamment pour ceux qui considèrent que l'hominisation a représenté un saut qualitatif brutal dans l'évolution des espèces vivantes.

La question est à la base des débats opposant depuis longtemps les défenseurs de l'évolution génétique et ceux de l'évolution culturelle. Le cerveau s'est-il développé, dès avant l'apparition de l'australopithèque, par une mutation donnant à certaines bases neurales des possibilités associatives n'existant pas jusque là ?

On répond aujourd'hui à ces questions par des hypothèses faisant appel à l'épigénétique. Le génétique n'est pas seul à diriger l'évolution. L'acquisition de capacités telles que l'invention, le langage et le travail en commun a généré un processus d'enrichissement croisé entre le génome, l'environnement et les êtres et outils avec lesquels chaque individu interagit. On en déduit d'ailleurs que ce mécanisme d'enrichissement croisé se poursuit aujourd'hui, avec l'explosion des technologies et des échanges.

A partir de quel moment l'enrichissement croisé entre cerveau génétiquement défini et culture s'est-il produit ? Un colloque qui s'est tenu à Cambridge, UK, en septembre 2007 en a débattu. La plupart des chercheurs participants ont admis qu'aux origines, seuls les facteurs biologiques (notamment génétiques) ont contrôlé le développement du cerveau. Mais vers - 60.000 ans, la biologie et l'organisation du cerveau ont cessé de se modifier et d'autres facteurs ont entraîné le développement de l'hominisation.

Cependant, ces autres facteurs n'auraient pas pu intervenir si les bases neurales adéquates n'avaient pas été déjà en place, longtemps auparavant. Parmi celles-ci, on cite l'expansion progressive de la mémoire de travail, permettant de retenir les souvenirs du passé, reconnaître des objets dans le présent et planifier le futur. Les anthropologues Dwight Read et Sander van der Leeuw ont comparé les mémoires de travail chez le chimpanzé et chez l'homme moderne. Selon les échelles qu'ils ont retenues, la capacité de telles mémoires est de 7 chez le jeune humain de 12 ans, mais ne dépasse pas 2 ou 3 chez le chimpanzé. Ce dernier ne peut donc entrer en compétition avec l'homme. L'ancêtre du chimpanzé ne le pouvait pas davantage face aux hommes d'il y a 60.000 ans, lesquels disposaient de capacités de mémoires analogues aux nôtres.

Une autre évolution neuronale fondamentale aurait été l'apparition des désormais fameux «neurones miroirs» dont nous avons déjà plusieurs fois entretenu nos lecteurs. Ces neurones permettraient d'élaborer une « théorie de l'esprit », concept par lequel on désigne la capacité de réaliser que les autres sont capables de pensées et d'intentions analogues aux siennes. Grâce à ces neurones, les premiers humains ont pu coopérer pour conduire des tâches complexes, même sans disposer de langages organisés autres que des signes et mimiques. Mais la conséquence la plus importante de tels changements neuronaux fut la capacité d'apprendre par imitation et de transmettre l'expérience aux jeunes, ce que les animaux, même les chimpanzés, ne font qu'exceptionnellement, au hasard et, dans les meilleurs cas, sans esprit de suite, si l'on peut dire.

Comme, selon certaines études génétiques, on descendrait d'un petit nombre d'ancêtres communs vers 60 000 ans, on peut être tenté de penser que c'est par un avantage décisif d'ordre cognitif que seuls 2000 hommes environ auraient survécu aux conditions extrêmes de cette époque qui est marquée aussi par les premières tombes, ce qui suggère que cet avantage décisif pourrait bien être cette fois le langage narratif tel que nous le connaissons. Pure spéculation bien sûr, mais le langage est sans doute un facteur sélectif des capacités cognitives plus fort que la maîtrise des techniques, où la mémoire de travail comme les capacités d'imitations sont effectivement déterminantes et ont dû précéder le langage dans le développement du cerveau (l'outil précède le langage).

- La plasticité du cerveau entre toucher et vision

Une plasticité étonnante du cerveau humain vient d'être mise en évidence : les performances du sens du toucher augmentent en quelques jours seulement chez des volontaires aux yeux continuellement masqués. Et cette adaptation est réversible en 24 heures.

Autrement dit, une zone du cerveau impliquée dans la vision semble immédiatement réquisitionnée pour analyser les signaux du toucher. Mais 24 heures après que le masque leur ait été retiré, cette capacité disparaît complètement, le cortex visuel n'étant de nouveau plus stimulé que par la vision.

Selon les auteurs de l'étude, ces résultats remettent en cause l'hypothèse classique selon laquelle des structures indépendantes du cerveau et hautement spécialisées sont engagées dans l'analyse des informations sensorielles d'origine différentes.

- La menace d’extinction s’intensifie sur les primates

On va encore dire qu'on exagère, qu'on cherche à faire peur (à qui ? Pourquoi ?) mais la moitié des espèces de primates sont en voie d'extinction, surtout en Asie.

La principale cause de cette quasi-extinction est, depuis longtemps, la destruction de la forêt tropicale par incendies et défrichements, par ailleurs aussi responsable de 20 % des émissions mondiales de gaz à effet de serre. Mais le chercheur dénonce également la chasse, qui atteint aujourd’hui un niveau comparable dans certaines régions y compris là où l’habitat est encore intact. A certains endroits, les primates sont littéralement dévorés jusqu’à l’extinction,

- L'homme responsable de la disparition des kangourous géants ?

Dans un article publié dans les PNAS, les scientifiques affirment que ces marsupiaux auraient vécu jusqu’à 2000 ans après l’arrivée de l’Homme.

Pour eux l’affaire est entendue : en l’absence d’indices indiquant une situation climatique particulière à cette époque, ils estiment que c’est l’Homme qui est responsable de la disparition du kangourou géant. Soit par la chasse, soit par l’utilisation du feu pour défricher des territoires arborés. Un raccourci qui n’est pas du gout de tous. Ainsi le Dr Judith Field, archéologue à l'Université de Sydney, qualifie cette publication de « fantaisiste et spéculative ». Pour elle, les connaissances sur le climat de l’époque ne sont pas assez suffisantes pour pouvoir écarter une extinction naturelle liée à des changements climatiques.

- Le plus petit serpent du monde

- Un virus de virus

La famille des virus s'agrandit... L'équipe de l'Unité de recherche sur les maladies infectieuses et tropicales émergentes, dirigée par Didier Raoult, vient de décrire un nouveau type de virus qui constituerait une nouvelle entité biologique. Ce virus, appelé virophage, infecte les virus géants comme le Mimivirus. Il permet de réaliser des transferts de gènes d'un virus géant à un autre.

Incapable de se multiplier seul dans les cellules, il doit se multiplier dans l'usine à virus de Mimivirus où il est produit parallèlement à son hôte. Parasite, il entraîne une diminution de la multiplication de Mimivirus ainsi que des défauts de fabrication, se caractérisant par des anomalies morphologiques. On retrouve parfois plusieurs particules virales de ce virophage dans une grande capside vide de Mimivirus.

L'analyse du génome du virophage montre qu'il échange des gènes avec Mimivirus mais qu'il a aussi importé des gènes de virus d'autres domaines de la vie. Les chercheurs ont en effet découvert chez Spoutnick une composition génique toute particulière: des gènes de Mimivirus, un gène de virus d'archée et deux gènes proches de ceux des bactériophages.

Le virophage constitue une nouvelle famille virale et une nouvelle entité biologique. C'est un virus de virus qui permet de réaliser le transfert latéral de gènes entre virus géants.

Santé


génétique, traitements, nutrition, hygiène

- Courir pour rester jeune

Contrairement à ce qu'on disait jusqu'ici, il ne suffirait pas d'un effort modéré pour lutter contre le vieillissement (maladies dégénératives, syndrome métabolique, diablète, etc.), mais il faudrait faire 1/2 heure de jogging par jour. On conseillait plutôt la marche avant, les efforts violents pouvant poser divers problèmes (cardiaques, etc.), mais le suivi à long terme d'une population de plus de 50 ans est sans appel : la course à pied réduirait par 2 la mortalité et retarderait de 16 ans les divers problèmes de santé. Reste à savoir si, en partie au moins, on ne prendrait pas l'effet pour la cause : une meilleure forme permettant des efforts plus soutenus...

Parmi le groupe, 284 étaient membres d’un club de course à pied et s’adonnaient à des exercices vigoureux, dont le jogging, à raison d’au moins trois heures par semaine. Les 156 autres personnes formaient le groupe témoin et s’adonnaient à de tels exercices durant environ 20 minutes par semaine.

Les participants provenaient tous d’un milieu social comparable (employés de l’Université de Stanford) et étaient en bonne santé au début de l’étude. Une différence notoire entre les deux groupes cependant : dès le départ, ceux qui faisaient régulièrement de la course à pied avaient généralement moins d’incapacités physiques légères que ceux qui étaient plutôt sédentaires.

Les résultats de l’étude indiquent que, tout au long de la période de suivi, les sujets actifs souffraient nettement moins d’incapacités physiques que ceux du groupe témoin. Les auteurs rapportent que, chez les coureurs assidus, l’apparition de symptômes d’incapacité physique légère à modérée survenait 16 ans plus tard que chez ceux dont le mode de vie était plus sédentaire.

Par ailleurs, les adeptes de la course affichaient deux fois moins de risque de mourir prématurément : 19 ans après le début de l’étude, 15 % d’entre eux étaient décédés, comparativement à 34 % chez les sédentaires. Ils étaient également moins nombreux à souffrir d’un cancer ou de troubles neurologiques, comparativement aux participants du groupe témoin.

- Ritaline pour seniors

Selon The Journal of American Geriatrics Society donner de la Ritaline aux personnes âgées améliore leur marche et réduit les risques de chute.

- Ne pas arrêter les statines

Les patients qui décident de ne plus prendre de traitement anticholestérol après avoir subi un infarctus du myocarde augmentent grandement leur risque de décès dans les mois qui suivent.

Les patients sous statines avant leur infarctus ont un risque, s’ils interrompent leur traitement après l’IDM, 88 % plus élevé de mourir dans l'année que ceux qui ne s'en sont jamais fait prescrire ! En revanche, ceux qui ont continué de les prendre par la suite avaient 16 % de risque en moins de mourir dans l'année que ceux qui n'en avaient jamais pris.


- Il faut se revacciner contre la coqueluche

Dans tous les endroits du monde où la vaccination anticoqueluche a été pratiquée massivement sur les enfants, les souches de Bordetella pertussis visées ont été éliminées.

L’analyse des génomes bactériens montre que les cas de coqueluche actuels sont dus à des souches différentes de celles utilisées dans les vaccins. Cette constatation impose une adaptation de la stratégie vaccinale,

Les autorités françaises recommandent donc un rappel chez les tous les adultes n'ayant pas eu de vaccination anticoquelucheuse depuis 10 ans.

- Les dangers de la disparition d'Helicobacter pylori

La bactérie Helicobacter pylori responsable des ulcères et cancers gastriques est désormais tellement bien combattue qu'elle pourrait être éradiquée mais ce ne serait pas une aussi bonne nouvelle qu'il y paraît car elle n'aurait pas que des désavantages régulant l'acidité de l'estomac, protégeant de l'asthme et de l'obésité. Ce n'est qu'un nouvel exemple de la complexité du vivant et de l'ambivalence de nos organismes symbiotiques, pas seulement de nos prothèses techniques...

- Fabrication de neurones in vitro

Tout a commencé lorsque Nicolas Gaspard, aspirant FNRS de l’IRIBHM, a découvert un procédé extrêmement simple pour permettre aux cellules souches embryonnaires, c’est-à-dire issues de l’embryon précoce, de se transformer in vitro en neurones du cortex.

Bien que générés entièrement en dehors du cerveau, ces neurones ressemblent parfaitement aux neurones corticaux natifs et sont parfaitement fonctionnels. Les chercheurs ont ensuite implant ces neurones dans des cerveaux de souris.

Cette nouvelle voie s’avère d’emblée porteuse de possibilités particulièrement étendues dans le domaine pharmaceutique et médical. Elle fournit aux chercheurs, mais aussi aux pathologistes, une source quasi illimitée de neurones spécifiques du cortex cérébral qui peuvent être, dans un premier temps, utilisés pour modéliser les maladies cérébrales et tester de nouveaux traitements sur un substrat réel.

Mais à l’avenir, les neurones ainsi générés à partir de cellules souches pourraient être directement utilisés en action thérapeutique, afin de remplacer par greffes intra-cérébrales les tissus corticaux endommagés ou détruits par maladie, ou accidents vasculaires cérébraux (AVC). On pense aussi bien entendu aux maladies dégénératives ou traumatiques des neurones corticaux, dont la maladie d’Alzheimer.

- Les cellules endométriales contre l'artérite

Des cellules extraites du sang menstruel possèdent les mêmes aptitudes que certaines cellules souches embryonnaires. Injectées à des patients artéritiques, elles ont rétabli la circulation périphérique.

Découvertes en 2007, les cellules régénératives endométriales (CRE) peuvent comme les autres cellules souches se diviser et donner naissance à neuf types de tissus différents (cardiaque, hépatique, nerveux…).Elles proviennent de la paroi de l'utérus et sont extraites du sang menstruel. Elles possèdent la capacité de se multiplier beaucoup plus vite que les cellules souches obtenues à partir du sang du cordon ou sur des foetus.

Dans un article publié dans Translational Medicine, les chirurgiens américains relatent qu’ils ont pu rétablir la circulation artérielle sur des souris atteintes d'artérite avancée des membres inférieurs. Pour ce faire, ils ont injecté des CRE au niveau de lésions sans traitement particulier préalable.

- L'odeur du cancer

On savait que des chiens ou des chats pouvaient sentir les personnes cancéreuses, en particulier les mélanomes. C'est ce qui pourrait servir de détection précoce des cancers par la spectométrie de masse.

- L'encens cancérigène

En octobre, paraitra dans la revue de l'American Cancer Society une étude indiquant que l’utilisation de l’encens est associée à une augmentation significative du risque de cancer des voies respiratoires mais pas du poumon.

- Les nanotubes de carbones contre le cancer

Les nanotubes de carbone auraient la propriété plus qu'étonnante de pénétrer les cellules cancéreuses et pas les cellules saines, ce qui en ferait un vecteur idéal de délivrance des traitements anticancéreux multipliant leur efficacité par 10 !

The tumors treated with nanotube-delivered paclitaxel had a higher percentage of cell death and a smaller percentage of proliferating cells. The researchers estimate that drug uptake within a tumor was 10 times higher for nanotube delivery than for Taxol. This uptake means that smaller doses could be used to achieve the same effects as other treatments, reducing side effects.

- Des lentilles de contact contre le glaucome

Ces lentilles équipées d'un capteur de pression pourraient servir d'alerte pour les patients atteints de glaucome.

- freiner la myopie

L'intérêt semble faible, il ne s'agit que d'un équivalent de l'atropine sans effets secondaires apparents mais qui ne fait que ralentir la myopie semble-t-il.

Appliqué tous les jours pendant deux ans, un gel oculaire contenant de la pirenzépine a ralenti la progression de la maladie chez des enfants ayant une myopie modérée. Celle-ci a augmenté en moyenne de 0.58 dioptrie chez les enfants traités contre 0.99 dioptrie pour les enfants témoins.

- La méthadone efficace dans les leucémies

La méthadone, produit de substitution employé dans le sevrage de drogues opiacées, a le potentiel de tuer les cellules leucémiques. Elle pourrait être utilisée lorsque les médicaments traditionnels deviennent inefficaces.

L'étude s'est traduite par deux résultats importants: les lymphocytes non leucémiques du sang périphérique ne sont pas affectés, et les cellules leucémiques sont détruites, alors qu'elles résistaient à plusieurs chimiothérapies et aux rayons.

- De l'héparine artificielle

L’héparine est un anticoagulant largement prescrit en chirurgie ou en dialyse et qui est employé en cardiologie dans le traitement des phlébites et dans les suites immédiates d’un infarctus. La plus grande partie de l’héparine de « base » est produite en Chine à partir de produits animaux, principalement des intestins de porc.

Ce printemps, une alerte sanitaire mondiale a été lancée suite à la mise sur le marché de lots d’héparine en provenance de Chine contenant une substance contaminante qui a provoqué plus de 80 morts et des centaines de réactions allergiques aux Etats-Unis et en Allemagne.

Les chercheurs ont révélé avoir mis au point une méthode de synthèse de l’héparine suffisamment efficace pour envisager une production industrielle. Leur technique, appelée synthèse chémoenzymatique, fait appel à des procédés de biotechnologies utilisant des enzymes capables de reconstituer un à un les éléments qui composent la molécule d’héparine. Et surtout, elle assure la possibilité d’un contrôle du produit à toutes les étapes de la production qui peut être réalisée sur un lieu unique.

- Un pancréas artificiel

Il existe déjà des appareils comme celui-ci qui mesurent le glucose en permanence et pilotent à distance une pompe à insuline située dans le corps mais pour l'instant c'est le diabétique qui programme la dose à injecter alors que les nouveaux appareils devraient calculer eux-mêmes la dose nécessaire devenant de véritables pancréas artificiels.

Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique

- L'homme à réaction

Le pilote suisse Yves Rossy, premier homme au monde à voler avec des réacteurs sous une aile et surnommé "l'homme à réaction", a réussi jeudi son premier vol d'essai en France en Isère (sud-est).

Parti en avion de l'aérodrôme du Versoud, Yves Rossy, 49 ans, a allumé les quatre réacteurs disposés sous ses deux ailes avant de sauter dans le vide à environ 2.500 mètres d'altitude.

Il a ensuite déployé ses ailes, qui lui permettent de se redresser, et a effectué un vol d'environ cinq minutes à près de 200 km/h. Il a ensuite éteint ses moteurs et ouvert son parachute pour se poser sans encombre sur une aire d'atterrissage de parapente.

Voir photos.

- La mutation par radiation mieux que les OGM ?

La mutation incitée des plantes est une technique lancée il y a 80 ans par le biais de laquelle on utilise l'irradiation pour réorganiser la composition génétique des plantes afin de les rendre plus résistantes aux maladies ou augmenter leur rendement.

Contrairement à la technologie OGM, hautement contestée surtout en Europe, la mutation incitée n'introduit pas de matière génétiquement modifiée étrangère dans la plante. Elle ne fait que réorganiser son identité génétique pour améliorer par exemple son rendement, son goût, sa taille ou sa résistance aux virus et parasites.

Le directeur général adjoint de l'AIEA Werner Burkart n'a pas manqué de citer plusieurs exemples à succès de cette méthode expérimentée dans le monde comme certaines variétés d'orge ainsi mutée qui poussent dans les Andes péruviennes à des altitudes jusqu'à 5.000 mètres et dont le rendement a été augmenté de 52% entre 1978 et 2002.

- Des pommes biologiques naturellement sans ver

Les mots ont-ils un sens ? Ce qu'on appelle biologique ici, c'est de ne pas utiliser des pesticides mais on utilise des virus, ce qui serait "naturel" !

Ils attaquent les larves du carpocapse des pommes, l'ennemi principal des vergers, à l'aide d'un virus. Celui-ci est inoffensif pour les autres insectes et animaux. Pour les larves, en revanche, l'infection est mortelle.

Le produit biologique ainsi pulvérisé présente une efficacité comparable à celle de son pendant conventionnel, tout en étant plus respectueux de l'environnement. Les chercheurs sont parvenus à emballer le virus dans une capsule. Elle protège le virus des rayons UV, qui provoqueraient sa mort, et le rend appétissant pour les jeunes carpocarpses grâce à des substances appétentes.

- Coopération internationale pour les réacteurs à neutrons rapides 4G

Le CEA, le JAEA (1) et le DOE (2) ont décidé de prolonger et d'élargir leur coopération en matière de recherche et développement sur les réacteurs à neutrons rapides refroidis au sodium (RNR-Na).

A ce jour, la technologie des réacteurs à neutrons rapides de quatrième génération est celle qui dégage le plus large consensus au niveau international. Les réacteurs à neutrons rapides seront conçus pour utiliser de façon optimale les ressources en combustible nucléaire. Ils apparaissent ainsi comme les systèmes nucléaires les plus à même de répondre de manière durable à la croissance des besoins en énergie. Ils permettront en outre une gestion optimisée de fin de cycle du combustible, en appliquant les résultats acquis en matière de séparation/transmutation. Ces réacteurs pourraient être déployés à partir de 2040.

"Conformément aux orientations nationales, le CEA a entrepris l'étude d'un prototype de quatrième génération dont la mise en service est prévue en 2020".

Pour une critique voir Les réacteurs nucléaires de 4e génération : une illusion pour l'énergie.

- Du fuel à base de gaz naturel

Synfuels International a mis au point un procédé économiquement rentable pour transformer le méthane en fuel à un coût de 38$ le barril.

- De l'hydrogène à partir de l'éthanol

Bien que présenté comme la "solution définitive pour le transport basé sur l'hydrogène", l'intérêt ne paraît pas si évident car il faut chauffer l'éthanol à 310°C et la réction produit du CO2. Cela permettrait du moins de résoudre le problème du chauffage des voitures fonctionnant à l'hydrogène...

Le catalyseur est formé par une pièce de céramique perforée à l'intérieur par des canaux et recouverte d'un aérogel contenant des nanoparticules de cobalt. Ce sont ces dernières qui agissent dans la transformation de l'éthanol en hydrogène. Le catalyseur doit être chauffé à la température de 310°C lors de son fonctionnement. Un mélange d'éthanol et d'eau sous forme gazeuse passe à travers les canaux et sort sous forme de dihydrogène H2 et de dioxyde de carbone CO2. A partir d'une molécule d'éthanol et trois molécules d'eau, on obtient six molécules de H2 et deux de CO2.

Le catalyseur sera installé à l'intérieur même du véhicule et permettre la production en direct de l'hydrogène.

- L’énergie de demain sera-t-elle tirée de l'infrarouge ?

Alors que les panneaux solaires actuels se contentent de convertir la lumière visible en énergie, les chercheurs de l'Idaho National Laboratory (INL) travaillent à un nouveau type de collecteurs utilisant le proche infrarouge avec un rendement jamais atteint jusqu’ici.

Pour cela, les chercheurs proposent d’utiliser des panneaux tapissés de millions d’antennes minuscules, sensibles aux photons IR du Soleil et d’autres sources, première étape vers la réalisation d’un collecteur pouvant être produit en très grande série à moindre coût.

Ces "nanoantennes" visent l’infrarouge moyen, comme celui rayonné continuellement par la Terre, même la nuit, après avoir absorbé l’énergie du Soleil durant le jour. Les "piles" solaires actuelles, en revanche, ne peuvent mettre à profit que la lumière visible, et deviennent inopérantes durant la nuit. De plus, les nanoantennes sont susceptibles, dans un développement ultérieur, d’absorber la chaleur résiduelle des immeubles durant la nuit, où celle produite naturellement par l’électronique, et de convertir cette énergie habituellement gaspillée en électricité. Ces dispositifs minuscules se présentent sous la forme de spirales d’or tracées sur un support à base de polyéthylène, une matière communément employée dans les sachets en plastique.

De fabrication relativement simple par gravure sur un substrat bon marché, les nanoantennes peuvent être adaptées à diverses fréquences du rayonnement infrarouge selon leurs dimensions et leur forme. Elles pourraient constituer la "peau" de différents objets usuels, tels des ordinateurs portables ou des téléphones cellulaires, leur fournissant une énergie continue et peu coûteuse.

Voir aussi en anglais, ainsi que le projet de récupérer la chaleur de l'asphalt. Il y a encore d'autres améliorations des cellules photovoltaïque, comme tous les mois désormais...

- Les supercondensateurs arrivent

Comme annoncé en janvier 2007, la société EEStor annonce la commercialisation en 2009 de supercondensateurs (electrical energy storage unit ou EESU) qui devraient équiper les voitures électrique Zenn. Bien que la communauté scientifique soit sceptique sur la faisabilité de ces supercondensateurs qui nécessitent des matériaux sans aucune impureté, le produit semble au point. Les supercondensateurs sont LA solution pour le stockage électrique car on peut les recharger en quelques minutes, ils peuvent décharger rapidement de grandes quantités d'énergie à la demande et surtout ils devraient être bien plus durables et moins pollunats que les batteries ne comportant pas de transformation chimique (quoique pour l'instant il semble qu'on associe supercondensateur et batteries classiques).

- Nissan Eco Pedal: un frein à la surconsommation

Nissan a dévoilé sa dernière technologie baptisée Eco Pedal. Elle permet selon le constructeur japonais de réduire et d'adapter sa consommation en carburant selon les conditions de circulation grâce à un logiciel calculant en temps réel la consommation et le besoin réel en énergie.

Le procédé technique ? Lorsque le système est enclenché (on peut le déconnecter librement), il calcule le taux de carburant utilisé, et idéal, par rapport aux conditions de circulation à travers des capteurs. Quand la consommation s'avère supérieure aux besoins (et donc une pression trop importante sur la pédale d'accélérateur), l'Eco Pedal agit avec un mécanisme de refoulement pour indiquer au conducteur de lever le pied. Ici l'expression prend un autre sens !

Le conducteur peut également suivre en temps réel le niveau optimal de rendement énergétique grâce à un éco-compteur intégré au tableau de bord. Si le niveau de consommation est idéal un voyant vert est allumé mais se met à clignoter comme premier avertissement d'une surconsommation. Les ingénieurs de la marque en charge du développement et de la conception de cette pédale soulignent que le rendement de l'utilisation de l'essence est ainsi optimisé de 5 à 10% selon les conditions routières. L'Eco Pedal (économètre version Nissan donc) devrait apparaître au coeur de la gamme Nissan à partir de l'année prochaine (pas d'information sur les modèles, optionnel ou de série).

- Nissan et son système anti-collision

Nissan a dévoilé un prototype présenté comme “Zero collision” et efficace dans un rayon de 360 degrés autour de la voiture. Ce modèle Safety Shield s'appuie sur nombre de technologies: prévention du changement de file (PLD), prévention de la collision latérale (SCP), prévention de la collision de recul (BCP) et aide au contrôle de la distance (DCA).

On s'approche de la conduite automatique mais on imagine des scènes burlesques d'une voiture affolée et incontrôlable en cas de dérèglement du système !

- Rendre les voitures électriques plus bruyantes pour les piétons

Rien n'est parfait. On avait déjà vu que les voitures électriques ont un point faible, le chauffage. On pouvait penser légitimement que le fait s'être silencieuses constituait un grand progrès mais cela se révèle dangereux pour les piétons, surtout les mal voyants. D'où ce projet de les doter de haut-parleurs simulant le bruit d'un moteur thermique !

- La ventomobile

- Un cargo à vent

Le premier cargo allemand utilisant partiellement le vent comme force motrice complémentaire a été mis à l'eau le 2 août 2008 depuis le chantier naval de la ville portuaire de Kiel. Dénommé "E-Ship I", le navire (130 mètres de long et 22,5 mètres de large), équipé en outre d'une motorisation diesel conventionnelle (deux moteurs de 3,5MW chacun), n'est pas un voilier au sens classique du terme: la propulsion vélique ne résulte pas de l'action de voiles traditionnelles, mais de celle de 4 cylindres rotatifs verticaux de 25 mètres de haut, encore appelés "turbovoiles". Développées par le constructeur éolien allemand Enercon, ces voiles tubulaires métalliques doivent permettre, sur les longues distances, de réduire de 30% à 50% la consommation de carburant de ce "cargo hybride".

"Le E-Ship est pour le moment le voilier le plus moderne du monde", déclare le directeur de projet Dirk Lindenau. Le principe physique exploité est pourtant connu depuis longtemps. Inventée dans les années 1920 par Anton Flettner, la technologie utilisée fait appel à l'effet Magnus: elle exploite le vent latéral pour créer une importante dépression du coté du cylindre rotatif vers lequel on désire créer la force perpendiculaire à la turbovoile et qui entraînera le navire. En effet, au contact avec le côté du cylindre tournant dont la vitesse a le même sens que le vent latéral, la vitesse du vent augmente et donc la pression dans cette zone diminue (équation de Bernouilli), d'où l'apparition d'une force d'entrainement pointant vers cette zone. Ceci explique que les cylindres en rotation produisent une poussée longitudinale lorsque le vent souffle sur le côté. L'effet Magnus est également exploité par les joueurs de football par exemple pour la trajectoire travaillée des tirs de coups-francs. Il explique également l'effet plongeant d'une balle de ping-pong lors d'un smash.

- Des cerfs-volants pour produire de l'électricité

A l’Université de Delft, c’est la traction sur le fil qui est convertie par un générateur installé au sol (voir la vidéo publiée par le Guardian).

Tant que l’engin prend de l’altitude, il exerce une traction et produit de l’électricité. Une fois à son apogée, il redescend tout seul, avant de remonter en produisant à nouveau de l’électricité.


- Inov une maison modulaire montée en 3h

D'abord fabriqués en usine, les modules de 3,5 sur 7 mètres sont livrés par camion, puis montés et assemblés par grue en 3 heures seulement. Comptez ensuite une semaine pour les raccordements comme l'électricité et la plomberie, et la maison est prête à l'emploi !

Outre cet avantage, le pré-assemblage en usine présente aussi un intérêt écologique, avec moins de problèmes de chantier et de pollution.

90 m², 110 m² ou 135 m², avec patio ou sans patio... le client peut tout choisir, jusqu'à la version "prête à finir", où il pose lui-même son sol, réalise ses murs, etc. La maison s'adapte à tous les budgets : comptez 108 000 € TTC pour un modèle de 90 m² sans patio, 145 000 € avec patio, ou encore 176 000 € pour le modèle de 110 m².

Elles se distinguent par un ensemble de matériels et techniques d'isolation performants, tels que le complexe plancher, avec une mousse polyuréthane de 60 mm d'épaisseur, ou encore les murs, avec 200 mm d'isolant en laine de verre intégré dans 2 couches de bois. Les maisons se trouvent aussi équipées de panneaux rayonnants électriques pour le chauffage et de panneaux solaires pour la production d'eau chaude sanitaire.

En 2009, Bodard Construction prévoit même de réaliser des maisons "passives", qui se passent d'un système de chauffage conventionnel et de climatisation, notamment grâce aux panneaux photovoltaïques.

- Les vitraux purifiaient l'air grâce à leurs nanoparticules d'or

Selon des chimistes autraliens du Queensland University of Technology (QUT) les nanoparticules d'or des vitraux du moyen âge pouvaient détruire les molécules organiques volatiles lorsqu'elles étaient excitées par l'énergie solaire.

- En route vers l'invisibilité

La mise au point de matériaux qui peuvent inverser le sens naturel de propagation de la lumière visible va permettre la création de dispositifs optiques d’une précision inégalée, de nanocircuits pour ordinateur et …pourrait même livrer le secret de l’invisibilité.

Il n’est pas question ici de rendre « transparent » la matière ou un être vivant comme le fameux homme invisible de H.G. Wells mais bien de le soustraire au regard des observateurs. Comment ? Un objet n’est visible que parce qu’il réfléchit (ou émet pour certains) de la lumière. L’idée des scientifiques est donc de créer une structure capable de dévier les rayons lumineux pour les faire contourner un objet et reprendre ensuite leur trajectoire initiale, comme le ferait l’eau d’une rivière autour d’un rocher. La lumière n’étant du coup ni réfléchie ni bloquée, l’objet deviendrait alors invisible.

En fait, le nanotapis de fils d'argent et le nanofilet de pêche métallique qu’ils ont fabriqué font bien plus que courber la lumière (en réalité de l’infrarouge), ils la tordent dans l’autre sens !! Ce phénomène, qui porte le nom de « réfraction négative » est totalement inconnu dans la nature.

Cette propriété, rend possible de nombreuses innovations. Moins médiatique que l’invisibilité mais certainement plus utile à la science, la plus attendue des scientifiques est sans doute la mise au point d’une superlentille permettant d’obtenir une image parfaite affranchie des limites optiques traditionnelles, à savoir la limite de Rayleigh qui n’autorise pas l’observation de détails inférieurs à la longueur d’onde de la lumière. Quand à rendre invisible des objets, si un premier est franchi aujourd’hui, la maitrise de la lumière à l’intérieur des métamatériaux n’est pas encore assez suffisante pour pouvoir espérer un résultat immédiat et spectaculaire. Déçus ? Alors juste pour se consoler, il faut savoir que cette superlentille pourrait aussi servir à atteindre un autre Graal de la physique : la lévitation.

Voir aussi, en anglais.

- Le premier capteur en nanotubes de carbone

- Mieux que les nanotubes, les microtubes de carbone ?

Après les nanotubes de carbone et leurs propriétés miracles voici maintenant les tubes de carbone géants. Découverts par des chercheurs du Los Alamos National Laboratory et de l’Université de Fudan en Chine, ils permettraient de réaliser, par exemple, une armure légère et à l’épreuve des balles comme celle que l’on voit dans le nouvel opus de la série Batman.

En chauffant un mélange d’éthylène et de paraffine à 850 °C dans un tube en quartz, Huisheng Peng de l’Université de Fudan (Chine) et ses collègues du célèbre Los Alamos National Laboratory aux Etats-Unis ont obtenu non pas des nanotubes de carbone mais littéralement des microtubes, puisque ceux-ci ont un diamètre de 40 à 100 micromètres pour des longueurs de quelques centimètres. Tout naturellement, ces derniers ont été baptisés des tubes de carbone géants (colossal carbon tubes en anglais).

Très légers, ils pèsent environ 10 mg/cm3 et sont plus résistants à l’étirement que les fibres composées de nanotubes de carbone. Ils sont même 30 fois plus résistants que le Kevlar composant les gilets pare-balles de l’armée américaine.

Des études au microscope électronique ont révélé que les parois des tubes, qui ont une épaisseur d’un micron, contenaient des pores de forme rectangulaire dont les dimensions variaient entre quelques centaines de nanomètres et quelques microns.

- Des virus pour assembler des micro-batteries

Des chercheurs du MIT ont créé à l'aide de virus des microbatteries imprimées sur quatre bandes de platine (qui s'élargissent ici vers la gauche). Deux rangées d'électrodes, trop petites pour être visibles ici, sont alignées à l'extrémité de chaque bande de platine et recouvertes d'une couche de lithium.


- Une avancée vers les circuits logiques moléculaires

La première jonction hautement conductrice entre une molécule organique et une électrode de métal vient d'être élaborée par une équipe internationale de physiciens. Ces travaux pourraient conduire au développement de circuits "électroniques moléculaires" plus petits et plus rapides que les transistors et portes logiques conventionnels.

Les tentatives précédentes ont toutes rencontré le problème de franchissement d'une barrière de potentiel significative à travers la jonction. Inévitablement la conductivité est faible et les performances des circuits finis s'en ressentent en conséquence.

Les physiciens ont montré qu'il était possible d'apparier des électrodes de métal, (du platine dans ce cas), "directement" à "l'ossature" de carbone d'une molécule organique (ici le benzène), permettant ainsi aux électrons de se déplacer plus facilement à travers la jonction.

- Des traces de drogue sur les doigts

Grâce à la spectographie de masse, il serait possible de détecter sur des empreintes digitales d'infimes traces de produits chimiques, notamment cocaïne, marijuana ou toutes sortes d'explosifs.


- Le nouveau passeport électronique piraté en quelques minutes

En 2006, la firme néerlandaise Riscure réussissait à déchiffrer le code de sécurité en analysant les données qui s’échangent entre la puce et la tête de lecture. Cela avait pris environ deux heures.

Mais aujourd’hui, Jeroen van Beek, de l’université d’Amsterdam, a réussi à "cracker" la puce RFIDde deux passeports britanniques en quelques minutes seulement. Il affirme avoir mis au jour plusieurs failles de sécurité dans le dispositif, et notamment le moyen d’introduire de nouvelles données directement en mémoire. Cela, en utilisant un simple lecteur de carte vendu 80 dollars dans le commerce.


- Et voici l'ordinateur à 12 dollars !

Pas de quoi s'emballer, ce n'est que de la récupération et ce n'est pas le premier projet du genre...

Un groupe d’étudiants du Massachusetts Institute of Technology (MIT) s’est mis en tête de développer un ordinateur dont le prix n’excéderait pas 12 dollars, accessible à tous les enfants et étudiants du tiers-monde.

C’est lors d’un voyage en Inde que Derek Lomas a eu cette idée. Il s’est aperçu que de nombreux étudiants utilisent couramment un ordinateur très basique, souvent bricolé et assemblé avec un clavier bas de gamme qu’ils connectent à un simple téléviseur pour faire tourner des programmes.

Ayant passé toute son enfance dans l’univers Apple, il a donc eu l’idée de concevoir une machine autour d’un antique Apple II, dont les divers éléments sont devenus très bon marché, mais adapté à certaines fonctions basiques actuelles. Exit les webcams et autres gadgets surtout prisés du monde occidental, mais un accès au web reste prévu en servant d’un téléphone portable, du moins pour ceux qui ont les moyens de s’offrir la communication. Selon l’équipe, le prix de commercialisation d’un tel engin ne devrait pas dépasser 12 dollars, et Lomas affirme qu’au moins une société indienne a déjà exprimé son intérêt pour un tel projet.

- Des mémoires non volatiles (MRAM) plus rapides

Ces dernières devraient à terme remplacer les RAM et permettre de commercialiser des ordinateurs portables moins gourmands en énergie. Il s’agit encore une fois d’une application de la spintronique.

Couplées à un faible champ magnétique, des impulsions de courants polarisés aussi courtes qu'une nanoseconde ont ainsi été capables de changer l’orientation de l’aimantation. C’est un record puisque auparavant, des durées de l’ordre de 10 nanosecondes étaient obtenues pour des MRAM.

Rappelons qu’actuellement, les mémoires DRAM (Dynamic Random Acces Memory) et SRAM (Static Random Acces Memory) à base de semi-conducteurs des ordinateurs ont un caractère « volatile » : l'information stockée meurt dès que l’on éteint l’ordinateur. La mémoire des MRAM, qui utilisent non pas des charges pour stocker des informations binaires mais l’orientation de l’aimantation dans des domaines d’un solide, est, elle, permanente.

- Un circuit spintronique en plastique

Des physiciens de l’université de l’Utah viennent de réaliser un circuit spintronique basé sur un plastique semi-conducteur semblable à celui utilisé dans les diodes électroluminescentes organiques (Oled). Une première qui ouvre la voie à une électronique encore plus miniaturisée.

Jusqu’à présent, l’information binaire traitée par les ordinateurs est matérialisée par la présence ou l’absence de charges dans des semi-conducteurs, qui doivent de ce fait comporter des centaines de milliers d’atomes pour stocker ces charges. Dans un circuit spintronique, un seul électron suffit à stocker une information binaire. Le gain potentiel pour la miniaturisation est évident.

Malheureusement, même si cela démontre que la spintronique est réalisable avec des semi-conducteurs organiques, les Oled utilisées par l'équipe n'ont produit que peu de lumière. L’étude du mécanisme d’émission reste en accord avec les prévisions pessimistes d’une limite de 25% dans le taux de conversion de l’électricité.

- Changement d’IP en Europe

Face à la pénurie d’adresses IPv4, La Commission européenne souhaite qu'au moins un quart des entreprises, des autorités publiques et des foyers européens utilisent la prochaine génération de protocole internet (IPv6) d'ici 2010.

- 35% des PC sous Vista rebasculent vers Windows XP

La cause en serait la possibilité pour les possesseurs de rétrograder gratuitement des éditions Vista Business et Vista Ultimate à XP Professionnel. Une facilité accordée par Microsoft dont ne se priveraient pas un grand nombre d'utilisateurs de l'environnement Windows, puisque ce serait pas moins de 35% des PC achetés (sur une période de six mois) sous Vista qui seraient depuis repassés sous XP.

- Le Google de l'emploi

Face Contact permet à tout employeur de diffuser une offre d'emploi auprès d'un réseau de relations.

Lancé au cours du troisième trimestre 2007, le britannique Workhound se présente comme le Google de la recherche d'emploi. Ce moteur de recherche agrège près d'un million d'offres d'emplois provenant d'agences pour l'emploi et d'offres publiées sur les sites corporate des entreprises.

- Google révolutionne les applications web

La véritable révolution, c'est de passer des applications locales aux applications réseaux et c'est ce que permet la "Google App Engine" disponible en préversion depuis avril. La différence avec les anciens programmes, c'est l'indépendance du système d'exploitation puisque les applications sont accessibles par les navigateurs web, et c'est donc un nouveau coup donné à la suprématie de Microsoft. Sous ses aspects discrets, c'est un changement complet de logique où l'ordinateur personnel et son système d'exploitation perdent toute importance, devenant simple interface au réseau. Du coup, ce qui est valorisé, c'est l'utilisation, les outils pour analyser le trafic devenant essentiels.

Signalons, par ailleurs, que Google devrait proposer officiellement dans les prochains jours un service de suggestions de recherche, similaire à celui que propose déjà Yahoo. Cette fonctionnalité, baptisée Google Suggest, est en fait disponible depuis quelques années depuis Google Labs. Elle vise à améliorer les résultats de recherche en corrigeant les fautes de frappe couramment commises par les internautes ou en leur suggérant les mots clés les plus efficaces pour leur requêtes.

- Des réseaux auto-organisés

Le but du projet européen WINSOC (“Wireless Sensor Networks with Self-Organization Capabilities for Critical and Emergency Applications”) est de constituer un réseau sans fil qui s'auto-organise à partir de différents capteurs (comme des détecteurs de feu).

Voilà une des (rares) bonnes utilisations des capacités d'auto-organisation. C'est comme cela que pourrait se constituer aussi un réseau WiFi à partir des ressources locales disponibles qui se connectent et se relaient comme dans le p2p, donnant des réseaux plus robustes que les réseaux centralisés.

- Les accéléromètres, nouvelles interfaces

Le Mu 1050 SW est en effet muni de petits accéléromètres, qui détectent des chocs dans les trois dimensions. Cette fonctionnalité est utilisée comme une nouvelle interface. Pour passer d'un menu à l'autre ou pour déclencher une action, on peut se contenter de tapoter les côtés de l'appareil ou la face arrière. La possibilité n'est pas si futile pour un appareil présenté comme tout-terrain, comme on peut s'en rendre compte en essayant de prendre une photographie avec des gants de ski...

Ce genre d'équipements tend aujourd'hui à se multiplier. La manette de jeu de la console Wii, de Nintendo, ou l'iPhone d'Apple sont les exemples les plus connus mais il en est bien d'autres, comme le Skyscout, cet instrument astronomique qui surimpose le nom des astres que l'on observe. Déjà, en 2003, des chercheurs pensaient à utiliser des accéléromètres et des gyroscopes pour dérouler les menus d'un téléphone en faisant varier son inclinaison. Tout cela n'est qu'un début...

- Un robot fonctionne avec des neurones de rat

Un robot fonctionnant avec un véritable petit cerveau vivant composé de neurones de rat, capable "d'apprendre" des comportements comme éviter un mur, a été mis au point à l'Université de Reading (Angleterre).

"Nous lui avons déjà donné un certain apprentissage par répétition, puisqu'il reproduit certaines actions", a déclaré à l'AFP le responsable de l'équipe multidisciplinaire, Kevin Warwick. "Mais nous voulons maintenant lui apprendre" des comportements, a-t-il dit.

Le cerveau biologique du robot, baptisé Gordon, a été créé à partir de neurones prélevés sur un rat. Ils ont été placés dans une solution, séparés puis mis sur un lit d'une soixantaine d'électrodes.

"Dans les 24 heures, a souligné le chercheur, des connexions ont poussé entre eux", formant un réseau comme dans un cerveau normal. Et "en une semaine il s'est produit des impulsions électriques spontanées et ce qui paraissait être une activité de cerveau ordinaire".

"Nous avons utilisé cette réaction pour relier le cerveau au robot avec des électrodes. Désormais, le cerveau contrôle le robot, et celui-ci apprend, par répétition", explique le scientifique.

"A l'heure actuelle, nous estimons qu'il y a de 50.000 à 100.000 neurones en activité" dans le cerveau de Gordon, a noté le chercheur. Un rat en possède au plus un million, et un Homme quelque 100 milliards.

Et comme dans le cas de l'Homme, si le cerveau de Gordon n'est pas stimulé régulièrement, "il se laisse aller". Alors qu'avec "des stimulations, les connexions se renforcent, il semble devenir plus alerte", fait remarquer Kevin Warwick.

L'équipe de l'Université de Reading dispose de plusieurs cerveaux en activité. "Et c'est drôle, fait remarquer le chercheur, il y a des différences entre eux : il y en a un un peu violent, un peu actif. Un autre ne fera pas ce qu'on lui demande, il s'écrasera contre les murs. Chacun a sa personnalité !"

Article plus détaillé d'Automates Intelligents, ou voir en anglais.

- Un assistant robot pour personnes agées

Dans sa forme actuelle, uBot a la taille d'un nourrisson. Imaginons que la personne âgée ait perdu ses lunettes. Ubot pourrait aider la personne âgée à retrouver ses lunettes de différentes manières.

Il pourrait par exemple appeler une relation : fils ou filles au travail par exemple.

Dans ce cas, le robot serait capable d'afficher le visage de cette relation sur son écran et moyennant une connexion internet à disposition de cette relation, le robot pourrait être piloté à distance afin de fouiller la maison.

Une fois localisé, le robot aurait les moyens de récupérer ces lunettes.

Les chercheurs travaillent dans le cadre d'une collaboration interdisciplinaire nommée ASSIST. Dans ce cadre, les chercheurs réalisent d'abord des entretiens avec les personnes âgées afin de déterminer quels sont les principaux besoins que le robot devrait être capable de couvrir. Dans sa forme actuelle, uBot a la taille d'un nourrisson. Imaginons que la personne âgée ait perdu ses lunettes. Ubot pourrait aider la personne âgée à retrouver ses lunettes de différentes manières.

Il pourrait par exemple appeler une relation : fils ou filles au travail par exemple.

Dans ce cas, le robot serait capable d'afficher le visage de cette relation sur son écran et moyennant une connexion internet à disposition de cette relation, le robot pourrait être piloté à distance afin de fouiller la maison.

Une fois localisé, le robot aurait les moyens de récupérer ces lunettes.

Les chercheurs travaillent dans le cadre d'une collaboration interdisciplinaire nommée ASSIST. Dans ce cadre, les chercheurs réalisent d'abord des entretiens avec les personnes âgées afin de déterminer quels sont les principaux besoins que le robot devrait être capable de couvrir.

Voir aussi une vidéo d'un robot qui obéit à la voix

- Haier invente le lave-linge sans lessive

Chaque Français utilise en moyenne 10 kg de lessive par an. D'où l'idée de développer un lave-linge fonctionnant uniquement à l'eau.

Maintes fois annoncée puis reportée, la sortie en France du Wash2O de Haier a suscité un grand scepticisme de la part de ses concurrents. Sa mise au point a pourtant nécessité 5 ans de recherche, affirme le fabricant chinois.

"Le procédé de l'électrolyse sépare les composants de l'eau, explique Patrick Bailly, le directeur de la filiale française. D'un côté, les ions OH- enlèvent la saleté, et de l'autre les ions H+ jouent le rôle de l'eau de Javel". La machine dispose tout de même d'un programme "avec lessive". Coup de génie ou coup de bluff ? "Les normes de tests ne sont pas les mêmes en Chine que pour les constructeurs européens" se plaint Elisabeth Bartharès, du Gifam. Le blanc ne serait ainsi pas aussi impeccable que le linge lavé avec lessive. (prix 900 €)

Voir d'autres produits électroménagers "écolos".

Antiquités


- Mise au jour du plus grand site archéologique de l'âge de pierre au Sahara

Baptisé Gobero, ce site archéologique qui remonte à 10.000 ans, se situe dans le désert de Ténéré, dans la partie centrale du Sahara, au Niger. Il contient des squelettes humains et d'animaux dont de très gros poissons de lac et des crocodiles de grande taille.

Outre des ossements humains et d'animaux, les scientifiques ont trouvé des pointes de harpon, des outils de pierre, des fragments de poterie et de petits objets décoratifs. Au total, quelque 200 sépultures ont été mises au jour au cours de deux saisons de fouilles financées.

La plus ancienne population, les Kiffians, qui pouvaient mesurer jusqu'à 1,80 m, étaient des chasseurs qui ont colonisé cette région du Sahara durant sa période la plus humide il y a de 10.000 à 8.000 ans. Des indices de leur activité comme de longues perches munies de harpon ont été retrouvés.

L'autre population, les Ténéréens, a occupé le site entre 7.000 et 4.500 ans, ce qui correspond à la dernière partie de la période humide du Sahara.

De plus petite taille, ils semblaient avoir des activités plus diverses comme la pêche, la chasse et l'élevage.

Dans leurs tombes ont souvent été découvert des bijoux. Les corps retrouvés étaient disposés selon des rites particuliers comme le squelette d'une petite femme reposant sur le côté et faisant face à deux squelettes de deux très jeunes enfants qu'elle tenait enlacés. Le Sahara, plus vaste désert de la planète dont l'âge est estimé à sept millions d'années, est devenu humide pendant plusieurs milliers d'années il y a 12.000 ans à la suite probablement d'un léger changement de l'orbite terrestre, combiné à d'autres facteurs qui ont entraîné un déplacement des moussons vers le nord.

- L'antique mécanisme d'Anticythère prédisait les éclipses... et les JO

Bien avant les horloges qu'on date du XIIème siècle, cet extraordinaire mécanisme daté de -150 aurait bénéficié des travaux d'Archimèdes et pourrait être rapproché de la "tour des vents" d'Athènes attribuée à Andronicos qui était une horloge hydraulique. Cela témoigne à la fois du savoir des astronomes de l'antiquité mais aussi qu'un savoir peut être oublié et que si l'horloge est devenue décisive à la fin du moyen âge, c'est à cause du contexte (notamment des monastères).

L'analyse de l'extraordinaire système d'engrenages, aujourd'hui daté du deuxième siècle avant Jésus-Christ, continue et nous gratifie de magnifiques surprises. En tournant, ces rouages annonçaient les éclipses mais aussi les dates des Jeux Olympiques... Les inscriptions, enfin décryptées, seraient des noms de mois d'origine corinthienne, ce qui ramène l'origine de l'invention vers l'héritage scientifique d'Archimède.

Depuis 2000, deux passionnés, Mike Edmunds (astrophysicien à l'université de Cardiff, Grande-Bretagne) et Tony Freeth (chercheur en mathématiques devenu producteur de documentaires), rejoints par d'autres scientifiques au sein d'un ambitieux programme de recherche, sont allés beaucoup plus loin. En réalisant spécialement un tomographe à rayons X de douze tonnes, ils ont pu analyser la structure du mécanisme en profondeur et réaliser sur ordinateur un modèle virtuel, capable de tourner. Deux mille ans après le naufrage qui a englouti l'original, sa copie numérique peut donc fonctionner devant les yeux des chercheurs. Qui n'en finissent pas d'être ébahis.

Voir une vidéo et The Antikytera Mechanism Research Project.

<- Revue des sciences précédente | Revue des sciences suivante ->
2 455 vues

4 réflexions au sujet de “Revue des sciences 09/08”

  1. Bonjour,
    Les supercondensateurs arrivent...
    Il est possible sur une voiture électrique de récupérer l'énergie au lieu par exemple de faire de la chaleur perdue en freinant.
    Le moteur est alors utilisé en générateur pour recharger les batteries. Hélas la puissance absorbable par les batteries est relativament faible par rapport à la puissance de freinage. Cela signifie que l'énergie disponible en un temps trés court pendant un freinage ne peut pas être récupérée dans la batterie. Une solution consiste à stocker l'énergie instantanée dans un supercondensateur qui est ensuite déchargé dans la batterie suivant le courant admissible par cette dernière. Le condensateur effectue un lissage.
    Batteries et condensateurs se complètent donc en vue de récupérer le maximum d'énergie.
    J'aurais aimé avoir la confirmation d'un spécialiste.
    Salutations

  2. Sans être en rien un spécialiste, il est exact que les supercondensateurs servent surtout à l'amélioration des performances des batteries mais leur véritable intérêt serait de réussir à remplacer les batteries qui sont très polluantes et dont la durabilité, entre autres, est lamentable. Certains prétendent en être très proches, d'autres pensent que ce n'est pas vraiment possible mais ce serait là une véritable révolution de remplacer le stockage chimique (batteries) par un stockage physique (condensateurs).

  3. > "les taux à très long terme sont très bas, autour de 1,5% par an"

    Tu veux dire que les taux effectivement "servis" (lorsqu'ils le sont, à une telle échéance -- 50 ans ?) sont de 1,5%, alors que les taux demandés -- par les zinzinvestisseurs 😉 -- sont/seraient évidemment beaucoup plus élevés ?

    Amicalement (et très sérieusement au demeurant... 🙂

    Luc

  4. Oui, c'est un taux d'actualisation (il faut que je le précise), et encore, très théorique. Les obligations à 50 ans sont à 5%, il n'y en a pas à 200 ans ! Le taux net est basé sur l'hypothèse trop optimiste d'une stabilisation de l'inflation, en fait on risque plutôt un taux négatif à l'horizon de 50 ans avec un nouveau cycle de Kondratieff, sans parler de 100 ans ou plus...

Laisser un commentaire