Revue des sciences 01/09

<- Revue des sciences précédente | Revue des sciences suivante ->
Revues : Pour la Science - Sciences et Avenir - La Recherche 
Brèves : Physique - Climat - Biologie - Santé - Technologie

Pour la Science mérite bien d'être à l'honneur cette-fois qui affirme haut et fort : "La science est pavée de nombreux domaines d'ignorance". Voilà ce qu'on répète depuis longtemps et qui semble devenir un lieu commun enfin ! C'est en tout cas un des meilleurs articles du mois à propos du théorème de Gödel qui démontre les trous du savoir mathématique sur le monde, et non seulement qu'on ne sait pas tout mais qu'on ne sait pas grand chose par rapport à l'étendu des possibles, et qu'on ne sait pas à l'avance ce qu'on n'a pas encore démontré (l'incomplétude ne veut pas dire qu'il n'y a pas de progrès effectif de la connaissance mais qu'il ne s'arrête jamais). C'est le grand mensonge de la mathématisation financière qui fait comme si l'avenir était prévisible en écartant toute rupture systémique. A l'aube d'une année qui s'annonce sombre et agitée, la question est bien de savoir, comme pour notre univers, si c'est le Big Bang ou si c'est parti pour le Grand Rebond ? ou bien s'il faudra que le désert gagne et que nos conditions de vie empirent pour qu'on s'améliore encore et qu'on fasse un nouveau saut cognitif dans l'évolution, peut-être ? mais à quel prix ? En tout cas, ça chauffe, les nouvelles du climat sont assez paniquantes alors même qu'on est dans une phase la nina un peu moins chaude qui devrait se terminer bientôt. Rien de bien neuf, dira-t-on, mais le mois est riche de confirmations importantes même s'il n'y a pas de grande révélation. Il est tout de même intéressant de savoir que l'énergie noire est probablement une énergie du vide et que l'ancêtre de la vie (LUCA) aurait bien été à base d'ARN (sans ADN) ce qui exclue des environnements trop chauds. Ou que les premier spermatozoïdes constituaient une protection contre les virus ! Enfin, la disparition de Néandertal serait effectivement reliée à la compétition avec Cro-Magnon qui se termine en Espagne. Pas grand chose du côté de la santé en dehors des promesses de la reprogrammation cellulaire et, peut-être, la pilule électronique de Philips. On apprend tout de même que la Ritaline se répand beaucoup plus qu'on ne croyait jusqu'à devenir une sorte de supercafé !

On trouvera une version éclatée en plusieurs articles de cette revue des sciences sur le site du GRIT-Transversales : physique - climat - biologie - santé - technologies.


Pour la Science no 375, Big Bang ou grand rebond ?


Pour la Science

- Le brillant avenir de l’énergie solaire, p16

D’ici 10 à 15 ans – c’est-à-dire demain –, l’électricité photovoltaïque sera compétitive avec les autres sources d’électricité.

Chaque mètre carré de sol reçoit entre 0,8 mégawattheure par an en Finlande et 2,9 au Sahara (1,3 en moyenne en France). Cela représente entre 80 et 290 litres d’équivalent pétrole : c’est considérable. L’énergie solaire reçue par la Terre chaque année représente environ 10 000 fois la consommation énergétique mondiale.

Le débat reste cependant encore très vif, et le potentiel des énergies renouvelables notablement sous-estimés.

- Modèles économiques et morale, p17
Ivar Ekeland

Les modèles économiques sont orientés vers une finalité définie par le politique. Dans la crise actuelle, devons-nous sauver les banques ou les paysans africains ?

En ce moment, les conversations se portent vite sur la crise : « Ivar, toi qui fais de l’économie, peux-tu nous dire ce qu’il faudrait faire pour s’en sortir ? » À quoi je réponds : « Mais qui veux-tu qui s’en sorte ? Les banquiers ou les ouvriers ? Les actionnaires ou les salariés ? L’Union européenne ou l’Afrique ? Dis-moi d’abord à qui tu t’intéresses, et je te dirai comment faire. »

L'économie, comme la guerre, est la continuation de la politique par d'autres moyens.

Le malheur, c'est que ces priorités sont bien souvent inavouables. Il est donc préférable de les taire et de faire comme si elles allaient de soi.

Si par malheur on est contraint d'avouer ses priorités (...) le remède est de les faire passer pour des nécessités, militaires ou économiques, bref de prétendre qu'il n'y a pas autre chose à faire : "There is no alternative", selon la fameuse formule de Margaret Thatcher.

- Risques financiers : quelle modélisation mathématique ?, p24

La récente crise financière a suscité des interrogations sur le rôle des modèles mathématiques en finance. Ces modèles sont indispensables, mais il faut connaître leurs limites.

Les médias en France ont accusé les mathématiques financières d’être la cause de nos maux, en citant pêle-mêle la formule de Black-Scholes et la surmathématisation de l’économie... Des propos faciles qui, en gonflant le rôle des modèles quantitatifs, évitent de réfléchir aux racines économiques de la crise.

L'origine de la crise financière actuelle se trouve dans l'éclatement de la bulle spéculative immobilière aux Etats-unis. Loin d'être un phénomène "sans précédent", comme on a pu l'entendre, cette crise répète un schéma familier pour les économistes et a connu de multiples précédents historiques, bien avant l'apparition des "mathématiques financières" ou du moindre produit dérivé.

En fait les mathématiques financières supposent depuis Louis Bachelier que "Le marché n'obéit qu'à une seule loi, le hasard", aussi aléatoire que le mouvement brownien. Il suffirait d'un indicateur simple pour évaluer le risque : la volatilité, mesurant l'écart-type des variations de la valeur. Benoît Mandelbrot qui a inventé les fractals à partir de l'étude des cours de la bourse a contesté dès 1963 cette conception du hasard excluant les valeurs extrêmes au profit de ce qu'il qualifia de "hasard sauvage". A cela il faut ajouter que l'approche statistique suppose une liquidité infinie et ne tient pas compte des rétroactions ni des effets en chaîne, ni des risques systémiques liés à la défaillance d'un noeud important du réseau financier (comme la banque Lehman Brothers).

La conjonction des événements rares et des effets de rétroaction peut conduire à une amplification encore plus impressionnante des risques.

Ces cas, loin d'être isolés, montrent qu'une approche purement statistique ne traduit pas bien la nature du risque financier : la volatilité et la corrélation ne sont pas des données figées.

Alors que ce sont surtout des questions idéologiques qui ont dominé le débat sur la régulation, entre partisans et opposants d'une régulation plus stricte des marchés financiers, il nous semble que la question est plutôt celle - non triviale - de savoir comment concevoir des méthodes de surveillance et de contrôle efficaces pour un système aussi complexe.

Le plus grand reproche qu'on peut faire à cet article, c'est de vouloir expliquer le risque alors que c'est la bulle précédente qu'il faudrait expliquer et qui est la véritable cause du krach. Sans parler de leur automaticité, le défaut originaire de la mathématisation financière, dont on ne peut pas plus se passer que pour les assurances, c'est de s'imaginer pouvoir remplacer la compréhension fine des mécanismes économiques, sociologiques, politiques par des fluctuations quantitatives purement aléatoires et statistiquement significatives (voir De la statistique à l'organisation sociale). Cela n'empêche pas la pertinence des modèles mathématiques à court terme dans un environnement calme, un peu comme la météo, mais il est impossible d'y intégrer des catastrophes systémiques car dans ce cas les valeurs sont englouties dans l'effondrement économique et si le risque systémique était reconnu, il serait évité !

La faille dans les modèles sera toujours une ignorance qui s'ignore, produisant une pluralité d'idéologies qui s'affrontent sans pouvoir se convaincre comme il y a une pluralité des religions, toutes fausses bien sûr mais qui permettent de faire paraître l'avenir un peu plus prévisible en organisant les sociétés sur des modèles relativement stables. En fait l'homme est un animal dogmatique et il n'y a que dans ces moments de basculement qu'on doit l'admettre et penser un peu plus dialectiquement. Cela ne dure pas en général, juste le temps d'installer un nouveau dogme, une nouvelle bulle, jusqu'au prochain krach...

- L'Univers rebondissant, p28

Notre Univers ne serait pas né avec le Big Bang : un univers préexistant se serait effondré sur lui-même, avant de rebondir et d’entrer de nouveau en expansion. C’est ce que suggèrent certaines propriétés de la théorie de la gravitation quantique à boucles.

On avait déjà signalé dans les brèves ces conclusions de Martin Bojowald à partir de la théorie de la gravitation quantique à boucles. En fait cet article très clair permet de comprendre que tout tient tout bêtement au fait que la théorie de la gravitation quantique à boucles suppose des grains d'espace-temps (de 10 puissance -35 mètres) qui ne peuvent contenir qu'une quantité finie d'énergie, ce qui a pour résultat logique qu'au-delà de sa capacité d'absorption l'énergie devient répulsive, inversant la force gravitationnelle. Dès lors, on comprend bien qu'en s'effondrant sous la force de gravitation on arrive à ce moment où elle s'inverse quand la densité d'énergie atteint son maximum et devient explosive. C'est ce qui correspondrait à l'inflation, supposée à l'origine du Big Bang mais inexpliquée par les modèles actuels, ainsi que l'expansion qui suit. L'article n'en parle pas mais il semblerait que le même phénomène devrait se reproduire avec les trous noirs qui devraient exploser aussi en nouveaux univers (fontaine blanche), à moins qu'il ne faille atteindre une densité d'énergie supérieure à celle des trous noirs pour devenir explosif ("mille milliards de masses solaires dans une région de la taille d'un proton") ? A noter qu'il pense que la théorie de la gravitation quantique à boucles est complémentaire plus que concurrente avec la théorie des cordes.

La théorie des cordes est par exemple utile pour apporter une vision unifiée des interactions élémentaires, en incluant la gravité quand le rôle de cette dernière reste limité. Quand on cherche à comprendre ce qui se passe quand la gravité est intense, la gravitation quantique à boucles me paraît plus utile.

Cette théorie a été développée dans les années 1990, en deux étapes. Les physiciens ont d'abord reformulé mathématiquement la relativité générale afin qu'elle ressemble à la théorie électro-magnétique ; les boucles de la théorie de la gravitation quantique à boucles sont les analogues des lignes de champ électrique et magnétique. Puis, en s'inspirant de la théorie mathématique des noeuds, ils ont appliqué les principes de la mécanique quantique aux boucles. La théorie quantique résultante prédit l'existence d'atomes d'espace-temps.

Dans la gravitation quantique à boucles, le vide est l'absence d'espace-temps - une notion difficile à concevoir ! -, et chaque quantum d'énergie ajouté à ce vide engendre un nouvel atome d'espace-temps.

Si l'espace-temps est bien de nature quantique, les fluctuations à petite échelle devraient perturber la propagation de lumière. Une onde lumineuse devant s'ajuster à la matrice discrète de l'espace, plus sa longueur d'onde est petite, plus elle sera sensible aux fluctuations, comme les roues d'une poussette sont plus sensibles aux chaos de la route que les pneus d'un camion.

- La régulation des gènes, moteur de l’évolution, p48

Sans que ce soit complètement nouveau il est crucial de déplacer le regard des gènes eux-mêmes à leur régulation comme moteur principal de l'évolution. En effet, on avait déjà établi qu'avec la complexification des organismes il devenait hautement improbable qu'une mutation d'un gène ne soit pas délétère, la complexité ne se construit pas sur le pur aléatoire mais sur le changement de combinaison de briques vitales, sur l'utilisation d'outils disponibles, d'une bibliothèque de routines préprogrammées, un stock de protéines déjà données. Les séquences "non codantes", ne contenant pas l'information à recopier, seraient celles du code justement, du programme de commande et donc déterminantes bien qu'illisibles sans le "code source" ! Ce qu'on avait pris pour le programme n'était que la bibliothèque. Le programme lui-même peut consister dans un simple obstacle qui dévie la lecture de l'ADN et qu'il faudrait suivre pas à pas mais toute la complexification de l'évolution se ferait au niveau du programme plus que des données, d'une régulation de plus en plus fine et de moins en moins aléatoire ou auto-organisée par toute une série d'inhibitions et d'inhibitions de l'inhibition (promoteur, répresseur). Cela semble bien contredire les théories darwiniennes de l'expression des gènes sauf que cela n'empêche pas du tout que de larges zones restent aléatoires si la compétition suffit à obtenir l'avantage de survie et qu'il n'y a pas besoin de l'intervention d'un régulateur. Cependant, l'aléatoire coûte souvent trop cher en énergie perdue, ce pourquoi l'erreur doit être minimisée et le hasard guidé (régulé).

Des séquences d’ADN régulatrices, qui commandent où et quand les gènes sont activés, ont joué un rôle majeur dans la création de la diversité des formes animales.

On s'attendrait à ce que des animaux très différents morphologiquement aient peu de points communs dans leurs génomes. Les apparences sont trompeuses : leurs répertoire de gènes sont en réalité très similaires. Par exemple, ceux de mammifères aussi différents que la souris, le rat, le chien, l'homme et le chimpanzé sont remarquablement proches. Le nombres approximatif de gènes dans chacun de ces génomes (environ 20 000) et leurs positions relatives sur les chromosomes sont peu changé depuis la divergence des mammifères placentaires il y a 100 millions d'années.

L'expression de la plupart des gènes est régulée au niveau transcriptionnel ; les cellules ne gaspillent pas d'énergie à produire des ARNm et des protéines dont elles n'ont pas besoin. De nombreux gènes sont donc exprimés spécifiquement dans un organe un tissu ou un type cellulaire particulier.

Or certaines séquences d'ADN non codant jouent un rôle central dans l'expression des gènes, en déterminant où et quand ils s'expriment. Ces séquences sont dites cis-régulatrices, pour signifier qu'elles contrôlent l'expression de gènes voisins.

Chaque gène a au moins une séquence cis-régulatrice. Contrairement aux gènes eux-memes, dont les régions codantes sont faciles à identifier en raison de la syntaxe relativement simple du code génétique, les séquences cis-régulatrices ne peuvent être reconnues à la seule lecture des lettres d'ADN qui les composent. Elles doivent être identifiées expérimentalement.

L'existence des séquences cis-régulatrices permet qu'un même gène soit exprimé de nombreuses fois dans des contextes différents, augmentant ainsi notablement la variabilité fonctionnelle de chaque gène.

Ainsi, une des différences entre l'homme et le chimpanzé serait la régulation des endomorphines notablement surexprimés chez l'homme sans que la protéine change mais seulement sa production. Entre autres choses cela pourrait expliquer les tendances exploratoires et addictives de l'homme, d'en faire toujours un peu trop, quoique le langage en soit plus sûrement la cause mais n'est-il pas notre première drogue qui nous enivre de mots ? On peut faire l'hypothèse aussi que ce serait nécessaire pour supporter les douleurs de l'accouchement à cause de notre grosse tête ? Ou encore que cela renforcerait l'attachement ?

- Des assemblages d'ADN rompus au jeu et au travail, p68

Des portes logiques constituées d’ADN pourraient un jour être introduites dans le sang d’une personne, détecter des anomalies et réagir en conséquence. Pour l’heure, on les fait jouer in vitro au morpion...

Ce n'est pas très nouveau. Il s'agit d'arriver à combiner plusieurs conditions pour déclencher un événement (délivrer un médicament par exemple). L'originalité c'est de démontrer les possibilités de calcul en programmant un jeu de morpion...


- Les marges de désert, berceaux des civilisations, p76

Depuis la dernière glaciation, des épisodes arides ont contraint l’humanité à s’adapter, donc à innover. C’est aux marges des déserts que les efforts d’adaptation des populations humaines et leurs conséquences ont été les plus spectaculaires.

Pourquoi ? Notre planète est sortie de la glaciation il y a 18 000 ans. La température moyenne terrestre est alors passée de 10 à 15 °C en neuf millénaires. Cette évolution a d’abord amélioré la vie des hommes des époques postglaciaires. Toutefois, une fois la Terre réchauffée, les fluctuations climatiques ont eu un fort impact sur les cultures et les civilisations. Or, alors que la température moyenne actuelle est de 15 °C, on nous annonce qu’elle augmentera de 1,1 à 6,4 °C en un siècle…

En fait ce n'est pas tant la rapidité du réchauffement qui est inquiétante que le fait qu'on soit en haut de cycle et qu'on dépassera dans les prochaines années les anciens maxima mais ce que montre cet article, c'est que les conditions exceptionnelles (d'un véritable jardin d'éden) il y a 8 000 ans, avec un climat plus humide, ont permis une augmentation considérable des populations puis, lorsque le temps est devenu plus froid et sec, vers 5650 et 2350 ans, ces populations se sont regroupées autour de fleuves comme le Nil ou le Tigre et l'Euphrate et c'est pour nourrir ces populations trop nombreuses que se sont développés l'agriculture et l'élevage, puis l'irrigation. L'auteur insinue que l'irrigation et l'écriture auraient été inventées en Egypte alors qu'on l'attribue plutôt aux Sumériens normalement mais l'intéressant ici, c'est que l'explosion démographique, la sédentarisation et le regroupement en cités n'auraient pas été une conséquence mais une cause du néolithique ! On peut penser que c'est aussi la menace sur les conditions exceptionnelles qui ont permis l'explosion démographique qui nous obligera à passer à un stade supérieur de civilisation, de culture, de production de nos propres conditions, conscience écologique réflexive prenant en compte les conséquences globales de nos actions comme les paysans ont dû prendre soin de leur terre et la travailler.

Ajoutons cette brève sur les périodes de sécheresses en Israël autour des années 100 et 400 qui met en relation cette baisse des précipitations dans la région avec la baisse d'influence de l'empire romain mais on pourrait relier cette sécheresse plutôt à la diaspora des juifs dans tout l'empire qu'on attribuait de façon exagéré à une expulsion par les Romains après l'écrasement de 135 ?

- Presque tout est indécidable !, p88
Jean-Paul Delahaye

Article passionnant et plus compréhensible que d'habitude, faisant la synthèses des récentes avancées prolongeant le théorème de Gödel (ce que Lacan exprimait par l'expression "il n'y a pas de métalangage" et qui est proche de l'impossibilité en mécanique quantique de soustraire l'observateur de l'observation). Il serait contradictoire d'en conclure que "tout est indécidable" pour autant, ce que l'existence des mathématique réfute même si cela ne représente qu'une infime partie de l'univers. Au fond c'est l'introduction de la philosophie dans les mathématiques, d'un savoir en progrès à égale distance du scepticisme et du dogmatisme. Il faut connaître son ignorance pour apprendre, ignorance qui augmente à mesure du savoir, multipliant les questions irrésolues.

Grâce aux notions probabilistes, les logiciens démontrent que l’incomplétude de Gödel est beaucoup plus grave et incontournable que tout ce que l’on pouvait craindre.

L’incomplétude est l’incapacité, découverte et démontrée par Kurt Gödel, de concevoir un système mathématique qui capte toutes les vérités mathématiques. Le hasard est l’incapacité, que chacun a expérimentée, de prévoir ce qui va arriver. Quels sont les liens entre ces deux concepts centraux de la philosophie et de la science moderne ?

À cette question, les logiciens proposent aujourd’hui trois faisceaux de réponses. Chacun d’eux suggère des idées en opposition avec la conception traditionnelle des mathématiques comme science dont les connaissances s’acquièrent par la démonstration.

Tout système raisonnable de preuves possède des trous. A y regarder de près, l'incomplétude de Gödel affirme un peu plus que la présence d'un trou dans tout système de preuves imaginable, elle affirme une "incomplétabilité".

L. Levin a montré que même en utilisant un algorithme probabiliste, on ne réussit jamais à compléter un système raisonnable de preuves : le hasard ne permet pas de boucher le trou de l'incomplétude.

Pour lui, aucun système physique (même s'il fonctionne durant un temps infini) ne pourra compléter un système raisonnable de preuve : soit il donnera des contradictions, soit il laissera des trous. L. Levin conjecture un principe d'indépendance entre la physique et le monde mathématique s'appuyant sur une loi de conservation de l'information : aucun procédé physique ne crée de l'information avec suffisamment d'efficacité pour compléter un système incomplet. Pour lui, cette loi est aussi fondamentale que d'autres lois de conservation de la physique.

Plus grave : avec tout système raisonnable de preuves, les formules vraies démontrables sont une proportion négligeable des formules vraies. L'essentiel de ce qui est vrai est inaccessible. Non seulement tout système de preuves est troué, mais topologiquement, un tel système n'est qu'un immense trou !

Notons que cette impuissance est démontrée par un raisonnement mathématique...

Le troisième lien entre l'incomplétude et les probabilités est que tout ce qui est aléatoire est "essentiellement indécidable".

Le hasard et l'incomplétude sont deux formes différentes de l'ignorance forcée que la science moderne a dû admettre et qu'elle essaie de comprendre.


La Recherche no 426, Les 10 découvertes de l'année


- Les 10 découvertes de l'année

  1. Le graphène, matériau de l’année
  2. Sputnik, le premier virus de virus
  3. Les gènes de l’autisme
  4. Les applications thérapeutiques des cellules iPS
  5. Un étrange corps céleste
  6. La bascule ultrarapide du climat
  7. Les supraconducteurs à base de fer
  8. Les ARN interférents moins prometteurs que prévu
  9. Le plus vieil Européen de l’Ouest
  10. Les clones humains

D'accord pour le graphène, voire pour le virus de virus mais les gènes de l'autisme c'est aller un peu vite en besogne et la bascule du climat qui a eu lieu à la fin de la dernière glaciation en une dizaine d'années devrait faire les premiers titres ! Pour l’Association américaine pour l’avancée de la science (AAAS), c'est une reprogrammation cellulaire pleine de promesses qui est la vedette de l'année.


Sciences et Avenir no 743, La Bible, le vrai et la légende


Rien de bien neuf par rapport au compte-rendu que j'avais fait de "La Bible dévoilée" en 2002. Rappelons que tout le numéro est en ligne :

- Retour à Megiddo, sur les terres d'Armageddon

- «Les textes sacrés ne sont pas des références historiques»

- Une électrode cérébrale rend la parole

La vidéo est étonnante : un homme de 25 ans atteint d'un «locked-in syndrome» - incapable de bouger et de parler, mais conscient - parvient à reproduire des sons par la seule force de sa pensée. Pour réaliser cette expérience, une électrode a été implantée dans son cerveau, puis reliée à un ordinateur, lui-même connecté à un synthétiseur vocal. «Ecoute», lui dit l'ordinateur, avant d'émettre une séquence sonore «OO» à répéter. Quelques secondes plus tard, on entend le synthétiseur articuler le son que le patient a «imaginé».

A ce jour, le patient a réussi à dire trois voyelles. Les chercheurs espèrent que d'ici à cinq ans, ce sont des mots que les patients, jusqu'ici enfermés dans leur propre corps, pourront émettre.

Voir http://speechlab.bu.edu/prosthetics....

- «La première révolution industrielle, est fondée sur l'animal»
Eric Baratay, La société des animaux

Tout provient alors des animaux. A tel point qu'à Paris et dans les grandes villes européennes, la première révolution industrielle - entre 1780 et 1880 - est essentiellement fondée sur l'animal. Le lait et la viande se démocratisent, on trouve de plus en plus de laine, de cuir, de fourrure. Se développent également les fabriques de colle, de savons, de chandelles, d'engrais, de parfums... Les animaux vont transformer la vie urbaine. A Paris, toutes les compagnies de transport calent leurs horaires et leurs cadences sur le rythme des chevaux. Les odeurs, le bruit des animaux... font partie du quotidien. Leur mort également. Pour récupérer les cadavres de chevaux laissés en pleine rue, morts de fatigue par exemple, la voirie de Paris met en place un service de ramassage spécifique. De même pour les charognes de chiens que les gens jettent sur les tas d'ordures ou à la rivière.

Nous ne cessons de plaquer nos normes sur la condition animale. L'augmentation de la taille des enclos dans les zoos est ainsi directement corrélée avec celle des habitats humains. Inversement, la dégradation de la condition animale est la conséquence de la dégradation de la condition humaine.




Brèves et liens



Physique


cosmologie, astronomie, physique quantique

- L'énergie noire contrôle la croissance des amas de galaxies

L'histoire de l'Univers, une lutte entre la matière noire et l'énergie noire pour le contrôle des amas de galaxies.

Il s’agit bien sûr de la constante cosmologique. Des observations menées à l’aide du satellite Chandra montre qu’elle n’accélère pas seulement l’Univers mais contrôle aussi la croissance des amas de galaxies.

Imaginons, dans un modèle de cosmologie relativiste, une substance extraordinaire dont la densité reste constante dans l’espace même lorsque celui-ci s’étire, que se passerait-il alors ?

Il arrivera nécessairement un moment où la quantité de cette substance dominera celle de la matière et l’on peut même montrer qu'elle sera capable d’entraîner une accélération de l’expansion du cosmos. Cette substance magique existe, les astronomes l’ont observée à l’aide des supernovae en 1998 et on lui a depuis donné le nom d’énergie noire...

Sa nature exacte est toujours mystérieuse mais son interprétation la plus simple est celle d’une énergie du vide quantique.

C’est au niveau des amas de galaxies que la meilleure preuve et la plus précise à ce jour de l’existence de l’énergie noire vient d’être obtenue.

L’énergie noire découlerait alors des simples fluctuations quantiques des champs de matière et d’interactions que l'on observe dans le cas de l'effet Casimir.

On sait que c’est la matière noire qui a servi de germe à la formation des galaxies et des grandes structures que sont les amas de galaxies. Or, même si l’expansion de l’Univers ne commence vraiment qu’au-delà des amas (l’attraction gravitationnelle de la matière noire étant trop forte pour que l’expansion de l’espace se produise), le taux de croissance de la taille des amas par rassemblement des galaxies doit, lui, être le produit d’un compromis entre la force de gravitation de la matière noire des amas et le taux d’expansion de l’Univers.

- Zoom sur le trou noir de notre galaxie

Image du centre de la Voie lactée dans l'infrarouge proche (bande K) à la limite de diffraction (60 milli-arcsecondes) d'un champ de 18 x 15 secondes d'arc autour du centre de notre Galaxie (flèches), obtenue avec l'instrument d'optique adaptative NAOS/Conica sur le 4ème télescope UT4 (Yepun) du VLT le 3 mai 2002. Les positions radio de 7 étoiles à émissions maser SiO ont servi à aligner les images radio et infrarouges à 10 milli-arcsecondes près. Crédit : OBSPM

Cette masse est désormais connue avec précision et représente 4,31 millions de masses solaires. Les raffinements dans les mesures, en particulier à l’aide de radiotélescopes ont montré que cette masse est contenue dans un volume dont le diamètre est inférieur à la distance de Mercure au Soleil. Seul un trou noir supermassif présent au centre de la Voie lactée peut expliquer ces observations.

Comme sous-produit de ces études, les astronomes peuvent maintenant localiser le centre de la Voie lactée avec plus de précision. Il est situé à 8,33 ± 0,35 kpc (kiloparsecs), soit environ 27.000 années-lumière. En outre, on sait aussi que la masse totale mesurée dans la région occupée par Sagittarius A* est bien celle du trou noir, à 95%. Cette observation pose des bornes pour la présence de la matière noire, dont on pense qu’elle doit être plus abondante dans le noyau d’une galaxie que dans le disque, ou le halo pour une spirale.

- Localisation d'Anderson en 3D

A très basses températures, les électrons se comportent plus comme des ondes que comme des particules. Dans un matériau désordonné, comme un métal contenant des impuretés, ces ondes interfèrent entre elles de manière destructive. En somme, elles s'annulent les unes les autres, ce qui se traduit par le blocage – la localisation – des électrons dans le matériau, empêchant ainsi le courant de circuler.

On découvre dans les années 1980 que la localisation d'Anderson pourrait ne pas se limiter aux électrons mais s'appliquer aussi aux ondes "classiques", comme la lumière ou les ondes acoustiques, un peu plus faciles à manipuler.

C'est pourquoi les chercheurs du LPMMC et de l'université de Manitoba ont préféré employer des ondes acoustiques à température ambiante. Il leur aura tout de même fallu trois ans pour préparer l'expérience. Elle a consisté à envoyer des ultrasons dans un milieu désordonné formé de petites billes d'aluminium. En analysant les ondes transmises à la sortie du dispositif, ils ont pu observer, sans qu'aucun doute ne soit permis, plusieurs manifestations de la localisation d'Anderson. Point fort de cette réussite, qui vient s'ajouter à la récente démonstration réalisée à l'aide d'atomes froids par le groupe d'Alain Aspect.

- Les tremblements de terre réveillent les volcans

Une analyse minutieuse des deux plus grands tremblements de terre du siècle passé en Indonésie indique une relation avec des éruptions volcaniques survenues après les événements, quelquefois à plusieurs centaines de kilomètres des épicentres. De quoi avancer la possibilité de prochaines éruptions volcaniques.

Dans la revue Earth and Planetary Science Letters, l’équipe montre que la fréquence des éruptions des 15 volcans situés dans un rayon de mille kilomètres des épicentres durant l’année qui a suivi ces deux secousses a quadruplé.

Sur la base de cette constatation, David Pyle suggère que les scientifiques tentent de dépister les prémices d’événements volcaniques en Indonésie consécutifs au grand tremblement de terre de 2004 et des deux secousses de 2007. Quatre éruptions se sont déjà produites parmi les 36 volcans actifs de l’île de Sumatra, suggérant un lien de cause à effet.

L’équipe de scientifiques a déterminé que plusieurs séries de séismes importants se sont succédé à cet endroit avec une fréquence de 200 années, au XIVe siècle, à la fin du XVIe siècle et 1797 à 1833. Il serait logiquement possible que le grand tremblement de terre de septembre 2005 soit également le premier d’une prochaine série à venir.

 

Climat


Climat, écologie, énergies

- Le réchauffement climatique passe-t-il à la vitesse supérieure ?

Et Claude Allègre prétend qu'on va vers une nouvelle glaciation ! Il est vrai que les incertitudes sont immenses mais pas le fait que plus il y a de gaz à effet de serre et plus ça chauffe. La glaciation viendra mais pas avant longtemps et le risque actuel, c'est la fonte du permafrost qui risque de rendre inutiles tous nos efforts et mener à une véritable catastrophe. Compter sur les incertitudes pour nous sauver, c'est croire au Père Noël même si ce n'est pas complètement impossible que sa main invisible nous protège de nous-mêmes, on ne sait jamais ! De toutes façons il ne nous arrivera rien avant qu'on ait dépassé les températures maximum depuis la dernière glaciation mais le problème avec les gaz à effet de serre, c'est leur effet différé, de 50 ans pour le C02, c'est le décalage entre l'effet et la cause, pas le petit réchauffement actuel mais celui des dizaines d'années à venir !

La fonte record des glaces du Groenland et le dégazage massif des dépôts de méthane autrefois congelé dans le sous-sol des côtes sibériennes indiquent que des changements importants sont en train de se produire en Arctique, risquant d’amplifier le réchauffement du climat mondial.

Les analyses de l’eau indiquent des taux de méthane dissous jusqu’à 200 fois supérieurs à la normale, indiquant des dégagements significatifs qui n’avaient pas été mis en évidence durant les années 1990.

Les chercheurs ne disposent pas encore de suffisamment de données pour déterminer en quelle proportion cet hydrate de méthane qui s’échappe du plateau continental sibérien peut affecter le reste de la planète, selon Edward Brook, de l’université d’Etat d’Oregon. Dans un rapport rendu public au cours de la même conférence, le chercheur estime peu probable qu’un dégagement catastrophique de méthane se produise au cours de ce siècle, bien qu’il admette que le changement climatique accélérera le relâchement, et suggère une surveillance accrue du processus afin de prévenir toute modification brutale de la situation.

- Le point de non-retour...

A quoi sert de le dire ?

Les scientifiques sont réticents, on le comprend, à annoncer publiquement que leurs prévisions étaient fausses, que la situation est vraiment bien pire et que les objectifs devront être révisés. La plupart d’entre eux attendent de disposer d’une preuve incontestable montrant que le changement climatique intervient plus rapidement que prévu, même si en privé, ils s’affirment convaincus que c’est bien le cas.

De ce fait, les gouvernements, bien qu’ayant enfin pris conscience du danger, continuent de viser des objectifs de réduction des émissions obsolètes. Pour éviter l’emballement du réchauffement de la planète, le véritable objectif requis serait probablement une réduction de 80% des émissions d’ici à 2030, et la quasi disparition de l’usage des combustibles fossiles (charbon, gaz et pétrole) d’ici à 2050.

Même un seul degré d’augmentation de la température moyenne de la planète se traduirait par une diminution de la production alimentaire dans presque tous les pays qui sont plus proches de l’équateur que des pôles, et qui abritent la quasi-totalité des greniers à blé de la planète.

Il existe un point de non-retour au-delà duquel le réchauffement devient inéluctable. Nous sommes probablement en route pour le dépasser. Ce point de bascule, c’est celui où le réchauffement d’origine anthropique (d’origine humaine) déclenche une libération massive de dioxyde de carbone des océans dont la température s’élève, ou des rejets de dioxyde de carbone et de méthane provoqués par la fonte du pergélisol, ou les deux phénomènes ensemble. La plupart des climatologues pensent que ce point se situe légèrement au dessus des 2° de réchauffement.

- Tout est déjà foutu...

Il faut alerter tout le monde sur le fait qu’en ce moment, nous sommes à la limite supérieure du pire scénario. Je crois que nous devons lutter pour respecter les 450 ppm, mais je crois que nous devrions nous préparer au fait que les 550 ppm seront vraisemblablement atteints. La cible des 450 ppm est incroyablement difficile à atteindre, » avertit Bob Watson, ancien responsable du GIEC. Le respect de la limite des 450 ppm requiert une diminution immédiate de 5% des émissions par an dans le monde développé. L’objectif de 20% à horizon 2020, pourtant salué comme un grand succès, est loin du compte.

Les sols pourraient également relâcher leurs réserves de carbone : la preuve est apparue en 2005 qu’une vaste étendue de la Sibérie Occidentale subissait un dégel sans précédent. Dans cette région, la plus large tourbière gelée du monde a commencé à fondre pour la première fois depuis sa formation il y a de cela 11000 ans. Les scientifiques pensent que la tourbière pourrait commencer à relâcher des milliards de tonnes de méthane emprisonnés dans les sols, un gaz à effet de serre 20 fois plus puissant que le CO2. L’Organisation Météorologique Mondiale a récemment annoncé la plus grosse augmentation des niveaux de méthane dans l’atmosphère depuis 10 ans.

Tout cela n'est pas sûr, évidemment, et qu'on puisse en douter est ce qui le rend beaucoup plus difficilement évitable. La bombe climatique pourrait être comparée à une grave dépression économique, de 30 à 50 ans peut-être, mais décimant les populations cette fois de par toute la Terre jusqu'à l'extinction de nombreuses espèces, et encore, ce n'est que le scénario le plus optimiste qui ne reproduise pas la grande extinction du PETM (Maximum Thermique du Permien Eocène) !

- Grandes quantités de méthane relâchées lorsque le permafrost regèle

C'est plus curieux qu'inquiétant cette fois puisque cela n'augmenterait pas les quantités totales relâchées mais seulement la répartition dans l'année avec l'étonnante découverte que les émissions étaient maximum au moment du gel. Il n'en demeure pas moins que le permafrost fond !

De très grandes quantités de méthane, un gaz à effet de serre, sont relâchées dans l'atmosphère lorsque la toundra de l'Arctique commence à regeler au début de l'hiver.

Ce phénomène, méconnu jusqu'à présent, pourrait expliquer les bizarreries remarquées dans les concentrations de méthane dans l'atmosphère des hautes latitudes.

Les émissions de méthane ont baissé après la saison de pousse de la flore, puis nettement augmenté au moment du gel.

En fait, ont constaté les scientifiques, le sol de la toundra arctique dégage «au cours de cette période à peu près autant de méthane que pendant tout l'été».

Cette étude «n'augmente pas vraiment les estimations des émissions en provenance des hautes latitudes du Nord, mais elle change notre vision quant à leur distribution saisonnière».

De nombreux spécialistes, dont certains du Groupe intergouvernemental d'experts sur l'évolution du climat (Giec), tirent la sonnette d'alarme sur le rôle dans le réchauffement climatique actuel du méthane, notamment issu des zones marécageuses et de la fonte du permafrost dans les zones arctiques. Ce gaz reste dans l'atmosphère une douzaine d'années.

- Les panneaux solaires, grands pourvoyeurs de gaz à effet de serre !

Cela ne devrait pas être le cas des nouveaux produits, du moins on peut l'espérer...

L'énergie solaire peut-elle être considérée comme une énergie verte ? Le processus de fabrication des panneaux solaires nécessite l'utilisation d'un gaz 17 000 fois plus nocif pour le réchauffement de la planète que le dioxyde de carbone : le trifluorure d'azote ou NF3. Selon des études scientifiques, la concentration de NF3 dans l'atmosphère augmente de 11 % par an. L'émission de ce gaz n'est pas régie par le protocole de Kyoto.

- L'éolien serait l'énergie la plus propre

Même s'il y a des éoliennes sur la couverture de mon livre, je reste persuadé que le solaire a bien plus d'avenir mais l'éolien est sûrement notre présent (87 MW en Aveyron), pour plus très longtemps sans doute...

"Les sources d'énergie que Jacobson a trouvé être les plus prometteuses sont, dans l'ordre, le vent, l'énergie solaire concentrée (l'usage de miroirs pour chauffer un fluide), géothermique, marémotrice, l'énergie solaire photovoltaïque (panneaux solaires), les vagues et les centrales hydroélectriques. Il les recommande contre le nucléaire, le charbon avec capture du carbone et séquestration, l'éthanol de maïs et l'éthanol cellulosique, à partir de l'herbe de prairie. En fait, il a trouvé l'éthanol cellulosique pire que l'éthanol de maïs, car il en résulte plus de pollution de l'air, exige plus de terres pour le produire et cause davantage de dommages à la faune."

Maintenant, examinons pourquoi il a décidé que le vent est la meilleure source prometteuse d'énergie. "Le vent a été de loin le plus prometteur, a dit Jacobson, en raison d'une réduction de 99% d'émission de carbone et de polluants atmosphériques, la consommation de moins de 3 kilomètres carrés de terres pour alimenter toute la flotte de véhicules des États-Unis (si elle était composée de véhicules électriques), l'économie d'environ 15.000 vies par an liées à la pollution atmosphérique et aux gaz d'échappement des véhicules aux États-Unis, et pratiquement sans consommation d'eau."

- Pic pétrolier en 2020 ?

On peut penser que si l'AIE admet désormais que le pic pétrolier est proche c'est pour enrayer la baisse du pétrole incontrôlée. La situation à l'heure actuelle est plutôt d'une rigidité de la production qui ne peut ni baisser (les pays producteurs sont dépendants de ces ressources) ni augmenter (il faudrait des investissements lourds alors que la consommation doit baisser).

Le rapport 2008 de l’Agence Internationale de l’Energie marque une inflexion majeure dans le discours qu’elle a tenu jusqu’alors. Elle prévoit désormais un taux de déclin annuel de la production de 8,7% dans les champs en exploitation et mentionne sans donner de date la perspective du plateau de production pétrolière. George Mombiot a demandé à Fatih Birol, l’économiste en chef de l’AIE de dater l’arrivée de ce plateau de production des pétroles conventionnels. Réponse : 2020. Si l’on se souvient du rapport Hirsh, qui évaluait à 20 ans le temps nécessaire pour la conversion des infrastructures en direction des énergies alternatives, on mesure le retard déjà pris.

Mettez vous bien ça en tête : entre 2007 et 2008, l’AIE a radicalement changé son évaluation de la situation. Jusqu’à la publication du rapport 2008, l’agence se moquait des gens qui disaient que l’approvisionnement en pétrole pouvait décliner. Dans la préface à un livre qu’il a publié en 2005, Claude Mandil, son directeur exécutif, décrivait ceux qui mettaient en garde contre cet événement comme des « prophètes de malheur ». « L’AIE a depuis longtemps soutenu que rien de tout cela n’est une cause d’inquiétude », écrivait-il. « Les ressources en hydrocarbures partout dans le monde sont abondantes et alimenteront aisément le monde durant sa transition vers un avenir énergétique durable ». Dans le World Energy Outlook de 2007, l’AIE prévoyait que le taux de déclin de la production des champs pétrolifères existants serait de 3,7% par an. Ce qui, pour l’agence, représentait un défi à court terme, laissant la possibilité d’une pénurie temporaire des approvisionnements en 2015, qui pourrait cependant être évitée à condition d’investir suffisamment. Mais le nouveau rapport publié le mois dernier, contient un message très différent : il prévoit un taux de déclin de 6,7%, ce qui implique un déficit à combler bien plus fort.

Plus important encore, dans son rapport 2008 l’AIE suggère pour la première fois que l’approvisionnement mondial de pétrole pourrait toucher ses limites. « Bien que la production mondiale totale de pétrole ne devrait pas atteindre son pic avant 2030, la production de pétrole conventionnel ... devrait connaître un palier vers la fin de la période de la projection ». Ces quelques mots font apparaître un changement majeur. Jamais auparavant un rapport de l’AIE n’avait prévu un pic ou un plateau de la production mondiale de pétrole conventionnel (ce qui est ce que nous entendons lorsque nous parlons de pic pétrolier).

- Fin des sacs plastiques jetables

On a du mal à y croire et pourtant !

Les sacs jetables disponibles aux caisses des grandes surfaces ou chez les commerçants devraient bientôt disparaître. C'est ce qu'aurait déjà décidé le syndicat de la distribution, alors que les députés viennent de voter une taxe. Déjà, leur nombre a considérablement régressé ces dernières années. C'est le grand retour des cabas et des paniers...

- Fin des ampoules à incandescence

Attention tout de même aux ondes des lampes fluocompactes et vivement les diodes !

L'Union européenne a programmé la fin définitive des classiques ampoules électriques à filament entre 2009 et 2012. Elles devraient être remplacées dans les rayons par des lampes à basse consommation, dites aussi fluocompactes, des lampes à halogène ou, peut-être, des diodes, bien plus efficaces. Economie prévue : entre 5 et 10 milliards d'euros par an pour les ménages européens.

Ces lampes fluocompactes présentent toutefois un inconvénient. Le tube de verre contient un gaz riche en mercure, un métal toxique. Les fabricants recommandent de mettre des gants avant de ramasser les morceaux d'une lampe brisée ou au moins de se laver les mains ensuite... Heureusement, la quantité enfermée dans le tube est faible et le danger minime. En revanche, une filière de recyclage doit prendre en charge ces lampes qui, une fois émis leur dernier photon, sont considérées comme des déchets dangereux. A ce titre, il faut les amener chez le vendeur ou les accompagner pour leur dernier voyage jusqu'à une déchetterie.

En 2007, une association, le Criirem (Centre de recherche et d'information sur les rayonnements électromagnétiques), avait soulevé un lièvre. Ces lampes émettent aussi des rayonnements radio assez puissants, qui, à proximité de la lampe, dépasseraient dans les hautes fréquences les seuils admis (27 volts/mètre). Il faudrait s'éloigner d'environ un mètre pour retrouver les valeurs habituelles (environ 0,2 V/m). Les résultats ont été contestés par le syndicat des fabricants de lampes (ELC). Il reste une suspicion pour les lampes de chevet et de bureau... D'autres techniques ont déjà vu le jour. Les lampes à diodes électroluminescentes, qui se multiplient sur les automobiles, affichent des rendements encore supérieurs mais pour un prix nettement plus élevé aussi.

- L’urbanisation progresse

95% de la population mondiale vit sur seulement 10% du territoire et plus de la moitié de la population vit à côté d’une ville. Cette proximité avec les grands centres urbains n’est réalité que dans les pays développés ou 85% des gens vivent à une heure ou moins d'une grande ville. Dans les pays en voie de développement ce chiffre tombe à seulement 35%.


 

Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

- LUCA, l'ancêtre ARN de la vie ADN reconstitué

En essayant de reconstituer génétiquement LUCA (Last Universal Common Ancestor) l'hypothèse d'un monde ARN avant l'ADN semble confirmé mais, du coup, cela supposerait des températures assez froides alors que les organismes thermophiles ne peuvent se passer de l'ADN moins fragile que l'ARN.

« Notre recherche s'apparente à l'étude étymologique des langues modernes, résume Nicolas Lartillot, nous tentons d'élucider les fondements de leur évolution. Nous avons identifié les caractères génétiques communs entre les animaux, les végétaux, les bactéries, à partir de quoi nous avons construit un arbre de la vie dont les ramifications représentent des espèces distinctes. Elles proviennent toutes d'un tronc commun, Luca en l'occurrence, dont nous nous sommes efforcés d'établir plus à fond la composition génétique. »

« Ce n'est qu'après que les descendants de Luca ont découvert la molécule plus thermostable de l'ADN, qu'ils ont acquise indépendamment (probablement issue d’un virus) et qu'ils l'ont utilisée à la place de l'ancien support plus fragile constitué d’ARN, affirme le professeur Lartillot. Cette transformation leur a permis de s'éloigner de leur petit microclimat froid, d'évoluer et de se diversifier en une variété d'organismes sophistiqués capables de tolérer la chaleur ».

- La chiralité de la vie viendrait de l'espace

Cette théorie d'une modification de l'orientation droite ou gauche des molécules sous l'effet des rayonnements cosmiques n'explique pas pourquoi le vie est constituée de sucres dextrogyres alors que les acides aminés sont lévogyres, ce qui pourrait cette fois être relié à la "brisure de symétrie" des forces électro-faibles ! On comprend bien que les protéines dont la forme détermine la fonction ne peuvent mélanger des formes différentes de molécules. Simplement le côté choisi ne serait pas purement aléatoire mais amplifiant, comme dans la plupart des instabilités, une dissymétrie initiale, différente pour les acides aminé ou les sucres ?

En utilisant les faisceaux de rayons X de l’Advanced Photon Source (APS), il a bombardé un matériau magnétique sur lequel était adsorbé un mélange deux types de molécules de butanol (CH3-CHOH-C2H5). Sous l’action de ce rayonnement ionisant, des électrons sont produits dont le spin est polarisé dans une certaine direction. Ces particules se révèlent capables de modifier des liaisons à l'intérieur des molécules de butanol et d'en changer la chiralité. En modifiant la direction de l’aimantation du permalloy (Fe0.2Ni0.8), grâce à un champ magnétique, on peut produire un excès notable de molécules d’une chiralité donnée.

Or, on sait que les champs magnétiques, le fer et des rayonnements ionisants sont très répandus dans l'univers. Il n’est pas difficile d’imaginer que des molécules organiques issues de la chimie complexe du milieu interstellaire et dont on détecte la présence dans le cosmos aient pu être influencées par le mécanisme découvert par les chercheurs. Ce pourrait être le cas lorsque ces molécules sont piégées dans la glace recouvrant une poussière interstellaire riche en fer, à la surface d'une météorite, dans une comète où à la surface d’une planète par exemple.

- Mars aurait été favorable à la vie

La planète Mars a un jour abrité de l'eau liquide dépourvue d'acidité. C'est ce que suggère fortement la découverte de gisements de carbonates, une roche introuvable en milieu acide. Il a donc dû exister des conditions propices à l'apparition de la vie.

- L'origine des spermatozoïdes

Les premiers spermatozoïdes seraient une stratégie pour échapper aux virus ! On comprend que ce soit un bon support pour transmettre un ADN non piraté par un virus.

Emiliania huxleyi est une algue unicellulaire microscopique exclusivement marine appartenant aux coccolithophoridés et au groupe des haptophytes. Elle protège son unique cellule sous une couche de plaques de calcite généralement discoïdes appelées coccolithes. Se déposant au fond des océans depuis des temps immémoriaux, les sédiments formés par ces amas de calcite deviennent de la craie.

Lorsque E. huxleyi est attaquée par un virus, elle se transforme complètement et devient invisible pour son ennemi. Constituée d'une cellule de type diploïde, ce qui signifie que ses chromosomes sont constitués par paires, à l'instar de nos propres cellules, l’algue passe soudain à un stade haploïde, chaque chromosome n'étant plus présent qu'en un seul exemplaire.

Un jour, un de nos étudiants en thèse, Miguel Frada, a noté la présence de cellules nageant un peu comme les spermatozoïdes dans le milieu de culture.

A l'examen, les scientifiques se sont aperçus que ces nouvelles cellules étaient formées exactement de la même série de gènes que E. huxleyi, mais en un seul exemplaire. A peine revenus de leur étonnement, ils ont aussi constaté la présence dans le milieu de culture du virus EhVs (Emiliania huxleyi Viruses) spécifique de E. huxleyi. Ce virus est très commun, et réputé pour décimer de très importantes quantités de ces algues, dont les fortes concentrations sont quelquefois visibles depuis l'espace. « Alors totalement invisibles pour le virus, car elles présentent une surface impénétrable, ces cellules permettraient à l'espèce de vivre en paix en attendant la dilution des virus par les courants océaniques »

- Comment les plantes acquièrent-elles leur forme ?

Les gènes ne font qu'orienter des forces physiques et des processus d'auto-organisation, intervenant aux points de bifurcation.

D'un point de vue plus général, ces travaux s'inscrivent dans un changement de paradigme en cours dans la biologie du développement: les chercheurs ne considèrent plus le développement embryonnaire comme un processus sous le contrôle strict de la génétique, mais plutôt comme un processus à plusieurs niveaux qui interagissent entre eux. Ainsi, l'équipe a démontré que la morphogénèse du méristème est un phénomène émergent issu du comportement individuel des cellules cherchant à résister au stress mécanique. Cependant, ce mécanisme n'est pas le seul à l'oeuvre lors de la morphogénèse des plantes. Il fonctionne en parallèle aux chaînes de réactions induites par l'auxine, une hormone fondamentale dans la formation des organes des plantes. Comprendre comment ces deux mécanismes se coordonnent pour former des structures et des tissus parfaitement différenciés est un champ de recherches désormais ouvert aux chercheurs.

- L'auto-organisation des moules

Ce qu'on appelle auto-organisation ici, c'est une organisation qui émerge à partir de règles simples appliquées par chaque individu en rapport avec ses congénères, générant sans le savoir des formes optimisées, sélectionnées par l'évolution et donc pas du tout immédiates comme dans un marché. On y verrait plutôt une sélection de groupe qu'une auto-organisation puisqu'elle est contrainte génétiquement comme d'un super-organisme, tout le contraire d'un arrangement idéal ou d'une complexification qui se ferait toute seule comme par magie (la fameuse "main invisible") alors qu'il y a eu élimination violente de toutes les autres solutions au cours de l'évolution.

Lorsqu'elles sont en groupe sur le sable, les moules ne s'installent pas n'importe comment: elles dessinent des figures labyrinthiques très structurées qui, à grande échelle, forment de larges bandes. Comment les coquillages parviennent-ils à créer ces motifs et, surtout, pourquoi ? Les scientifiques du Centre de recherches sur la cognition animale, à Toulouse, en collaboration avec leurs collègues hollandais et britanniques, ont mené l'enquête: les structures sont issues d'une véritable "auto-organisation" des individus, et leur donnent un avantage écologique en améliorant leur survie.

"Ils ne peuvent être que la conséquence d'interactions entre les individus, puisque dans notre expérience, il n'y avait aucun élément perturbateur, comme une hétérogénéité du substrat ou des algues en suspension, par exemple", explique Guy Theraulaz. L'analyse du comportement des mollusques et la construction d'un modèle numérique ont permis ensuite de préciser les conditions nécessaires à l'apparition des motifs. Trop peu nombreux, les coquillages forment des grappes isolées. Lorsque la densité augmente, les figures labyrinthiques apparaissent. Jusqu'à un certain point, au-delà duquel les moules préfèrent s'installer ailleurs. La taille des grappes et la forme des structures seraient donc optimisées. Mais pourquoi ?

Le taux de survie apporte la réponse: plus les moules sont organisées, plus elles vivent longtemps. Non seulement les individus grandissent plus vite, probablement à cause d'une moindre compétition entre eux, mais les communautés résistent aussi mieux au ressac.

- Une trace de libellule de 312 millions d'années

Des chercheurs de l'Université Tufts ont découvert ce qu'ils croient être le plus ancien fossile d'un insecte volant dans un affleurement rocheux près de North Attleboro, dans le Massachusetts.

L’empreinte, d’environ sept centimètres de long retrouvée sur un éperon rocheux à proximité d’un centre commercial, représente le thorax, l’abdomen ainsi que six pattes d’un insecte dont l’aspect extérieur rappelle une libellule. Selon son découvreur, géologue à l’Université de Tufts, il serait en réalité un très lointain cousin des éphémères.

Le fossile a été retrouvé dans une couche de boue solidifiée d’aspect rouge bordeaux, vieille de 312 millions d’années. Il constitue la plus ancienne trace de passage d’un insecte vivant enregistrée dans la roche, elle est sans doute due au bref atterrissage de l’animal sur une nappe de boue.

C'est le Carbonifère, période des grands arbres où l'oxygène augmente ce qui favorise le gigantisme des insectes entre autres.

- Des toiles d'araignée de 140 millions d'années

L’époque se situe au Crétacé, alors que la Terre était peuplée de dinosaures. Quelques-uns s’étaient déjà envolés en devenant oiseaux, mais les plantes à fleurs restaient rares, et ne se répandront en abondance que quarante millions d’années plus tard en entraînant dans leur prolifération celle des insectes. Pourtant, le piège de soie était déjà prêt…

Pourtant les araignées sont bien plus vieilles. Cousines des scorpions, elles sont comme eux des arachnides, un groupe d'arthropodes qui a arpenté les terres du globe il y a très longtemps. Le plus ancien scorpion connu devait être la terreur des terres émergées au Silurien inférieur il y a 435 millions d'années et seulement quelques millions d'années plus tard des araignées couraient sur leurs huit pattes.

« Ce que nous avons découvert ne peut être qu’une toile d’araignée circulaire fossilisée, rapporte Martin Brasier. Nous avons aussi trouvé des enchevêtrements de soie préservés dans l’ambre. C’est vraiment surprenant de trouver quelque chose d’aussi fragile conservé depuis tant de millions d’années ».

- Des dinosaures papa-poules

Le paléontologue David Varricchio (Montana State University, USA) et ses collègues se sont intéressés à trois types de théropodes, des bipèdes rapides avec de petites pattes avant, dont la lignée a évolué jusqu’à donner les oiseaux modernes. Pour le Troodon, le Citipati et l’Oviraptor, des nids fossilisés ont été retrouvés avec les restes d’un adulte veillant sur le nid. S’agissait-il d’un mâle ou d’une femelle?

Pour se faire une idée, le biologiste Gregory Erikson (Florida State University) a étudié de près les os de ces dinosaures couvant les œufs. Il n’a pas trouvé les caractéristiques propres aux os des femelles que l’on observe aujourd’hui chez les plus proches parents vivants des théropodes, les oiseaux et les crocodiles. Il pense donc que ce sont les papas qui couvaient les œufs.

Chez les oiseaux, les études montrent que les mâles participent aux travaux du nid dans 90% des cas. Chez les espèces où les couvées sont très importantes, on retrouve plus souvent le mâle couvant les œufs que chez les espèces avec de petites couvées, précisent les chercheurs. Un comportement qui aurait déjà prévalu chez les théropodes.

- Un nouveau dinosaure carnivore

Le squelette d’un dinosaure carnivore n’appartenant à aucune espèce connue a été exhumé de la roche en Patagonie.

Le nouveau venu, si on peut parler ainsi d’un animal ayant vécu il y a 70 millions d’années, est apparenté au groupe des dromaeosauridés (dinosaures carnivores) et présente plusieurs caractéristiques inédites.

Avec une longueur totale de 5 à 6,50 mètres (selon la longueur de la queue, actuellement incomplète) et un poids de 360 à 400 kg, Austroraptor cabazai ferait pâle figure auprès des 40 mètres du Supersaurus ou des 100 tonnes de l’Argentinosaurus… Mais il intimiderait n’importe quel membre de son groupe, tous beaucoup plus petits que lui, et dont les descendants ont pris leur envol quelques dizaines de millions d’années plus tard pour devenir les oiseaux. Ce nouveau prédateur appartient à un groupe sud-américain connu sous l’appellation de unenlagiines (ce qui signifie demi-oiseau dans un mélange de latin et de chilien), d’où sont issus les archéoptéryx. Contrairement à leurs cousins de l’hémisphère nord, comme le Velociraptor rendu célèbre par Jurassic Park, les unenlagiines avaient une tête beaucoup plus longue, plus effilée, et de petites dents coniques. Ils vivaient dans un environnement parsemé de nombreuses rivières peuplées de poissons et de tortues, dont les restes fossilisés foisonnent.

- Les éléphants ne supportent pas le zoo

Pas plus que nous, la prison et l'isolement...

L’espérance de vie des femelles Elephas maximus est de 19 ans dans les zoos et de 41,7 ans pour les éléphants birmans transporteurs de grumes. Surtout, la mortalité des jeunes est plus élevée dans les zoos, selon les chercheurs, et elle est aggravée par les transferts d’animaux qui séparent les petits de leurs mères.

Voir aussi Futura-Sciences.

- La disparition de Néandertal dû à la compétition avec l'homme

Selon l'algorithme, les hommes modernes ont occupé des territoires allant jusqu'à une frontière méridionale marquée par la vallée de l'Ebre pendant la phase froide (H4) puis ont investi le sud de la péninsule ibérique au cours de la phase tempérée suivante (GI8). L'étude conclut que les néanderthaliens du sud de la péninsule ibérique auraient été les derniers à disparaître car ils auraient été préservés de la compétition directe avec les hommes modernes par la phase froide, au cours de laquelle les deux populations auraient exploité des territoires distincts. Pour les auteurs, la disparition de Néanderthal serait donc due à la compétition avec Sapiens sapiens.

C'est donc la confirmation de l'hypothèse très controversée de mon récent compte-rendu sur l'émergence de l'humanité. Voir aussi Futura-Sciences.

- 70% de la population accepterait de torturer autrui...

Rien de nouveau mais il est bon de le rappeler dans les circonstances présentes. Bien sûr, un facteur essentiel de la cruauté, c'est la confiance dans l'expérimentateur, ce n'est pas de la pure méchanceté mais plutôt de la crédulité mais c'est la même crédulité qui fait massacrer quelque bouc émissaire désigné à la vindicte publique.

L’expérience de Milgram l’avait démontré il y a cinquante ans, sa réédition vient de le confirmer.

« Lorsqu’ils sont sous pression, les hommes peuvent faire des choses effrayantes », conclut Jerry Burger dans PsychoMedia, en précisant que « ce phénomène peut partiellement expliquer qu’en temps de conflit, les gens puissent prendre part à des génocides ».

- Les hommes sont rouges et les femmes vertes !

C'est l'amusante constatation qui pourrait être utilisée dans la reconnaissance faciale, les hommes sont plus rougeauds et les femmes plus pâles ! A noter, mais on s'en doutait, que nos mimiques sont héréditaires et non pas apprises par imitation, ce qu'on constate avec les aveugles notamment.

 

Santé


génétique, traitements, nutrition, hygiène

- La reprogrammation cellulaire

Comme chaque année, la revue Science, éditée par l’Association américaine pour l’avancée de la science (AAAS), a publié son palmarès des dix travaux scientifiques les plus importants de l’année. En tête de liste, la reprogrammation cellulaire est honorée du titre de « Découverte de l’année ».

Deux équipes ont prélevé des cellules de patients souffrant de diverses maladies comme le diabète ou la maladie de Parkinson et les ont reprogrammées en cellules souches. Ces cellules capables de se reproduire indéfiniment constituent un précieux « matériel » de recherche. Grâce à des techniques de cultures élaborées, les chercheurs ont même pu faire en sorte qu'elles se transforment en différents types cellulaires, dont ceux qui sont les plus affectés dans les maladies des patients à l'origine du don de ces cellules.

Disposer ainsi de lignées de cellules malades individualisées permet bien sûr d’étudier à un niveau jamais atteint certaines pathologies pour lesquelles les modèles animaux sont insuffisants.

Les biologistes ont réussi à transformer, in vivo chez des souris diabétiques, des cellules de pancréas dites exocrines en cellules bêta, productrices d’insuline. Insuffisamment toutefois pour guérir les rongeurs malades. Mais cette avancée ouvre un nouveau champ thérapeutique pour les maladies dégénératives.

- Philips iPill : la pilule électronique

Cette pilule électronique de la taille d'une pilule ordinaire est actuellement en test pour contrôler par WiFi la délivrance d'une substance dans le corps avant d'être évacuée du corps au bout de 2 jours. Elle contient, en plus du médicament lui-même, un microprocesseur, une mesure d'acidité, un thermomètre, une pompe, le contrôleur WiFi et une petite batterie !

- Un vaccin contre le paludisme efficace à 65%

Un vaccin expérimental a révélé une efficacité incontestable contre le paludisme, et entamera en 2009 la dernière phase d’essais avant la demande d’homologation.

Nommé RTS,S, ce vaccin mis au point par le laboratoire britannique GlaxoSmithKline (GSK), d'abord testé sur des volontaires aux Etats-Unis, a ensuite été administré à titre expérimental à diverses populations africaines.

Le RTS,S s'est révélé capable de réduire de 65% le nombre d'infections par paludisme, et aucune interaction fâcheuse n'a été constatée

- Un traitement complémentaire pour le SIDA

Des chercheurs ont réussi à renforcer le système immunitaire de singes macaques infectés par le virus de l’immunodéficience simienne (SIV) grâce à une nouvelle voie thérapeutique. Les chercheurs ont utilisé des anticorps pour bloquer l’action d’une protéine et relancer la production de lymphocytes T, des agents du système immunitaire qui luttent contre le virus.

La protéine PD-1 (pour l’anglais ‘programmed death’, mort programmée) freine les réactions immunitaires lors d’infections de longue durée comme l’hépatite C ou le VIH. En bloquant les récepteurs de cette protéine avec un anticorps, les chercheurs espéraient relancer la réponse immunitaire des singes infectés par le SIV –le pendant du VIH pour les singes.

- Détecter le cancer magnétiquement

Ce prototype de scanner (en haut) détecte des protéines, spécifiques de certains cancers et présentes à de faibles concentrations dans le sang, grâce à des capteurs magnétiques et le marquage de nanoparticules magnétiques. Le cœur du scanner est une puce de silicium avec des capteurs magnétiques appelés spin valves (ci-dessous).

- Affamer les cellules cancéreuses

C'est la même piste que le DCA, réduire l'acide lactique pour étouffer les cellules cancéreuses hypoxyques.

La première découverte des chercheurs de l'UCL, en collaboration avec l'équipe du Pr Mark W. Dewhirst de l’Université de Duke, en Caroline du Nord, a été d'identifier un processus de recyclage de l'acide lactique par les cellules oxygénées, métabolisant celui-ci en produisant de l'énergie. Les scientifiques ont démontré que lorsque les cellules tumorales ont le choix entre le glucose et l'acide lactique, elles choisissent systématiquement l’acide lactique, laissant ainsi le glucose inutilisé à la disposition des cellules hypoxiques.

Poussant ses investigations plus loin, l'équipe a ensuite identifié le mécanisme qui permet de métaboliser l'acide lactique. Cette fonction est rendue possible grâce à un transporteur de lactate baptisé MCT1 (monocarboxylate transporter). Ce mécanisme de recyclage énergétique, jusque-là inconnu, donne une nouvelle vision du fonctionnement de nombreux types de tumeurs, qui ne survivent qu'en entretenant un équilibre permanent permettant leur alimentation et leur croissance, basée sur le recyclage de leurs propres déchets.

Cette découverte ouvre de nouveaux horizons et permet potentiellement de cibler directement les cellules hypoxiques en interrompant leur approvisionnement en glucose. Les chercheurs de l'UCL et de Duke ont déjà franchi le pas en mettant au point un inhibiteur spécifique de MCT1, l'alpha-cyano-4-hydroxycinnamate (CHC), qui a déjà démontré ses capacités sur des souris.

Selon Pierre Sonveaux, la découverte de cette cible thérapeutique laisse penser que cette nouvelle approche serait applicable à un large panel de cancers chez l'homme, depuis les poumons à l'ensemble de la sphère ORL (tête, cou, larynx, pharynx, tube digestif), en passant par le système nerveux central, le cerveau, les seins, etc.

- Le brocoli contre le cancer

On savait que les brocolis protègent du cancer, entre autre du cancer du sein, on vient d'en découvrir le mécanisme : les isothiocyanates et notamment le sulforaphane, ou SFN, agiraient comme le taxol ou le vincristine en inhibant la division des cellules pendant la mitose. Ce n'est peut-être pas une propriété positive pour ceux qui n'ont pas de cancer ?

- Les plats industriels favorisent le cancer du poumon

Les additifs alimentaires phosphatés, couramment utilisés dans les plats préparés industriels, accélèrent la croissance de tumeurs cancéreuses du poumon chez les souris, selon une étude publiée lundi dans l'American Journal of Respiratory and Critical Care Medicine.

L'étude suggère que les additifs phosphatés, qui augmentent la rétention d'eau et améliorent la texture des aliments, favorisent aussi le développement du cancer du poumon chez les humains qui présentent une prédisposition à cette maladie.

Les signaux génétiques stimulés par les phosphates sont associés à 90% des cancers du poumon de la forme la plus répandue, dite "non à petites cellules", qui représente 75% de l'ensemble des cancers du poumon.

Une consommation importante de phosphates pourrait aussi être un facteur déterminant dans le vieillissement des cellules.

Or, l'utilisation d'additifs phosphatés dans l'alimentation a régulièrement augmenté ces dernières années, et l'on en trouve dans la viande, les fromages, les boissons ou les plats cuisinés industriels.

- L'herbicide Roundup serait toxique

Une nouvelle étude met en évidence les effets toxiques sur les cellules humaines du Roundup, l'un des herbicides les plus utilisés au monde, y compris sur les OGM alimentaires.

Les résultats ont montré que ces formulations agissent à des doses infinitésimales (dilution jusqu'à 100.000 fois ou plus) et programment la mort de cellules (c'est l'apoptose). Elles causent aussi des dommages des membranes et de l'ADN, et empêchent la respiration cellulaire.

Autre résultat, le mélange de différents constituants adjuvants des Roundup augmente l'action du principe actif de l'herbicide, le glyphosate, et qu'un de ses produits de transformation peut s'avérer encore plus toxique.

- Une piste contre l'obésité

C'est encore et toujours le fameux nématode commun (Caenorhabditis elegans) qui pourrait donner une piste dans la lutte contre l'obésité à partir de l'observation d'une mutation génétique qui les empêche d'hiberner et de stocker leur graisse.

La triglycéride lipase est une enzyme lipolytique qui exerce son activité à la fois sur les lipoprotéines riches en triglycérides et sur les HDL. Elle libère les acides gras du glycérol, permettant leur passage dans la circulation sanguine. Dans les organismes mutants, en l'absence de l'enzyme qui la bloque, son fonctionnement n'est plus inhibé et la réserve de graisse constituée est brûlée en moins d'une semaine au lieu de six mois.

Par ailleurs, il semblerait que l'obésité puisse perturber la thyroïde qui du coup augmenterait l'obésité dans un cercle vicieux...

- Un lien génétique entre mélatonine et diabète

Cela pourrait expliquer les bienfaits de la prise de mélatonine par ceux qui seraient pré-diabétiques alors que cela ne ferait rien aux autres ?

Tois études indépendantes publiées aujourd’hui dans Nature Genetics établissent une connexion entre l’horloge biologique et le risque de diabète de type 2. Des variations sur un gène lié à la mélatonine, l’hormone qui régule le sommeil, augmentent le taux de sucres dans le sang et par là même le risque de diabète, expliquent les chercheurs.

D’après les travaux de l’équipe de Leif Groop, les personnes atteintes de diabète de type 2 et les personnes non-diabétiques porteuses des variantes du gène MTNR1B ont en commun une expression très forte du gène dans les cellules du pancréas qui fabriquent l’insuline. Or ces chercheurs ont également observé que la mélatonine bloquait la production d’insuline par ces cellules. Ils suggèrent donc que le diabète de type 2 pourrait être traité en empêchant la mélatonine de se lier aux récepteurs MT2.

Voir aussi Futura-Sciences.

- Antidiabétiques et fractures

Les thiazolidinediones (TZD) sont des antidiabétiques oraux utilisés dans le traitement du diabète de type 2. Parmi les spécialités en vente en France, l’actos et l’avandia sont les plus prescrits. Ces médicaments permettent de diminuer le taux de sucre dans le sang en réduisant la résistance à l'insuline au niveau des tissus adipeux, des muscles squelettiques et du foie.

Une étude Canadienne parue sur le site Web du Journal de l’Association canadienne de médecine met en garde les utilisatrices de TZD contre un risque accru de fracture osseuse.

Depuis quelques années ces médicaments sont déjà employés avec précaution par les diabétologues en raison des probables complications cardiaques qu’ils déclencheraient.

- Un os artificiel injectable

Une équipe britannique vient de recevoir un prix pour une innovation originale : de la pâte injectable capable de se transformer en tissu osseux. Utilisable pour réparer rapidement une fracture sévère, elle consolide l'os lésé puis se dégrade progressivement.

Sa structure est alors poreuse, ce qui constitue un gros avantage. Les cellules du tissu osseux en train de se former pourront s'insinuer à l'intérieur. Elles poursuivront leur multiplication tandis que l'os artificiel se dégradera peu à peu, en trois ou quatre mois. L'os naturel prendra ainsi progressivement la place du vrai.

- Sommeils agités et neuro-dégénéresence

Cette étude prouve que les patients souffrant de troubles du comportement en sommeil paradoxal ont 17.7% de probabilités de développer une maladie neurodégénérative 5 ans après leur diagnostic, 40.6% après 10 ans, et 52.4% après 12 ans. « Ces résultats établissent clairement un lien, et indiquent que ces troubles du sommeil pourraient être un symptôme prédictif des maladies neurodégénératives ».

Le trouble du comportement en sommeil paradoxal (TCSP) fait partie des troubles du sommeil, plus précisément des parasomnies, tout comme les cauchemars ou les paralysies du sommeil. Il se produit durant la phase de sommeil paradoxal (au cours du quel ont lieu les rêves) et se caractérise par des mouvements brusques, un état d’agitation ou des cris. Alors que durant le sommeil paradoxal le corps est normalement incapable de bouger en raison de l’atonie musculaire. Le TCSP, peu fréquent, se développe principalement chez les hommes après la cinquantaine.

- La Ritaline booste la productivité

5 à 15 % des étudiants et jusqu'à 20% des travailleurs diplomés utilisent Ritaline ou Adderall pour augmenter leurs performances. Un groupe de scientifique défend cet usage dans Nature en arguant que les bénéfices sociaux peuvent en être significatifs, contrairement au sport où le dopage fausse la compétition, et que leur usage, assimilé aux nouvelles technologies, ne se distingue pas vraiment de celui du café. Ceci dit on avait vu que si ces drogues amélioraient la mémorisation, elles réduisent d'autant la créativité...


- Des nanotubes pour réparer le cerveau ?

Les nanotubes en carbone pourraient être la solution idéale pour réparer des connexions cérébrales défectueuses.

L'étude montre que les nanotubes en carbone, qui, comme les neurones, sont de très bons conducteurs, entrent en contact avec les membranes cellulaires neuronales. A la différence des électrodes métalliques actuellement utilisées dans la recherche et les applications cliniques, les nanotubes peuvent créer des raccourcis entre le distal et les compartiments proches du neurone, générant une excitation neuronale.

Les nanotubes pourraient être utilisés comme une nouvelle composante des bypass électriques employés lors de lésions au système nerveux. Des nano-électrodes en carbone pourraient aussi remplacer les pièces métalliques utilisées dans les applications cliniques telles que la stimulation cérébrale profonde pour le traitement de la maladie de Parkinson ou des dépressions graves. Le potentiel de cette nouvelle génération de matériaux «intelligents» ira de pair avec celui des neuroprothèses.

Cette nouvelle technologie à base de nanotubes de carbone alliée aux simulations cerveau-machine est la clé du développement de tous types de neuroprothèses: la vue, l'ouïe, l'odorat, le mouvement, l'arrêt des crises d'épilepsie, les bypass au niveau de la colonne vertébrale, ainsi que la réparation et même l'amélioration des fonctions cognitives.

 

Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique

- Comment fabriquer des nano-objets ?

"Les nanotechnologies", cela n'existe pas et "la nanotechnologie" n'existe pas encore qui est le projet de reconstruction de la matière par le bas, atome par atome. On cherche des méthodes, on bricole ici avec du bleu de Prusse !

Comme dans un jeu de Lego, des chercheurs du CNRS peuvent assembler de multiples manières des nanoparticules pour fabriquer des objets microscopiques de toutes sortes. Leur matériau de base : le bleu de Prusse...

Pour une large part, les méthodes de construction de structures de tailles nanométriques restent encore à mettre au point. On peut les créer en taillant des matériaux plus grossiers ou, à l'inverse, partir de nanoparticules que l'on assemble. Mais alors, le contrôle du procédé est très délicat. Une solution élégante vient d'être présentée par une équipe française.

Ces physiciens ont travaillé sur des composés de la famille du bleu de Prusse dont la molécule renferme, entre autres, des métaux dits de transition. Ceux-ci, dans la classification de Mendeleïev, présentent des propriétés optiques, électriques et magnétiques particulières. Mettant à profit leur tendance à s’assembler spontanément de façon ordonnée sous certaines conditions en formant des réseaux de taille nanométrique, les scientifiques sont parvenus à empiler plusieurs réseaux magnétiques en couronne autour d'un cœur. Chaque couche, de nature chimique différente, est ainsi susceptible d'apporter une propriété physique supplémentaire.

Il est ainsi possible d'obtenir, par exemple, un objet constitué d'un cœur de nickel chrome (CsNiCr(CN)6) de 9 nm de diamètre entouré d'une couronne à base de cobalt et de chrome (CsCoCr(CN)6) de 1,5 nm d'épaisseur. On obtient ainsi une nanoparticule magnétique bistable, pouvant être utilisée pour le stockage de l'information.

- Un nano-ordinateur avec 30 atomes seulement !

Ce n'est qu'un début, très frustre, mais intermédiaire entre informatique quantique et transistors.

- A Narbonne, la plus grande centrale solaire française

Installée à Narbonne, cette centrale photovoltaïque atteindra une puissance maximale de 7 mégawatts, permettant d'alimenter plus de quatre mille personnes. EDF projette 500 MW en 2012...

Pâris Mouratoglou, président du conseil d'administration d'EDF EN et ancien chef d'entreprise spécialisé dans l'éolien, estime que « le solaire est devenu pour nous une priorité », espérant « que la France rattrape son retard et devienne un grand marché du solaire ».

A comparer avec les 46 MW d'Amareleja au Portugal !

- Des superbatteries qui durent 10 ans et se rechargent en 5 mn

Ce ne sont pas encore les supercondensateurs attendus et qui seraient moins polluants mais il y a tout de même de gros progrès.

La firme Toshiba a annoncé la construction d'une usine au Japon afin de produire en masse des batteries lithion-ion de nouvelle génération. Celles-ci ont des particularités fort intéressantes puisqu'elles pourront se recharger très rapidement et offrir une durée de vie de 10 ans. Ces nouvelles batteries appelées SCiB ion Battery) peuvent effectivement se recharger à 90% en 5 minutes. Cela est techniquement possible car elles peuvent supporter un courant pouvant aller jusqu'à 50 ampères.

De plus les piles SCiB peuvent s'utiliser en continu et se recharger quotidiennement durant 6000 cycles soit une durée de vie estimée à plus de 10 ans. Du point de vue des cycles de recharge Toshiba précise que la perte de capacité après 3.000 cycles de charge et de décharge rapides est inférieure à 10%.

L'application industrielle de ces batteries devrait être favorisée par le fait que le dispositif est adapté aux applications de puissance élevée, la SCiB ayant une exécution d'entrée-sortie équivalente à celle d'un condensateur électrique de double couche.

- Des piles à combustibles avec du nickel à la place du platine

Le prototype réalisé a fourni 50 milliwatts par centimètre carré de membrane à 60°C, « sans signe de dégradation durant les cent heures de l'essai ». La puissance est faible, les PEMFC actuelles fournissant quatre ou cinq fois plus. Mais cette pile n'est qu'un exercice de laboratoire qui démontre l'intérêt d'une nouvelle voie, où la catalyse est assurée par du nickel plutôt que par du platine. De quoi changer radicalement la donne industrielle et commerciale des piles à combustibles...

- La fin de l'hydrogène ?

Le magazine Le Point vient de publier le rapport remis en septembre dernier par Jean Syrota au ministère de la recherche et de l'enseignement supérieur, et dont le sujet est l'avenir de la propulsion automobile.

Le rapport affirme en fait que l'hydrogène n'a pas d'avenir dans le secteur automobile à moyen ou même à long terme.

En effet, il commence par pointer du doigt les problèmes de distribution du carburant, en particulier sur les sujets de la sécurité et du coût des infrastructures. Autre problème de l'hydrogène, et en particulier de la pile à combustible: l'utilisation d'une forte quantité du métal précieux qu'est le platine. Dernier argument en défaveur de l'hydrogène, le coût du stockage dans le véhicule, environ 200€ supplémentaires par kilo stocké, avec des contraintes sécuritaires qualifiées d'insurmontables. Quant à l'aspect de la production d'hydrogène et du rendement final assez moyen, il n'est évoqué que très subrepticement...

Le rapport conclut en indiquant que l'hydrogène n'est pas en mesure d'être généralisé avant 2030, et même au-delà... En revanche, dans ses autres chapitres, le rapport développe des arguments en faveur de l'amélioration des véhicules à moteur thermiques, qu'il s'agisse de l'amélioration des moteurs, de l'allègement, de l'amélioration de l'aérodynamique, utilisation du principe de Stop and Start, et met en avant les principes d'hybridation thermique / électrique ou de propulsion purement électrique.

- La première voiture hybride chinoise

On l'accuse d'être une copie mais elle devance les autres constructeurs en 3 versions : batteries (rechargeables sur secteur), hybride (le moteur charge les batteries), parallèle (le moteur ou les batteries font avancer la voiture).

- Michelin développe son Active Wheel en Chine

C'est l'avenir : remplacer la mécanique par des moteurs électriques dans chaque roue, ce qui élimine les frottements.

L'Active Wheel de Michelin, une roue qui intègre à la fois les éléments nécessaires à la suspension et à la propulsion du véhicule, va poursuivre son développement et son industrialisation en Chine, via un partenariat avec MGL.

- Une maison écolo accessible aux petits revenus

En Bretagne, des petites communes arrivent à construire des maisons écologiques à peine plus chères que les bungalows proposés par Christine Boutin aux mal-logés. Exemple à Langouët, un demi millier d’habitants.

Les maisons y sont accessibles à des revenus faibles et moyens : elles coûtent 128 000 et 168 000 euros, terrain compris.

Les projets sont travaillés de façon systémique. Le bâtiment est pensé dans sa totalité par les différents partenaires - artisans, architectes, maître d’ouvrage - dès le début. Cela évite bien des surcoûts d’études ensuite. Nous récupérons aussi une grosse partie du budget sur la simplicité des dessins.

- Des écrans électriques à base d'opale

Avec une simple variation de tension électrique, ce nouveau matériau, réalisé à partir de l'opale, passe par toutes les teintes de l'arc-en-ciel. A peine mis au point, il passe au stade commercial sous le nom de P-Ink et serait utilisable pour des écrans plats ou du papier électronique.

Baptisé P-Ink, ce matériau est naturellement bleu et vire au rouge, et même à l'infrarouge, en passant par toutes les couleurs de l'arc-en-ciel, par la seule action d'une tension électrique entre 0 et 2 volts. Sa description vient d'être publiée dans la revue en ligne Nature News et la société Opalux l'expose sur son site.

La couleur n'est donc pas produite par émission de lumière. C'est le matériau lui-même qui se modifie. Le contraste est élevé et l'affichage ne nécessite pas de rétro-éclairage. La lumière ambiante suffit. De plus, la modification de teinte réclame de l'énergie mais la couleur obtenue persiste « avec une consommation électrique faible » explique succinctement le site d'Opalux. Un tel écran consommerait donc surtout de l'énergie au moment des changements d'affichage mais très peu pour maintenir une image fixe (un texte par exemple).

- Des écrans souples pour portables et papier électronique

En réunissant des techniques déjà rôdées et de nouveaux procédés, HP vient de mettre au point un écran souple qui serait, explique le constructeur américain, à la fois efficace et d'un faible prix de revient. Ce nouvel écran souple peut devenir un papier électronique mais conviendrait aussi pour des ordinateurs portables, en remplacement d'un écran LCD classique, car sa consommation d'énergie est nettement plus faible.

Il ne s'agit donc pas d'une trouvaille de laboratoire ni d'un prototype prometteur mais d'un procédé au stade préindustriel. L'écran HP pourrait trouver rapidement des applications, notamment dans des mobiles, des baladeurs ou des ordinateurs portables.

- Les ventes de portables dépassent pour la première fois les PC

Les ventes mondiales de portables ont dépassé pour la première fois de leur histoire celles des ordinateurs de bureau au troisième trimestre.

Les ventes de portables ont bondi de près de 40% à 38,6 millions d'unités, tandis que les PC enregistraient un recul de 1,3% à 38,5 millions. Les ventes totales d'ordinateurs ont elles progressé de 15,4% sur le trimestre pour atteindre les 79 millions de machines.

Acer a vendu près de trois millions de portables de plus qu'au trimestre précédent, en majorité des netbooks

- Les picoprojecteurs débarquent

En fait, ces appareils ne sont rien d'autres que des vidéoprojecteurs au format de poche. Mais cette évolution au niveau de la miniaturisation ouvre de nouvelles perspectives en termes de vidéoprojection et de mobilité.

- Vidéoconférence 3D !

Les concepteurs du projet estiment que la vidéoconférence 3D pourra un jour offrir une expérience aussi vraie que nature grâce à des images complètes et un contact visuel réaliste entre les participants situés dans des lieux différents. Le prototype présente une image en noir et blanc semblant flotter à l'intérieur d'une boîte en verre et offrant une impression de profondeur en tournant autour de la boîte. L'image est produite en direct par des caméras filmant le visage d'un homme éclairé sous lumière stroboscopique et par un système informatique produisant un modèle 3D de son visage. Ce modèle informatique de modélisation de visage a notamment été utilisé par l'industrie cinématographique pour des films comme Spiderman pour peindre les expressions d'un acteur sur le visage d'un personnage animé numériquement. Si dans de telles applications la modélisation est en couleur et plus précise elle n'est cependant pas réalisée en temps réel.

Plutôt que d'utiliser l'holographie, le système de vidéoconférence présenté emploie des techniques numériques permettant de s'affranchir du port de lunettes spéciales pour visualiser l'image en trois dimensions. Les images sont diffusées grâce à un vidéoprojecteur capable d'émettre 4320 trames par seconde et sont projetées sur un dispositif tournant constitué de deux faces en aluminium brossé. En projetant une image différente pour chaque angle de rotation, la vidéo est convertie en flux de 30 images par secondes pour chaque angle de vue.

Il y a une vidéo, voir aussi Futura-Sciences.

- Une webcam 3D (avec lunettes)

Elle filme et affiche deux images, teintées de bleu et de rouge, qui restituent une vision en relief avec l'aide de lunettes colorées, comme un anaglyphe classique. Pas très pratique mais original...

- Google avec le son et l'image !

Goggle a mis en place une recherche vocale pour l'iPhone alors que YouTube, qui appartient à Google, fait maintenant apparaître sur ses vidéos une zone de recherche de plus en plus utilisée par les jeunes surtout.

- Kiwix : une version de Wikipédia hors ligne

On peut désormais emporter les textes de l'encyclopédie Wikipédia avec soi sur un portable, ou même sur une clé USB ou une carte mémoire dont la capacité est de plus de 1 Go. C'est la bonne idée de Kiwix, un service qui vient de devenir opérationnel.

La jeune société Linterweb, fondée par Pascal Martin, vient en effet de mettre en ligne le service Kiwix. Après téléchargement d'un logiciel et d'une version compressée de l'encyclopédie Wikipédia, cette immense banque de données devient disponible hors ligne, du moins pour les textes. Les quelque 750.000 articles en français représentent 1,4 Go.

Pour les consulter, le logiciel téléchargé intègre le moteur de recherche Wikiwix, développé par la même équipe et spécialisé dans la recherche (de mots, d'images et d'atlas) au sein de Wikipédia. Les pages apparaissent sous une forme très proche de la version en ligne (hormis les images, donc).

- Zoetrope pour remonter le temps

Il y avait déjà Internet Archive (wayback machine) pour consulter les anciennes pages web mais ce nouvel outil rend la comparaison et l'interaction avec les anciennes versions bien plus facile (notamment l'évolution des prix).

- Les limites de la longue traîne

Pour la première fois énoncée en 2006 par Chris Anderson dans son ouvrage "The Long Tail", l'idée que les marchés de niche constituent le principal axe de développement de l'Internet marchand était décrite comme le modèle économique le plus important du 21ème siècle.

Toutefois, une nouvelle étude menée par Will Page, économiste à la MCPS-PRS Alliance (organisation de collecte de droits d'auteurs à but non lucratif), suggère que les marchés de niche ne sont pas les mines d'or inexploitées que l'on croyait. Selon lui, le succès repose encore, pour les ventes en ligne, sur quelques best-sellers. Sur le marché en ligne des singles, 80 % du chiffre d'affaires est généré par environ 52 000 titres. Pour ce qui concerne la vente d'albums, les chiffres sont encore plus implacables : sur les 1,23 million d'albums disponibles, seuls 173 000 ont été achetés. 85 % n'ont donc pas vendu une seule copie de toute l'année.

D'une certaine façon, le fait que ça ne se fasse pas tout seul fait de la longue traîne une ressource à exploiter, un gisement à valoriser, une mise en relation rétribuable où c'est la communication qui fait la valeur.

- eBay en baisse, Amazon en hausse

De début novembre à mi-décembre 2008, l'audience hebdomadaire d'eBay a chuté de 16 % par rapport à la même époque l'an dernier, tandis que sur la même période Amazon enregistrait 6 % de visiteurs uniques supplémentaires.

D'une part, les consommateurs se dirigeraient de plus en plus vers des sites marchands proposant des prix fixes et d'autre part, ils fuiraient les trop fréquents vendeurs peu scrupuleux.

- La raréfaction du talent dans le web 2.0

La matière première que l'on croyait infinie sur le marché ne l'est pas. Selon mon estimation, il n'y a pas plus de contributeurs de qualité (experts, etc.) que de journalistes en France, soit quelques dizaines de milliers pour les sites collaboratifs.

Tous ces sites qui imaginent créer de la valeur basée sur ces personnes là doivent donc rivaliser d'ingéniosité pour les fidéliser. Certains ont testé la rémunération, ça marche pas très bien. D'autres testent des formes symboliques de compensation ça marche un peu mieux ; mais il faut le faire dans la durée et c'est un défi qui se présente à eux.

- Le krach des réseaux sociaux

Le ralentissement économique associé aux nombreuses incertitudes quant à la rentabilité des modèles économiques frappe de plein fouet le développement des sites de "réseautage social", mieux connu ici sous l'appellation social networking. Malgré l'extraordinaire engouement des internautes pour ces sites (près de 140 millions de visiteurs uniques se sont rendus sur Facebook en juin 2008), c'est l'ensemble de cette jeune industrie des réseaux sociaux qui pourrait s'écrouler.

- La démocratie électronique

L’Estonie est un terrain d’expérimentation grandeur nature de la démocratie par la technologie. Son conseil des ministres est entièrement électronique, on peut y élire les députés par l’internet, et le gouvernement vient d’annoncer qu’il serait aussi possible de le faire, en 2011, par téléphone mobile…

A Jun, une petite ville espagnole, on vote aussi par internet et téléphone portable. Mais pas seulement, la mairie ayant fait de la “télédémocratie” son credo depuis près de 10 ans. En 1999, son maire faisait de l’accès gratuit à Internet “un droit de l’homme imprescriptible“. Le village était alors “en pleine décadence“, et comptait 950 habitants. Aujourd’hui, ils sont 3334, le wifi est accessible partout, et 85% des foyers sont connectés.

La démocratie électronique n’est ni le simple assemblage d’instruments vaguement participatifs moqué par ses détracteurs, ni le remède à une quelconque « crise de la démocratie » comme le suggèrent nombre de ses partisans. Elle peut en revanche permettre l’insertion dans l’espace politique d’expressions et de formes d’expression qui, jusqu’à présent, n’ont pu y trouver leur place.

- Les puces RFID pour vérifier qu'on n'a pas oublié d'outils

Tool Link, un lecteur de puce RFID imaginé pour Ford et l'outilleur DeWalt, permet aux techniciens et entrepreneurs du bâtiment de faire la check-list des outils qu'ils doivent embarquer pour se rendre sur un chantier. Oublier un outil coute en effet cher en déplacements et temps perdu. D'où l'idée d'équiper les outils électroportatifs de DeWalt de puces RFID et les camionnettes Ford de lecteurs: à partir de la liste des outils à emporter, qui peut par exemple se fonder sur le devis signé avec le client, l'ordinateur de bord de la camionnette peut alors vérifier que tous les outils sont bien à bord (voir la vidéo promotionnelle). Le but: ne plus rien oublier.

- Un programme qui déshabille

L'équipe du département informatique de l'université Brown, à Providence (Etats-Unis), a mis au point un logiciel capable de reconstituer la morphologie d'une personne à partir de simples photos numériques. La technique est totalement non invasive.

- L'éducation aux textiles intelligents !

Eduwear est un kit pour créer des interfaces tangibles. Il consiste en une petite mallette à destination des enfants, comprenant un kit de construction composé de textiles intelligents, de fil conducteur, de diodes, d’une batterie et d’une connectique simple pour créer des objets textiles intelligents. L’idée est d’offrir aux plus jeunes un médium éducatif facile à appréhender pour jouer autrement avec les nouvelles technologies. Avec cette mallette, les enfants peuvent fabriquer leurs vêtements intelligents, apprendre par la pratique le rôle des interfaces haptiques et tactiles. Un laboratoire virtuel en ligne servant de plateforme pour développer les fonctionnalités des constructions est également disponible. Il permet d’apprendre aux enfants ce qu’est le mouvement, de les accompagner dans la découverte des technologies tout en leur offrant un matériel ludique qui peut se plier à toutes leurs fantaisies. A la confluence de l’esthétique, de l’électronique et de l’informatique, Eduwear permet aux plus jeunes d’appréhender concrètement ce que les nouvelles technologies vont leur permettre de réaliser, comme l’explique la plaquette de présentation d’Eduwear.

- Les robots arrivent

Dans les 15 prochaines années avec le vieillissement de la population les robots pourraient devenir aussi indispensables que les portables. Il faudrait quand même que les prix baissent beaucoup...

- DustBot, les robots qui veulent nettoyer les rues

Un projet européen, DustBot, veut mettre un point un système autonome de nettoyage des chaussées et de collecte d'ordures. Premiers pas prévus en 2009 dans plusieurs villes européennes.

Basé sur un réseau de robots autonomes et capables de coopérer entre eux ainsi que sur une structure d’intelligence ambiante installée dans la rue, comportant capteurs et caméras, le projet a mis au point deux robots capables de réaliser le nettoyage d’une rue.

Le robot DustClean est un robot de nettoyage équipé de brosses et de jets d’eau, capable de nettoyer la rue en y circulant, à la manière des balayeuses mécaniques que l’on connait déjà, mais totalement autonome.

Le robot DustCart quant à lui est un robot poubelle capable de collecter et transporter les ordures à la demande. Il se déplace pour que vous puissiez y déposer vos ordures et possède une interface tactile pour que les citoyens précisent le type d’ordures qu’ils souhaitent y déposer (DustCart fait du tri sélectif). Les citoyens peuvent même se servir du robot comme une borne d’information sur la ville.

 

<- Revue des sciences précédente | Revue des sciences suivante ->
copyleftcopyleft 

4 réflexions au sujet de « Revue des sciences 01/09 »

  1. encore pas mal de nouvelles intéressantes ce mois-ci, malgré tout .

    pour le sida , je voudrais juste évoquer une personne que j'ai connu : il étais séropositif depuis 25 ans et n'avais pour seul vice que de fumer du cannabis , comme quoi ça conserve bien . je ne voudrais pas dire de bétises , mais il me semble qu'à faible dose , et en l'absence de sentiment de persécussion , le chanvre et plutôt pas mal aussi pour les problèmes de sommeil. j'ignore pourquoi d'ailleur . peut être un lien avec la mélatonine ? en tout cas je trouve plus qu'inquiétant qu'on ne s'interresse pas plus à cette plante , qui dit-on aurait été responsable de rémissions dans des cas de tumeurs du cerveau , chez le rat si je me souviens bien , et serait aussi le seul remède efficace contre les maladies nosocomiales ....

    le cas de ce petit village espagnol en rase campagne , qui s'est mis à la "democratie électronique" , et qui à vu sa population plus que tripler laisse aussi rêveur à l'heure où 85 % des gens dans les pays développés s'entassent à proximité des villes .

  2. sinon , encore un peu chère malgré tout cette maison écolo , surtout si pour investir dans du solaire propre et plus efficace , il faut attendre encore un peu . je me demande si une maison en paille ne coûte pas moins chère , pour un rendu énergétique très appréciable , et avec des matériaux locaux . la yourte aussi dans les habitats léger est sans doute ce qu'on fait de mieux , à condition de ne pas l'acheter en mongolie .

  3. Les vertus du cannabis sont de plus en plus reconnues (antiinflammatoire, anticancer du cerveau et du poumon, antiémétique, sommeil, etc.) mais pas pour les maladies nosocomiales et il ne faut pas non plus en ignorer les mauvais côtés, cela reste une drogue même si c'est la moins dangereuse et, si c'est effectivement un remède, ce n'est jamais sans effets indésirables comme avec tout remède. J'avais essayé des faire la balance des bons et mauvais côtés dans l'article le plus lu je crois de mon blog :
    jeanzin.fr/2006...

    Il est certain que les maisons en paille semblent très efficaces mais le bois n'est pas mal non plus. Quand j'étais jeune, la mode c'était les dômes géodésiques sur lesquels on mettait un parachute. Pas mal du tout mais c'est plus du camping quand même ! L'important, c'est de voir qu'une maison écolo n'est pas forcément plus chère qu'une maison normale mais on sait bien avec les subprimes que tout le monde ne peut pas être propriétaire !

Les commentaires sont fermés.