Revue des sciences 06/08

Temps de lecture : 70 minutes

Leonard de Vinci

 <- Revue des sciences précédente | Revue des sciences suivante ->
Brèves : Physique - Climat - Biologie - Santé - Technologie

Les revues du mois ne m'ont pas paru assez intéressantes pour en parler cette fois. Il faut dire qu'il semble qu'on tourne un peu en rond, toujours à peu près sur les mêmes sujets. On nous promet qu'on pourra bientôt grimper aux murs, mais la promesse n'est pas vraiment nouvelle... Vivement que le LHC fournisse quelques découvertes surprenantes qui relancent la physique, en espérant qu'on ne soit pas avalé par un mini trou noir ! Si ce ne sont pas les physiciens qui sont responsables de la fin du monde, on ne sera pas sorti de l'auberge pour autant car la libération du méthane gelé pourrait amorcer la bombe climatique menant à l'hypothèse extrême qui se renforce encore, ce qui ne veut pas dire que ce soit sûr ! Certains spécialistes se veulent plus rassurants sur la supposée lenteur du phénomène, malgré ce qu'on observe actuellement, mais il serait bien plus sage de passer au solaire au plus vite plutôt que de continuer à aggraver notre situation avec le scénario du pire (le charbon et les agrocarburants). Si on passe encore cette épreuve, il y en aura bien d'autres, catastrophes naturelles, guerres ou épidémies (toute vie est mortelle). Ainsi, dans quelques millions d'années il faudra sortir indemne d'une probable pluie de météorites. Notre avenir n'est décidément pas assuré ! Ce n'est pas La Vie elle-même qui est menacée, non, tellement résistante qu'il pourrait y en avoir encore sous Mars, mais les êtres vivants, oui. Il faudra réagir et s'adapter si on peut mais cela ne pourra être de la même façon que ça s'est toujours fait. Ainsi, il est amusant de constater que, malgré la diversité des populations, tous les européens buveurs de lait descendraient du même ancêtre, témoignant de l'importance du lait pour l'Europe. On en serait plutôt à l'homme génétiquement modifié mais il faut bien dire que, pour l'instant, il y a plus de questions que de réponses. Reste la musique pour nous divertir, nous entraîner et nous surprendre, toute faite de répétitions, de variations et de changements de rythme...



Brèves et liens



Physique


cosmologie, astronomie, physique quantique

- L'espace, une bouée lancée à travers le temps ?

L’Univers est-il de taille finie et en forme de tore ? C’est en tout cas ce que semble autoriser les données concernant le rayonnement de fond diffus fournies par WMap 3, d’après un groupe de chercheurs allemands. Une telle possibilité avait déjà été explorée par un groupe de chercheurs français autour de Jean-Pierre Luminet.

Le début de l’univers peut être compris comme la transition quantique par effet tunnel entre un état physique dominé par la gravitation quantique, et où ni l’espace ni le temps n’ont leurs propriétés normales (voire cessent d’exister si ce n’est sous une forme virtuelle avec un temps imaginaire) et un état classique avec notre géométrie spatio-temporelle habituelle. L’apparition d’une géométrie compacte et plate semble alors plus probable.

- Trous noirs : de l'information pourrait en sortir...

On l'appelle le paradoxe de l'information. Cette vieille énigme de la physique théorique vient de recevoir une solution possible, proposée par Abhay Asthekar, un des créateurs de la théorie de la Loop Quantum Gravity (LQG), ou gravitation quantique en boucles. Inspiré par les résultats de ses collègues Smolin, Rovelli et Bojowald, cet éminent spécialiste explique que, contrairement à ce qu’affirmait initialement Hawking, l’information serait bien conservée lors de l’évaporation d’un trou noir.

Imaginez le rayon laser d’un graveur de CD chauffant un morceau de charbon. Contrairement à la lumière du laser, presque monochromatique, celle émise par le charbon chauffé sera composée d’un très grand nombre de longueurs d’ondes différentes. Le rayonnement du morceau de charbon peut en effet être considéré comme celui d’un corps noir avec un spectre continu. Si les photons initiaux du laser ont tous presque la même longueur d’onde et qu’ils constituent un ensemble considéré comme pur selon la terminologie des physiciens, les photons ré-émis par le morceau de charbon seront constitués d’un mélange hétéroclite possédant de grandes différences du point de vue des longueurs d’ondes.

Ce rayonnement peut être vu comme très désordonné par opposition à la régularité de celui du laser. Si de plus le graveur de CD était en train de transmettre la bande son d’Iron Man, celle-ci sera inaudible dans le rayonnement thermique final du morceau de charbon.

Il n’en est rien pour un observateur microscopique utilisant les lois de la mécanique quantique. Pour lui, de subtiles corrélations dans les états des photons émis par le morceau de charbon sont bien présentes et son assimilation à un corps noir n’est qu’une approximation, excellente mais fausse : il est toujours possible d’écouter la bande originale du film de Marvel si l’on s’y prend bien.

L'utilisation du terme d'information est trompeur, mais on ne le changera pas, il ne désigne ici que la conservation de l'ensemble des caractéristiques et des paramètres quantiques. Il est effectivement intéressant de penser qu'on peut retrouver les conditions initiales dans un phénomène chaotique mais cela paraît assez incroyable car c'est négliger le fait que les phénomènes chaotiques créent de l'information et surtout que la décohérence semble bien en perdre. Le bruit pourrait avoir une fonction essentielle dans cette perte d'information déterminant la portée des interactions.

- Un trou noir expulsé de sa galaxie !

Lorsque deux galaxies contenant un trou noir en leur centre entrent en collision, il est possible que ceux-ci fusionnent et en soient expulsés. Cet événement vient d’être observé pour la première fois.

Cette fusion entraîne le dégagement brutal d’une quantité phénoménale d’énergie sous la forme d’ondes gravitationnelles. Mais celles-ci étant émises dans une direction préférentielle, le trou noir reçoit, par réaction, une impulsion dans la direction opposée. Suivant les simulations, celle-ci est capable de le propulser à plusieurs milliers de kilomètres par seconde, et de fait, le trou noir observé par Komossa et son équipe est animé d’une vitesse de fuite de 2.650 kilomètres par seconde.

- Explosion en direct d'une supernova

Enfin, c'est une étoile à 88 millions d'années lumière tout de même...

Les étoiles les plus massives finissent leur vie de façon spectaculaire, en supernovae. Pour la première fois, des astronomes ont observé une supernova au moment même où commençait son explosion.

- De la matière ordinaire 'manquante' découverte entre des galaxies

XMM-Newton, le télescope spatial fonctionnant dans le X de l'Agence spatiale européenne a découvert (ou vu) de la matière noire. Quand on sait que l'Univers est constitué de 5 % de matière baryonique, de 22 % de matière sombre et de 72 % d'énergie sombre, on comprend mieux la portée de cette découverte.

- Hubble détecte la moitié de la matière baryonique manquante

Cette illustration décrit comment le télescope spatial Hubble détecte les baryons absents, en observant la lumière émise par des quasars éloignés de plusieurs milliards d'années-lumière. Les empreintes spectrales de la matière ordinaire absente, qui absorbe la lumière aux fréquences spécifiques (visibles dans les spectres colorés), sont imprimées sur cette lumière.

- Une éruption solaire vue comme jamais auparavant

- Ralentir et localiser la lumière

On ne sait si on est dans la physique ou la technologie mais il semble assez étonnant qu'on puisse manipuler à la fois la vitesse et la localisation de photons, contredisant le principe d'incertitude (?) mais ouvrant la voie à l'informatique photonique grâce à la localisation d'Anderson (perturbation des électrons par la lumière qui la ralentit et permet de la localiser). Ce qui est fascinant, c'est d'utiliser une perturbation comme mesure, considérée jusqu'ici comme une limitation et un parasite.

Une section du résonateur ralentisseur fabriqué en silicone, constitué de 100 résonateurs cubiques connectés par un guide d'onde optique très fin.

Les effets de la localisation d'Anderson de la lumière peuvent agir dans des guides d'onde et cette perturbation ne limite pas seulement la vitesse mais permet également, chose qui jusqu'à présent n'avait pas été démontrée, de localiser la lumière à l'intérieur du guide d'onde.

"Le fait que le ralentissement et la localisation de la lumière soient liés ouvre la porte à de nouvelles recherches dans le domaine de la photonique" déclare monsieur Mookherjea. "On a déjà montré par modélisation analytique et numérique que le désordre est un facteur limitant sérieux pour les performances de dispositifs optiques tels que des mémoires tampons optiques qui essaient d'utiliser la lumière ralentie mais l'exploitation du phénomène physique de localisation de la lumière pour des applications potentielles dans le domaine des lasers et des interconnections optiques n'avait jamais été envisagée jusqu'à présent."

Travaillant sur les propriétés électriques des structures de l'échelle du nanomètre, le professeur Bandaru affirme lui que "la localisation de la lumière nous permet de contrôler les photons, les divers aspects de leur propagation et leurs interactions avec la matière."

- La mécanique quantique est-elle fausse ? Un test avec l'inflation

David Bohm est un physicien un peu fumeux (holomouvement, ordre implicite) mais très important tout de même et son interprétation de la physique quantique en terme d'ondes-guides (ou "ondes vides") constitue à peu près la seule théorie alternative capable de résoudre les paradoxes quantiques, la difficulté étant de la tester.

Le journal Nature fait écho d’une proposition de test d’une formulation alternative de la mécanique quantique : la théorie de Bohm-de Broglie. Selon un chercheur du Perimeter Institute, et si la théorie de l’inflation est exacte, il suffirait d’analyser en détails les fluctuations du rayonnement de fond diffus pour, peut-être, invalider l’interprétation orthodoxe de la mécanique quantique.

La théorie de Bohm-de Broglie est justement une théorie non-locale, c'est-à-dire que le comportement d’une seule particule ne peut pas être séparé de l’état des autres particules, même si celles-ci se trouvent à des années-lumière. D’une certaine façon, qui rappelle le comportement des hologrammes, l’information décrivant l’état de l’Univers entier est présente dans chaque particule et une modification de l’état de l’une d’entre elles influence instantanément l’état des autres, même si l’on ne peut se servir de ce phénomène pour téléphoner instantanément à l’autre bout de la Galaxie.

Dans l’état, la théorie de Bohm-de Broglie (BDB), mis à part des problèmes pour la rendre compatible avec la relativité restreinte et surtout la théorie quantique des champs, reste une alternative viable à la mécanique quantique orthodoxe.

Actuellement, la théorie BDB décrit les expériences en laboratoire aussi bien que la théorie quantique orthodoxe si l’on fait l’hypothèse que le réservoir d’énergie communiquant par échange de chaleur avec les particules, et responsable d’une sorte de mouvement brownien de celles-ci, est bien un thermostat à l’équilibre thermodynamique. Or, au début de l’Univers et notamment à cause de processus de gravitation quantique inconnus, rien n’oblige ce réservoir d’énergie à être à l’équilibre thermodynamique. Il pourrait donc exister à cette époque des écarts aux lois probabilistes de la mécanique quantique connues. Valentini a exploré cette possibilité et d’après certains calculs préliminaires de sa théorie basée sur une extension de la théorie de BDB, ces écarts se présenteraient sous la forme de fluctuations non gaussiennes dans le rayonnement de fond diffus.

L’inflation, une phase courte d’expansion ultra-rapide de l’Univers aurait non seulement amplifié ces fluctuations quantiques en provoquant la matérialisation de particules mais aussi agrandi ces fluctuations de sorte que des détails de la physique à l’échelle de Planck se trouveraient littéralement inscrit dans le ciel sous forme de fluctuations de températures dans le rayonnement de fond diffus.

- Fusion froide : le retour ?

Très douteux...

Un scientifique distingué de l’université d’Osaka, Yoshiaki Arata, serait parvenu à atteindre l’un des Saint-Graal de la physique : la fusion froide. Le 23 mai 2008, il en aurait fait la démonstration devant un parterre de près de 60 scientifiques et membres de compagnies japonaises. Pour couronner le tout, plusieurs journaux et chaînes de télévision, comme la célèbre NHK, étaient présents.

Avec son collègue Yue-Chang Zhang, Arata a fait la démonstration d’un sorte de réacteur chimique dans lequel un courant de deutérium à l’état gazeux, un isotope de l’hydrogène, rencontrait de l’oxyde de zirconium contenant du palladium (ZrO2–Pd), le même métal utilisé par Fleischmann et Pons en 1989 dans leur expérience.

Araka affirme qu’une élévation de température significative se produit dans le dispositif puisqu’il atteindrait 70° et continuerait à dégager de la chaleur pendant 50 heures, même après l’arrêt de l’injection du gaz. Selon Akito Takahashi, un autre physicien de l’université d’Osaka, lors d’expériences précédentes du même type, de l’hélium aurait été détecté comme produit de la réaction. Selon eux, ce serait le signe qu’une fusion des noyaux de deutérium s’est bien produite et qu’au moins une part de l’énergie dégagée n’est pas due à une banale réaction chimique.

Climat


- Le méthane, bombe climatique pour la "Terre boule de neige"

Il y a 635 millions d’années, la Terre serait sortie brutalement d’une phase de glaciation généralisée à toute la planète ou presque. C’est la théorie de la Terre boule de neige. Selon des chercheurs de l’université de Riverside, ce serait la rapide libération de méthane par des clathrates qui aurait mis fin à cette supposée période glaciaire extrême.

Si la théorie est exacte, il serait important de déterminer les détails de l’enclenchement du processus de dégazage et de son déroulement. Les gisements de clathrates sont moins importants aujourd’hui qu’à cette période reculée de l’histoire de la Terre mais l’activité humaine pourrait bien déstabiliser ces derniers, ce qui serait catastrophique car il en résulterait un réchauffement climatique encore plus rapide et plus important que celui que nous subissons.

La fonte des méthanes marins et du permafrost aurait été absolument vitale en ce temps-là, juste avant l'explosion de la vie au Cambrien, puisque cela aurait sorti le climat terrestre d'un refroidissement (-50°) qui semblait irrémédiable à cause de la réflexion des rayons du soleil par une Terre presque entièrement recouverte de glaces. On peut en tirer la conclusion qu'on est passé d'une boucle de rétroaction positive renforçant la glaciation lorsque les glaciers gagnaient du terrain, à une boucle de rétroaction positive inverse où la libération du méthane provoque un réchauffement rapide qui provoque la fonte d'une plus grande quantité de méthane, comme si toute l'énergie absorbée par la Terre se libérait rapidement, phénomène qu'on retrouve à la fin de chaque glaciation. Il faut donc bien s'inquiéter de ce phénomène dans le cadre de notre réchauffement accéléré qui pourrait s'emballer, qui semble le faire déjà avec la fonte de la calotte glaciaire même si certains restent sceptiques, arguant du fait que que cette libération de méthane devrait être très lente (tout dépend de l'échelle de temps!). Il faudrait s'en assurer.

Il est intéressant de souligner aussi que ce méthane a une origine organique, que c'est donc la vie qui avait accumulé toute cette énergie. Ce serait d'ailleurs la vie qui serait aussi responsable de la glaciation généralisée précédente en ayant produit un excès d'oxygène, que les organismes multicellulaires "aérobies" auront pour fonction de limiter (voir La part maudite).

- L'évolution des gaz à effet de serre sur 800 000 ans

On ne voit pas bien sur la courbe mais les valeurs actuelles de 380 ppmv crèvent le plafond ! Ce qu'on constate, en effet, c'est que nous avons ajouté du CO2 au moment même où sa concentration était déjà maximum sans qu'on n'y soit pour rien. La question est de savoir si cela nous entraîne dans une bombe climatique comme lors du PETM ou si la décroissance naturelle du CO2 pourrait nous sortir d'affaire. Hélas, dans cette course contre la montre, nous allons beaucoup trop vite...

Ce travail a déjà permis des avancées fondamentales sur plusieurs points. Il confirme, tout en l'étendant, l'étroite corrélation observée entre les températures enregistrées en Antarctique dans le passé et les teneurs atmosphériques en CO2 et CH4. Autre observation capitale: jamais, sur les derniers 800 000 ans, n'ont été relevées des teneurs en gaz à effet de serre aussi élevées qu'aujourd'hui (les valeurs actuelles dépassent 380 ppmv (5) pour le CO2 et 1 800 ppbv (6) pour le CH4). La courbe du CO2 révèle d'ailleurs les concentrations les plus basses jamais enregistrées, de 172 ppmv il y a 667 000 ans De plus, les chercheurs ont mis en évidence une modulation (variations plus ou moins élevées) des teneurs moyennes en CO2 atmosphérique sur une échelle de temps relativement longue, c'est-à-dire de plusieurs centaines de milliers d'années. Ce phénomène inédit pourrait résulter de l'intensité plus ou moins importante de l'érosion continentale qui affecte le cycle du carbone sur de grandes échelles de temps.

Concernant l'enregistrement remarquablement détaillé du méthane atmosphérique, les chercheurs constatent une augmentation de la périodicité de la composante dite «de précession» (7) au cours du temps. Bien corrélé aux intensités de la mousson relevées en Asie du Sud-est à travers les millénaires, ce signal reflète sans doute une intensification des moussons en régions tropicales sur les 800 000 dernières années. Enfin, la courbe du méthane révèle des fluctuations rapides à l'échelle millénaire, récurrentes au cours de chaque glaciation. L'empreinte de tels événements s'observe aussi dans le signal CO2 daté de 770 000 ans, lorsque la Terre entrait de nouveau en glaciation à la suite de l'inversion magnétique terrestre survenue il y a 780 000 ans. Cette variabilité climatique rapide serait liée aux fluctuations du courant thermohalin (circulation à grande échelle des masses d'eau qui participe à la redistribution de la chaleur sur Terre). Reste à expliquer pourquoi elle se manifeste dès le début des glaciations...

La concentration moyenne de CO2 varie de manière inattendue selon un rythme de plusieurs centaines de milliers d'années. Pour expliquer cette lente variation, les auteurs avancent l'hypothèse d'un effet de l'érosion continentale, qui modifie le cycle du carbone. Les chercheurs constatent également une bonne corrélation entre l'augmentation de la teneur en méthane et le renforcement des moussons en Asie du sud-est, observé sur des milliers d'années. A échelle beaucoup plus petite, un phénomène étonnant a été découvert. Au début de chaque glaciation, durant le premier millénaire, c'est-à-dire très tôt, la teneur en méthane se met à fluctuer rapidement.

- La concentration de CO2 dans l’atmosphère s’accélère

Durant la période 1970-2000, le niveau de CO2 dans l’atmosphère augmentait en moyenne de 1,5 partie par millions chaque année. En 2007, cette valeur a atteint 2,14 ppm.

Les scientifiques de l’observatoire de Mauna Loa, à Hawaï constatent que le niveau de CO2 dans l’atmosphère est désormais de 387 parties par million (ppm), en hausse de près de 40% depuis le début de la révolution industrielle. C’est la valeur la plus élevée jamais atteinte depuis 650 000 ans au moins.

De 1970 à 2000, l’augmentation était d’environ 1.5ppm chaque année, mais depuis 2000, les valeurs enregistrées sont en moyenne de 2.1 ppm.

Malgré tous les discours, la situation s’aggrave. Les niveaux de gaz à effet de serre continuent d’augmenter dans l’atmosphère et le taux d’augmentation s’accélère.

- Il reste (hélas) un fort potentiel d'extraction du pétrole

- mais La production de pétrole plafonne

En 2007 les exportations des 15 plus grands pays producteurs ont baissé de 2,5%. En cause, le vieillissement des gisements, mais aussi l’accroissement de la demande intérieure de ces pays.

Alors que toute l’attention est focalisée sur la Chine, c’est peut-être l’augmentation de la consommation intérieure au Moyen Orient qui pose le plus grand défi.

Pour économiser le gaz les Emirats abandonnent la technique consistant à en injecter dans les puits, afin d’augmenter la pression et donc le débit. En l’absence de ce procédé, la production diminue.

- Même les émirats se mettent au charbon devenu moins cher !

C'est vraiment le pire des scénarios !

La hausse du pétrole et du gaz entraîne pour les Emirats du Golfe une conséquence inattendue : la multiplication des projets de centrales électriques à charbon, combustible moins coûteux. L’hypothèse d’une diminution des émissions de CO2 due à la cherté du pétrole ne tient pas. La place prise par le charbon dans le mix énergétique va aller croissante, avant même que les technologies propres soient disponibles.


- La mer s’appauvrit en oxygène

Une équipe internationale d’océanographes a découvert que les zones océaniques tropicales appauvries en oxygène s’étendent avec le réchauffement des mers, limitant d’autant les régions dans lesquelles les poissons prédateurs et les autres organismes marins peuvent vivre ou chercher leur nourriture.

- Réchauffement climatique, la fin des coquillages ?

Les simulations montrent ainsi qu'une quantité de dioxyde de carbone de 750 parties par million (ppm), taux attendu pour la fin de ce siècle, entraînerait une baisse de la calcification corallienne de 56 %. De même, en milieu tempéré, beaucoup d'autres espèces productrices de calcaire comme les échinodermes, les mollusques, certaines algues et crustacés pourraient subir le même sort et voir, à terme, leur écosystème déséquilibré.

- Epoca : une vaste campagne pour mesurer l'acidification des océans

Au début du dix-neuvième siècle, le pH était semble-t-il de 8,16 (la neutralité se situe à 7, l'acidité au-dessous et la basicité, inverse de l'acidité, au-dessus). Actuellement, il est de 8,05. Les prédictions sur son évolution indiquent une valeur de 7,6 en 2100.

- L’océan s’acidifie le long des côtes américaines

Une équipe scientifique dirigée par des chercheurs de Seattle a été stupéfaite de découvrir que de vastes étendues d’eau de mer acidifiée sont déjà présentes le long de la côte Pacifique des USA en raison des émissions de gaz à effet de serre qui bouleversent l’équilibre chimique des océans.

Les modèles climatiques prédisaient que ce phénomène ne serait pas observé avant la fin du siècle.

- Le changement climatique bouleverse les océans

L’intensité et la multiplicité des phénomènes marins dus au réchauffement climatique et à l’activité humaine ne permet plus aux scientifiques de comprendre les processus en cours et de prévoir leurs développemement futurs. Réchauffement de l’eau, acidification, déplétion de la biomasse transforment en profondeur les océans et la vie qu’ils abritent. Pourtant immense et généreuse, la mer commence elle aussi à fatiguer devant tant d’agressions. Saturée en CO2, elle est en train de déclarer forfait pour le rôle du puits de carbone que lui avaient attribué les scientifiques du GIEC.

Bien que subsistent encore quelques incertitudes, il semble que la quantité de CO2 demeurant dans l’atmosphère est plus forte que prévu. Aucune des modélisations climatiques utilisées par le Groupe d’Experts Intergouvernemental sur l’Evolution du Climat (GIEC) n’incluait ce facteur, ce qui signifie que leurs projections ont probablement sous-évalué la rapidité avec laquelle les niveaux de CO2 augmenteront.

- Le réchauffement climatique simulé sur Google Earth !

Ce n'est qu'une projection très hypothétique de valeurs moyennes mais cela peut être utile pour se rendre compte du cumul dans le temps.

Deux add-on utilisables sous Google Earth permettent de suivre la progression du réchauffement à l’échelle planétaire sur la durée d’une vie humaine, et même plus. Une sorte de « thermomètre global » qui visualise la situation actuelle et en montre les effets futurs.

Ces prévisions peuvent paraître alarmantes. Pourtant, elles ne se basent pas sur les pires scénarios prévisibles ni sur les plus optimistes mais sur des hypothèses médianes.

- Un piège à CO2 plus efficace

Cette poudre, inventée à l'Institut Lavoisier (de l'UVSQ, à Versailles), retient quatre cents fois son volume de gaz carbonique et ce à température ambiante, soit une efficacité deux fois supérieure à celle des matériaux connus. De quoi réaliser des pièges à CO2 pour les installations industrielles, par exemple lors de la synthèse d'hydrogène.

Sans augmenter de volume, un mètre cube de cette poudre, retient... 400 mètres cubes de gaz carbonique, ou dioxyde carbone (CO2). Le MIL-101, c'est son nom, est un matériau poreux, dont les molécules s'agencent pour former des cages de 35 angströms de diamètre, dans lesquelles viennent s'emprisonner les molécules de gaz. La performance constitue le record du genre.

- De l'herbe OGM pour réduire le méthane des ruminants

Le méthane rejeté par les troupeaux de bovins contribue de façon non négligeable aux émissions globales de gaz à effet de serre. Pour réduire ce phénomène, des scientifiques tentent d’élaborer une herbe permettant de diminuer ce phénomène.

Le méthane provient en effet des micro-organismes, contenus dans le tube digestif du bétail, qui décomposent la cellulose de l’herbe. Le sous-produit de cette dégradation est le méthane qui est ensuite rejeté sous forme de flatulences. Les chercheurs de Gramina ont créé une herbe plus digeste dans laquelle ils ont « éteint » une enzyme, la O-methyl transferase augmentant ainsi sa digestibilité tout en conservant les propriétés structurelles de la graminée. Les essais en serre ont été couronnés de succès, il reste maintenant à passer la phase de test en plein champ.


- Energie solaire: le photovoltaïque décolle, la France à la traîne

Depuis 2007, un crédit d'impôt pouvant aller jusqu'à 8.000 euros est accordé au contribuable français, qui peut en outre revendre son électricité 55 centimes le kilowatt/h à EDF si son installation est intégrée à la toiture. EDF vend l'électricité à un coût plus bas, de 15 centimes.

La lourdeur des procédures pour le raccordement au réseau et la pénurie d'installateurs qualifiés freinent toutefois encore le développement du marché.

Il y a chez le distributeur national "un paradoxe entre une résistance sur le terrain et la volonté de l'état-major de s'engager".

- Le ''Solar Grand Plan'' américain

Il faut produire plus d’électricité que nécessaire le jour et la stocker afin d’en disposer pour la consommation nocturne. D’emblée, le grand plan rejette la solution des batteries - trop chères et inefficaces - au bénéfice du stockage sous forme de gaz comprimé.

Le principe consiste à utiliser l’énergie solaire transformée en électricité pour comprimer du gaz qui sera conservé dans des abris naturels (mines abandonnées, gisements de gaz ou de pétrole épuisés), abondants dans le pays. Ce gaz est ensuite disponible à la demande, utilisé par des turbines qui génèrent de l’électricité à proximité des centres urbains, où cette demande est concentrée.

Les auteurs assurent que la technologie de ce stockage est maîtrisée et que son coût n’est que de 3 à 4 cents du kilowattheure, qui s’ajoute bien sûr à celui de la production proprement dite. L’amélioration régulière des performances des cellules photovoltaïques devrait rendre le coût de ce système de production-stockage solaire identique à celui du système actuel aux alentours de 2020.

Le plan prévoit de couvrir progressivement jusqu’à 80.000 kilomètres carrés de fermes solaires, soit moins d’un quart des surfaces disponibles répondant aux critères de base (fort ensoleillement, terrains inhabités et appartenant à l’Etat).

S’il était lancé dès maintenant, ce plan monterait en puissance jusqu’en 2050. A cette date, il produirait 3.000 gigawatts, ce qui représenterait 70 % du besoin total en électricité des Etats-Unis. Son coût serait de 420 milliards de dollars.

- La destruction de la nature coûte 2.000 milliards d'euros par an

C'est bien sûr un peu ridicule de vouloir chiffrer ce qui n'a pas de valeur mais c'est fait pour frapper les esprits.

Thème de la conférence, la déforestation dans le monde, outre de favoriser l'extinction des espèces, est responsable de 20% des émissions de dioxyde de carbone (CO2), soit davantage que toutes les industries de transport, selon les experts.

Un mammifère sur quatre, un oiseau sur huit, un tiers des amphibiens et 70% des plantes sont menacés de disparition sur terre, selon une liste rouge publiée par l'Union mondiale pour la nature (UICN) le 12 septembre dernier.


Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

- Une pluie de météorites dans 5 millions d'années ?

Et si la plupart des 6 extinctions de masse de l'histoire de la Terre coïncidaient avec le passage du Système Solaire dans une région bien particulière de la Voie Lactée ?

C'est du moins ce que pense une équipe de scientifiques de l'Université de Cardiff qui suggère un lien entre les extinctions de masse qu'a connu la Terre tout au long de son histoire et une région particulière de la Voie lactée qui perturberait l'orbite des petits corps du Système Solaire.

Le modèle développé par ces chercheurs 'montre' que le passage du plan de la Voie Lactée, qui survient tous les 35 à 40 millions d'années, contraindrait le Système Solaire à franchir des régions plus denses en gaz et poussière. Ce qui provoquerait des bouleversements gravitationnels à l'intérieur de tous le Système Solaire augmentant par 10 le risque de collision entre la Terre et un des petits corps (comètes, astéroïdes) qui le peuplent.

Les 2 meilleurs exemples sont la chute d'un astéroïde dans la péninsule du Yucatan au Mexique qui, il y a 65 millions d'années, aurait été à l'origine des évènements qui ont provoqué la disparition des dinosaures et le fait que depuis 36 millions d'années, la Terre n'a plus connu de collision de très grande ampleur.

Mais ce n'est pas tout, le cycle que suivraient ces extinctions de masse, bien qu'il soit très difficile de les dater, laisse à penser que certains de ces épisodes se sont produits quand le Système Solaire se trouvait justement dans ces régions de la Voie Lactée.

Enfin, si l'on se fie à ce modèle, notre position actuelle dans la Voie Lactée n'est guère rassurante (à l'échelle de la Galaxie): On peut théoriquement s'attendre ces prochains millions d'années à un événement dévastateur.

Enfin, pour la disparition des dinosaures, il se pourrait que ce soit surtout parce que la météorite serait tombée sur un champ de pétrole car, il y a 30 millions d'années, cela n'a pas été aussi dramatique (c'est la grande loterie de la vie). Certains ont imaginé ce que pourraient être les animaux dans 5 millions d'années qui pourraient être victimes de cette catastrophe annoncée. Il y a autre chose de très intéressant pourtant dans cette importante découverte car non seulement ces catastrophes périodiques accélèrent l'évolution mais elles seraient susceptibles de disperser la vie à l’échelle galactique renforçant l'hypothèse de la "panspermie" :

Les scientifiques suggèrent que l’impact aurait projeté des débris contenant des micro-organismes dans l’espace et à travers l’Univers.

- De la silice pure, trace de vie sur mars ?

Le rover Spirit vient de faire une découverte intéressante sur Mars : des dépôts de silice presque purs. Sur Terre, il s’en forme autour de sources chaudes, comme à Yellowstone aux Etats-Unis, où ils sont associés à des formes de vie microbiennes. Il est malheureusement impossible d’analyser ces dépôts pour y rechercher des microfossiles.

On trouve fréquemment des micro-organismes associés à de tels systèmes hydrothermaux et la finesse des dépôts en silice fait qu’ils sont d’excellents conservateurs des traces de vie microbienne. Malheureusement, les instruments de Spirit ne sont pas assez efficaces pour détecter la présence de fossiles de ce genre et il faudra attendre que des robots de la prochaine génération, en cours de développement et spécifiquement conçus pour ce genre d’analyse, rejoignent la Planète Rouge.

- Le vie sur Terre plus précoce qu'on ne le croyait

On datait l'apparition de la vie de 3,8 milliards d'années mais les stromatolithes témoignent d'une telle complexité qu'elle devrait être encore plus ancienne et donc encore plus proche de la formation de la Terre il y a 4,6 milliards d'années, ce qui renforce l'hypothèse d'une origine extra-terrestre, possiblement en provenance de Mars.

Des chercheurs du Centre australien d’astrobiologie révèlent avoir découvert, en utilisant des techniques moléculaires, des traces génétiques de plus d’une centaine de microbes différents dans les stromatolithes, là où ils pensaient en trouver une dizaine tout au plus. Selon eux, pour atteindre une telle complexité la vie a du débuter bien avant l’apparition de ces structures dont les plus vieilles ont près de quatre milliards d’années.

- De nouveaux organismes vivants à plus de 1 600 m sous terre !

De quoi relancer sérieusement l'espoir de trouver de la vie sur Mars...

Ces chercheurs relatent leur découverte dans un article publié dans la revue Science datée du 23 mai. Ils décrivent des procaryotes, des cellules n'ayant pas de noyau, vivant dans des sédiments à 1 626 mètres sous un plancher océanique vieux de 111 millions d'années et à des températures comprises entre 60 et 100 degrés.


- Les nanobactéries ne sont pas vivantes

Dix fois plus petites que des bactéries et entourées d'une coquille de calcium, les nanobactéries sont impliquées dans de nombreuses maladies comme la formation des calculs rénaux. Seulement voilà, la nature exacte de ces minuscules particules reste très controversée. Pour ses découvreurs finlandais, il s'agit d'une forme de vie primitive. Pour d'autres, ce sont des particules inertes. Après plusieurs années de débats, des chercheurs du CNRS et de l'Inserm apportent la preuve définitive que les nanobactéries ne sont pas des micro-organismes mais des complexes de minéraux et de protéines.

Confirmation de ce qu'on pensait déjà car ces prétendues nanobactéries sont trop petites pour avoir un ribosome. Elles ne contiennent en fait ni ARN, ni ADN mais seulement des protéines dans une coquille de calcium, peut-être des prions.

- Les réseaux de protéine

Il n'y a pas de correspondance entre un gène et une fonction car il faut la plupart du temps un réseau de protéines pour remplir une fonction, ce sont donc ces ensembles fonctionnels qu'il faut étudier.

Une équipe de chercheurs canadiens a mené à bien une enquête exhaustive du réseau des complexes de protéines qui orchestrent les processus fondamentaux de la vie.

Dans l'édition en ligne de la revue Science, des chercheurs de l'Université de Montréal décrivent des complexes de protéines et des réseaux de complexes jamais observés auparavant – notamment deux qui participent aux mécanismes normaux par lesquels les cellules se divisent et prolifèrent et un autre qui régit le recyclage des éléments constitutifs de la cellule désigné autophagie.

Les processus qui sont maintenant mieux décrits au niveau moléculaire sont à l'oeuvre dans des maladies comme les cancers tandis qu'il a récemment été démontré que l'autophagie agit dans des troubles neurologiques dégénératifs comme les maladies d'Alzheimer et de Huntington. La découverte de l'équipe de l'Université de Montréal permettra de combler les lacunes dans les connaissances de base du fonctionnement et des origines évolutives de la cellule vivante et ouvre de nouvelles avenues à explorer en liant ces processus fondamentaux à la maladie chez l'homme.

Les chercheurs ont également découvert l'architecture de plusieurs complexes protéiques – une information primordiale qui est nécessaire pour déterminer la manière dont les protéines fonctionnent ensemble afin d'orchestrer les processus biochimiques des cellules vivantes.

- Le reproduction vivipare plus ancienne de 200 millions d'années !

Un fossile de poisson vieux de 380 millions d’années a été découvert portant à l’intérieur son petit rattaché au cordon ombilical. Cette trouvaille repousse de 200 millions d'années la première trace de reproduction vivipare.

Le poisson, appartient à un ancien groupe de vertébrés, les placodermes, qui peuplaient les mers du Dévonien inférieur (il y a 410 millions d’années) et se sont éteints au Carbonifère (350 millions d’années). Leur nom vient du fait que leurs corps étaient recouverts de plaques osseuses, ce sont également les premiers vertébrés dotés d’une véritable mâchoire, à ce titre ils ont été surnommés les « dinosaures des mers ».

Aujourd’hui ce mode reproduction est utilisé chez les poissons par certaines espèces de requins et de raies.

- Génétique des populations

On sait que les différences génétiques à l'intérieur d'une population sont plus importantes qu'entre les populations et s'il y a eu des races différentes du genre homo, ce n'est guère qu'en Afrique (sauf exceptions comme Neandertal), sinon nous descendons tous d'une petite population originelle mais il n'empêche qu'il y a des caractéristiques physiques génétiques différentes entre populations éloignées, avec des types intermédiaires entre les deux formant un continuum.

Les mutations qui affectent directement les gènes et leurs protéines, et les régions régulatrices des gènes montrent une plus grande variabilité entre populations que les autres. En fait, 582 gènes exactement sont impliqués. Il s'agit évidemment de ceux contrôlant les traits morphologiques, comme la couleur de peau ou le type de cheveux, mais aussi de ceux qui régulent le métabolisme ou la réponse immunitaire aux pathogènes. C'est ainsi qu'une mutation du gène CR1, impliqué dans la résistance aux attaques de paludisme, se retrouve chez 85 % des Africains mais est absente chez les Européens et les Asiatiques.

- L'Europe, c'est le lait (un gène gêné par son voisin) !

On sait que 20% de la population européenne et presque tous les asiatiques ne peuvent digérer le lait. En effet, la faculté acquise au néolithique de boire du lait à l'âge adulte est dû à la suppression du mécanisme du sevrage présent chez tous les mammifères mais l'intéressant ici, c'est que cette inactivation de l'inactivation est provoquée par la mutation du gène voisin et non par celui qui produit la lactase nécessaire à la digestion du lait. Cette mutation aurait été tellement vitale dans cette civilisation du lait qu'une mutation unique se serait répandue rapidement dans toute l'Europe, faisant des buveurs de lait européens les descendants d'un ancêtre commun il y a près de 10 000 ans (c'est un peu étonnant car il y a eu d'autres mutations, similaires mais différentes, chez les peuples nomades africains).

Elle est apparue chez un unique individu de la région du Caucase avant que ces peuples ne migrent vers l'Europe à la fin de la dernière période glaciaire.

Le LCT est le gène qui code la production de lactase. La protéine LPH est produite à partir des informations contenues dans le LCT et synthétise l'enzyme digestive. La mutation qui affecte le LCT n'est en fait pas localisée dans le gène lui-même, mais dans un gène voisin appelé MCM6. La tolérance au lactose est obtenue en empêchant les cellules intestinales de lire le gène LCT correctement, et donc d'arrêter la production de lactase à l'issue du sevrage.

"Le fait qu'un gène puisse être régulé par un gène voisin est une découverte nouvelle pour les généticiens. La tolérance au lactose n'est sans doute pas le seul mécanisme du corps humain à fonctionner de la sorte" explique Jesper Troelsen. Ainsi, pour comprendre les causes de maladies héréditaires, les scientifiques se limitaient jusqu'à présent à l'étude du gène directement affecté par la maladie. L'étude des gènes voisins pourrait aboutir à de nombreuses découvertes pour les maladies qui restent inexpliquées.

- Un embryon humain génétiquement modifié !
Le Monde 14.05

Des scientifiques américains sont récemment parvenus à créer un embryon humain génétiquement modifié.

Cet embryon transgénique n'a toutefois pas été transplanté dans un utérus et a été détruit après 5 jours de développement in vitro.

Les chercheurs annoncent être parvenus à intégrer au sein du génome de cet embryon humain, au moyen d'un vecteur viral, un gène dirigeant la synthèse d'une protéine aux propriétés fluorescentes.

Santé


génétique, traitements, nutrition, hygiène

- Il n'y a pas que le sexe qui est bon dans le Viagra !
Le Figaro 14.05

La molécule préserve également la santé des mitochondries, ces organites de la «respiration» de la cellule. Enfin, la pilule bleue de l'amour prévient la détérioration des performances de la contraction cardiaque, habituellement observée chez ces souris quand elles vieillissent ».

Le journal relève par ailleurs que le sildénafil pourrait servir au traitement de l'hypertension artérielle pulmonaire.

Une étude parue en 2005 dans le New England Journal of Medicine a comparé chez 278 malades répartis en plusieurs groupes, l'effet de doses croissantes de Viagra avec un placebo. Le sildénafil a significativement amélioré le périmètre de marche, la plus grande amélioration clinique survenant chez les malades les plus gravement atteints.

- La tomate pour traiter l'hypertrophie bénigne de la prostate?

Le lycopène, un antioxydant contenu dans la tomate, pourrait aider au traitement de l’hypertrophie bénigne de la prostate.

Le dosage de lycopène employé au cours de cet essai correspond à la consommation d’environ 50 ml par jour de pâte de tomate.

- Des anti-inflammatoires contre le cancer
L’Express, numéro 2965, 05.05

Des médecins de l’université de Californie à Irvine ont montré, grâce à une étude sur 375 patients, qu’il était possible de réduire de 95 % le risque de réapparition de polypes, signe précurseur du cancer du côlon, en utilisant une combinaison d’un anti-inflammatoire et d’un anticancéreux.

D’autres chercheurs de l’université Rutgers (New Jersey) ont mis au point un cocktail médicamenteux composé d’un anti-inflammatoire et d’une molécule contre le cholestérol, qui empêche le cancer de la prostate de progresser et d’atteindre son deuxième stade, beaucoup plus agressif.

- Les oméga-3 contre l'inflammation
Belle Santé, juin 2008

Consommer 2,2 g d'EPA (acide eicosapentanoïque) et de DHA oméga-3 par jour permettrait aux personnes atteintes de polyarthrite rhumatoïde de réduire de 30 % la prise de médicaments anti-inflammatoires.

Des chercheurs de l'université de Dundee au Royaume-Uni ont recruté 97 personnes atteintes de polyarthrite rhumatoïde, âgées de 37 à 78 ans. Elles ont pris quotidiennement pendant 9 mois soit des capsules d'huile de foie de morue contenant l'équivalent de 2,2 g d'EPA et DHA, soit des placebos.

59 % des volontaires ayant reçu des oméga-3 ont pu diminuer de 30 % la prise d'AINS, sans aggraver les symptômes de leur maladie, contre 19 % dans le groupe placebo.

- Confirmation du rôle antidépresseur des oméga3

Une étude conduite sur plus de 1300 personnes, âgées en moyenne de 75 ans, a révélé qu’un taux sanguin élevé d’oméga 3 est associé à une moindre fréquence des symptômes dépressifs au sein de ce groupe. Au vu des résultats, un acide gras oméga 3 particulier a retenu l’attention des chercheurs : l’EPA ou acide eicosapentaénoïque. Celui-ci est, en effet, présent en plus faible concentration chez les individus souffrant de dépression alors que des taux élevés sont retrouvés pour les volontaires sans aucun problème dépressif. En d’autres termes, de forts taux d’EPA semblent associés à une moindre fréquence des symptômes dépressifs.

L'effet bénéfique d'un tel apport pourrait être encore plus important chez la personne âgée, expliquent les chercheurs, chez qui la synthèse de DHA et d'EPA à partir des précurseurs est moins efficace.

- Diagnostiquer avant d'être malade

Ces cavités gravés dans la pointe d'une fibre optique permettent aux chercheurs de détecter une unique protéine dans des échantillons de sang. Chaque puits dans cette image est d'environ 2,5 micromètres de diamètre et se trouve à l'extrémité d'un fil d'une fibre optique.

Ce système pourrait permettre de détecter les touts débuts d'un cancer ou d'une maladie d'Alzheimer (ou d'autres maladies) bien avant que les symptômes ne se déclarent. On peut penser malgré tout que la détection d'une seule protéine mène à des erreurs de diagnostic mais cela permettra du moins de faire des examens plus approfondis.


- Un vaccin contre Alzheimer efficace chez la souris

Des chercheurs de l’Université de Rochester ont créé un vaccin capable de générer une réponse immunitaire à la protéine de bêta-amyloïde, responsable de la formation des plaques dans les cerveaux des personnes ayant la maladie d'Alzheimer. Les souris vaccinées ont démontré des aptitudes d'apprentissage et mémorielle normales alors qu’elles ont été génétiquement conçues pour développer une forme agressive de la maladie. Le cerveau des souris ainsi vaccinées ne présentait pas de plaques et n’avait pas de protéines tau anormales.

Les chercheurs qui ont publié leurs résultats dans la revue Molecular Therapy du mois de mai estiment que ces premiers résultats sont encourageants mais préviennent qu’il faudra au moins trois ans avant d’envisager un essai clinique sur l’Homme.

- Traiter l'Alzheimer par stimulation électrique du cerveau

La stimulation électrique de l'hypothalamus (en vert) par des électrodes implantées dans le cerveau donne des résultats encourageants dans le traitement de la maladie d'Alzheimer, notamment pour la mémoire et la production de neurones, mais dont l'efficacité reste à confirmer sur le long terme.


- Un robot dans le cerveau

En fait ce système motorisé permet de repositionner les électrodes implantés dans le cerveau pour des prothèses neurologiques ou pour servir d'interface avec un ordinateur.

- Traiter l'obésité en bloquant le nerf vague

Deux électrodes sont implantées chirurgicalement dans la partie supérieure de l'estomac pour bloquer les signaux du nerf vague. Dans l'illustration ci-dessus, les flèches vertes indiquent des signaux neuronaux qui vont du cerveau à l'appareil digestif, tandis que les flèches bleues indiquent les signaux qui vont de l'estomac et des intestins au cerveau. Un petit régulateur qui contrôle la fréquence et l'amplitude des signaux électriques est implanté sous la peau et relié aux électrodes (ici en gris) par des fils. Les signaux électriques peuvent être changés au cabinet du médecin par l'intermédiaire d'un contrôleur sans fil. L'appareil est actuellement testé dans des essais cliniques avec des résultats encourageants.


- Un gel qui arrête instantanément les saignements

A base d'un peptide synthétique, ce gel se révèle capable d'arrêter les saignement en quelques secondes.


- Les nanotubes sont bien cancérigènes
Le Figaro 22.05

Les nanotubes de carbone peuvent entraîner une inflammation, des lésions, et un cancer quand ils entrent en contact avec les tissus mésothéliales qui entourent les organes dans le corps, selon de nouvelles études réalisées sur des souris.

L'équipe américano-britannique dirigée par Ken Donaldson, de l'université d'Édimbourg, a toutefois montré que seuls les nanotubes de grandes dimensions provoquent une inflammation et des lésions du mésothélium, la membrane qui recouvre les poumons (plèvre) et la cavité abdominale.

Les globules blancs chargés d'éliminer les corps étrangers présents dans les alvéoles pulmonaires sont incapables d'«ingérer» les fibres dépassant une certaine taille.

Le risque qu'il y a à manipuler des objets contenant des nanotubes semble minimal parce que les fibres sont fortement incrustées dans le matériau. En revanche, nous sommes plus préoccupés par le sort des travailleurs qui fabriquent ces objets.

Par contre, on avait cru que les fullerènes (en forme de ballon) n'étaient pas dangereux pour la santé mais leur capacité de pénétrer dans le cerveau et à l'intérieur des cellules pourraient aussi créer des problèmes même si cette propriété pourrait aussi être utilisée par la médecine.

- Interdiction des biberons en plastique au Canada

Les biberons en plastique vont être interdits au Canada ! Les autorités sanitaires craignent des problèmes hormonaux et neuronaux chez les bébés.

La principale substance dans le collimateur est le bisphénol A (ou BPA), un composé connu de longue date puisqu’il a été pour la première fois synthétisé par un chimiste russe en 1891. Sa capacité d’agir sur le système hormonal humain comme sur celui des mammifères en imitant l’effet des hormones œstrogènes l’ont fait classer dans la catégorie des perturbateurs endocriniens, et de nombreux débats scientifiques tournent autour de possibles effets négatifs sur la fertilité et la reproduction humaine.

- Du pyralène (PCB) dans le Rhône

Des analyses de sang révèlent que les riverains du Rhône et de la Seine présentent des taux élevés de PCB, alias Pyralène, et semble montrer un lien avec la consommation de poissons locaux.

- L'industrie du suicide en Suisse
Le Nouvel Observateur, no 2273

La Suisse est l'unique pays au monde qui autorise l'aide au suicide. Quatre associations en ont fait leur mission. Mais Dignitas est la seule qui accepte massivement les étrangers mais réclame la coquette somme de 6 000 euros à tous ceux qui veulent quitter ce monde.

L’hebdomadaire relève que faute de local depuis l’été dernier, les deux dernières personnes « aidées » par Dignitas ont rendu l’âme « sur un parking ».

Aussi incroyable que cela puisse paraître, Ludwig A. Minelli (le fondateur de l’association) a décidé de remplacer le pentobarbital par le suicide au gaz. Ou plus exactement, par l'étouffement avec un sac en plastique rempli d'hélium. «L'intérêt» ? Pas besoin de prescription médicale.

- Google Health

Google Health, à l'image du service concurrent HealthVault de Microsoft lancé en octobre dernier, permet aux utilisateurs d'entrer ses données médicales, comme son poids, son âge, sa tension, ses différents traitements, ses ordonnances, etc. Avec ces données, le service pourra assister l'utilisateur dans la gestion de sa santé, en l'avertissant de la prise de ses médicaments ou des éventuelles contre-indications / interactions entre plusieurs traitements. Ce suivi médical pourra être partagé avec le médecin du patient, une pharmacie ou une clinique.

Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie

- Vers des cellules solaires peintes sur de l'acier

Une équipe du Centre de recherche sur les matériaux de la Faculté de Sciences de l'Ingénieur de l'Université de Swansea (Pays de Galles) coordonne un projet de recherche visant à déposer de façon industrielle des cellules solaires sur des feuilles d'acier plat. L'objectif est d'utiliser les bardages et toits en acier des bâtiments pour produire de l'électricité.

Les cellules solaires sensibilisées à colorant présentent l'avantage d'être moins coûteuses que les cellules classiques à base de silicium et d'être efficaces à l'extrémité basse fréquence du spectre de la lumière solaire (rouge visible et infrarouge). Leur taux de conversion maximal (environ 11%) reste toutefois inférieur à celui des meilleures cellules photovoltaïques.

- Bond de géant pour les piles solaires

Les "quantum dots" permettraient d'accroître l'efficacité des capteurs photovoltaïques de 44% !

L'énergie solaire pourrait bientôt devenir la solution de rechange la plus viable aux combustibles fossiles. "Du temps s'écoulera avant qu'on l'adopte à grande échelle au Canada, mais dans les parties les plus ensoleillées d'Australie, d'Asie, des Etats-Unis et d'Europe, le marché est mûr pour cette technologie."

- Une éolienne individuelle design (Philippe Starck)

Le célèbre designer français Philippe Starck présente, durant le Green Energy Design, salon du design écologique, jusqu'au 1er mai à Milan, la première éolienne individuelle à bas coût (entre 300 et 400 euros). Selon la taille, l'éolienne individuelle, qui sera commercialisée prochainement, permet de couvrir entre 10% à 60% des besoins individuels, explique le designer dans un entretien accordé au Figaro.

- Une pile à combustible de poche chez Sony

Le constructeur japonais vient de présenter un prototype de pile à combustible, utilisant du méthanol, et destiné aux appareils portables. Objectif : augmenter l'autonomie et remplacer la recharge d'une batterie par une injection d'un peu d'alcool dans l'appareil.

- Amélioration de 50% des pacs à méthanol

Un mince film en polymère bon marché améliorerait le rendement des piles à combustible au méthanol de 50%.


- L'acide formique pour les piles à combustible

L'avantage, surtout pour des petits appareils comme les portables, c'est de marcher à basse température (de 26 à 40°), mais l'inconvénient c'est de contenir moins d'hydrogène que le méthanol.


- Le meilleur agrocarburant, le sorgho ?

Numéro cinq dans le classement des grandes cultures mondiales (après le riz, le maïs, le blé et l’orge), le sorgho à sucre, Sorghum bicolor, pourrait être une solution idéale pour produire du biocarburant sans mettre en péril le marché alimentaire mondial.

Cette plante résiste à tout. Elle pousse à la fois sur des terrains secs, détrempés, riches en sel et tolère plutôt bien la chaleur.

La culture de sorgho nécessite deux fois moins d’eau que le maïs et huit fois moins que la canne à sucre pour un apport nutritionnel quasi identique.

L’autre intérêt du sorgho réside dans ses feuilles qui regorgent de sucre. Après distillation, ce sucre permettra d’obtenir du biocarburant : l’éthanol.

Bon point supplémentaire : peu demandé, contrairement au maïs, l’utilisation de cette « plante miracle » ne déstabilise pas le marché alimentaire.

Il ne faut pas rêver, on ne pourra remplacer le pétrole par des agrocarburants, il faudrait trop de surface cultivée, c'est juste moins pire, le danger comme toujours c'est que le moins pire à court terme ne permette d'accepter bien pire à plus long terme...

- Des camions à jupes

Poser des plaques latérales sur les semi-remorques pour améliorer leur aérodynamique : Michel van Tooren, de l’Université de technologie de Delft, aux Pays-Bas, a montré avec ses collègues du part (un partenariat entre l’Université de Delft et plusieurs industriels néerlandais) que ce procédé simple diminue d’environ dix pour cent la consommation de carburant du véhicule.

Des plaques latérales au bas du camion diminuent de 14 à 18% les frottements aérodynamique.


- Une petite voiture électrique BMW

C'est le retour du "pot de yaourt" Isetta qui s'ouvre par l'avant.

- Le fantacoptère !

L’appareil pèse environ 75 kg (sans son pilote) pour une longueur de 3,96 mètres (rotor compris), et peut atteindre une altitude de 150 mètres avec une autonomie de 30 minutes. Sa vitesse maximale est de 90 km/heure. Pouvant être assemblé en une quarantaine d’heures selon son inventeur, il est commercialisé pour 57.140 $ aux Etats-Unis.

On peut voir une vidéo en cliquant sur l'image mais bizarrement, on ne voit pas l'atterissage, qu'on imagine mouvementé...

- Un robot qui grimpe aux murs

Plaqué contre une surface verticale, qu'elle soit en bois, en verre ou en briques, ce petit robot à deux pattes y reste accroché et peut filer vers le haut à près de 1 km/h. Contrairement à d'autres modèles imitant le gecko, celui-là utilise la force électrostatique.

L'adhésion aux murs est obtenu par des charges électrostatiques qui donnent une adhérence correspondant à 10% de celle du gecko mais cela pourrait être suffisant pour qu'un homme grimpe aux murs, sur n'importe quelle surface (pas besoin d'une surface lisse et propre). Voir la vidéo.


- Apprendre des gestes aux robots par imitation

Au Lasa (Laboratoire d'algorithmes et systèmes d'apprentissage) de l'Ecole polytechnique fédérale de Lausanne (EPFL), des chercheurs travaillent à apprendre à un robot à préparer une omelette.

L'idée qui préside à ce projet consiste à donner aux robots les capacités d'apprendre par imitation. “Pas seulement de copier exactement le même geste, mais d'extraire automatiquement quels sont les éléments importants du mouvement en montrant plusieurs fois au robot comment effectuer la tâche en question. En bref, de comprendre quelle est l'intention de l'utilisateur derrière le geste”.

La vidéo montre que c'est aussi difficile que d'apprendre à un tout petit à faire une omelette !

- Un singe peut contrôler un robot par la pensée

Grâce à des électrodes implantées dans le cerveau ce singe arrive à contrôler un robot pour se nourrir.


- L'insecte télécommandé par l'armée américaine

A la dernière conférence MEMS 2008, l'université du Michigan a présenté un concept inédit : un coléoptère muni d'implants, pilotable à distance comme un modèle réduit. Cette recherche est soutenue par le Darpa, instrument financier de la Défense des Etats-Unis.

Le principe consiste à implanter trois électrodes dans un insecte de bonne taille, en l'occurrence un coléoptère dynaste, ce cousin du scarabée muni d'une longue et unique corne (unicorn beetle en anglais, Dynastes tityus de son nom scientifique). Deux d'entre elles plongent dans les muscles des ailes, à droite et à gauche, et la troisième s'enfiche dans le ganglion cérébral de l'infortuné insecte. Ces trois stimulateurs sont reliés à un minuscule contrôleur électronique et à une pile lithium-ion, tous deux solidement installés sur le thorax de l'insecte. Ce sac à dos thoracique porte, au bout d'un bras coudé, un stimulateur visuel composé de diodes électroluminescentes, placées devant les yeux de l'insecte. En les allumant, on peut inciter le coléoptère à se diriger dans une certaine direction.

L'implantation a lieu avant la métamorphose, quand l'insecte est une chenille ou une chrysalide. Les petits dispositifs implantés s'intègrent mieux dans les tissus encore mous, qui finissent par les entourer.

- Le Bluetooth, plus dangereux que la RFiD ?

  • en moyenne, les puces RFiD sont lisibles à 30 cm, contre 100 mètres pour le Bluetooth,
  • le volume de données contenues dans une puce est limité, alors qu’il n’existe pas de limites aux informations échangées via Bluetooth,
  • la RFiD repose sur la distinction entre des puces placées sur des objets que seules, a priori, peuvent consulter les lecteurs installés par des entreprises, alors que le Bluetooth transforme tout individu en émetteur et récepteur,
  • la RFiD concerne à ce jour essentiellement le seul secteur de la logistique, alors que le Bluetooth est partout,
  • il est possible, et prévu, de détruire les puces RFiD, notamment au sortir des magasins, on ne peut que désactiver le Bluetooth et encore, temporairement seulement : une fois le périphérique identifié, il est possible de chercher à savoir lorsqu’il repasse à proximité même s’il est activé de manière furtive.

- Les ondes T partout

C'est une nouvelle gamme d'ondes qui va nous envahir (et nous déshabiller), a priori sans danger car proche de la chaleur infrarouge et pourrait remplacer les rayon X pour voir à travers les vêtements ou les valises, entre autres car il y a beaucoup d'applications.

Dans le spectre des ondes électromagnétiques, le domaine du térahertz s'étend entre 300 GHz (gigahertz) et quelques milliers de GHz (soit quelques térahertz), c'est-à-dire entre l'infrarouge et les micro-ondes.

L'annonce d'un laser térahertz émettant à température ambiante, gros comme un ongle et d'un coût de fabrication minime apparaît comme une nouvelle extraordinaire et riche de conséquences.

En créant l'équivalent d'un cristal non linéaire à l'intérieur d'un semiconducteur, les scientifiques de Harvard sont parvenus à miniaturiser l'instrument dans d'énormes proportions.

Fabriqué avec les techniques habituelles de la microélectronique, il peut donc être réalisé à faible coût. Bon marché, portable et fonctionnant à température ambiante : les trois freins au laser térahertz viennent d'être levés en une seule fois !

- Un ordinateur pour maisons de retraite

Vainqueur du concours Lépine...

En guise d'image de fond, Magui affiche d'énormes boutons sur son écran tactile : Téléphone, Mes courriers, Mes photos, Mes messages, etc. Il suffit d'appuyer sur l'un d'eux pour déclencher le logiciel approprié. Magui n'en a pas beaucoup. Essentiellement, il sert à communiquer, par téléphone, par courrier électronique ou par visio-conférence (la webcam est juchée sur l'écran et livrée avec). Les courriels sont lus à haute voix et l'annuaire téléphonique se résume à une liste de photographies.

- TouchWall : un mur écran interactif... et bon marché

Bill Gates en personne a fait la démonstration de cet écran géant, réagissant comme une surface tactile. Constitué d'une plaque de plexiglas, de trois émetteurs à laser et d'une caméra, ce dispositif, à l'état de prototype, ne coûterait que quelques centaines de dollars.

Le Touch Wall est à la fois très grand et peu coûteux... car il n'y a pas vraiment d'écran. L'image est créée par un vidéoprojecteur sur une plaque de plastique transparent que l'on pose sur un mur ou sur n'importe quelle surface uniforme. Trois faisceaux laser à infrarouge balaient la surface et une caméra, qui en suit la réflexion sur la surface, repère quand ces rayons sont interceptés.

On obtient finalement l'équivalent d'un écran tactile multipoints, à la mode iPhone, mais dont la taille se mesure en mètres. Les fonctionnalités dépendent surtout du logiciel. Le prototype propose un encrier dans lequel il suffit de plonger le doigt pour dessiner sur l'écran, par exemple pour entourer ou souligner un texte. D'après Bill Gates, le logiciel serait capable de reconnaître les mouvements d'un stylet spécial, ce qui permettrait d'écrire directement sur le mur-écran.

- Linux perd les portables à bas prix face à windows

Microsoft entre sur le marché en proposant une version bradée de Windows XP. L'arrivée de la concurrence sur ce segment risque donc de reléguer Linux au second plan.

Alors que les PC à bas prix comme l'eeePC d'Asus ou le "PC à 100$" (en fait 200$) devaient fonctionner avec Linux, Microsoft obtient le marché en cassant ses prix à 30$.

A ce prix, le choix de Windows n'impacte plus réellement le tarif définitif du produit pour le constructeur. Du coup, les modèles Medion, le nouvel eeePC 900, l'ordinateur XO du projet One Laptop Per Child ou le MSI Wind PC intègreront en standard Windows. Linux, quant à lui, sera dans le meilleur des cas proposé en dual boot comme dans le cas de l'eeePC, dans le pire absent totalement comme chez MSI.

Voir InternetActu qui s'en désole.

- 10 applications qui feront le futur Google Phone

  • AndroidScan - Jeffrey Sharkey

La première d'entre elle est un comparateur de prix. Mais d'un nouveau genre ! Exit le clavier et les références exactes du modèle. Place au code-barre.

  • BreadCrumbz - Amos Yoffe

BreadCrumbz, quant à lui, est un logiciel qui permet d'associer géolocalisation, création d'itinéraires et personnalisation.

L'application permet en effet de créer, puis de partager avec une communauté, des trajets pour se rendre à une adresse précise.

  • Commandro - Alex Pisarev, Andrey Tapekha

Cette application permet de localiser exactement ses amis, grâce aux données GPS.

  • Locale - Clare Bayley, Christina Wright, Jasper Lin, Carter Jernigan

Elle permet aux mobinautes de définir les lieux où leur téléphone portable doit se mettre automatiquement sur le mode silencieux, comme par exemple le lieu de travail ou le théâtre, ou encore de router leurs appels sur une ligne fixe lorsqu'ils sont chez eux.

- Les Google Cars (webcam roulantes) débarquent en France

Comme aux Etats-Unis et dans d'autres pas, Google fait circuler en ville des voitures portant une caméra, filment à 360° dans les rues. Leurs images sont ensuite intégrées à Google Maps. L'entreprise américaine a tenu compte des critiques et floute les visages.

- Compression maximale pour la recherche d'images

Une méthode mathématique, qui vient d'être mise au point, parvient à analyser des images tellement compressées qu'elles n'occupent plus qu'un kilo-octet. Résultat : un simple PC peut fouiller une bibliothèque aussi vaste que le web.

Jusqu'où peut-on dégrader une image de sorte qu'elle reste reconnaissable ? La question n'est pas si triviale qu'elle en a l'air et vient de recevoir une réponse de la part d'une équipe internationale. Ces chercheurs ont appliqué à des photographies la classique compression JPeg de nombreuses fois de suite. Le résultat est étonnant : la quantité minimale varie, selon les cas, entre 256 et 1.024 octets, soit moins du millième de l'encombrement habituel d'une photo produite par un appareil numérique. Après une telle cure d'amaigrissement, la qualité de la photo devient épouvantable mais l'équipe a démontré qu'elle restait reconnaissable.

- L'échec de la vidéosurveillance

Selon l'inspecteur de police Mike Neville, responsable du Bureau des images, identifications et détections visuelles (Viido) de la police de Londres, l'utilisation de cette technologie est jusqu'ici un "véritable fiasco".

Selon certaines estimations, il y aurait jusqu'à 4,2 millions de caméras de surveillance installées sur le territoire britannique.


- Les migrants et les pauvres sont les plus grands utilisateurs des technologies mobiles

Les travailleurs immigrés ont tendance à être des utilisateurs avancés des technologies mobiles. Selon Stefana Broadbent, les immigrants sont, avec les geeks, les plus agressifs dans l’adoption des nouveaux outils de communication. Les familles éclatées avec des liens forts et des ressources limitées utilisent plus massivement les technologies de Voix sur IP, la messagerie instantanée et les outils de vidéoconférence ou l’internet, pour se tenir informé ou télécharger la musique de leurs racines.

- Baisse de 16,4 % des ventes de mobiles en Europe

Déjà saturé...

- La structure hiérarchique des réseaux

Des chercheurs du Santa Fe Institute ont montré qu'il était possible d'extraire une structure hiérarchique des réseaux. Voilà qui devrait permettre de ne plus opposer de façon aussi simpliste les réseaux aux systèmes hiérarchiques, ce que je dénonçais déjà en 2003 dans "Idéologie des réseaux et théorie des systèmes".


- Larousse en ligne

La célèbre maison d’édition française, universellement connue pour ses dictionnaires et ses encyclopédies, vient de lancer un site encyclopédique contributif en ligne, à l’instar d’une concurrence déjà très présente.

Son encyclopédie en ligne juxtapose les contenus proposés par les internautes à ceux déjà publiés par les auteurs de Larousse, les deux étant identifiables par un code de couleur.

A son lancement, l'encyclopédie comporte une base de haute qualité constituée de quelque 150.000 articles.

Voir aussi le Littré en ligne

- Les chiffres extraordinaires de l'économie

50% des grues de chantier du monde sont en Chine. Avec le boom de la construction, la Chine concentre à elle seule la moitié des grues disponibles dans le monde, soit 300.000 environ. Dubaï arrive juste après avec 15 à 20% des grues.

40 milliards de dollars de gaz naturel sont brûlés chaque année en pure perte par le biais des torchères. 150 milliards de mètres cubes de gaz sont ainsi gaspillés, soit 30% de la consommation annuelle européenne.


- Jean Nouvel choisi pour la Tour Signal de la Défense

Haute de 301 m, la Tour Signal sera le troisième immeuble de la Défense à dépasser le seuil des 300m.

Les quatre blocs empilés sont creusés chacun par d'immenses nefs vérandas. Ces dernières n'ont pas seulement un rôle d'agrément ou esthétique, elles sont le coeur de l'auto-régulation thermique de la tour. Les parois vitrées qui les équiperont sont conçues pour maximiser la récupération de l'énergie solaire, en hivers, et pour optimiser la réfrigération en été. Ces grands volumes creux serviront aussi de puits de lumière, réduisant les besoins en éclairage artificiel. Au final et grâce à d'autres systèmes, la Tour Signal répondra aux normes HQE: Haute Qualité Environnementale, générant une dépense énergétique nettement inférieure à celle des autres immeubles de la Défense.

L'autre élément structurant du projet est l'utilité multiple de la tour. Elle abritera à la fois des bureaux, des logements, un hôtel et une galerie commerciale.

- Mystérieuse musique
Musicophilia: Tales of Music and the Brain, Oliver Sacks, Knopf, 2007

Ce livre, qui n'est pas encore traduit et dont rend compte La Recherche attire l'attention sur le fait que la musique est consubstantielle à notre humanité et sans doute au langage. Steven Mithen pense que le chant a précédé le langage et lui a donné ses fondements (ce qui me semble douteux). Daniel J. Levitin pense qu'il y a une sensibilité innée aux structures de la musique, aussi universelle que la structure du langage (ce que je crois bien malgré les différences de musiques et bien qu'il y ait des gens imperméables à la musique, comme Freud paraît-il). Oliver Sacks raconte surtout des cas cliniques liés à la musique mais c'est l'occasion de s'étonner de la place de la musique dans notre vie, qui fait de nous véritablement des homo musicalis.


- Stonehenge, une sépulture royale ?

Si l'on en juge par le nombre et la disposition des tombes, il est envisageable que le site de Stonehenge ait été consacré à l’ensevelissement rituel d’une famille d’élite et de ses descendants, peut-être une famille régnante. Le petit nombre d’enterrements dans la période la plus ancienne et leur augmentation au cours du temps correspondent à l’accroissement logique de la descendance et constitue un indice en faveur de cette hypothèse.

 <- Revue des sciences précédente | Revue des sciences suivante ->
1 726 vues

4 réflexions au sujet de “Revue des sciences 06/08”

  1. Bonjour
    Un petit commentaire sur le traitement de l'Alzheimer par stimulation cérébrale profonde de l'hypothalamus. La stimulation de cette structure dans une autre maladie neurologique beaucoup plus rare, l'algie vasculaire de la face ("cluster headache"), n'a pas provoqué les effets pro-mnésiants décrits par Andres Lozano dans le traitement de l'obésité morbide. Même si le rationnel est séduisant (proximité du circuit de Papez impliqué dans la mémoire à court terme, précocément atteinte dans la maladie d'Alzheimer), il ne faut en outre pas oublier qu'une mariée ne peut offrir que ce qu'elle a et que tant que l'on ne trouve pas un traitement protégeant contre la dégénérescence neuronale, ce traitement risque de se révéler inefficace si les neurones et les connexions disparaissent.
    Bien cordialement et merci pour ces synthèses toujours passionnantes.

  2. Je ne me prononce pas sur l'efficacité de ce traitement, mais il faut se méfier des conclusions trop rationnelles effectivement, qui avaient fait penser par exemple que les neurones ne pouvaient plus se reproduire. Il y a bien eu récemment une expérience avec une stimulation électrique qui faisait resurgir des souvenirs perdus et il se peut que cette stimulation ne fasse que maintenir à la vie des neurones essentiels. Le phénomène de la mémoire est loin d'être encore bien compris et sans doute plus complexe qu'on ne l'imagine avec nos théories connexionistes. De toutes façons, c'est l'expérience qui décidera...

  3. "Steven Mithen pense que le chant a précédé le langage et lui a donné ses fondements (ce qui me semble douteux)."

    Je suis en train de lire son ouvrage de référence sur le sujet (the singing neandertals, en cours de lecture). je n'en ai pas tout à fait la même compréhension que vous. Il parle d'un système de communication holistique, multi-modal, musical et manipulatoire chez les hommes pré-historiques ; sorte de système de communication basique qui possèderait des caractéristiques communes que l'on retrouve aujourd'hui dans la musique (inflexion sur la tonalité du son pour exprimer différentes émotions, actions qui n'auraient pas d'équivalents linguistiques) et le langage (mots/ordres encore rattachés aux choses réelles).

    Je trouve l'hypothèse intéressante en ce sens que cet emploi musical (multi-modal) aurait été un moyen d'exprimer des choses plus abstraites impossibles à traduire autrement pour les hommes de cette époque. Quand bien même cela reste de la pure hypothèse (j'en conviens) l'idée est stimulante.

  4. Merci de ce compte-rendu. Je n'ai pas lu le livre et donc bien sûr mon avis est complètement hors propos. L'hypothèse du chant n'est pas nouvelle, le "langage des oiseaux" défendu par Michel Boccara dans "La part animale de l'homme". Voir :

    jeanzin.fr/ecorevo/grit/a...

    J'ai fait état de mes doutes car le langage est plutôt l'oubli du chant, détachant le son du sens. Le langage pourrait avoir été précédé par des cliquetis par exemple, ce qui n'a rien à voir avec le chant. Je pencherais plutôt vers l'hypothèse que le langage a produit le chant mais, encore une fois, ce n'est qu'une hypothèse gratuite que je ne défends pas plus que cela n'ayant pas la compétence pour en décider.

Laisser un commentaire