Revue des sciences 12/08

<- Revue des sciences précédente | Revue des sciences suivante ->
Revues : Pour la Science - Sciences et Avenir 
Brèves : Physique - Climat - Biologie - Santé - Technologie

C'est pas Noël tous les mois pour les sciences, qu'on peut trouver bien décevantes au jour le jour sauf exceptions mais assez rares. Ce qui domine c'est la répétition. Je n'y échappe pas en ressortant l'illustration de l'année dernière qui se justifie plus que jamais alors que l'année 2009 s'annonce vraiment catastrophique (les sciences ne seront pas épargnées!). Le LHC lui-même, orgueil de la science, pourrait en pâtir car il est encore en panne et on ne sait quand il pourra redémarrer, à Pâques ou à la Trinité si ce n'est en 2010 ! En attendant, rien de bien extraordinaire, du moins en apparence car l'ornithorynque est toujours aussi étonnant, fait de bric et de broc, et parmi les nouvelles qui pourraient s'avérer essentielles on peut citer la découverte de nos "super-neurones" et surtout de la clé du vieillissement, de même qu'en physique le calcul de la masse du proton et, peut-être, les premières détections de matière noire pourraient inaugurer une nouvelle physique, si c'est vraiment confirmé. La production à grande échelle d'anti-matière promet de changer beaucoup de choses aussi, et pas seulement les voyages intersidéraux, en permettant de concentrer l'énergie de façon inouïe. Sinon, on peut se réjouir des nouvelles pistes contre l'Alzheimer, même si on en avait déjà parlé. Par contre, il paraît absolument incroyable que des minis centrales nucléaires soient désormais en vente libre !

On trouvera une version éclatée en plusieurs articles de cette revue des sciences sur le site du GRIT-Transversales : physique - climat - biologie - santé - technologies.


Pour la Science no 374, Des géants agiles


Pour la Science

- Les sauropodes, des géants agiles, p34

Ce très long article s'interroge sur la taille délirante de certains sauropodes, les titanosaures comme le bien connu Argentinosaurus qui pouvait atteindre au Crétacé 30 mètres de long et peser 90 tonnes. Ce gigantisme, qui va bien au-delà de la protection des prédateurs, devait être motivé selon les auteurs par leur digestion très primitive et pour favoriser leur "homéothermie de masse". Très semblables aux oiseaux, ils avalaient des pierres (gastrolithes) pour faciliter le broyage des végétaux, comme dans le gésier, et possédaient un squelette allégé, plein de vides sinon ils auraient été trop lourds pour de telles dimensions (en effet, le poids, donc le volume, augmente comme le cube de la taille), d'autant qu'ils n'étaient pas aquatiques comme on le croyait mais pouvaient gambader sur le littoral ! Il a donc fallu que les dinosaures deviennent énormes puis qu'ils rapetissent pour pouvoir voler ! A noter qu'il semble y avoir une contradiction entre "l'homéothermie de masse" supposée expliquer leur gigantisme et le fait qu'on leur suppose un sang chaud, tout comme les oiseaux. Par contre, pour la digestion l'argument du gain d'échelle reste valable ("une grande cuve rend les bactéries plus efficaces et la chaleur produite y est mieux conservée, grâce à l'homéothermie de masse"). En tout cas, ils devaient produire bien plus de gaz que nos vaches ! Retenons, enfin, que leur queue immense aussi, ne traînait pas par terre mais était bien dressée ou toute droite à l'horizontal pour équilibrer la tête !

- En attendant la tempête du millénaire, p44

Le soleil nous envoie régulièrement des bouffées de plasma qui produisent des aurores boréales mais, en 1859, on était juste dans la ligne de mire d'une grosse émission de plasma solaire ce qui avait provoqué des perturbations magnétiques considérables, détériorant de nombreuses installations électriques ainsi que les communications radios. A notre époque les dégâts seraient bien plus importants et demandent à être pris en compte pour protéger les ordinateurs et les centrales électriques. Ceci dit, c'est un événement rare et il ne semble pas que cela puisse affecter nos disques durs actuels, il suffirait de rallumer l'ordinateur parait-il, si l'électricité n'a pas sauté... (notons qu'il y a aussi des aurores boréales sur Mars).

- Le cerveau migraineux, p68

On a cru longtemps que la migraine était un phénomène vasculaire. Il semble bien établi maintenant que c'est plutôt un "orage cérébral" qui se propage dans le cerveau en hyperexcitant des neurones (provoquant souvent une "aura") qui ensuite sont inhibés, cette inhibition étant à l'origine de la douleur qui suit. Il y a encore 2 théories différentes expliquant cet orage électrique mais de nouveaux médicaments en développement devraient avoir une bien meilleure efficacité en ciblant les véritables processus en jeu contrairement aux traitement actuellement disponibles.

- Calcul quantique avec des ions, p86

On a déjà réussi des "calculs quantiques" avec quelques qubits (ci-dessus une chaîne de 8 ions calcium refroidis et presqu'immobilisés par laser) mais on sait que la difficulté c'est d'augmenter ce nombre de qubits car la décohérence est de plus en plus rapide avec le nombre. La solution serait de travailler sur toute une série de boîtes quantiques ne possédant que quelques qubits chacune.


Sciences et Avenir no 742, Les nouvelles applications de la physique quantique


- Les huit pistes qui mènent aux objets du futur

J'ai retenu surtout ce projet qui me semble de grandes conséquences si ça marche :

Après avoir réussi à «ralentir» la décohérence au point d'en voir les effets, ces physiciens, et d'autres, veulent la contrarier, c'est-à-dire faire en sorte de l'empêcher ! Pour bénéficier des merveilles de la physique quantique, il faut en effet les préserver le plus longtemps possible. La maîtrise de l'équipe d'Haroche permet d'envisager des actions rétroactives sur le piège pour corriger les effets de la décohérence et prolonger la vie des états superposés.

- Alzheimer, enfin de l'espoir

L'article en ligne est assez complet sur la maladie qui résulte de la combinaison de 2 protéines dégénérées qui deviennent pathologiques. Les nouveaux traitements semblent apporter une amélioration notable. On avait déjà parlé du 2ème médicament, qui est le plus prometteur, mais le 1er est étonnant : du bleu de méthylène !

Pour la première fois, deux médicaments ont permis, lors d'essais cliniques, de ralentir spectaculairement la progression des symptômes de la maladie.

Le Rember et le Dimebon, deux médicaments anciens, aux modes d'action différents, ont ralenti la progression des symptômes de manière spectaculaire.

Le groupe «traité», avec 60 milligrammes de Rember trois fois par jour, a vu les symptômes de la maladie se stabiliser alors qu'ils s'aggravaient dans le groupe témoin, le taux de déclin cognitif ayant été réduit de 81% !

Le plus étonnant est que le composé actif du Rember n'est autre que le chlorure de methylthioninium, plus connu sous le nom de bleu de méthylène, prescrit, entre autres, contre les infections urinaires ! On recommande, cependant, de ne pas prendre de bleu de méthylène en automédication car la forme utilisée dans l'essai est beaucoup plus pure que celle disponible sur le marché.

Le Dimebon non plus n'est pas une nouvelle molécule. Le dimebolin hydrochlaride est un antihistaminique russe, autorisé depuis 1983, qui possède de multiples propriétés chimiques.

Les patients «placebo» avaient perdu 3,2 points sur l'échelle à la fin de l'essai, contre 0,68 seulement chez les «Dimebon» ! Le médicament semble bien toléré. Il peut susciter cependant une humeur dépressive, mais à un taux insuffisant (15%) pour renoncer à l'essai de phase III.

Selon Claude Wischick, le Rember est le premier médicament qui cible les agrégats formés dans les neurones par les protéines tau altérées, ralentissant, sans doute, leur action destructrice. Selon Rachelle Doody, le Dimebon, lui, réparerait les fonctions des mitochondries des neurones abîmés, stimulant la communication entre les neurones et contrecarrant la mort cellulaire.

- Les bouffées de chaleur reflètent la santé vasculaire

Les bouffées de chaleur sont de bons indicateurs de l'état des parois vasculaires à la ménopause. Une étude le prouve chez près de 500 femmes indemnes de toute affection cardio-vasculaire connue. En cas de bouffées de chaleur survenant entre 45 et 58 ans, la capacité de dilatation des artères coronariennes est significativement réduite et le risque de calcification des parois augmenté au niveau de l'aorte.

- Essai pour la sclérose en plaques

Un médicament développé il y a trente ans pour traiter des leucémies, l'alemtuzumab, représente aujourd'hui un espoir face à la sclérose en plaques, une affection neurologique qui concerne 2,5 millions de personnes dans le monde. Selon une étude de l'université anglaise de Cambridge publiée dans le New England Journal of medicine, l'alemtuzumab permettrait de réduire le nombre de poussées et aussi de récupérer certaines fonctions perdues. «Peut-être par la reconstitution du tissu cérébral», note l'étude. Un fait sans précédent alors que la maladie est caractérisée par la destruction inéluctable de la gaine de myéline qui entoure les nerfs. Les essais, doivent se poursuivre jusqu'en 2010.

Cependant, La Recherche précise les dangers de ce puissant immunosuppresseur : complications thyroïdiennes et rénales, hémorragies, etc., ce qui le réserve aux cas lourds...

- Bizarre comme un ornithorynque

Il n'y a pas que sa physionomie qui relève de la chimère. Le génome de ce mammifère ovipare, qui vient d'être décrypté, a réservé bien des surprises...

Dans l'incroyablement vaste bestiaire offert par la nature, l'ornithorynque détient sans conteste la palme de l'incongru. Rarement le brouet évolutif aura paru si facétieux, mélangeant des bouts de reptiles, de mammifères et d'oiseaux pour aboutir à un animal mosaïque. Mais le plus étonnant, c'est que si l'on y regarde de plus près, au coeur des gènes, c'est exactement la même chose ! Un assemblage de bric et de broc unique en son genre qui emprunte à plusieurs ordres du vivant, parfait point de charnière de la divergence des vertébrés. Quatre ans de travail auront été nécessaires à une équipe internationale de plus de cent chercheurs pour venir à bout du puzzle. Aujourd'hui décrypté, le génome de l'ornithorynque se révèle l'un des plus beaux cadeaux de l'évolution, en ce sens qu'il constitue une vraie mine d'or pour les scientifiques du monde entier.

C'est probablement dans la physionomie de ses chromosomes sexuels que l'ornithorynque fait le plus fort. Alors que dans les cellules de tous les autres mammifères, il n'existe qu'un chromosome X et un Y, l'ornithorynque, lui, compte 5 chromosomes X et 5 Y ! C'est bien la caractéristique qui épate le plus Jennifer Graves. «Cela semble une manière folle de déterminer le sexe. Ce que nous imaginons, c'est que ce système a évolué après un échange accidentel de gènes entre les chromosomes normaux et les sexuels.» Un mystère taraude tout particulièrement les chercheurs : comment se passe la détermination sexuelle chez cet animal ? Habituellement, elle se fait grâce au gène SRY situé sur le chromosome Y. Mais l'ornithorynque est le seul mammifère qui ne dispose pas d'un SRY. Lorsque l'on se penche sur les spermatozoïdes de l'animal, les bizarreries apparaissent légion. «Ils se comportent comme ceux des oiseaux, explique Jean-Louis Dacheux, du laboratoire Physiologie de la reproduction et des comportements (Inra/CNRS) : leur forme en tire-bouchon leur permet de progresser en tournant. Ils possèdent également la particularité de s'agglutiner en des paquets d'une centaine d'exemplaires qui vont remonter le tractus génital.» Cette formation en paquets n'avait jamais été repérée auparavant chez les mammifères, les reptiles ou les oiseaux. Pour Russell Jones, du département de Biologie de l'université de Newcastle (Callaghan, Australie), il faut sûrement y voir une «forme primitive de la maturation spermatique. Sous forme d'agrégat, la motilité du sperme augmente d'un facteur trois et elle permet d'accroître les capacités d'un individu à se reproduire». Dernière bizarrerie : la femelle a deux ovaires, mais un seul est actif, comme chez la poule. Sans que l'on sache pourquoi.

- Le lampadaire intelligent

Adapter l'éclairage aux besoins et tirer parti des énergies renouvelables. Tel est la double prouesse du Light Blossom, un nouveau lampadaire développé par Philips. Muni de LED, il diffuse sa lumière quand il détecte des gens marchant à proximité et réduit la luminosité quand ceux-ci s'éloignent ! Ses «pétales» couverts de cellules photovoltaïques tournent quand le vent souffle, convertissant vent et lumière solaire en électricité.



Brèves et liens



Physique


cosmologie, astronomie, physique quantique

- Le secret de la masse du proton enfin percé

Voilà qui semble plus satisfaisant que le boson de Higgs, expliquer la masse par l'énergie mais ce qui est étonnant, c'est que la masse du proton ne soit pas du tout l'addition de celle des 3 quarks qui le composent, ce qui n'expliquerait que 5% de sa masse, mais essentiellement par les interactions entre quarks qui augmentent donc son énergie considérablement, énergie de liaison qui explique que les protons ne se désintègrent pas sans doute, mais c'est quand même très étonnant.

Dans les noyaux des atomes, on trouve des protons et des neutrons. Ceux-ci sont eux-mêmes constitués de quarks et de gluons, sortes de petites sous-structures fondamentales. Or, la masse des gluons est nulle. Et, contrairement à ce que l'on pourrait penser, la masse des quarks qui composent un proton ne représente que 5% de la masse de ce dernier. D'où proviennent donc les 95% restants ?

Une équipe de physiciens français, allemands et hongrois vient de prouver que ces 95% résultent de l'énergie due aux mouvements des quarks et des gluons, et à leurs interactions.

Menés à partir du modèle standard qui décrit les interactions entre particules élémentaires, leurs calculs prouvent que la masse du proton résulte principalement de l'énergie portée par ces tous petits "éléments" que sont les quarks et les gluons, au travers de la célèbre formule d'Einstein E=mc2. Cette prouesse confirme la validité d'une théorie pour dépeindre les interactions fortes entre particules. Publiés dans Science le 21 novembre 2008, ces travaux ont été accomplis grâce à des supercalculateurs parmi les plus puissants au monde. Ils permettent d'envisager l'arrivée d'une nouvelle théorie en physique fondamentale, au-delà du modèle actuel, avec d'éventuelles découvertes dans le domaine des interactions faibles de quarks.

Pour parvenir à leurs fins, les chercheurs ont utilisé une approche où l'espace-temps est envisagé comme un réseau cristallin à quatre dimensions, composé de sites espacés le long de rangées et de colonnes. Leur principal défi était d'arriver à une solution qui corresponde à notre espace-temps continu, tout en contrôlant toutes les sources d'incertitudes liées aux calculs sur réseau. Sur le plan pratique, ce travail marque l'arrivée à maturité de méthodes numériques pertinentes pour l'étude des interactions fortes.

Les citations viennent de techno-science.

- Détection de matière noire et de dimensions supplémentaires ?

Ce n'est pour l'instant qu'une hypothèse, si c'était confirmé, il faudrait le mettre à la une mais tout pourrait se dégonfler si on trouvait une autre origine à ces électrons...

Au cours des années 2000, Atic, un instrument destiné à mesurer le flux de rayons cosmiques, a volé en ballon au-dessus de l’Antarctique. A la surprise des chercheurs, il a détecté un excès imprévu d’électrons hautement énergétiques. Il pourrait s’agir d’une preuve de l’existence de dimensions spatiales supplémentaires...

Comme ils l’expliquent dans Nature, les chercheurs ont mesuré près de 70 électrons très énergétiques entre 300 et 800 GeV. Cela représente trois fois le flux prédit par les modèles décrivant les sources de rayons cosmiques et leur propagation complexe dans le milieu interstellaire turbulent, couplé au champ magnétique de la Galaxie. Cette anomalie ne peut s’interpréter comme une fluctuation statistique. On pourrait la comparer à l’observation d’une dizaine de Ferrari en quelques minutes sur le bord d’une autoroute.

Or, étant donné leur nature et leurs énergies, de tels électrons ne peuvent provenir que d’une région située à une distance d’au maximum 3.300 années-lumière environ. En effet, la présence du champ magnétique de la Voie lactée et la collision avec des photons à basses énergies fait perdre rapidement de l’énergie à ces électrons au fil de leur voyage.

L’explication la plus probable et la moins exotique serait celle de la présence dans la banlieue proche de notre système solaire d’un pulsar ou même d’un micro-quasar accélérant des électrons et augmentant localement dans la Galaxie le flux d’électrons à ces énergies. Mais il existe une autre possibilité, encore plus fascinante, celle de la désintégration de particules de matière noire, des Wimp.

La prudence s’impose quand même, bien qu’aucun pulsar ou trou noir ne soit connu dans le voisinage du Soleil qui pourrait expliquer ces observations, cela ne veut pas dire qu’il n’en existe pas. Reste que les observations s’expliqueraient bien si l’on fait intervenir des particules de Kaluza-Klein d’une masse d’environ 620 GeV capables de se désintégrer lorsqu’elles rentrent en collision.

De telles particules sont prédites dans le cadre de modèles cosmologiques ou d’unification des forces avec des dimensions spatiales supplémentaires et sont de bons candidats pour expliquer au moins une fraction de la matière noire.

- Première détection de la matière noire ?

Publication par la collaboration CDF du Fermilab d’un surplus anormal de muons dans les collisions protons-antiprotons du Tevatron. Aucune explication ne semble crédible dans le cadre du modèle standard. Certains y voient la confirmation de certaines théories concernant la matière noire.

En étudiant les produits des réactions dans CDF, les chercheurs ont constaté un flux anormalement élevé de muons qui semble provenir de la désintégration de particules n’entrant dans aucune des prédictions du modèle standard !

Le plus surprenant est que si l’on introduit une nouvelle particule capable de se désintégrer en donnant des muons présentant les caractéristiques observées, on tombe sur l’existence d’un boson scalaire dont la masse est de l’ordre du GeV.

Trois semaines avant la publication sur Arxiv de l'article faisant état de cette anomalie, un groupe de théoriciens avait proposé un modèle de particules de matière noire faisant intervenir une particule très semblable à celle que CDF a peut-être détectée.

- Le LHC pas avant 2010 ?

C’est l’incertitude qui règne sur la date du redémarrage du LHC. D’après un séminaire donné récemment au Cern au sujet des problèmes avec les aimants dipolaires du secteur 34, dont les dysfonctionnements avaient entraîné un report des premières collisions à l’été 2009, les chercheurs auraient le choix entre deux options dont la plus sûre impliquerait un retard d’une année supplémentaire.

- L'antimatière révolutionnera-t-elle les voyages spatiaux ?

Des chercheurs américains viennent de découvrir une méthode étonnamment efficace pour produire de l’antimatière en grande quantité. Un faisceau laser bombardant une cible en or provoque en effet la création de milliards de positrons. Si elle est un jour appliquée à un système de propulsion, cette technique réduirait à quelques mois le voyage vers Mars...

On ne peut s’empêcher de rêver et d’y voir l’une des clés de la propulsion interplanétaire. Un tel mode de propulsion permettrait par exemple de se rendre sur Mars en quelques mois seulement, contre environ deux ans pour l'aller et le retour avec les techniques actuelles, ce qui diminuerait les risques d’irradiation par des éruptions solaires pour les explorateurs. En effet, plus on éjecte vite de la matière, ou des particules, plus il est possible d’atteindre des grandes vitesses avec une masse de carburant faible. Ejecter des particules à la vitesse de la lumière ou presque serait donc la solution idéale minimisant tout à la fois les temps de voyage et la taille des vaisseaux.

Pour se rendre compte à quel point cela est vrai on peut estimer qu’un vaisseau spatial de 100 tonnes à propulsion photonique, avec des photons gamma résultant de l’annihilation de particules de matière et d’antimatière, ne nécessiterait que 4 milligrammes d’antimatière (plus 4 mg de matière...) pour un aller simple sur Mars ! Qu'on ne s'y trompe pas toutefois. Produire cette petite quantité d'antimatière nécessite une énergie colossale et il est douteux qu'un engin quitte la Terre avec une telle bombe à bord. Si dans une trentaine d’années la propulsion à antimatière devient possible, ce sera peut-être en utilisant un laser pour générer des positrons à bord d’un vaisseau spatial selon le processus aujourd’hui découvert par les chercheurs.

- Les glaciers cachés de Mars dévoilés par un radar

D’immenses glaciers se cachent sous des couches rocheuses de la planète Mars, non pas aux pôles mais dans des régions centrales de l’hémisphère nord et sud. Il s’agirait des plus grosses réserves d’eau de la planète rouge.

Voir aussi Futura-Sciences.

- L'hadéen favorable à la vie il y a 4 milliards d'années ?

Les géologues s’en doutaient et les preuves s’accumulent, même si la messe n’est pas encore dite : il y a quatre milliards d'années, la Terre de l’Hadéen ressemblait déjà à celle d’aujourd’hui avec ses océans et, surtout, une tectonique des plaques.

L’image qui prévaut encore de l’Hadéen est celle d’une ère infernale dominée par un volcanisme et un bombardement météoritique intense et où les océans et une croûte solide ne sont apparus que tardivement. Graduellement, cette image est en train de changer et la possibilité que, moins de 200 millions d’années après sa naissance, la Terre était déjà dotée d’océans, n’est plus considérée comme une absurdité sans fondement parmi les chercheurs en géosciences.

Les chercheurs restent tout de même prudents, il se pourrait que des processus géologiques propres aux conditions de cette époque, et que nous imaginons difficilement, faussent cette conclusion. Reste que plusieurs indications sont convergentes et il est probable que l’Hadéen porte mal son nom, donc que la Terre ait été rapidement propice à l’apparition de la vie.

 

Climat


- Le retour des taches solaires

Le minimum de l’activité solaire semble désormais derrière nous si l’on en croit les dernières observations de Soho montrant une reprise de l’activité solaire, sous la forme d'un groupe de taches dans l’hémisphère nord.

Toutefois, le nombre de taches solaire est resté anormalement bas pendant toute cette année, établissant même un record de calme depuis 50 ans.

Le nombre et la violence des orages solaires vont donc progressivement augmenter et la météorologie spatiale va donc se dégrader progressivement avec des risques accrus d'apparition de bouffées d'électrons tueurs.

Notons que La Recherche du mois de décembre consacre un numéro à la réfutation des sceptiques, notamment sur la part du soleil dans le réchauffement par rapport à la part humaine. Malgré la baisse d'activité solaire et une phase la nina, 2008 a quand même été la dixième année la plus chaude depuis 1850 bien que la moins chaude depuis 1999 !

- Le réchauffement peut-être surestimé

Il faut attendre confirmation mais voilà ce qui pourrait être une très bonne nouvelle même si cela ne veut pas dire qu'il n'y aurait plus de soucis à se faire.

Une publication dans Nature Geosciences suggère que l’ampleur du réchauffement climatique mondial pourrait être moins importante dans le futur que ne le prédisaient jusqu’ici les modèles. En effet, l’influence du carbone laissé dans les sols après un incendie de forêt a été sous-estimé...

Les chercheurs font état des mesures effectuées en Australie dans le sol de régions où sévissent fréquemment des incendies de savane. Ils y ont trouvé un taux de black carbon bien plus élevé que ce que l’on imaginait. Ce dernier peut rester dans le sol des milliers d’années et lorsque l’on introduit sa présence dans les modèles climatiques, la quantité de gaz carbonique relâché dans l’atmosphère par le réchauffement climatique dans deux des savanes australienne étudiées est diminuée de 20 % sur 100 ans.

Ce résultat est d’importance car la quantité de CO2 émise dans l’atmosphère chaque année par les sols est dix fois plus importante que celle dont l’humanité est responsable. Il faudrait bien sûr avoir des estimations précises des quantités de black carbon partout sur la planète avant d'en tirer des conclusions hâtives. Mais il semble probable que le réchauffement climatique sur 100 ans sera plus faible que prévu. Cela n’a pas de quoi rendre vraiment optimiste quand on se souvient que certains des scénarios de réchauffement climatique, même revus légèrement à la baisse, resteront très préoccupants.

Ajoutons que, selon Science&Vie (p38), le réchauffement du pôle sud pourrait paradoxalement étendre la surface de la glace et donc augmenter son pouvoir réfléchissant, constituant ainsi une rétroaction négative limitant le réchauffement. Hélas, sur le pôle nord, la fonte de la banquise a l'effet inverse et, en octobre, le passage du nord-ouest était encore ouvert sans avoir besoin de brise-glace...

- Le refroidissement de l’océan était dû... à une erreur instrumentale

En 2006 paraissait un article qui montrait que depuis 2003 et contrairement à toute attente, l’océan mondial se refroidissait à un rythme soutenu. Cette conclusion était en contradiction flagrante avec l’idée que le réchauffement actuel est, au moins en partie, dû à une augmentation des gaz à effet de serre. Elle contredisait aussi d’autres observations (hausse du niveau de la mer, mesures satellitaires d'un déséquilibre positif du radiatif...). L'explication est aujourd'hui comprise : il s’agissait d’erreurs de calibration d'un lot de bouées Argo mesurant la température de l'eau.

- Augmentation de l’acidité de l’océan 10 fois plus rapide que prévue

La pollution due à l’activité humaine augmente par endroit l’acidité des océans au moins 10 fois plus rapidement que prévu et représente une menace pour les coquillages marins.

« Les tendances montrent la possibilité que les moules soient remplacées par d’autres espèces sont plus élevées que pour les espèces dépourvues de coquilles calcaires, » estime-t-il.

L’étude montre que d’autres espèces occupent rapidement l’espace précédemment occupé par les moules, même si l’une d’entre elles, les balanes, est également pourvue d’une coquille.

La constatation la plus troublante effectuée par le professeur Wootton est la vitesse à laquelle augmente l’acidification, avec une baisse du niveau de pH beaucoup plus rapide que ce qui était précédemment estimé. « Elle est 10 à 20 fois plus rapide que ce que les modèles antérieurs prévoyaient. » avertit-il.

- Près de deux mille ans d'archives climatiques dans une stalagmite

Au fond de la grotte Wanxiang, en Chine, gisait un trésor pour climatologues : une stalagmite qui a, durant 1.810 ans, enregistré les variations de son environnement. Les scientifiques y ont découvert un lien étroit entre l’intensité des moussons asiatiques, la température de l’hémisphère nord et les fluctuations des glaciers, et ont pu y lire les périodes de faste et de déclin des dynasties chinoises durant deux millénaires.

L’examen des strates montre une série de fluctuations séculaires et multiséculaires étonnamment similaires à celles enregistrées dans l’ensemble de l’hémisphère nord, comprenant la période chaude actuelle (Current Warm Period, CWP), le petit âge glaciaire (Little Ice Age, LIA), la période chaude médiévale (Medieval Warm Period, MWP) et la période froide antique (Dark Age Cold Period, DACP).

Entre 190 et 530 de notre ère, correspondant à la fin de la dynastie Han et à la majeure partie de l’ère de la Désunion, l’intensité de la mousson était modérément intense mais soumise à d’importantes fluctuations. Puis de 530 à 850 (fin de l’ère de la Désunion, la dynastie Sui et la majeure partie de la Dynastie Tang), les moussons déclinent pour atteindre un minimum en 860. Elles resteront encore peu abondantes de 910 à 930, puis leur intensité s’accroîtra durant six décennies, atteignant un maximum en 980, conservant des valeurs élevées jusqu’en 1020. Cette période correspond aux six premières décennies de la dynastie chinoise nommée Northern Song Dynasty (960 – 1127), période particulièrement faste.

Bien que s’affaiblissant progressivement, les moussons resteront relativement intenses jusqu’à connaître une forte baisse entre 1340 et 1360, jusqu’à retrouver un niveau normal puis une forte intensité entre 1850 et 1880.

La période sèche du IXe siècle a été évoquée comme responsable du déclin de la dynastie Tang ainsi que de celui du peuple Maya en Amérique du Sud. La chronologie à partir du IXe siècle conforte cette idée en la prolongeant jusqu’au deuxième millénaire, notamment par la superposition de périodes sèches avec le déclin de grandes dynasties chinoises. La période de moussons abondantes de six décennies à partir de 930, avec un maximum en 980, correspond à un accroissement spectaculaire de la culture du riz, une explosion démographique de la population et marque aussi le début d’une période de stabilité politique. En outre, le déclin et la fin des dynasties Yuan et Ming surviennent en période de moussons d’été particulièrement faibles.

Autre corrélation intéressante : les variations des moussons suivent un cycle d’environ onze ans, comme l’activité solaire, qui connaît un pic tous les onze ans. Encore une fois, même si l’activité solaire n’est pas le seul facteur en cause, elle semble être un des acteurs du jeu.

La corrélation entre l’intensité des moussons et la température s’est subitement interrompue autour des années 1960, suggérant que les gaz à effet de serre et les aérosols pourraient désormais exercer une influence plus importante que la mousson sur le climat.

- En Asie, la pollution atmosphérique contrarie la mousson et accélère la fonte des glaciers

La forte pollution atmosphérique provoquée par les combustibles fossiles modifie en profondeur le climat et les conditions de vie en Asie, révèle une étude publiée par les Nations Unies. Si les poussières en suspension réduisent l’effet du réchauffement climatique au sol en absorbant une part du rayonnement solaire, elles provoquent également une élévation de la température de l’atmosphère qui perturbe sensiblement le régime des moussons et accélère la fonte des glaciers de l’Himalaya et du Tibet, où prennent leur source les grands fleuves qui irriguent toute l’Asie. Les concentrations d’ozone dans l’atmosphère perturbent également le développement de certaines cultures qui manifestent une grande sensibilité à sa présence.

- Gaz à effet de serre: un niveau record en 2007

Les derniers chiffres publiés par l'OMM montrent que la part du dioxyde de carbone s'est accrue en 2007 de 0,5% depuis 2006, celle de l'oxyde nitreux de 0,25%, et celle du méthane de 0,34%.

Au total, l'OMM calcule que l'effet des gaz à effet de serre sur le réchauffement planétaire du fait de la captation des rayons solaires dans l'atmosphère s'est accru en 2007 de 1,06% par rapport à 2006 et de 24,2 % par rapport à 1990.

- Pour l'AIE, on va à la catastrophe...

Il ne faut pas se fier au prix actuel du pétrole qui devrait remonter avec la reprise de l'activité mais c'est le scénario du pire qu'annonce l’Agence Internationale de l’Energie (qui est loin d'être un repère d'écologistes) avec une augmentation du charbon surtout, même si les renouvelables deviendront la deuxième source d'électricité après 2010 ! Il faut savoir qu'une augmentation de 6° c'est la catastrophe absolue...

« Les tendances actuelles dans l’approvisionnement et la consommation d’énergie sont manifestement non soutenables - écologiquement, économiquement et socialement. Elles peuvent et doivent être modifiées », avertit Nobuo Tanaka, le directeur exécutif de l’Agence Internationale de l’Energie. Mettant en garde contre les tensions prévisibles en raison du déclin accéléré des gisements et de la hausse de la demande - il faudra mettre en production l’équivalent de 6 Arabie Saoudite d’ici 2030 - il estime que « l’ère du pétrole bon marché est terminée. » Sur le volet de la lutte contre le réchauffement climatique, les difficultés ne s’annoncent pas moindres. Même si les pays de l’OCDE réduisaient à rien leurs émissions, la limite des 450 ppm d’équivalents-CO2 serait malgré tout dépassée.

La hausse des importations de pétrole et de gaz dans les régions de l’OCDE et les pays en développement d’Asie, avec la concentration croissante de la production dans un petit nombre de pays, accroît le risque de ruptures d’approvisionnement et de forte hausse des prix. Dans le même temps, les émissions de gaz à effet seraient inexorablement accrues, mettant le monde sur les rails d’une augmentation de la température mondiale pouvant aller jusqu’à 6 ° C.

- Le plan Borloo pour les énergies renouvelables

Il est nécessaire que la France multiplie par 400 les capacités photovoltaïques existantes, par 12 la production via la biomasse et par 10 celle de l’éolien.

L’intégration du photovoltaïque dans la construction se révèle hautement prioritaire, tant au niveau industriel que du particulier. Pour ce dernier, les démarches administratives devraient être considérablement simplifiées, le crédit d’impôt maintenu et le statut fiscal simplifié. Le tarif d’achat de 55 centimes d’euro au kWh est confirmé pour les petites surfaces et devrait agir comme un incitant à l’investissement.

Surtout, le plan Borloo prévoit d’ici 2011 au plus tard la construction d’au moins une centrale solaire par région, afin de produire une puissance cumulée de 300 MW.

 

Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

- L'intelligence de l'homme due à des neurones plus performants

D'autres animaux pouvant épisodiquement se servir d'outils primitifs, on a pu attribuer avec quelques raisons l'humanité de l'homme au langage mais aussi au développement de ses neurones miroirs, à sa néoténie ou tout simplement à ses capacités cognitives, largement sociales, imputées en général au néocortex alors que nous devrions peut-être nos performances à de nouveaux types de neurones, avec amplification du signal et connectivité multipliée, qui nous seraient vraiment spécifiques et augmenteraient radicalement la rapidité de traitement et la capacité de faire des liens entre phénomènes. C'est un changement important de point de vue, qui exige donc confirmation mais pourrait avoir une grande portée.

Lorsque la chercheuse calcule la valeur relative, c'est-à-dire le pourcentage du néocortex frontal par rapport à la totalité des hémisphères, l'homme tombe de son piédestal. Son néocortex préfrontal occupe entre 36,4% et 39,3% du volume cérébral total, chiffre comparable à ceux calculés chez les orangs-outangs (36,6 à 38,7%) ou chez les gorilles (35 à 36,9%) ! L'homme n'a donc pas un néocortex frontal surdimensionné, comme on l'a longtemps dit et répété. «Les capacités cognitives humaines couramment attribuées à un «avantage frontal» seraient plutôt dues à deux autres facteurs, estime l'anthropologue, des différences microstructurelles des zones corticales et une interconnectivité plus riche

Pour 177 cellules pyramidales, un seul message entrant déclenche, par une réaction en chaîne, l'excitation d'une centaine de neurones ! Un phénomène jamais observé chez un mammifère.

Autrement dit, il existerait des supercellules pyramidales capables de déclencher une avalanche de réactions à partir d'une seule stimulation, faisant du néocortex une machine ultra-efficace. «Cette propriété n'a été retrouvée, pour le moment, ni dans les cellules de rat, ni chez le singe», affirme Gabor Tamas. Ce serait une propriété intrinsèque des microcircuits humains, mise en évidence surtout dans les échantillons provenant de la zone frontale du néocortex

«Il semble qu'elle amplifie le signal entrant. Elle aide ainsi le cortex à transmettre les plus longues séquences d'information. Elle a une voix très forte, si elle a quelque chose à dire, tout le monde l'entend !»

«Notre modèle montre que c'est la vitesse de transmission entre ces régions qui peut faire une différence cruciale entre deux cerveaux».

Les participants ayant obtenu les plus hauts scores de réussite ont utilisé le moins d'énergie pour leur cerveau. Comme si les meilleurs cerveaux étaient les plus économes.

- La polyvalence insoupçonnée de nos gènes

Encore de quoi remettre en cause profondément notre compréhension de la génétique, même s'il n'y a rien de vraiment neuf en dehors de l'ampleur de ce qu'on appelle l'épissage alternatif qui augmente considérablement la complexité génétique et semble condamner les approches réductionnistes. Les traitements génétiques se révèlent malgré tout efficaces pour corriger certains défauts génétiques, mais c'est la maîtrise des OGM qui en dévient beaucoup plus problématique. Dans le vivant, on ne peut juger que par le résultat qui seul compte.

Plus de neuf gènes sur dix seraient capables de produire des protéines distinctes aux rôles différents voire antagonistes. Leur expression varie d'un tissu à l'autre et même d'une personne à l'autre. Appelé épissage alternatif, ce phénomène était déjà connu, mais son ampleur inattendue vient d'être révélée par le travail de deux équipes américaines.

Chez les eucaryotes, les gènes sont interrompus par d'étranges séquences, les introns, qui ne contiennent pas d'informations sur la protéine à fabriquer. Les parties codantes, appelées exons, doivent être raboutées au moment de la lecture du gène par un mécanisme dit d'épissage. Une longue molécule d'ARN messager vient alors copier l'intégralité du gène, sans tenir compte des introns.

Il est apparu que, durant cette opération, la copie produite n'était pas toujours la même. Il arrive en effet qu'un petit morceau de code, inclus dans les exons, ne soit pas copié sur l'ARN messager. La protéine résultante est donc différente. C'est l'épissage alternatif, un mécanisme sous le contrôle d'un ensemble de molécules appelé spliceosome (en anglais, splice signifie épissage). Ces protéines sœurs, issues d'un même gène par des voies différentes, sont des isoformes.

Les généticiens ont d'abord pensé que le phénomène était rare. L'équipe américaine affirme que nous en sommes à 94%. Le joli mécanisme découvert chez les bactéries, par lequel un gène d'un seul tenant donne à chaque lecture la même protéine, n'est donc plus, chez un mammifère comme l'être humain, qu'une exception marginale...

Les chercheurs ont montré que la nature des isoformes produites dépend fortement du tissu. Ainsi, un même gène ne donnera pas la même protéine selon qu'il est présent dans une cellule du cerveau ou d'un muscle. Les effets de deux isoformes peuvent être très différents, voire contraires comme le soulignent les auteurs américains. Dans un même tissu, les isoformes peuvent changer au fil du développement embryonnaire et de la progression de la différenciation des cellules. Enfin dans une tumeur cancéreuse, les isoformes peuvent aussi être différentes de celles des cellules du tissu originel.

- Chez les Homo erectus, les bébés avaient déjà la grosse tête

D’après la forme du pelvis fossilisé vieux de 1,2 millions d’années découvert en 2001 en Ethiopie, des chercheurs affirment aujourd’hui que les femmes Homo erectus mettaient au monde des bébés qui avaient déjà une grosse tête.

La croissance du cerveau pendant la gestation serait ainsi comparable à celle des hommes actuels mais la croissance post-natale serait plus proche de celle des chimpanzés (le cerveau adulte des H. erectus étant plus petit que celui des H. sapiens).

Ces observations signifient que le développement d’humains dotés de gros cerveaux étaient déjà bien en place il y a 1,2 million d’années. Cela ne veut pas dire pour autant que l’enfance des Homo erectus était comparable à la nôtre. Différentes études, notamment de la croissance des dents, ont montré que ces ancêtres atteignaient beaucoup plus tôt la maturité et l’âge de la reproduction (estimé vers 15 ans) que les humains actuels (19,3 ans).

D’après l’étude du jeune sapiens découvert à Jebel Irhoud (Maroc), on estime par ailleurs que les hommes modernes qui vivait il y a 160.000 ans connaissaient une longue enfance comparable à la nôtre. Les chercheurs estiment donc globalement que le tournant s’est produit il y a entre 800.000 et 200.000 ans, à un moment où les avantages d’une enfance prolongée, permettant un développement plus important du cerveau, l’ont emporté sur les risques de cette période de fragilité et de dépendance aux adultes et sur les inconvénients d’une reproduction plus tardive.

Voir aussi Futura-Sciences.

- Vers une interdiction de la recherche sur les grands singes ?

Selon la proposition présentée cette semaine par la Commission européenne, les recherches sur les grands singes ne seront autorisées que si elles ont pour but la préservation de ces espèces en danger ou si une menace lourde de type pandémie de grippe menace la population et que rien ne peut remplacer des tests sur les grands singes.

La proposition de directive souhaite par ailleurs en finir progressivement avec la capture de primates à l’état sauvage et recommande donc de mener les recherches sur des animaux nés en captivité.

En Allemagne, un chercheur spécialisé en neurosciences risque de devoir arrêter ses recherches sur les macaques: Andreas Kreiter a appris le 15 octobre que sa licence –qui s’achève le 30 novembre- ne sera pas renouvelée par les autorités locales de Brême. L’année dernière le parlement local avait voté pour demander à l’Etat d’interdire les recherches de Kreiter. Ses travaux consistent à enregistrer l’activité des neurones des macaques lorsqu’ils exécutent des tâches précises.

- Triplement du nombre d’espèces menacées au Brésil

Progression de la déforestation de 2002 à 2008 :

627 espèces animales sont en voie de disparition au Brésil, soit trois fois plus qu’il y a quinze ans.

Parmi toutes ces 627 espèces, on dénombre 69 mammifères, 160 oiseaux, 20 reptiles, 16 amphibiens, 154 poissons et 208 invertébrés.

- Premier clonage réussi de souris congelées !

Une équipe japonaise a obtenu des clones de souris à partir d'animaux morts et congelés depuis une semaine, un mois... et 16 ans. La technique est nouvelle et prometteuse, d'autant que ces souris avaient été congelées sans traitement cryoprotecteur.

Les scientifiques ont utilisé plusieurs organes donneurs. Curieusement, les meilleurs résultats ont été obtenus avec les neurones. Aucune explication certaine n'est donnée mais les chercheurs avancent l'idée que les neurones résistent mieux à la congélation grâce à leur richesse en glucose.

Ce premier clonage à partir de tissus morts est un espoir de faire revenir à la vie une espèce disparue. Mais il reste mince car il faudra alors trouver une mère porteuse et le matériel génétique doit être intact. Ce n'est jamais le cas pour des organismes fossilisés ou même naturellement congelés dans le pergélisol, comme les mammouths. On peut aussi imaginer congeler dès maintenant des animaux d'espèces en voie de disparition.

- L’ADN du mammouth laineux reconstitué à 80%

Pour la première fois le matériel génétique d’un animal disparu a pu être reconstitué. Une première étape vers une possible (mais encore improbable) renaissance.

Ce matériel a pu être rassemblé, par une équipe internationale, à partir de plusieurs échantillons d’ADN extraits de poils de mammouths préservés dans le pergélisol. Bien qu'il y ait encore des pièces manquantes, Stephen Schuster (Pennsylvania State University, USA) et ses collègues sont convaincus que la séquence reconstituée du mammouth laineux est d'environ 80%.

Cet ADN nucléaire contient l’intégralité des informations nécessaires à la «fabrication» d’un mammouth. En théorie, du moins. Nature publie d’ailleurs une sorte de «recette» décrivant les étapes de la procédure à accomplir pour donner naissance à un mammouth viable. Si certaines semblent actuellement hors de portée technique (reconstruction synthétique de chromosomes, fécondation d’un ovule d’éléphant…), elles pourraient être envisageables demain.

Voir aussi Futura-Sciences.

- Les premières tortues sans carapace ?

Elle n’a pas de carapace mais possède déjà une structure osseuse qui rigidifie son ventre ; elle n’a pas de bouche en forme de bec comme les tortues actuelles mais une jolie rangée de dents. Agée de 220 millions d‘années, Odontochelys semistestacea -littéralement tortue à dents et à demi-carapace- est le plus ancien fossile connu apparenté aux tortues. Découvert dans le sud-ouest de la Chine, dans des sédiments marins datant de la fin du Trias, ce fossile a des caractères primitifs, comme ses dents et sa longue queue, qui pourrait en faire un ancêtre très ancien, un nouveau point de repère de l’évolution des tortues.

Selon Xiao-chun Wu, paléontologue au Muséum d’Ottawa (Canada), et ses collègues, le plastron, la partie rigide sous le ventre, les aurait protégées des prédateurs attaquant par en-dessous. La carapace supérieure et sa structure osseuse n’aurait évolué qu’ensuite, comme on l’observe aujourd’hui au cours du développement embryonnaires des tortues.

- Les fourmis stériles sont moins agressives

Alors que les fourmis les plus primitives peuvent se reproduire, ce qui crée des conflits avec la reine et leurs congénères, les fourmis les plus évoluées sont stériles ce qui réduit les conflits et permet des colonies beaucoup plus nombreuses. Un tel contrôle de la fertilité pourrait se retrouver dans d'autres espèces (y compris les humains où la fertilité pourrait baisser en fonction de la densité de la population) mais prouve surtout que la sélection naturelle n'opère pas tant au niveau de l'individu que du groupe ou de l'espèce, ce que Darwin avait déjà remarqué bien que cela semblait fragiliser sa théorie des mutations individuelles, ce qui n'est pas le cas mais entraîne notamment que la vieillesse, succédant à la transmission de ses gènes n'est pas pour autant laissée au pur aléatoire mais est assez finement contrôlée génétiquement, par sélection de groupe sur sa viabilité à long terme. Sinon la relation entre sexualité et agressivité n'est pas nouvelle en soi mais aurions-nous vraiment une plus grande sociabilité sans sexualité ?

"Les différentes espèces de fourmis présentent des niveaux différents de cette 'contrainte de reproduction', et nous croyons que ces niveaux fournissent une mesure du degré d'eusocialité de la colonie. Moins les ouvrières se reproduisent, plus les groupes deviennent unis."

L'existence de castes de fourmis stériles tourmentait Charles Darwin lorsqu'il a formulé sa théorie de la sélection naturelle, et il les a décrites comme la "seule difficulté particulière qui, à prime abord, m'est apparue insurmontable, et en fait fatale pour ma théorie". Si l'évolution adaptative s'effectue grâce à la survie différentielle des individus, comment des individus incapables de transmettre leurs gênes peuvent-ils évoluer et persister?

Darwin suggérait que, dans le cas des colonies de fourmis, la sélection naturelle ne s'applique pas uniquement à l'individu, parce que l'individu ne profiterait jamais de l'élimination de ses propres capacités de reproduction, mais aussi à la famille ou au groupe.

- Plus il fait chaud, plus les tiques s'attaquent à l'homme

En avril et mai 2007, printemps le plus chaud depuis 50 ans en France, une petite épidémie de rickettsiose a été rapportée dans le sud de la France. De même, pendant les étés très chauds en 2003 et 2005, les cas de fièvre boutonneuse ont augmenté. Didier Raoult et ses collègues ont vérifié expérimentalement l’effet de la hausse des températures sur la tique brune : à 25°C, elle préfère piquer les chiens, à 40°C elle montre une nette affinité pour l’homme. C’est sur la tique immature que la chaleur a le plus d’effet : or à ce stade elle ne démange pas encore et peut donc s’accrocher à la peau sans être remarquée.


 

Santé


génétique, traitements, nutrition, hygiène

- Le vin contre le mécanisme universel de vieillissement !

Rien de nouveau dira-t-on, sauf qu'on vient de comprendre pourquoi le resveratrol contenu dans le vin permettait d'allonger la vie en retardant le mécanisme universel du vieillissement !

La définition du vieillissement ici, c'est l'arrêt de la reproduction des cellules qui serait dû au fait que la protéine SIRT1 chargée de la réparation de l'ADN serait aussi nécessaire à sa reproduction et qu'avec l'accumulation des dommages subis par l'ADN il ne resterait plus de protéine libre, toutes occupées à réparer l'ADN, bloquant du même coup la reproduction (sans doute pour ne pas reproduire un génome endommagé qui ne serait pas viable). Ce serait le même phénomène dans les levures déjà et donc un mécanisme universel, ce qui ne veut pas dire que ce soit la seule cause du vieillissement mais qu'on pourrait agir facilement sur celui-là peut-être.

Or le resveratrol présent dans le vin (et le raisin) est bien connu pour stimuler SIRT1 et allonger la vie... Le vin n'est pas un aliment, c'est un médicament pour les vieux. Ceci dit, on sait aussi que jeûner ou manger très peu stimule SIRT1, mais on nous prépare des médicaments avec des doses de resveratrol sans commune mesure avec ce qu'on trouve dans le raisin ! C'est à peu près la seule piste à l'heure actuelle pour allonger la vie mais elle semble de plus en plus sérieuse.

- Des pesticides dans le raisin et le vin

Malheureusement, ce sont les vignes qui consomment le plus de pesticides et les bienfaits du vin pourraient être effacées par les méfaits des traitements chimiques...

Une grande enquête a été menée par 5 ONG , dont le MDRGF pour la France, dans 5 pays européens (Italie, France, Pays-Bas, Hongrie et Allemagne) dans des magasins appartenant à 16 enseignes différentes.

Résultats globaux :

  • 99,2% des raisins analysés contenaient des résidus de pesticides! Soit 123 des 124 échantillons testés. Seul un échantillon ne présentait pas de trace de pesticides.
  • 0.65mg/kg de pesticide (matière active) trouvé en moyenne par échantillon.
  • 20% des raisins étaient contaminés par 10 ou plus de 10 pesticides différents.
  • 4,8% des échantillons dépassaient les nouvelles Limites Maximales en Résidus européennes (LMR), des limites légales qu'on ne doit pas dépasser !
  • 3 échantillons contenaient des pesticides interdits dans les pays de production.
  • Un échantillon dépassait la dose de référence pour la toxicité aiguë de l'Organisation mondiale de la santé! Le dépassement de cette dose de référence, même une seule fois, peut endommager la santé humaine, en particulier la santé des enfants.

Et parmi tous ces pesticides de nombreuses matières actives présentaient des risques potentiels pour la santé. On a trouvé des pesticides neurotoxiques, suspectés d’être cancérigènes ou encore pouvant perturber le système hormonal.

- Test sanguin en 10mn

Cette puce serait capable de détecter en 10mn la présence de 35 protéines spécifiques de certains cancers.

- Un nouveau traitement contre le diabète

Grâce à la découverte d’une nouvelle voie d’assimilation du glucose dans les cellules, des chercheurs français espèrent à terme offrir des moyens alternatifs pour soigner le diabète. Les espoirs reposent sur une hormone, l’apeline, qui a les mêmes effets que l’insuline.

Normalement, c’est l’insuline qui assure la régulation de la glycémie en permettant aux cellules de capter le glucose en circulation dans le sang en fonction des besoins de l’organisme. Chez les diabétiques de type 1, le système ne fonctionne pas faute d’insuline et il faut compenser par des piqûres régulières. Chez les diabétiques de type 2, dits insulino-résistants, ce sont les récepteurs à l’insuline qui deviennent insensibles. Cette maladie est une complication fréquente de l’obésité.

C’est là que l’apeline entre en scène : elle a les mêmes effets que l’insuline tout en utilisant une autre porte d’entrée de la cellule, révèlent les chercheurs. Par conséquent, même lorsque les récepteurs à l’insuline sont défaillants, la voie d’action de l’apeline reste active et efficace.

Voir aussi Futura-Sciences.

- L'injection jet : une nouvelle thérapie génétique contre le cancer

Ce procédé inédit, l'injection jet, consiste à injecter, sous haute pression, de l'information génétique dans un tissu tumoral. Lors de l'étude clinique réalisée avec succès sur 17 sujets, les scientifiques sont parvenus à injecter, de manière précise et efficace, un gène directement dans la tumeur des patients.

Contrairement aux méthodes utilisant des virus inoffensifs porteurs d'un message génétique qui sera ensuite dirigé vers une tumeur pour la traiter, la technique d'injection jet n'emploie pas de support protecteur, le gène se suffit à lui-même pour être appliqué à la tumeur. Ce procédé requiert par ailleurs des quantités bien moins importantes de matériel génétique. D'après le Dr. Walther, l'utilisation d'un traitement génétique dépouillé de toute enveloppe biologique présenterait deux avantages. Dans un premier temps, il permettrait d'éviter les problèmes que peuvent parfois causer les traitements anti-tumoraux utilisant un virus comme vecteur biologique.

- Les propriétés anti-inflammatoires des statines

Il y a une polémique sur le sujet mais si toute substance active a des effets secondaires et comporte des risques (tout dépend du bon diagnostic et de la dose), le bilan est tellement positif que l'étude a dû être interrompue tellement il y a avait des différences de mortalité entre le groupe statine et le groupe placebo ! Cela n'empêche pas qu'il faut souhaiter qu'on trouve mieux mais l'important c'est de bloquer coûte que coûte l'inflammation qui est notre tueur silencieux (et qu'on peut réduire aussi par l'alimentation et l'exercice).

Les chercheurs associés au projet international JUPITER ont démontré qu'un taux élevé de la protéine hs-CRP (protéine C réactive-ultasensible) entraine un risque accru et « grandement sous-estimé »de maladies cardiovasculaires. Mais plus important encore, ils ont découvert que ce risque pouvait être abaissé de 44% grâce à un traitement à base de statines, des médicaments anti-cholestérol (et 21% de baisse de mortalité).

Les statines ayant la propriété de faire baisser le taux de cholestérol, elles sont actuellement utilisées pour la prévention des maladies cardiovasculaires chez les patients ayant un risque lié à un taux de cholestérol élevé. Or les maladies cardiovasculaires résultent aussi d'une inflammation des vaisseaux sanguins, dont un des marqueurs est le taux de hs-CRP. Ces résultats démontrent que les statines agissent aussi bien sur le cholestérol que sur l'inflammation, un résultat suspecté depuis longtemps mais qui n'avait pas été prouvé.

- Alzheimer : le ginkgo non, le THC peut-être

On a vu que des traitements plus efficaces contre l'Alzheimer arrivent bientôt mais il faudra peut-être combiner plusieurs anti-inflammatoires quand même. Le fait que le ginkgo biloba ne protège pas de la démence ne signifie en aucun cas qu'il serait sans vertus, améliorant la circulation au moins.

De nouvelles études à paraître disqualifient le ginkgo biloba comme thérapie contre la démence. En revanche, le THC (principe actif du cannabis) serait bon pour le cerveau des personnes âgées car il réduit les états inflammatoires.

Les résultats de l'étude montrent que 240 mg de ginkgo quotidien n'ont aucun effet sur l'apparition de la démence ou le développement de la maladie d'Alzheimer.

En revanche, les chercheurs de l’université de l’Ohio ont présenté aujourd’hui lors d’un congrès de neurosciences des données préliminaires indiquant que le THC peut être bon pour le cerveau des personnes âgées en réduisant l'inflammation cérébrale et peut-être même en stimulant la formation de nouvelles cellules du cerveau.

Signalons que Rue89 a fait un article sur le cannabis thérapeutique, faisant le point des recherches, suite à la découverte de l'action antibiotique de certains de ses composés contre le staphylocoque doré résistant à la méticilline (MRSA) qu'on avait signalé au mois d'octobre, ou ses propriétés anti-douleurs et anti-inflammatoires. On cite aussi son action contre les tumeurs du poumon chez les souris ou la détérioration des artères cardiaques chez les rats, ou encore inflammations de l'intestin, allergies de la peau, athérosclérose, ostéoporose, scléroses en plaques (SEP), etc.

Un médicament appelé Sativex -qui délivre deux composés cannabiques en spray sous la langue- en est maintenant au dernier stade des essais cliniques en Europe pour les patients atteints de SEP.

A noter aussi qu'on a trouvé du cannabis cultivé dans la tombe d'un chaman chinois d'il y a 2700 ans, ce qui n'est pas si vieux puisqu'on vient de retrouver en Israël une tombe de chamane vieille de 12000 ans mais sans drogues conservées cette fois, semble-t-il !

- Stimulation électrique contre le TOC

Les thérapies cognitives voulaient faire reconnaître leur statut de sciences face à la psychanalyse dans le traitement des Troubles Obsessionnels Compulsifs, entre autres, mais c'est la bionique qui pourrait avoir le dernier mot. La réussite n'est cependant pas évidente pour l'instant...

Concrètement, les patients ont subi une stimulation cérébrale profonde en continu d'une région du noyau sous-thalamique (ou subthalamique). Celle-ci nécessite l’implantation – par voie chirurgicale – de deux électrodes reliées à un stimulateur implanté sous la peau. Cette sorte de pacemaker neurologique délivre un courant électrique qui module les séquences de signaux anormaux émis par le cerveau.

Au terme d’une stimulation de 3 mois, 7 patients sur 10 ont répondu au traitement et ont vu leur état s’améliorer, avec la disparition de 25% de leurs symptômes en moyenne. « Mon cerveau est libre aujourd’hui », témoigne une patiente.

- Hyperactivité et surpoids, un manque de sommeil ?

Une étude québécoise sur plus de mille enfants semble montrer un lien entre des nuits trop courtes chez le très jeune enfant et l'apparition d'un surpoids vers 6 ans. Ce manque de sommeil serait aussi une cause du syndrome d'hyperactivité.

Je suis assez dubitatif sur cette théorie qui voudrait que l'hyperactivité et l'obésité soient dues au fait que les enfants ne dormiraient pas assez, ce qui veut dire moins de 10h par nuit. C'est sans doute vrai pour une partie des hyperactifs ou des obèses mais sûrement pas pour tous, de même que d'autres avaient voulu faire de la télévision le seul coupable (cela pourrait être relié car ceux qui regardent le plus la télé dorment moins). La question semble plutôt d'une plus ou moins grande fragilité individuelle au déficit de dopamine.

- Des thérapies en ligne...

Les programmes de santé en lignes se multiplient pour gérer son diabète ou même pour des psychothérapies minutes...

Depuis deux ans, l’Institut de la santé britannique a lancé également deux programmes en ligne : FearFighter, pour traiter les phobies et les paniques et Beating the Blues pour combattre les petites dépressions, qui ont montré également des résultats significatifs.

“Nous avons montré qu’anxiété en ligne était aussi efficace qu’une thérapie en face à face, alors que le programme sur le web prenait beaucoup moins de temps.” Les chercheurs de l’université de Melbourne travaillent à un programme de santé en ligne pour traiter des désordres psychiques plus sérieux, comme le trouble bipolaire via le programme international MoodSwings.

- Les recherches sur Google pour suivre les épidémies

Les questions qu'on pose à Google, notre seul ami, en disent beaucoup sur nous et notamment sur notre état de santé car si on recherche des informations sur la grippe, il y a pas mal de chance qu'il y ait quelqu'un de malade dans notre entourage, ce qui pourrait se révéler un signal très pertinent pour notre conscience collective mais avec pour contrepartie l'exploitation publique un peu effrayante de nos informations les plus intimes...

Aux Etats-Unis, Google.org prétend détecter les épidémies de grippe en analysant les requêtes des internautes. Son système Google Flu Trends serait plus rapide que les services d'alerte habituels et l'entreprise américaine.

 

Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique

- Séquençage rapide de l'ADN avec le graphène

Ce n'est pas fait mais il semblerait que le graphène permettrait de faire un séquençage rapide et complet de l'ADN, ce qui le "démocratiserait" complètement. On n'échappera pas à notre ADN, qu'on pourra bientôt tous porter à notre cou pour quelques euros sans doute, s'il ne sera pas même enregistré dans nos cartes à puce...

Le génome humain est constitué par la fameuse molécule d’ADN et ses célèbres 4 bases azotées associées par paires. Or, le génome n'en comporte pas moins de 3 milliards et les techniques pour les analyser n’ont guère évolué au cours des dernières années. Comme il n’est pas possible d’en faire une lecture en continu, on commence par dupliquer l’ADN un grand nombre de fois puis on le fragmente en des myriades de morceaux contenant environ 800 paires de bases. Des ordinateurs sont ensuite mis à contribution pour faire des recoupements et recoller les différentes pièces du puzzle.

L’idée proposée par Henk Postma est simple. Il suffirait, affirme ce chercheur, d’utiliser un feuillet de ce matériau miracle qu’est le graphène en le perçant d’une fente et en le soumettant à deux différences de potentiel, perpendiculaire et parallèle au feuillet. Un brin d’ADN passerait alors à travers la fente sous l’action du champ électrique responsable d’une des différences de potentiel. Il se trouve que lors de ce passage, chaque base donnerait lieu à un courant spécifique dans le feuillet de graphène. En le mesurant, on pourrait alors identifier ces bases en continu ou presque, et même se contenter d’un seul brin d’ADN. Henk Postma sait que toutes ces considérations ne sont encore que théoriques mais sa méthode pourrait, semble-t-il, séquencer un génome complet en deux heures et demie environ.

On annonce justement la production en masse de graphène en plongeant de l'oxyde de graphite dans une solution d'hydrazine pure. D'autre part, le graphène pourrait servir de mémoire Flash se montrant 5 fois plus performant que le silicium.

- Un nanomicroscope en 4D !

Il s'agit d'une sorte de vidéo permettant de suivre en temps réel les modification atomiques, ici de leur résonance, de la synchronisation de leurs vibrations.

- Des nanomoteurs à photons

On avait déjà vu au mois d'août un moteur à laser mais ici, c'est au niveau nanométrique que "le vent solaire" constituerait l'énergie mécanique la plus efficace, en utilisant simplement la pression des photons pour actionner un nanomoteur.

L’idée d’utiliser des photons au lieu d’électrons dans différents dispositifs n’est pas nouvelle et d’importantes recherches ont été menées pour réaliser des ordinateurs optiques. Un groupe de chercheurs américains vient de réaliser des nanosystèmes mis en mouvement par la pression de la lumière.

Aussi incroyable que cela puisse paraître, la lumière exerce une pression sur des objets car elle transporte une certaine quantité de mouvement, tout comme les particules de matière.

Les pressions atteintes sur des petits dispositifs en silicium sont un million de fois supérieures à celle de la lumière du Soleil, ce qui confirme bien qu’à l’échelle nanométrique un saut quantitatif important intervient dans les performances. Ils ont ainsi réalisé des centaines de petits dispositifs sur une puce dans lesquels la lumière était guidée, exactement comme pour les courants d’électrons sur une puce.

Selon les chercheurs, ces premières réalisations devraient ouvrir la voie à une nouvelle classe de dispositifs semi-conducteurs, et même à des nanomoteurs équipant des nanorobots, opérant avec des photons à des vitesses ultra-rapides et utilisant peu d’énergie.

Voir aussi techno-science.

- Les cristaux liquides feraient d'excellents lubrifiants !

Pour certains dispositifs mécaniques, les cristaux liquides employés comme lubrifiants diminuent tellement les forces de frottement qu'elles ne sont presque plus mesurables.

De façon surprenante, alors que la force de frottement reste constante avec de l’huile, si l'on utilise une couche de cristaux liquides, les forces de frottement se mettent à diminuer pour devenir presque nulles au bout d’un temps qui dépend de la pression exercée par le cylindre. Mais il y a cependant une limite : la force de pression exercée par le cylindre sur la surface ne doit pas être trop élevée, faute de quoi le pouvoir lubrifiant des cristaux liquide se réduit.

Les roulements à billes sont le siège de forces de pression en général trop importantes pour que les cristaux liquides soient envisageables. En revanche, ils conviendraient parfaitement aux paliers lisses, par exemple pour assurer un guidage en rotation par glissement.

La limite est aussi celle du prix de revient. Les cristaux liquides produits industriellement sont destinés aux écrans LCD et doivent être ultra-purs. Leur coût de fabrication est trop élevé pour en faire des lubrifiants. Mais il semblerait que des cristaux liquides de moins bonne qualité soient tout aussi efficaces. Il suffirait donc de trouver une bonne voie de synthèse industrielle...

- Des lubrifiants pour moteurs à partir de plantes ?

Les besoins en lubrifiants étant 10 fois moins importants que les besoins en carburant, on s'imagine que la production de colza génétiquement modifié pour produire de l'huile à moteur ne rentrerait pas en concurrence avec les agrocarburants mais le problème, c'est qu'ils s'y ajouteront ! Il vaudrait mieux encourager les moteurs électriques supprimant la plupart des frottements.

- Le jatropha, un nouveau biocarburant bientôt à l'essai sur un Boeing

Au mois de décembre, un Boeing 747-400 de la compagnie Air New Zealand s'envolera avec, dans l'un de ses réservoirs, un biocarburant tiré du jatropha, une plante poussant sur des sols très arides, et dont la culture intensive ne provoquerait pas les terribles dégâts collatéraux des biocarburants dits de première génération.

Parce qu'il pousse sur des sols pauvres où les cultures habituelles sont impossibles, cet arbuste n'entre pas en compétition avec les cultures vivrières et son exploitation ne risque pas de conduire à des déforestations massives. Cet or vert ne présente donc pas les désastreux inconvénients des biocarburants classiques.

La plante a pourtant ses détracteurs, qui y voient un végétal envahissant et surtout extrêmement dangereux pour l'homme et les animaux. Il suffit en effet de quelques graines pour tuer un être humain. L'Australie Occidentale (un Etat de l'Australie) en a d'ailleurs interdit la culture. Quant au rendement, il n'est élevé que si les terres sont suffisamment irriguées. La plante vit effectivement sur des sols secs, ce qui rend sa culture aisée pour des paysans vivant sur de petites exploitations – un autre avantage avancé par les promoteurs du jatropha – mais les rendements sont alors bien plus faibles.

Remarquons qu'en une année, un hectare de Jatropha curcas fournirait de quoi faire parcourir une soixantaine de kilomètres à un Boeing 747-400...

- Des minis centrales nucléaires en vente libre !

Inimaginable !

Une société américaine met sur le marché un réacteur nucléaire miniaturisé, gros comme une cuve à mazout, et capable d'alimenter 20.000 foyers américains, donc bien plus dans les autres pays du monde.

Au tarif annoncé de 25 millions de dollars (environ vingt millions d'euros), le prix de revient par foyer semble compétitif. Un HPM pourrait aussi être envisagé pour un site industriel, une installation militaire ou pour alimenter des installations dans des lieux isolés. D'ailleurs, affirme l'entreprise, les carnets de commande sont pleins et Hyperion serait déjà sûre de vendre une centaine d'unités. Les premiers exemplaires seront produits en 2013.

- Revêtement de cellules solaires: une absorption quasi parfaite !

Une équipe de chercheurs du Rensselaer Polytechnic Institute, aux Etats-Unis, dirigée par le physicien Shawn Yu Lin, a démontré l'efficacité d'un nouveau revêtement de cellules solaires qui améliore grandement l'absorption (En optique, l'absorption se réfère au processus par lequel l'énergie d'un photon est prise par une autre entité, par...) de l'énergie lumineuse. Ce revêtement antiréflexion presque parfait absorbe tout le spectre lumineux, des rayons ultraviolets aux infrarouges, et ceci quel que soit l'angle d'incidence.


- Des éoliennes en l'air

On en parlait déjà au mois de septembre, mais c'est une piste à suivre...

La puissance totale des vents sur Terre représente deux ou trois petawatts (peta = million de milliards), à peu près 200 fois notre consommation totale d’énergie (14 terawatts). Mais l’essentiel du vent souffle… en l’air.

Le meilleur se trouve à 10 000 mètres. Là-haut, sa vitesse moyenne atteint 160 Km/h… contre 12 Km/h ici bas. Déjà, à 800 mètres d’altitude, il y a quatre fois plus d’énergie à récolter qu’à 80 mètres, là où tournent nos éoliennes. Les vents d’altitude sont aussi plus réguliers. On peut espérer, sur le long terme, tirer 90% de la puissance crête d’une éolienne à 10 000 mètres, quand on doit souvent se contenter de 30% au sol.

- Des éoliennes 2 fois plus performantes !

- Tirer de l'énergie des courants faibles

Baptisé Vivace, un système original de récupération d'énergie permettrait selon son concepteur de tirer profit de courants très faibles, dans l'océan, les fleuves ou les rivières. Simple dans son principe et dans sa réalisation, cette technique utilise les turbulences générées par un obstacle.

Un prototype de générateur d'énergie, baptisé Vivace, pour Vortex Induced Vibration Aquatic Clean Energy, a été réalisé par Timothy Wootton qui en a fait une technologie à vendre par l'intermédiaire de la société Vortex Hydro Energy, qu'il a créée.

Pour l'instant, le prototype est un unique cylindre maintenu horizontalement par deux montants verticaux sur lesquels il peut coulisser verticalement. Sous l'effet du courant, des différences aléatoires de vitesses apparaissent au-dessus ou au-dessous du cylindre, provoquant des variations momentanées de pression attirant le cylindre vers le haut ou vers le bas. Ces mouvements peuvent alors servir à générer de l'électricité.

Dans les installations imaginées, un convertisseur Vivace se composerait d'un très grand nombre de cylindres horizontaux régulièrement répartis sur le fond. Leur espacement devra être de quatre fois leur diamètre pour maximiser la formation de tourbillons. Comme le cylindre du prototype, ils seront soumis à des mouvements d'oscillation qu'il sera possible d'exploiter pour générer de l'électricité. Avec un courant de 3 nœuds (5,6 km/h), Wootton prévoit 50 kW avec une petite installation comportant 657 cylindres occupant 45 mètres carrés. Mais le chercheur voit grand et imagine des installations bien plus vastes, qui atteindraient le gigawatt avec près de 33.000 cylindres qui s'étaleraient sur 1,5 kilomètre carré.

- Des nouveaux rotors pour produire de l'électricité à basse température

Il suffirait de températures de 65° à 150° pour générer de l'électricité grâce à ce rotor qui minimise les frottements.

- Une imprimante sur papier réinscriptible

Toshiba a mis au point une imprimante écologique permettant d'imprimer jusqu'à 500 fois sur une même feuille. Finis les toners ou les cartouches d'encre polluants : la B-SX8R utilise un papier spécial recyclable qui intègre des pigments pouvant se colorer en noir et redevenir blancs lorsqu'ils sont chauffés. Quand la fabrication et le traitement de 1 000 feuilles de papier classique produisent 6,5 kg d'émission de CO2, pour ce papier réinscriptible seul 1 kg de CO2 est généré. Commercialisée depuis 2 ans au Japon, elle devrait arriver en Europe dans courant de l'année 2009. Prix : 7 400 euros.

- Une caméra à un pixel combinée aux rayons terahertz

Une nouvelle version de caméra à un pixel vient d'être développée par des chercheurs de l'université de Rice. Combinée aux rayons terahertz, elle pourrait apporter des percées technologiques dans le domaine des télécommunications, du traitement des signaux, de la médecine et des systèmes de sécurité.

Les premiers systèmes de capture d'images à un pixel ont été développés en 2006. Une image est créée en capturant de façon très rapide un seul point de lumière, plusieurs milliers de fois à la suite. A chaque prise, un filtre composé aléatoirement de "0" et de "1" est placé entre l'image et les détecteurs. Pour les prototypes basés sur la lumière, ce filtre est réalisé par des DMD "digital micromirror device". Un DMD est composé de plusieurs milliers de miroirs de la taille d'un microbe qui ne peuvent réfléchir que dans 2 directions. Selon Victor E. Cameron, professeur of Electrical and Computer Engineering "grâce aux nouvelles avancées mathématiques acquises récemment nous sommes capables d'obtenir une image cohérente". La qualité de l'image en sortie est semblable à celle d'un million de pixels. Une caméra à un pixel est utile pour des applications scientifiques où la photographie digitale n'est pas disponible. Selon Kevin Kelly assistant professeur of Electrical and Computer Engineering "pour certaines longueurs en dehors du spectre visible, il est souvent trop coûteux de produire un grand nombre de détecteurs". Les premiers essais concluants en laboratoire ont permis d'obtenir une image en 5 minutes. Ce procédé de capture d'images associé aux rayons terahertz permettrait de réduire ce temps.

- Un logiciel pour copier les clés à distance

Une fois la photo de la clé affichée, quelques clics suffisent pour indiquer sa position dans l'image. Sneakey se limite à un seul type de clé, le plus courant aux Etats-Unis, et peut donc en déterminer la taille puis établir une nouvelle image de la clé vue de profil. Il analyse ensuite la position des creux dessinant le motif et les reproduit sur le modèle de profil.

Pour prouver l'efficacité de leur système, les jeunes scientifiques l'ont mis à l'épreuve à l'aide d'un trousseau de clés posé sur la table du campus et photographié depuis le toit d'un bâtiment, à 60 mètres de là. James Bond aimerait ce gadget...

- Europeana, la bibliothèque numérique, victime de son succès

Deux millions d'œuvres, des livres aux vidéos, consultables en ligne : le site europeana.eu de bibliothèque numérique européenne a attiré dès son ouverture tellement d'internautes... que le site a été immédiatement fermé. Retour prévu mi-décembre.

- Google lance searchwiki

Dorénavant, les utilisateurs de comptes Google peuvent agir sur les résultats de recherche en les personnalisant. Ils peuvent par exemple ajouter des critères "bon" ou "mauvais" ce qui a un impact sur l'ordre d'affichage des résultats. A chaque nouvelle recherche, les résultats tiendront compte des précédents avis de l'utilisateur. Certains résultats peuvent même être supprimés et ne plus apparaître sur sa page personnelle. Les utilisateurs ont aussi la possibilité d'ajouter un commentaire pour chaque résultat, note qui sera visible également par tous les autres utilisateurs. Le dispositif est pour le moment disponible sur la version anglaise de Google.

A noter que pour Google aussi, c'est la crise puisqu'il va y avoir 10 000 suppressions d'emploi !


- La rentabilité des spams

Si le retour peut sembler infime la gratuité des spams rend l'opération rentable sur des masses impressionnantes. En déconnectant un seul hébergeur, le spam mondial a d'ailleurs été divisé par trois ! Ce n'est hélas qu'un répit temporaire...

Des chercheurs des universités californiennes de Berkeley et de San Diego (UCSD) ont piraté un réseau de spams pour en analyser la valeur économique. Les résultats montrent que les spammeurs peuvent espérer mener une activité rentable en obtenant une réponse sur 12,5 millions de courriers électroniques envoyés.

350 millions de messages furent envoyés en 26 jours pour seulement 28 "achats". Ce taux de réponse inférieur à 0,00001 pourcent aurait permit de générer 2731,88$ sur ces 26 jours, soit un peu plus de 100$ par jour mesuré durant l'expérience. A l'échelle du réseau Storm les chercheurs estiment que le système doit pouvoir engranger 7000$ par jour, soit plus de 2 millions de dollars par an.

- Second Life : le Linden dollar en pleine crise financière

Il est intéressant de voir que les monnaies virtuelles aussi connaissent une crise, quoique ce soit pas exactement pareil mais c'est quand même une énorme bulle immobilière :

Le monde virtuel de Linden Labs connaît lui aussi une dangereuse inflation. La communauté des utilisateurs proteste aujourd'hui régulièrement contre une forte augmentation des prix, de 66 % d'après Tom's Guide. Par exemple, les terrains où construire sa maison ou sa boutique sont de plus en plus chers. Et le Linden dollar, monnaie virtuelle qui s'achète avec des vrais dollars, connaît une inflation inquiétante pour la pérennité du modèle. Lorsque des manifestations se déroulent devant le siège virtuel de Linden Labs - en attendant une grève mondiale - les représailles ne tardent pas : la société suspend pendant une heure les comptes de certains contestataires.

- La Chine taxe désormais les biens virtuels

En Chine, les vendeurs de bien virtuels - de l'or échangé dans les jeux en ligne massivement multi-joueurs aux vêtements de haute couture portés dans les mondes virtuels - devront dorénavant payer 20 % de taxes sur tous les revenus (réels) obtenus avec ces ventes. D'après l'administration chinoise, le marché des biens virtuels, qui s'élève en Chine à 1,12 milliard d'euros, est sujet au même niveau de taxation que l'immobilier.

- La Nasa pose les bases de l'internet interplanétaire !

La Nasa vient de tester un embryon de réseau de télécommunications qui, à terme, devrait devenir un véritable Internet interplanétaire. L'idée est de faciliter les échanges de données entre les vaisseaux spatiaux et la Terre en multipliant les stations de relais.

- Le retour de l'ascenseur spatial ?

La NASA et la JAXA (L'agence d'exploration aérospatiale japonaise) travaillent, chacune de leur côté, sur un concept d'ascenseur spatial nécessitant l'utilisation d'un câble extrêmement solide le long duquel monteront les charges utiles jusqu'à l'orbite visée.

Il semblerait que le Japon ait pris un peu d'avance sur les Etats-Unis dans la mise au point du câble qui devra être 150 fois plus résistant que l'acier et d'une très grande stabilité.

La NASA a identifié 2 sites de lancement répondant à 12 critères précis. Ces sites ce situent dans les eaux internationales. Le premier à environ 500 kilomètres au large de Perth, en Australie et le second à plus de 3200 kilomètres au large d'Hawaï.


<- Revue des sciences précédente | Revue des sciences suivante ->
copyleftcopyleft 

7 réflexions au sujet de « Revue des sciences 12/08 »

  1. Contrairement à votre remarque à droite de votre site sur l'article d'Ambrose, je trouve ses conclusions absoluments mal venues !

    "En cas de doute, demandez vous quels sont les pays où la démocratie est profondément enracinée, où existe un fort sentiment de solidarité nationale, un état de droit solide - et des porte-avions. A cette aune, les États-Unis et la Grande-Bretagne ne sont pas si mal placés, après tout."

    "pays où la démocratie est profondément enracinée, où existe un fort sentiment de solidarité nationale, un état de droit solide - et des porte-avions" ? Eh bien, excusez moi, mais à part concernant les portes avions et le chauvinisme patriote bouffi de bêtise, ni les Etats-Unis ni la Grande Bretagne ne sont bien placés. (Pas plus que la France sarkozyste évidemment)

    Je ne comprends pas que vous recommandiez ce genre d'article.

  2. J'avoue que je n'ai pas bien compris non plus la conclusion sans doute ironique mais, de toutes façons, en général ce n'est pas pour la conclusion que je peux recommander un article mais pour les informations qu'il donne et qui m'ont semblé intéressantes sur la gravité et la lenteur de la crise. On peut tout-à-fait comprendre cette conclusion obscure comme le fait que la crise pourrait favoriser les partis extrémistes et agressifs dans des démocraties soumises à la dégradation durable de la situation économique. Fascisme et Nazisme sont des émanations de la démocratie, pratiquant élections et plébiscites. Je me trompe peut-être mais cela n'enlève rien à la pertinence du reste.

    http://contreinfo.info/article.php3?id_article=2386

  3. A ce sujet, je ne saurai trop recommandé la lecture de la "Théorie de la folie des masses" de Broch dont La mort de Virgile était l'évocation poétique.
    Cela en guérirait plus d'un de la fureur démocratique (sorte de mot passe-partout censé rendre bon tout ce qu'il touche). Malheureusement pour Broch, son souhait d'une politique d'honnêteté systématique relève davantage de l'utopie que de l'anthropologie.

  4. En fait, si homo sapiens est homo demens, c'est parce qu'il parle et dès lors peut mentir et se tromper. Raisonner en terme de perversion ou d'aliénation auxquels on pourrait opposer l'honnêteté ou un humanisme quelconque suppose qu'il y aurait une bonne nature et surtout qu'on pourrait savoir où est la raison. D'où les théories du complot et toutes sortes de boucs émissaires.

    La cause des massacres, c'est de n'avoir aucun accès à la vérité. Impossible de savoir qui a raison entre catholiques ou protestants, entre racistes et universalistes, entre communistes et libéraux, etc. : c'est la confrontation historique qui décide car il n'y a pas d'autre voie que le jugement de l'histoire, c'est-à-dire l'épreuve de réalité.

    Bien sûr on croit ce qui nous arrange, mais parce qu'on n'a pas de preuves du contraire. On ne réfute pas des idéologies par la discussion mais par leurs propres échecs. C'est pourquoi le seul espoir qu'on peut avoir c'est que l'échec de nos folies ne soit pas trop long à reconnaître et qu'on ne reproduise pas les erreurs du passé, mais on n'en évitera sûrement aucune qui pourrait être vraie pour quelque obscur raison.

    Les démocraties sont dangereuses et très imparfaites. C'est à le reconnaître qu'elles peuvent progresser mais la démocratie n'est pas dans la prétendue volonté générale comme expression d'un peuple mythique unifié qui aurait un savoir inné ou un accès privilégié à la vérité, la démocratie c'est plus essentiellement la démocratisation, au service de tous. Il y a beaucoup d'illusions sur ce chemin qui peuvent mener au pire, c'est ce qui fait tout l'enjeu de notre existence historique d'essayer de l'éviter mais il y a des périodes où l'on ne peut s'opposer que vainement au désastre annoncé...

  5. Bonjour Jean, merci de nous alerter sur l'expérience australienne MoodSwings qui a commencé en avril 2008.
    moodswings.net.au/about-m...
    Des thérapeutes mettent en ligne des programmes d'information, d'éducation et d'apprentissage à la meilleure gestion des "humeurs". Ils vont sans doute évaluer leurs résultats et les publier. Enfin, on peut espérer en tant que "patient" avoir accès si pas encore à des soins (échapper à l'incompétence psychiatrique semble déjà exceptionnel) au moins à des outils d'intervention raisonnée et à un dialogue un peu participatif... Quelques uns ici se seraient-ils engagés dans ce programme et sinon pourquoi ? Merci de vos retours très attendus, et surtout à Jean pour ses travaux passionnants. Bien cordialement.
    Althaea

  6. Ce n'est pas parce que j'en parle comme d'une évolution significative que je prête à ces programmes en ligne une véritable efficacité. En fait,pour moi, il n'y a rien entre psychanalyse et traitement biologique, toute psychothérapie ne soulageant qu'à court terme au prix d'une nouvelle dépendance et d'une discipline qui ne peut que ramener au pire. Je ne conseillerais à personne de faire une psychanalyse sauf à y être déjà décidé car il y a trop de mauvais psychanalystes et il n'y a pas de miracles à en attendre, seulement d'accepter ses blessures.

    Reste les traitements biologiques dont le maniement n'est pas si facile, en plus de devoir choisir le bon produit. Pour le syndrome bipolaire le lithium semble efficace pour certains mais c'est un véritable poison pour d'autres. La gestion de ses humeurs me semble plus qu'illusoire, on est forcément le jouet de ses humeurs. C'est ce que permettent toutes les drogues mais ce n'est pas si facile à gérer pour autant. Il me semble que le traitement hormonal est ce qui peut être le plus efficace avec le moins d'effets indésirables, les plantes comme le millepertuis peuvent aider ou les anti-dépresseurs à condition d'adapter les doses à son état, je crois aussi que la Ritaline peut être très utile pour d'autres déficits mais il n'y a rien de parfait, rien qui nous délivre de la difficulté d'exister ni des dysfonctionnements du corps, surtout avec l'âge, mais du moins ces produits peuvent permettre de vivre un peu mieux à condition d'apprendre à les gérer justement et sans se soumettre au pouvoir médical...

Les commentaires sont fermés.