Revue des sciences 02/08

Leonard de Vinci

 <- Revue des sciences précédente | Revue des sciences suivante ->
Revues : Pour la Science - Sciences et Avenir 
Brèves : Physique - Climat - Biologie - Santé - Technologie

Les Français sont plus déprimés que jamais dans ce monde en complet bouleversement, occasion de revenir sur le mécanisme de la dépression, mais tout est à repenser : l'écologie (Pour la Science), l'origine de la vie (ARN+protéine), l'origine de l'homme (on pourrait descendre de Néandertal finalement!), le temps lui-même (qui se transformerait en espace) ! Il y a, en tout cas, de quoi penser et nourrir nos réflexions. Sinon, il y a bien les premières bonnes nouvelles sur le climat depuis longtemps, mais à prendre avec précaution malgré tout car le réchauffement s'accélère quand même et la déforestation aussi, par contre, la grande nouvelle, c'est qu'on a peut-être trouvé un traitement anti-inflammatoire contre l'Alzheimer. On peut se réjouir aussi des avancées des super-condensateurs même si on n'en reparle pas ici et des premières micro-usines personnelles ou imprimantes 3D (Fab@Home) promises à un bel avenir. Pour le reste, c'est bien plus problématique de la première bactérie synthétique aux balbutiements d'une lecture des pensées dans le cerveau jusqu'au premier clonage humain réussi...

Voir aussi Quels risques climatiques majeurs ?


Pour la Science no 364, Repenser l'écologie


- Quand les riches maigrissent..., p8
Ivar Ekeland

... les pauvres meurent, affirment un proverbe chinois et certaines théories économiques. La querelle sur une forte imposition des riches qui ne bénéficierait pas aux pauvres est d’actualité.

On oublie trop souvent que les prix d'équilibre et l'état efficace auquel ils conduisent dépendent de la répartition des richesses. La concentration de la richesse entre les mains de quelques-uns ou l'équidistribution au sein de la population conduisent à des prix d'équilibre fort différents, et à des répartitions après échanges qui ne le seront pas moins, tout en étant efficaces l'une et l'autre. La conclusion est simple : le seul impôt irréprochable, en économie néoclassique, le seul qui ne perturbe pas le jeu du marché, c'est l'impôt sur les successions.

- Attention flottante !, p13

Des chercheurs français et américains viennent de montrer qu'il n'existe qu'un seul faisceau attentionnel, mais il se déplace 7 fois par seconde...

- Repenser l’écologie, p39

Pour la Science

Il est illusoire, voire contre-productif, de préserver un écosystème isolé du reste du monde. Replaçant l’homme au centre de leur stratégie, les écologues repensent les interactions de tous les acteurs de la biodiversité.

Bien sûr, ce n'est pas vraiment nouveau sauf pour certains écologistes qui se croient malins à prétendre qu'il faut protéger la nature contre les hommes, jusqu'à pouvoir souhaiter stupidement la disparition de l'humanité. Il est bien plus intelligent de replacer l'homme dans son environnement. Non seulement on met ainsi en lumière toutes les interdépendances de notre écosystème et ses acteurs principaux, mais on a plus de chances d'aboutir à une prise en compte par les populations concernées de leur intérêt bien compris. Ce n'est pas être écologiste que séparer l'homme de la nature et vouloir reléguer au second plan les questions économiques et sociales (cela n'a jamais été ma conception de l'écologie même s'il faut critiquer sévèrement les dérives d'un prétendu "développement durable"). Certes il faut abandonner le fantasme d'une nature laissée à elle-même pour devenir au contraire responsables de notre environnement : l'écologie n'est pas un laisser-faire, elle est active ou plutôt réactive et réparatrice (anti-entropique). Bien sûr, on peut trouver ridicule de devoir chiffrer ce qui n'a pas de prix, mais l'intérêt, c'est bien de montrer qu'il s'agit d'une richesse inestimable !

Quels services l'écosystème rend-il à l'homme ? Il fournit des produits pour lesquels il existe des marchés, tels les plantes médicinales et le bois de construction, et assure des mécanismes dont l'importance économique est souvent sous-estimée : la filtration des eaux, la pollinisation, la régulation du climat, le contrôle des inondations et des maladies, et la formation des sols. Quand Robert Costanza, de l'Université du Vermont, et d'autres économistes ont essayé d'attribuer une "valeur" à tous ces processus naturels, ils ont découvert que la valeur marchande annuelle de ces "services écologiques" dépassait le produit intérieur brut de tous les pays réunis !

Etant donné que notre environnement est constitué de systèmes soumis à l'influence de l'homme, on doit envisager la protection de la biodiversité dans le contexte de paysages incluant des centres urbains, une agriculture intensive, des forêts et des rivières gérées par l'homme, et pas simplement dans le contexte de la seule conservation des espèces.

Qui plus est, si l'on néglige les problèmes sociaux, les mesures de protection de la biodiversité ont peu de chances de rencontrer l'adhésion du public. Les écologues doivent aller au-delà de leur tendance à placer l'environnement dans un vase clos et à le tenir éloigné de toute autre préoccupation - faute de quoi, ils sont condamnés à l'impuissance.

Enfin, les tentatives de protection de l'environnement que nous envisageons seront évaluées non seulement par le nombre d'espèces protégées, mais aussi par l'amélioration du bien-être des hommes.

Comme le public sait qu'il dépend de différents écosystèmes pour sa santé et sa sécurité. Il sera plus enclin à soutenir les projets de protection de l'environnement. La biodiversité sera donc préservée, mais pas aux dépends des hommes.


Sciences et Avenir no 732, Comprendre et vaincre la dépression


- Le défi du charbon propre, p10

Cet article a l'intérêt de porter l'attention sur le charbon qui prend de plus en plus de place à mesure que le pétrole devient plus cher mais son titre est trompeur car s'il y a bien des techniques pour essayer de rendre le charbon un peu plus "propre" (le brûler avec de l'oxygène et en cycle combiné, capturer le CO2), il est pour l'instant beaucoup plus polluant que le pétrole et constitue la principale menace sur le climat...

En 2005 le charbon a dégagé plus de CO2 que le pétrole alors qu'il n'a fourni que 25,3% de l'énergie primaire mondiale, contre 35% pour l'or noir.

Le cauchemar pourrait encore empirer après 2030, quand il deviendra intéressant de produire du carburant liquide avec de la houille, un raffinage qui émet d'énormes quantités de gaz à effet de serre.

C'est donc un scénario noir qui se dessine. il est peu probable que nous parvenions à stabiliser nos émissions mondiales de gaz à effet de serre d'ici à 2050. Selon les prévisions du GIEC, cela signifie une hausse moyenne de température de plus de 2°C sur la planète.

- La découverte est synonyme de marginalité, p42
Pierre Laszlo

Rien de très neuf dans cet interview mais ce chimiste rappelle que "la découverte est synonyme de marginalité" et que "la notion de recherche ciblée est une aberration". Il met en cause aussi l'empirisme des nanotechnologies procédant par essais/erreurs, procédé peu efficace et qui ne produit pas de découvertes car, même si celles-ci sont la plupart du temps fortuites "les applications viennent exclusivement de la recherche fondamentale" comme on peut le montrer facilement (en fait ce que les managers ne comprennent pas c'est que la productivité de la science est statistique, un peu comme dans le domaine artistique et ne peut être affectée directement. C'est une économie de pollinisation et une leçon de liberté!).

- Anatomie d'un cerveau heureux ou malheureux, p48

Cet article a l'intérêt de faire une synthèse des processus menant à la dépression, occasion de vérifier que je ne m'étais pas tellement trompé en 2002 dans le dossier du no 3 de Transversales sur l'écologie du stress où je présentais 3 théories de la dépression dont on comprend mieux maintenant l'articulation. En tout cas, c'est bien le stress qui en est la cause : "trop fort, ou répété, il agresse le cerveau qui peut finir par, littéralement, disjoncter". Sous l'action du stress on a donc production de cortisol par les surrénales, normalement contrôlés par l'hippocampe mais sous l'effet d'une stimulation excessive, les récepteurs au cortisol de l'hippocampe saturent et la machine s'emballe... Dans un premier temps "le nombre de certains récepteurs diminue. Notamment ceux qui fixent la sérotonine et la noradrénaline", puis l'hippocampe perd des neurones et s'atrophie (réduit de 10%).

L'atrophie serait due à une perte neuronale mais aussi à l'arrêt de la neurogenèse. L'hippocampe est, en effet, l'un des deux seuls réservoirs à nouveaux neurones du cerveau humain, fortement impliqué dans la mémorisation des apprentissages. Le stress stoppe net cette palsticité cérébrale, probablement en diminuant la production d'un facteur de croissance, la BDNF (Brain derived neurotophic factor). ce qui pourrait expliquer, chez les dépressifs, des problèmes de mémoire, une inaptitude au changement.

Une autre petite structure primitive, en forme d'amande, accolée à l'hippocampe, est également perturbée par la maladie : l'amygdale. Elle est impliquée dans les émotions surtout la peur, et réagit à la moindre menace (...) d'où des symptômes d'hypersensibilité au stress, d'irritabilité, de réaction émotionnelle disproportionnée, voire d'anxiété.

Et ce n'est pas fini. "Amygdale et hippocampe dialoguent d'ordinaire en permanence avec le cortex préfrontal, le PDG de notre cerveau, chargé de prendre des décisions et d'agir, souligne Philippe Fossati. Ce dialogue s'opère via un médiateur, le cortex cingulaire antérieur. Chez le dépressif, cet intermédiaire est défaillant, rendant très difficile toute prise de décision qui fait intervenir les émotions". Le chercheur résume : "La dépression est une sorte d'infarctus du cerveau, la circulation de l'information est bloquée et les zones normalement irriguées ne peuvent plus fonctionner".

Celui qui paie le plus lourd tribut à cet "infarctus" cérébral est bien le cortex préfrontal. C'est une zone qui d'ordinaire nous aide à choisir un comportement en évaluant les différentes alternatives et à réprimer certaines émotions ou gratifications immédiates en vue d'obtenir un avantage supérieur à long terme. C'est aussi lui qui permet de négocier le passage d'un sentiment à l'autre. Côté hémisphère gauche (pour les droitiers), il établit plutôt des sentiments positifs - en inhibant l'amygdale - alors qu'à droite, il gère les sentiments négatifs. Durant la dépression, tout est chamboulé (...) une partie du cortex préfrontal gauche (le cortex ventromédian pour être précis) fond de plus de 40%. on comprend mieux pourquoi un déprimé a une incapacité physiologique à générer un sentiment positif !

La dépression laisse des séquelles qui fragilisent le cerveau. C'est le phénomène de "kindling" (d'embrasement) qui se traduit par le fait qu'un nouvel épisode dépressif peut provenir de stress de plus en plus minimes.

On comprend la nécessité de limiter le stress, surtout sa durée. Le stress est bon seulement quand il n'est pas trop long, l'état de distress survient après la phase d'épuisement. On comprend aussi l'importance des antidépresseurs qui sont carrément miraculeux quand ils sont bien employés. Malheureusement c'est rarement le cas, car il est bien difficile d'adapter les doses et les nouveaux antidépresseurs ne sont pas toujours les meilleurs (voir les brèves).

Un nouveau venu arrive qui pourrait compléter utilement la panoplie : le Valdoxan (aglomélatine) qui est une sorte de mélatonine synthétique. La chose est comique car en France la mélatonine est interdite sous prétexte qu'elle serait inefficace et une hormone ne pouvant être brevetée, les laboratoires pharmaceutiques ont produit un équivalent artificiel (un peu comme les drogues chimiques) qui lui ne sera pas interdit ! Ceci dit, son effet ne se limiterait pas à se fixer sur les récepteurs de la mélatonine (MT1 et MT2) mais bloquerait aussi les récepteurs à sérotonine 5HT2c, souvent responsables d'une baisse de la libido. L'aglomélatine permettrait ainsi de restaurer le comportement sexuel des dépressifs. Une toute autre stratégie consiste à stimuler le "cortex préfrontal dorsolatéral" (CPFDL) gauche, soit par bio-feedback, soit par stimulation magnétique (les ondes ne sont pas toujours mauvaises pour le cerveau).

Elle repose sur le principe bien connu de Faraday : par l'imposition d'un champ magnétique, on induit un courant électrique de faible fréquence (5 à 20 Hz).

Tout est bon pour relancer la machine (sauf la "pensée positive" dont on a vu récemment qu'elle aggravait la dépression) mais tout ne peut revenir à la normale avant que les neurones ne se reconstituent (en à peu près 3 semaines minimum). Un visuel présente tous les traitements disponibles :

  • Millepertuis (première prescription en Allemagne)
  • IMAO (Marsilid)
  • Tricycliques (Tofranil)
  • ISRS (Prozac)
  • ISRSNA (Effexor)
  • Stablon
  • Agomélatine (Valdoxan)
  • Stimulation magnétique

Des recherches sont en cours sur :

  • la Kétamine
  • le NO
  • la Scopolamine
  • le BDNF (Brain derived neurotophic factor)

- La félicité, devant à gauche, p50

Résultat inattendu : l'attente d'une récompense rend le cerveau plus heureux que la récompense !

En fait, on ne le sait que trop depuis toujours...

- Climat : populations en danger, p95

Réfugiés climatiques, collectif Argos, préfaces d'Hubert Reeves et Jean Jouzel, Infolio, 352p

Selon l’ONU, environ 150 millions de réfugiés du climat devraient être déplacés d’ici à 2050.

Pendant quatre ans, le collectif Argos est allé à la rencontre des premiers “réfugiés climatiques”, ces hommes et femmes déjà poussés à l’exil à cause du réchauffement du climat.

De l’Alaska où se pose le problème du dégel des sols arctiques, aux îles Tuvalu, Maldives et Halligen pour illustrer la montée du niveau des océans, en passant par le Tchad et la Chine gagnés par la désertification, le Bangladesh qui subit l’inondation des deltas, le Népal victime de la fonte des glaciers, enfin les Etats-Unis où les cyclones sont de plus en plus violents.



Brèves et liens



Physique


cosmologie, astronomie, physique quantique

- La transformation du temps en espace en expansion !!!

Incroyable ! On avait déjà vu qu'un univers devait perdre des dimensions pour ne pas entrer en collision avec un autre univers, voilà qu'il pourrait perdre aussi sa dimension temporelle (alors que d'autres avaient fait l'hypothèse d'une deuxième dimension temporelle qui n'a aucun sens pourtant) ! On dirait les frères Bogdanov. En tout cas, pour un théoricien des cordes, l'expansion de l'univers résulterait de la transformation du temps en espace. Cela paraît bien absurde car le temps n'est que la succession des événements, c'est ce qui empêche que tout se passe en même temps, comme dit Wheeler. Cela ne veut pas dire qu'il n'y aurait rien de vrai dans cette nouvelle théorie mais dont la formulation devra être mieux comprise (on avait cru a un moment que les antiparticules remontaient le temps alors qu'on sait maintenant qu'elles ont juste une charge opposée). Dire que le temps se transforme en espace, n'est-ce pas dire que le temps n'est rien d'autre que cette transformation elle-même, cette expansion dans un nouvel espace jusqu'à un état de stabilité où plus rien ne bouge ?

Des théoriciens étudiant les braneworlds, tels que Marc Mars de l'université de Salamanque en Espagne, pensent maintenant qu'ils ont mis le doigt sur un fait qui pourrait, au sens propre, arrêter net les cosmologues dans leur recherches: la dimension de temps pourrait "bientôt" disparaître pour être remplacée par une quatrième dimension spatiale. Notre univers lorentzien familier deviendrait alors euclidien (c.-à-d. avec quatre dimensions spatiales et pas de dimension temporelle) et Mars pense que nous en avons la preuve sous les yeux.

L'expansion observée de l'univers (découverte par Edwin Hubble en 1925) pourrait être en réalité le symptôme d'une brane en train de changer de "signature". Suivant l'idée de M. Mars et de ses collègues, des observateurs, situés dans une brane subissant une mutation de type temps à type espace, observeraient un univers en expansion accélérée ; or c'est précisément ce que nous observons actuellement. Le théoricien indique également que cette théorie pourrait expliquer notre expansion toujours croissante, tout en conservant les caractéristiques physiques du cosmos telles que nous l'observons aujourd'hui, sans avoir besoin d'en faire porter la responsabilité sur de quelconques formes de matière noire ou d'énergie sombre.

- De l'antimatière au centre de la galaxie

La matière noire ne semble pas intervenir dans leur formation, il y aurait en fait plusieurs sources différentes d'antimatière.

- La première image d'un trou noir

Une nouvelle image spectaculaire du télescope spatial à rayons X Chandra de la galaxie voisine Centaurus A fournit une des meilleures vues jamais obtenues des effets d'un trou noir super massif actif.

- L'entropie monstre des trous noirs

Un peu fumeux...

L'équipe de Frampton argue du fait que l'entropie supplémentaire est produite par la nature aléatoire de la physique quantique. Cela devrait parfois permettre à une boule de matière qui s'effondre de se transformer spontanément en quelque chose appelée un "monstre" - une organisation de la matière possédant un désordre maximum, dont les particules se déplacent à grande vitesse dans des directions aléatoires.

- Des centaines de trous noirs pourraient sillonner la Voie Lactée

Des centaines de trous noirs d'une masse de plusieurs milliers de fois celle du soleil pourraient sillonner la Voie Lactée, notre galaxie, à grande vitesse.

Les trous noirs de la taille d'une étoile sont très nombreux dans les amas globulaires, un groupe stellaire très dense, contenant typiquement une centaine de milliers d'étoiles. Utilisant des modèles ordinateurs très sophistiqués intégrant la théorie de la relativité d'Einstein, ces astronomes ont calculé que ces fusions entre les trous noirs pourraient engendrer des centaines de trous noirs de masse intermédiaire.

L'énergie dégagée les catapulterait en dehors des amas globulaires à des vitesses allant jusqu'à 4.000 kilomètres à la seconde, nettement plus que ce qui avait été prédit jusqu'alors.

Ces trous noirs dont la masse est plusieurs fois la masse de celle du soleil, sillonneraient à grande vitesse notre galaxie dans l'espace interstellaire sans attache à un système stellaire.

Ces trous noirs - sorte de siphon cosmique d'une masse gravitationnelle telle que même la lumière ne peut s'en échapper - attendent d'avaler des nébuleuses, étoiles et planètes qui auraient la mauvaise fortune de croiser leur chemin.

Toutefois un passage de ces trous noirs dans le voisinage cosmique ne présente pas de danger majeur, selon Kelly Holley-Bockelmann.

- Moins de trous noirs, plus d'étoiles à neutrons ?

Les étoiles à neutrons ont en général une masse de l’ordre de celle de Chandrasekhar, soit 1,44 fois celle du Soleil. Mais d’après les radioastronomes utilisant le radiotélescope d’Arecibo, elles peuvent être plus lourdes. Un candidat pesant 2,7 masses solaires a même été découvert. Les probabilités de formation des trous noirs en sont changées...

Si des étoiles à neutrons peuvent exister sur un plus large intervalle de valeur de masse que ne le laissaient supposer les observations, alors il doit en exister un peu plus qu’on ne le pense. Mais on doit alors s'attendre à trouver un peu moins de trous noirs d’origine stellaire.

- Le financement de la physique des particules en péril aux USA

Le Congrès vient de voter une réduction importante des fonds accordés à cette discipline. Des centaines de physiciens vont être licenciés et plusieurs programmes de recherches compromis.

Pour le seul Fermilab, le budget accordé sera en retrait de 62 millions de dollars au moins par rapport à celui escompté, et d’autres projets en physique des particules sont aussi affectés. Plus de 200 employés sur 1940, et peut-être même 300, seront licenciés par ce laboratoire qui est l’un des fers de lance de la recherche en physique des particules aux Etats-Unis depuis près de 40 ans. Pire, le Tévatron pourrait être obligé de s’arrêter pendant six semaines, ce qui réduirait ses chances de découvrir le boson de Higgs avant les chercheurs du LHC, qui devrait commencer à fonctionner vers l’été 2008.

Si le LHC découvrait une nouvelle physique, l’investigation précise de celle-ci ne pourra être faite que grâce à un autre type d’accélérateur avec des faisceaux, non de protons, mais d’électrons et de positrons. Il s’agirait d’un accélérateur linéaire long de 30 kilomètres déjà en cours d’étude et baptisé l’ILC, pour International Linear Collider. Avec la restriction budgétaire, sa construction, à laquelle le Fermilab devait être fortement associé, devient particulièrement compromise.

Ils se retirent aussi d'ITER, mais là c'est sans doute plus justifié. On ne peut pas mener 2 guerres de front et investir dans la recherche...

- Le LHC prêt à chasser le boson de Higgs avec son trajectographe

Il y a de quoi être très excité. Pour ma part, je ne suis absolument pas compétent mais je n'arrive pas à croire à cette hypothèse ad hoc qui explique la masse, et donc l'inertie, par un champ différent de la gravitation. S'il est découvert, il faudra que je révise mes représentations, ce qui est une conversion pleine de surprises, et s'il n'est pas découvert, cela orientera la physique sur d'autres pistes, meilleures (comme l'hypothèse holographique). De toutes façons, le verdict de l'expérience sera décisif. Il y a d'autres théories qui attendent leur improbable confirmation...

Installé dans le détecteur CMS, ce trajectographe à rubans de silicium (le plus grand du monde) permettra de suivre précisément la trajectoire de particules chargées. On peut espérer grâce à lui mettre en évidence d'hypothétiques objets, dont le fameux boson de Higgs, mais au prix d'un appareillage d'une complexité paroxystique.

Lorsque deux protons (p) entrent en collision, il existe une probabilité — très faible — qu’un boson de Higgs (H0) soit créé. Celui-ci peut alors se désintégrer en deux bosons électrofaibles (Z0), partant dans des directions opposées, qui à leur tour se désintégreront en deux paires de muons et d’anti-muons. (µ- et µ+).

Même avec 800 millions de collisions par seconde, il n'apparaîtra qu’un seul boson de Higgs par jour dans les détecteurs du LHC...

- Le prix Crafoord 2008

Ce prix Nobel de substitution a été décerné cet année au physicien Edward Witten ainsi qu'un mathématicien Maxim Kontsevitch et au spécialistes des trous noirs Rashid Alievich Sunyaev. C'est certainement Edward Witten le plus extraordinaire (comparé stupidement à Einstein) qui devrait avoir le Nobel si un jour la théorie des cordes était vérifiée par l'expérience...

Edward Witten (né le 26 juillet 1951, à Baltimore aux Etats-Unis) a la réputation légendaire d’être un extraterrestre dont l’intelligence surpasserait celle d’Einstein et le poserait en égal de Newton. Bien qu'il soit l’un des physiciens théoriciens les plus influents des vingt dernières années, ses travaux sur la théorie quantique des champs supersymétriques et la théorie des cordes lui ont valu la médaille Fields en mathématique, en raison des nouveaux outils mathématiques qu’il a découverts dans ces disciplines et qu’il a appliqués avec succès dans le domaine de la topologie.

Ces accomplissements sont d'autant plus ahurissants que Witten voulait initialement devenir un journaliste politique et que ce n’est qu’après avoir obtenu un diplôme universitaire d’histoire, et avoir suivi pendant un semestre une filière d’économie avec une forte composante mathématique, qu’il s’orienta définitivement vers la physique théorique.

Sidérant ses condisciples à Princeton, il maîtrisa rapidement la théorie quantique des champs alors qu’il n’avait pas vraiment suivi de cursus préalable en physique. Il décrocha finalement un doctorat en 1976 sous la direction du futur prix Nobel David Gross, décontenancé par sa capacité à résoudre presque sans calculs des problèmes avancés en théorie quantique des champs et des particules élémentaires.

Climat


Voir Quels risques climatiques majeurs ?

- Les dégagements massifs de méthane peu probables?

C'est la bonne nouvelle de ce début d'année, repoussant l'hypothèse d'un emballement du climat par la fonte du permafrost ou le dégagement des hydrates de méthane, du moins à court terme :

Une autre étude, effectuée à l’Institut d’hydrologie de Saint-Pétersbourg, démontre que le dégagement du méthane contenu dans la merzlota ne s’accroîtra que de 20 à 30 % maximum, entraînant un réchauffement de seulement 0,01° C, une valeur insignifiante comparée au résultat de l’industrialisation…

Ces arguments, confortés par le fait que l’accroissement de la concentration du méthane atmosphérique n’ait pratiquement plus été observé après l’an 2000, tendraient à démontrer que la théorie de la « bombe climatique » de la merzlota russe serait dénuée de fondements. Ce qui ne doit pas nous inciter à cesser les observations…"

- Peu de risque de dégagement du méthane marin ?

Il en est ressorti que la concentration de méthane dissous changeait avec les courants et qu'un vent plus fort en surface augmentait la libération de méthane. Toutefois, seulement 1 % du méthane dissous finissait par passer dans l’atmosphère : une excellente nouvelle.

D’après les chercheurs, la majeure partie de celui-ci doit donc être transportée par des courants en dehors de la zone de suintement et il est ensuite très probablement dégradé par l’activité microbienne des océans.

- Le niveau des océans pourrait monter plus vite que prévu

par contre, la montée des océans pourrait être plus importante que prévue :

"Seulement quelques centaines d’années auraient été suffisantes pour une élévation du niveau des océans de six mètres. Plus précisément, la vitesse estimée est de 1,6 mètre par siècle, ce qui est presque trois fois plus rapide que les estimations fournies par le GIEC pour la montée du niveau des océans à la fin de ce siècle."

- Extension des déserts océaniques

Les plus grand déserts ne sont pas sur Terre mais sous l’eau. Les espaces océaniques où la faune et la flore sont presque absentes s’agrandissent encore plus vite que prévu par les modèles les plus pessimistes.

Dans une étude a paraître dans Geophysical Research Letters, des océanographes font état d’une inquiétante expansion de ces zones désertiques. Leurs mesures indiquent qu’entre 1997 et 2006 elles ont augmenté de 6,6 millions de Km², soit 15% environ. Cette tendance est générale et seul le sud de l’océan Indien y échappe. Selon eux, cet élargissement est corrélé au réchauffement des gyres (courants circulaires) et serait attribuable à la hausse généralisée des températures.

Le problème est que ces déserts s’agrandissent 10 à 25 fois plus vite que ce que prédisaient les modèles climatiques. Certains scientifiques pensent qu’il s’agit là d’une variation naturelle amplifiée par un coup de chaud du globe et qui pourrait se renverser dans une décennie ou deux.

- Multiplication des cyclones

Durant la première partie du siècle, de 1900 à 1930, l'Atlantique connaissait en moyenne six épisodes dépressionnaires importants, dont quatre ouragans et deux tempêtes tropicales. De 1930 à 1940, cette moyenne est passée à dix avant de culminer à 15 (huit ouragans et sept tempêtes) entre 1995 et 2005. Mais les causes sous-jacentes ne sont pas encore pleinement comprise. La hausse de l'activité pourrait refléter des variations naturelles dans l'océan Atlantique Nord, ou être plus directement liées au réchauffement de la planète.

En éliminant l'influence de l'atmosphère, les auteurs constatent que l'augmentation de la température de surface de mer entre 1996 et 2005 a été à l'origine d'environ quarante pour cent de l'augmentation de l'activité cyclonique au cours de cette période. En revanche, ils n’établissent pas de lien direct avec les émissions de gaz à effet de serre et ne font de prévisions pour l’avenir. La hausse prévisible des températures ne sera pas forcément génératrice de plus d’ouragans, en effet d’autres facteurs peuvent contrebalancer ces effets : diminution des vents, effet de seuil au-delà duquel les températures n’ont plus d’influences…

- La fonte des glaces de l'Antarctique est réelle mais mal expliquée

D’après une étude publiée dans Nature Geoscience, si la partie Est de l’Antarctique serait bien restée à peu près stable, il n’en serait pas de même de la partie Ouest. Le bilan général montre alors une fonte globale de l’Antarctique, malheureusement en train de s’accélérer, au moins dans la partie Ouest.

Les auteurs ne se prononcent pas vraiment sur l’évolution future du taux de fonte de l’Antarctique dans les décennies à venir, bien qu’ils envisagent un possible ralentissement dans un futur proche. En tout cas, ces dernières années, s'ils ont raison, le taux de fonte s’est accru de 75 % par rapport à 1996.

- Un volcan sous la glace

La première preuve d'une activité volcanique sous l’Antarctique est rapportée cette semaine dans la revue Nature geosciences. Le volcan repéré est entré en éruption, sous la calotte glaciaire, il y a 2000 ans et serait encore actif aujourd’hui.

Le volcanisme encore actif de nos jours peut expliquer l’accélération du déplacement du glacier, qui a augmenté de 25% ces dernières décennies, mais ne serait pas à l’origine de la fonte de la couche de glace généralisée dans tout l’ouest et qui est responsable d’une élévation du niveau des eaux de 0.2mn par an. Cette évolution a plus probablement pour origine le réchauffement global de l’océan.

- Des glaciers de l'Antarctique ont déjà résisté à un super effet de serre

Etonnant et très rassurant, sauf qu'il n'est pas très clair si ces glaciers n'ont été présents que "sur de courts intervalles" (où il faisait moins chaud ? où l'axe de la Terre diminuait l'ensoleillement du pôle sud ?).

Selon une nouvelle étude, même si au Crétacé, il y a 145 à 65 millions d'années, les mers étaient plus chaudes – dépassant les 36 °C au lieu des 28 °C actuels – et à des niveaux plus élevés, des glaciers existaient bien.

On pensait qu'au cours de ces périodes d'extrême réchauffement les pôles étaient dépourvus de glace. Des chercheurs révèlent que même lors du maximum thermique du Crétacé qui a duré 200 000 ans il a existé des glaciers dont la taille pouvait atteindre jusqu'à la moitié de l'actuelle calotte Antarctique. Leur existence avait déjà été postulée à cette époque mais à partir de données qui n'étaient pas assez solides pour faire admettre ce paradoxe.

André Bornemann, de l'Université de Californie, à San Diego, et un groupe international de chercheurs ont pu combiner des informations sur des sédiments calcaires avec des mesures de températures océaniques et de volume des glaciers, ainsi qu'un index de températures pour montrer que les glaciers ont bien été présents à l'époque sur de courts intervalles. Les auteurs avancent qu'une calotte glaciaire a alors pu se former en Antarctique.

- Les forêts nordiques absorbent moins de carbone

En raison d’automnes plus chauds la capacité d’absorption nette de carbone des écosystèmes nordiques est en baisse.

Pour les scientifiques, le déclin rapide des capacités d’absorption des écosystèmes nordiques pourrait rendre beaucoup plus difficile que prévu la stabilisation des niveaux de CO2 dans l’atmosphère et contribuer donc à accélérer le réchauffement planétaire. Un vrai cercle vicieux !

- Branle-bas de combat au Brésil contre la déforestation accélérée

Les arrachages d'arbres illégaux se sont multipliés à un rythme inquiétant durant la seconde moitié de 2007. Le gouvernement brésilien vient de décider de prendre des mesures énergiques.

- Réchauffement planétaire: la famine menacerait l'Afrique et l'Asie du Sud

Le réchauffement climatique pourrait menacer de famine d'ici 2030 des dizaines de millions de pauvres vivant dans certaines régions d'Afrique et d'Asie en entraînant une forte réduction de la production de leurs principales cultures.

Ils ont conclu que la température moyenne pourrait augmenter d'un degré d'ici 2030 dans la plupart des zones géographiques étudiée, tandis que les précipitations saisonnières dans certains endroits, dont l'Asie du Sud, l'Afrique septentrionale, l'Amérique centrale et le Brésil, pourraient nettement diminuer.

Leur analyse révèle plus particulièrement deux points où les impacts du changement climatique sur l'agriculture risquent d'être les plus sévères: il s'agit du sud du continent africain et de l'Asie.

Le sud de l'Afrique pourrait ainsi perdre plus de 30% de sa production de maïs, sa principale récolte, au cours des vingt prochaines années, tandis que l'Indonésie et l'Asie du Sud verraient leurs principales cultures (millet, maïs et riz) diminuer d'au moins 10%.

"Nous avons été surpris de l'ampleur et de la rapidité de l'impact du changement climatique sur l'agriculture de ces régions", note Marshall Burke, chercheur de l'Université Stanford et co-auteur de ces travaux.

- Le coût du plan de la CEE pour diminuer le CO2

José Manuel Barroso, le président de la Commission européenne, a promis de limiter le montant de la facture annuelle à 0,5% du PIB européen, soit 60 milliards d'euros. Mais ses services jugent plus réaliste de parler de 120 milliards par an, soit 1% de la richesse européenne.

M. Barroso fait valoir que le coût de ces mesures devrait être compensé par les économies qu'elles permettront sur la facture des importations de gaz et de pétrole de l'Union européenne, de 50 milliards d'euros par an.

Les ventes de permis de polluer devraient aussi générer environ 50 milliards d'euros. Ces revenus iront dans les caisses des Etats membres, et une partie servira à financer les innovations techniques nécessaires à la réduction des émissions.

- Les émissions de la France ont baissé de 2,5% en 2006

Les émissions de gaz à effet de serre de la France ont baissé de 2,5% en 2006 par rapport à l'année précédente et de 4% depuis 1990, a annoncé mardi le ministre de l'Ecologie Jean-louis Borloo.

Outre les efforts entrepris notamment par l'industrie, la France a bénéficié en 2006 d'un climat particulièrement doux qui, selon Météo-France, la plaçait au troisième rang des années les plus chaudes depuis 1950, avec une moyenne annuelle supérieure de +1,1°C à la normale.

L'automne en particulier avait enregistré des moyennes supérieures de près de 3°C à la normale.

- Sarkozy et Gore pour un "Grenelle mondial de l'environnement"

- L'anthropocène

L’activité humaine a tellement modifié la topographie de la Terre et son climat que des géologues ont officiellement proposé la désignation d’une nouvelle époque géologique : l’Anthropocène, qui symboliserait l’empreinte humaine sur l’histoire géologique de la planète.

Au vu de tous ces changements, les scientifiques ont repris une proposition faite par le lauréat du prix Nobel de chimie Paul Crutzen, en 2002. Il a suggéré que la Terre a quitté l'Holocène, période actuelle ayant débuté il y a 10 000 ans, et démarré l’Anthropocène marqué par les effets de l'augmentation des populations humaines et le développement économique.

Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

- Aux origines de la vie : ARN+protéine ?

Sur la forme cristallisée de l'ARN fixé à sa protéine, les chercheurs ont pu étudier la structure de cette association. L'ARN est à droite et la protéine à gauche.

L'observation de la combinaison d'un ARN et d'une protéine semble confirmer l'hypothèse d'un "monde à ARN" à l'origine de la vie (au commencement était l'information, pas le métabolisme) :

Un champignon microscopique a peut-être fourni une clé de l'apparition de la vie. L'association intime entre un ARN, cousin de l'ADN, et d'une protéine, qui joue le rôle d'une enzyme, a pu être étudiée en détail. Or, on pense que c'est ainsi que tout a commencé...

Aujourd'hui, on a de bonnes raisons de penser que l'ARN, qui peut enregistrer de l'information tout comme l'ADN, a joué un rôle d'intermédiaire au tout début de la vie sur Terre, avant l'adoption générale de l'ADN. On parle même d'un « monde à ARN ». Cette molécule se serait liée à des protéines, capables de catalyser les réactions biochimiques, devenant donc ce que l'on appelle des enzymes. C'est une telle association qui vient d'être finement observée dans un champignon unicellulaire par une équipe américaine, qui publie ses résultats dans Nature.

« Il est hautement probable que l’ARN, ou une molécule similaire, a été une des premières molécules de la vie, transmettant le code génétique de génération en génération tout en se repliant au sein de la structure cellulaire de façon à pouvoir y fonctionner, avance la biologiste Barbara Golden, de la Purdue University, co-auteur de cette étude. A un certain moment, cette molécule d’ARN a évolué et est devenue capable d’utiliser les fonctions de certaines protéines. »

- Plus que 4 groupes d'eucaryotes

Le nombre de groupes d'eucaryotes a été réduit de 5 à 4 :

  • Plants (green and red algae, and plants)
  • Opisthokonts (amoebas, fungi, and all animals—including humans)
  • Excavates (free-living organisms and parasites)
  • SAR (the new main group, an abbreviation of Stramenophiles, Alveolates, and Rhizaria, the names of some of its members)”

L'arbre du vivant raconte l'histoire de la vie sur Terre, et notre recherche peut dire quelque chose sur la façon dont la vie s'est rapidement développée. Notre découverte suggère qu'il y a eu moins de gros "événements" que nous pensions dans le développement des formes de vie supérieures. Plus nous en savons sur les branches de l'Arbre du vivant, plus nous pourrons comprendre le Big Bang de la vie, "l'origine de la vie sur Terre", a déclaré Shalchian-Tabrizi. "Il y a 3 milliards d'années, il n'y avait que des bactéries et des Archaea. Les Eucaryotes, qui comprennent tous les organismes multicellulaires, se sont développés dans la mer - probablement entre 1,2 et 1,6 milliards d'années. Ce n'est pas avant 500 millions d'années que les premières créatures sont apparues sur la terre ferme. "

- Le premier Big-Bang du vivant

L'explosion du Cambrien où sont apparues les principaux groupes animaux qui existent encore aujourd'hui (vertébrés, arthropodes, mollusques) avait été précédée d'un premier Big-Bang d'organismes multicellulaires dont il ne reste rien... (on peut penser que les premiers organismes ont trouvé des conditions trop favorables et n'étaient pas encore pourvus des défenses appropriées mais il est possible aussi qu'un mécanisme génétique comme les gènes architectes se soit imposé par sa supériorité adaptative).

Il y a moins de 600 millions d’années, les premiers organismes multicellulaires semblent faire une brutale apparition avec déjà une certaine forme de complexité. On parle du début de cette période comme celle d’Ediacara (ou encore édiacarien) en référence à des collines en Australie où de nombreuses traces fossiles d'organismes multicellulaires ont été trouvées. Entre 542 et 530 millions d’années avant le présent, durant le Cambrien, s’est ensuite produite en moins de 10 millions d’années ce qu’on appelle l’explosion cambrienne.

Shuhai Xiao, professeur de géobiologie à l’Université de Virginia Tech, et ses collègues, ont découvert ce qui semblerait bien être une seconde explosion cambrienne plus ancienne, qu'ils ont baptisée explosion d’Avalonia (Avalon explosion en anglais), par référence au nom d'un microcontinent disparu.

Elle s’est produite 33 millions d’années environ avant l’explosion cambrienne typique, exactement au moment où l’on sait que le taux d’oxygène dans l’atmosphère avait subi une augmentation notable et à la sortie d’une glaciation importante en liaison avec la théorie de la Terre boule de neige. Les types morphologiques d’Ediacara sont tous là entre 575 et 565 millions d’années mais, curieusement, ils ne survivront pas, alors que ceux apparus à la suite de l’explosion cambrienne le feront.

- Dix amphibiens bizarres parmi les plus menacés d'extinction

La société zoologique veut sensibiliser le public sur le sort d'espèces telles que la salamandre géante de Chine (qui peut atteindre 1,8 mètre), la Sooglossus (grenouille de Gardiner), une espèce endémique aux Seychelles, ou l'amphibien sans membres, Sagalla caecilian, qui a des tentacules tactiles sur le côté de la tête.

Plus étrange encore: l'olm (ou protée anguillard), un amphibien de même type que les tritons et les salamandres qui peut survivre 10 ans sans nourriture.

Ce prédateur des fonds souterrains, semblable à un serpent rose de 30 à 40 cm, peut vivre quelque 90 ans.

- Un palmier suicidaire

Une nouvelle espèce de palmier géant a été découverte à Madagascar, l’arbre ne fleurit qu’une fois dans sa vie et s'autodétruit dès que ses fruits se sont formés.

C’est lors de sa floraison, qui se produit au bout de 50 à 100 ans, qu’il se démarque nettement des autres espèces de palmiers connues. Celle-ci commence discrètement par l’apparition d’une fleur à la cime de l’arbre puis quelques semaines après des centaines de petites fleurs apparaissent sur les branches supérieures, lui donnant ainsi des allures de sapin de noël. Chaque fleur peut être pollinisée et se transformer ensuite en fruit. La réserve de l'arbre en substances nutritives s'épuise dès que les fruits se forment et il meurt alors brusquement en s'effondrant sur lui-même.

- L'Homme de Néandertal est-il notre ancêtre ?

Cela va à l'encontre de tout ce qu'on pensait et, notamment, des études génétiques, à confirmer donc mais l'objection est forte : il est peu probable que des hommes soient remontés du sud au moment où il faisait le plus froid...

Un brusque coup de froid en Europe aurait accéléré l'évolution des hommes de Néandertal pour en faire des Homo sapiens. C'est la thèse d'un chercheur canadien après son étude détaillée des restes d'animaux trouvés dans la grotte de Saint-Césaire, en France.

Selon lui, un changement climatique brutal et important a durement frappé l'Europe de l'ouest au moment de la transition entre le paléolithique moyen et le paléolithique supérieur, un événement daté de 35.000 à 40.000 ans. La biodiversité des mammifères aurait considérablement diminué, affectant gravement les conditions de vie pour les populations humaines, qui auraient connu une décroissance importante.

Ce scénario, selon le chercheur, met à mal l'hypothèse classique selon laquelle des Homo sapiens venus d'Afrique auraient colonisé justement à cette époque une Europe jusque-là peuplée de Néandertaliens. Ce n'était vraiment pas le moment pour des humains de s'installer là, explique-t-il en substance, alors que le territoire devenait hostile. En revanche, cette situation critique aurait rétréci les populations d'Hommes de Néandertal, favorisé la dissémination de mutations et finalement donné un coup de fouet à l'évolution. Le Néandertalien serait ainsi progressivement devenu un Homo sapiens.

L'hypothèse d'une invasion d'Homo sapiens venus d'Afrique, qui aurait supplanté Néandertal, semble improbable à l'auteur. De plus, souligne-t-il, les stratégies des humains pour trouver de la nourriture – chasser le grands herbivores – n'ont pas changé au cours de cette période, ce qui aurait été le cas si une nouvelle espèce avait remplacé les Néandertaliens.

- Lire dans les pensées

Ce qui est extraordinaire ici, c'est d'établir qu'il y aurait une similitude dans la façon dont les cerveaux de différentes personnes pensent les mêmes représentations. En fait, il semble que c'est simplement relié aux résonances corporelles de chaque outil, loin d'être spécifique à une représentation précise. La technique reste donc très grossière mais de quoi s'immiscer quand même dans nos pensées et nous effrayer quelque peu de la perte de notre intériorité et d'une capacité de dissimulation si essentielle à notre liberté tout comme aux rapports humains...

Les chercheurs ont montré à un groupe de cobayes une série de 10 dessins très simples représentant des outils ou des maisons, et on leur a demandé de penser à leurs caractéristiques. A noter que les scientifiques n’observaient pas le cortex visuel : c’est donc bien la pensée qu’ils cherchaient à capter, et non simplement la façon dont le cerveau perçoit une image. En regardant l’activité du cerveau de leurs cobayes grâce à l’imagerie par résonance magnétique, les expérimentateurs purent deviner dans 78% des cas le dessin qui était présenté au sujet, juste en regardant quelles zones étaient stimulées. Ils ont découvert par cette méthode que la représentation d’un objet dans le cerveau n’était pas localisée en un seul endroit, mais en plusieurs sites. Par exemple, lorsqu’on pense à un marteau, les zones moteur s’activent parce qu’on s’imagine en train de l’utiliser, tandis que d’autres aires du cerveau s’activent également, répondant à d’autres associations mentales.

Mais il y a plus important. Les chercheurs ont été capables de deviner les objets observés par un sujet en utilisant une machine entraînée à reconnaître l’activité cérébrale des autres cobayes ! Autrement dit, les configurations neurales présentent une relative universalité. Nous pensons tous un peu de la même manière à un marteau ou une maison. La question qui se pose est de savoir si cette relative universalité de la pensée se limite aux objets simples ou si elle s’étend à des concepts plus sophistiqués. Pour John Dylan Haynes, de l’Institut Max Planck à Leipzig, interviewé par Newsweek, “plus une pensée est détaillée, plus les structures observées divergent. Parce que les gens développent des associations différentes pour un objet ou une idée. Nous sommes encore très loin d’une machine universelle à lire les pensées, même si nous en sommes beaucoup plus proches qu’il y a deux ans.”

Voir aussi : L'armée veut lire dans le cerveau de ses soldats.

Santé


génétique, traitements, nutrition, hygiène

- Diminuer notre besoin d'oxygène

L’inhibition d’une protéine régulant l’adaptation du métabolisme au taux d’oxygène permettrait de diminuer considérablement les besoins en O2 de l’organisme.

Une équipe de scientifiques a étudié le rôle de la protéine Phd1 qui mesure l'oxygène. Cette molécule agit comme un «oxygénomètre» et tient un rôle prépondérant dans l'adaptation du métabolisme de l'organisme au cours du passage d'un environnement riche en oxygène à un environnement qui en est dépourvu.

D’autres analyses ont prouvé que chez les souris dépourvues de Phd1, les tissus musculaires s'étaient d'eux-mêmes «reprogrammés» par un réflexe métabolique afin de consommer moins d'oxygène. Les muscles ont ainsi continué de fonctionner correctement dans un environnement faible en oxygène. Le même phénomène a été observé chez des souris saines ayant reçu une injection bloquant l’activité de Phd1.

- Un coeur régénéré

Le cœur a d'abord été débarrassé de ses cellules (images du haut) puis colonisé avec de nouvelles cellules (en bas).

Intégralement débarrassé de ses cellules, un cœur de rat a été recolonisé par des cellules prélevées sur un animal nouveau-né et s'est remis à battre. Ce résultat étonnant pourrait aboutir à de nouvelles options thérapeutiques après un infarctus grave du myocarde, par exemple implanter un cœur prélevé sur un cadavre, d'homme ou même de cochon.

Cette expérience originale commence par la fabrication d'une sorte de cœur fantôme. Prélevé sur un rat, cet organe est débarrassé de toutes ses cellules par l'action d'un produit détergent. Il ne reste alors que des tissus sans vie, la matrice extracellulaire, surtout composée de collagène mais l'ensemble conserve la forme et la structure interne d'un cœur vivant.

Dans ce cœur vidé de sa substance vivante, les chercheurs ont injecté des cellules prélevées sur le cœur d'un rat nouveau-né. Il ne s'agit pas de cellules souches (dont on a déjà testé il y a plusieurs années l'utilisation pour reconstituer le tissu cardiaque) mais elles ont tout de même la capacité de se différencier en plusieurs types cellulaires. En colonisant cette structure vide, ces cellules ont en quelques jours reconstitué – un peu – des tissus de muscle cardiaque.

Au bout d'une semaine, sous l'action d'un faible courant électrique, le cœur s'est mis à battre avec un faible mouvement, représentant 2 % de l'activité d'un cœur de rat en pleine forme.

- Un traitement contre les cellules souches cancéreuses

Il se confirme que les cancers capables de provoquer des métastases concernent uniquement les cellules souches, de plus résistantes à la chimiothérapie, ce sont donc ces cellules qu'il faut cibler. Le premier traitement spécifique vise les cancers de la peau (mélanomes) mais devrait pouvoir s'étendre aux autres cancers.

- La vitamine D contre le cancer

Les pays bénéficiant annuellement des plus longues périodes d’ensoleillement sont ceux où les populations atteintes d’un cancer vivaient le plus longtemps à la suite d’un cancer. Le taux de survie était associé à une concentration sanguine plus élevée en vitamine D.

- La myopie, un manque de soleil

La myopie est due à une croissance excessive de l'oeil pendant la période postnatale. La lumière solaire stimulerait la sécrétion de dopamine, un neurotransmetteur connu pour bloquer la croissance de l'oeil. Les complications pathologiques de la myopie, comme le décollement de la rétine qui peut entraîner la cécité, sont suffisamment sévères pour que des mesures de prévention soient mises en place.

- Traiter le glaucome au laser

Extrêmement délicate, celle-ci consiste à abraser une partie de la paroi du globe oculaire, ne laissant subsister que 5 % de son épaisseur, assez faible pour permettre à l’excès de liquide de s’écouler tout en restant suffisamment résistante.

Le faisceau, dirigé sur la paroi oculaire, abrase celle-ci jusqu’à ce que son épaisseur se réduise et la rende transparente. L’effet du laser s’arrête alors, empêchant tout dommage excessif à l’œil.

- Un vaccin à vie contre la grippe ?

Un laboratoire anglais aurait mis au point un vaccin procurant une protection antigrippale permanente sans nécessité d’être piqué tous les ans.

Pour réaliser ce tour de force, les biologistes d’Acambis ont travaillé sur les parties invariantes des protéines de surface du virus. Ils ont utilisé un petit peptide, M2e, identifié par des scientifiques belges. Le vaccin est pour l’instant en phase d’essai, annonce Acambis, testé sur 79 volontaires, il aurait suscité la production d’anticorps chez neuf sujets sur dix.

- Testostérone : pas de miracle pour l’homme âgé
Le Figaro 04.01

Alors qu’un nombre croissant d’hommes prennent de la testostérone en vieillissant, les bénéfices semblent très faibles selon une étude publiée cette semaine.

Selon une enquête réalisée en Hollande à Utrecht (auprès de 230 hommes de 60 à 80 ans présentant un taux faible de testostérone dosé dans le sang), cette médication pourrait augmenter la masse musculaire et diminuer la masse graisseuse, mais n’accroîtrait pas en revanche la force musculaire.

Il y a un débat assez vif parmi la communauté des urologues autour des bénéfices et des risques d’un traitement par testostérone pour les plus de 60 ans.

La diminution des taux de testostérone a été accusée de provoquer une perte musculaire, une augmentation du risque de chute, de dépendance et de déclin des fonctions intellectuelles.

Nous n’avons pas observé de bénéfice sur les aptitudes intellectuelles ni sur la masse osseuse.

Le taux de bon cholestérol a diminué chez les personnes sous traitement.

Les bienfaits de la testostérone apparaissent bien minces. Cependant, l’étude n’a duré que 6 mois, ce qui est insuffisant pour évaluer tant les effets positifs (impact sur la vitalité) que les négatifs (risque prostatique).

Il vaut mieux, sans doute, stimuler la production interne.

- Le cholestérol bon pour les muscles

Pendant que vous vous exercez physiquement, vos muscles peuvent devenir endoloris. Un taux de cholestérol plus élevé peut avoir pour conséquence une réaction inflammatoire accrue. Nous savons que ce processus n’est pas indiqué dans certaines régions, telles le muscle cardiaque, mais ailleurs cela peut être salutaire et le cholestérol semble favoriser ce processus.

- Un traitement anti-inflammatoire contre l'Alzheimer

C'est la grande nouvelle du mois ! Comme le diabète de type 2, l'Alzheimer serait causé par l'inflammation et traiter l'inflammation avec un médicament contre l'arthrite injecté dans le cou permettrait d'améliorer immédiatement les symptômes ! Technology Review va jusqu'à dire qu'on voit l'état des patients s'améliorer sous nos yeux !

Plusieurs analyses ont démontré que les patients atteints d’alzheimer avait un taux élevé de TNF alpha (Facteur de nécrose tumoral) dans leur liquide céphalorachidien. Le TNF est une composante essentielle du système immunitaire du cerveau et participe à la régulation de la transmission des impulsions nerveuses. En excès, il peut nuire à la bonne conduction de l’influx nerveux et provoquer une réaction inflammatoire.

Partant de ces observations, une équipe de chercheurs universitaires et privés a testé l’effet d’une molécule anti TNF, l’étanercept (Enbrel), déjà utilisé pour traiter un certain nombre de maladies à médiation immunitaire, comme la polyarthrite rhumatoïde ou le psoriasis sévère. Les résultats qu’ils ont obtenus ont été spectaculaires : quelques minutes ont suffi, après une injection d’étanercept dans la colonne vertébrale, pour obtenir une amélioration sensible des symptômes cognitifs et mnésiques.

- Des souvenirs oubliés peuvent renaître sous l'effet de stimulations électriques du cerveau

Une hirondelle ne fait pas le printemps mais de quoi raviver quand même le fantasme d'une mémoire intégrale, enfouie dans les profondeurs du cerveau et qu'on pourrait refaire surgir, comme certains autistes mais par une stimulation électrique cette fois !

Les neurochirurgiens canadiens expliquent que durant la période où ils pratiquaient, au moyen d'électrodes intracérébrales, la stimulation d'une région très précise de l'hypothalamus, leur patient a subitement eu la perception d'une scène familière, vécue trente ans auparavant. "Il a retrouvé, en couleurs, le souvenir d'un épisode où il était dans un parc avec des amis, rapportent les auteurs de la publication. Il a reconnu sa petite amie de l'époque parmi les gens présents qu'il voyait marcher et entendait parler sans comprendre précisément ce qu'ils disaient. Lui-même observait la scène sans se voir".

Ils ajoutent que la répétition de ces stimulations a conduit à une amélioration générale des capacités mnésiques : après trois semaines d'impulsions électriques, le patient montrait des performances accrues dans des tests d'apprentissage.

- Un nouveau médicament contre le diabète de type 2

Doté d'un mécanisme d'action inédit, ce médicament permet d'abaisser le taux de sucre sans entraîner de gain de poids ou d'épisodes d'hypoglycémie, deux effets indésirables de la plupart des autres traitements contre le diabète. De plus, le januvia, comme on l'appelle dans le commerce, se présente sous forme de comprimés qu'on absorbe par la bouche une fois par jour.

Le nouveau médicament januvia stimule justement la sécrétion endogène d'insuline par les cellules bêta, en bloquant la dégradation d'une hormone - la GLP-1 (Glucagon Like Peptide-1).

Cette hormone, qui est en déficit chez les diabétiques de type 2, migre vers le pancréas où elle se lie aux cellules bêta qu'elle stimule à produire plus d'insuline. Le januvia (ou phosphate de sitagliptine monohydraté) permet du coup à la GLP-1 d'agir plus longtemps.

- Allergies et asthme : la faute à notre flore bactérienne ?

Pourquoi les Estoniens ont-ils beaucoup moins d'allergies ou d'asthme que les Suédois ? Probablement parce que les bébés d'Estonie ont dans l'intestin une flore intestinale plus variée que les petits Suédois. C'est l'hypothèse d'un chercheur suédois qui entasse depuis onze ans des excréments de bébés dans une chambre froide.

D'une manière plus générale, l'hypothèse dite hygiéniste propose que notre environnement serait trop propre : notre système immunitaire ne serait plus entraîné à lutter contre les allergènes et se lancerait dans des batailles à la Don Quichotte contre des substances inoffensives comme les grains de pollen ou l'huile d'arachide. En faveur de cette hypothèse figure l'influence protectrice... de la ferme : l'enfant des champs a moins souvent d'allergies que l'enfant des villes. De même, contrairement à une idée reçue, la présence d'un animal domestique dans la maison du bébé renforce sa future résistance aux allergies.

Après avoir séquencé le génome humain, les scientifiques veulent aujourd'hui s'attaquer à ceux de nos bactéries. L'ensemble de leurs gènes est appelé microbiome et peut s'étudier globalement (et non pas bactérie par bactérie) grâce aux méthodes de la métagénomique, très en vogue. « Nous sommes à l'aube d'une révolution dans la compréhension du microbiome humain, s'enthousiasme Bengt Björkstén. La clef pour comprendre les maladies allergiques est peut-être dans l'intestin plutôt que dans l'environnement. » De nouvelles voies thérapeutiques s'ouvriront peut-être lorsque l'écologie bactérienne du corps humain sera mieux connue.

- Bienfaits du régime méditerrannéen

Deux nouvelles études européennes viennent élargir un peu plus l’éventail des bénéfices attribués à ce mode de vie. La première concerne l’alimentation des femmes enceintes et semble démontrer une relation positive entre cette alimentation et une diminution du risque d’asthme et d’allergies pour les enfants à naître. Cette corrélation serait liée aux bienfaits des antioxydants sur les systèmes qui mettent longtemps à se développer, comme l'appareil respiratoire et le système immunitaire. Une autre recherche se consacre plus particulièrement à l’huile d’olive, dont les polyphénols (des antioxydants naturels) améliorent la qualité des malades qui souffrent de stress oxydatif et lutteraient aussi efficacement contre le vieillissement des cellules et l’ostéoporose.

Le régime méditerranéen est une pratique alimentaire qui associe un apport calorique relativement faible par rapport à l’activité physique déployée avec une consommation abondante de légumes et de fruits frais, de pain, de céréales (base de l’apport énergétique), de fruits secs et d’huile d’olive. D’autre part, les produits d’origine animale représentent une faible part de l’alimentation, à l’exception du poisson qui garnit souvent les assiettes des populations méditerranéennes.

- Acrylamide, la dangerosité se confirme

L’acrylamide est une molécule cancérigène se formant lors de la cuisson à haute température d’aliments riches en hydrate de carbone (amidon, sucres) et en protéines. Les aliments qui en contiennent le plus sont les frites ; les chips, le pain et généralement tous les produits soumis à des températures élevées comme le café , les amandes grillées ou les succédanés de café à base de céréales.

D'après une nouvelle étude, financée par l'UE et publiée dans la revue International Journal of Cancer, il existe une association positive entre un niveau élevé d'acrylamide dans le sang et le développement du cancer du sein.

Sans certitudes, les chercheurs conseillent toutefois d’en diminuer la quantité ingérée. Pour cela il faut veiller à ne pas dépasser les temps de fritures nécessaires, la majeure parite de l’acrylamide se formant en effet durant les dernières minutes de cuisson. Il faut également éviter de consommer les aliments noircis ou carbonisés qui en contiennent d’importante quantité.

- Tous contaminés par les pesticides

Selon les résultats de l’étude 100% des sujets avaient des traces de DDE et un pourcentage élevé d’autres polluants. Les femmes en avaient plus que les hommes et les personnes âgées sont nettement plus imprégnées, ce qui s’explique par une période d’exposition longue avant les interdictions frappant aujourd’hui ces produits. L’étude démontre aussi le rôle joué par le régime alimentaire : la consommation de certains aliments, spécialement ceux d’origine animale et avec une grande concentration de graisse, provoque une grande présence de ces substances toxiques dans l’organisme.

- Dépression et coups sur la tête

Au sein de la population générale, la dépression touche environ 5% des individus mais ce pourcentage flambe chez les patients atteints de commotion cérébrale puisqu’il frise les 40%.

- Les antidépresseurs pas aussi efficaces qu'on le laisse croire

Les antidépresseurs ne seraient pas aussi efficaces que ce qui est rapporté dans la littérature scientifique, où ne sont publiées, en général, que les études ayant abouti à des résultats favorables au médicament.

L'antidépresseur moderne est un placebo commercialisé avec une publicité.

Il ne faut pas exagérer ni mettre tous les antidépresseurs dans le même panier ! Cela fait longtemps que l'efficacité du Prozac est mise en cause, son succès étant largement dû à une communication agressive et... à son peu d'effet qui permettait de standardiser les doses. Il n'empêche que les antidépresseurs, bien utilisés, sont des médicaments indispensables (et même vitaux) mais leur maniement est délicat et le choix du bon antidépresseur bien difficile...

- Une possible liaison entre génétique et dépendance aux drogues

Il y a certainement un lien entre génétique et drogues car on ne connaît pas de sociétés humaines sans drogues mais peut-on en faire une maladie si c'est la norme ?

En complément des analyses IRM, les chercheurs ont découvert, grâce à des analyses génétiques, que les personnes ayant une tendance marquée à ne pas attendre lors du test, possèdent deux copies d’une variante d’un gène appelé COMT. Cette caractéristique provoque une diminution de la quantité moyenne de dopamine, un neurotransmetteur bien connu du cerveau, et dont on sait qu’il est impliqué dans la dépendance à la cocaïne et à la nicotine.

Prises ensembles, ces données suggèrent un lien entre une prédisposition à la dépendance, une mutation génétique et une activité anormale d’une région du cerveau. Les comportements addictifs seraient donc bien des maladies tout comme le diabète par exemple.

Il est trop tôt pour en tirer des conclusions hâtives et bien des études restent encore à faire à ce sujet. Toutefois, les chercheurs sont très excités par ces observations parce qu’elles impliquent que des traitements à bases de médicaments augmentant la quantité de dopamine dans le cerveau pourraient bien être efficaces pour lutter contre les addictions. En particulier, ceux utilisés pour la maladie de Parkinson pourraient se montrer efficaces.

- Clonage humain : première réussite ?

Des chercheurs, de la société américaine Stemagen, ont annoncé, dans une étude publiée jeudi dans la revue Stem Cell, avoir obtenu cinq embryons humains en utilisant des cellules de la peau de deux hommes adultes. Après vérifications, ils n'ont réussi à confirmer avec une totale certitude que ces embryons étaient bien des clones des deux hommes que dans trois des cinq cas. Les embryons ont été détruits au cours de ce processus de vérification.

- Homo Implantis

La recherche médicale concernant les implants est en plein boom. Depuis peu, un consortium international composé de 27 universités s’est formé autour de partenaires industriels et hospitaliers afin d’accélérer la mise en application des recherches fondamentales. L’Union Européenne avec le projet Healthy Aims a pris une longueur d’avance sur le développement de tels dispositifs implantables.

Il faut ajouter que c'est la première fois que les autorités olympique ont refusé le concours d'un handicapé parce que sa prothèse lui donnait un avantage sur les autres coureurs !

Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie

- ''SpaceShip Two'' : 200 000$ pour 5mn en apesanteur !

- La première bactérie entièrement synthétique

La viabilité n'est pas encore testée et la production de biocarburant n'est qu'une excuse pour une recherche fondamentale, celle du génome minimal. Pour l'instant on ne comprend pas encore ce qu'on fait, c'est juste du meccano. Bien sûr le risque est considérable à l'avenir qu'une nouvelle bactérie synthétique se reproduisant trop vite nous submerge, scénario bien plus crédible que pour les nanotechnologies avec la mythique grey goo...

Le tour de force technique des scientifiques de l'Institut J. Craig Venter, à Rockville, MD, c'est d'avoir synthétisé le génome de la bactérie Mycoplasma genitalium entièrement à partir de zéro. Cet exploit est un tremplin pour l'ingénierie microbienne permettant la création de machines bilogiques capables de produire des biocarburants ou de l'exécution d'autres fonctions utiles.

Dans la nouvelle étude, les scientifiques ont commandé 101 fragments d'ADN, qui englobent l'ensemble du génome de Mycoplasma, à des sociétés commerciales spécialisées dans la synthèse d'ADN . Ces fragments ont été conçus de telle sorte que chaque séquence chevauchait un peu ses voisines; grâce aux propriétés chimiques de l'ADN, ces différents tronçons qui se chevauchent vont s'accrocher. Les chercheurs ont attaché ainsi les fragments, morceau par morceau, pour à terme générer la totalité des 582970 paires de base de la séquence du Mycoplasma. Les résultats ont été publiés jeudi dans l'édition en ligne de Science.

"Nous estimons qu'il s'agit d'une deuxième et importante étape dans un processus en trois étapes de notre tentative de créer le premier organisme de synthèse", explique Craig Venter, président de l'Institut Venter. Venter et ses collègues veulent en fin de compte créer un génome minimal - celui avec le plus petit nombre de gènes nécessaires pour entretenir la vie. Établir le génome minimal permettra à la fois de faire la lumière sur les principaux processus cellulaires, et de fournir une base pour la conception d'organismes synthétiques sophistiqués. «Nous travaillons en fin de compte à la conception des cellules qui pourraient fonctionner d'une façon robuste pour faire uniquement des biocarburants», dit Venter.

- Un maïs non OGM enrichi en vitamine A

De nouvelles recherches pourraient servir à développer par croisement des maïs contenant plus de vitamine A, ce qui pourrait permettre d'améliorer la santé de millions d'enfants en Afrique subsaharienne et dans d'autres régions dont l'alimentation est basée sur cette céréale.

Dans leur étude, les auteurs montrent comment des variations naturelles du gène lcyE pourraient offrir le moyen aux semenciers des pays développés de produire un maïs ayant plus de provitamine A sans qu'il soit nécessaire pour cela de passer par de la transgenèse.

C'est une très bonne chose qu'on puisse se passer d'OGM mais de toutes façons le maïs n'est pas une bonne plante alimentaire et il demande trop d'eau...

- Un nouveau procédé de fabrication d'éthanol

A partir de pneus, de bois et de déchets pour 0,5$ par litre.

Le cœur du nouveau procédé de fabrication d'éthanol à partir de sources autres que le maïs est constitué d'un faisceau de fibres creuses. Les matières organiques sont chauffées jusqu'à former un mélange d'hydrogène, de dioxyde de carbone et du monoxyde de carbone. Quand le bioréacteur est en fonctionnement, le gaz pénètre le centre des fibres et nourrit les bactéries convertissant le gaz en éthanol.

- De l'hydrogène solaire bon marché

En utilisant des nanostructures de titane, Nanoptek permet la production d'hydrogène à partir du soleil et de l'eau pour un coût très inférieur aux technologies actuelles.

- L'énergie intelligente

La domotique tarde à s'imposer (trop compliquée, trop chère) alors que le contrôle informatisé de l'énergie est un gisement qui est loin d'être négligeable.

Apporter à chacun des outils leur permettant de surveiller et d’ajuster sa consommation électrique n’est pas nouveau, mais on ne connaissait pas à ce jour leur impact exact… Une étude réalisée par le Pacific Northwest Laboratory, un des laboratoires nationaux du département de l’Energie des Etats-Unis, suggère que ces outils pourraient permettre aux foyers de réaliser 10 % d’économie sur leurs factures et au final, réduire les charges de pointe du réseau électrique de quelque 15 % par an.

- Départ du premier "cargo écologique" à voile d'Allemagne vers le Venezuela

La voile de 160 m² de surface, véritable cerf-volant accroché au-dessus de la proue du navire et pilotée par ordinateur, permet de réduire la consommation de carburant de 10 à 35% selon la force du vent.

Les cargos qui circulent sur les mers et océans sont responsables à hauteur de 4% des émissions de dioxyde de carbone (CO2), soit le double de l'aviation.

- Un bateau solaire

L'engin est donc propulsé à la fois par le vent et l’électricité. En mode voilier, il utilise ses deux ailes latérales qui peuvent s’incliner et s'orienter pour capter l’énergie du vent. Elles sont recouvertes sur leurs deux surfaces de panneaux solaires qui offrent en même temps une propulsion électrique.

- Trev: une voiture électrique revenant à 60 centimes les 100 km

Le concept Trev est une réalisation d'étudiants de l'université du Sud d'Australie. Le véhicule peut embarquer deux personnes et, selon ses concepteurs, se déplacer pour un coût de 60 centimes d'euro les 100 km. Il s'agit de 60 centimes d'euro d'électricité australienne bien entendu.

Tout dans le véhicule tend vers la légèreté: du châssis en aluminium aux jantes en acier léger en passant par sa carrosserie en mousse et fibre de verre.

- La voiture à air comprimé débarque en Inde

Le concept est français, mais c’est en Inde que la voiture à air comprimé fera bientôt son apparition grâce à l’accord signé il y a quelques mois entre le holding MDI et le constructeur indien Tata.

Il faut dire que le concept paraît presque trop beau pour être vrai, puisqu’il permet de rouler presque gratuitement en n’émettant pas la moindre particule polluante.

Dans un premier temps, l’air est fourni par un compresseur embarqué, qui fonctionne sur une simple prise de courant. Il faut une nuit entière pour gonfler complètement le réservoir. On obtient alors une autonomie de 80 kilomètres cela pour environ 1,50 € d’électricité (au tarif français). La puissance délivrée n’est pas mirifique (25 chevaux), mais suffit pour faire circuler cette petite citadine de 870 kg en ville.

C'est une voiture dont il faut faire la promotion mais qui n'est qu'une solution intermédiaire. Les transmissions mécaniques ne sont pas efficientes et l'air comprimé non plus. La voiture de l'avenir est toute électrique avec un moteur dans chaque roue (comme la Volvo ReCharge Concept) et marchera soit avec une pile à combustible à base de méthanol ou un autre carburant liquide plutôt que l'hydrogène, soit, plus probablement, avec des batteries super-condensateurs. On n'en est pas encore là (bien que les premiers modèles viennent de sortir) et donc, en attendant, il faut pousser effectivement les voitures à air comprimé en ville, en les faisant acheter par les municipalités par exemple, car si ce n'est probablement pas une technique d'avenir, c'est la meilleure solution du moment !

- Avec "Nano", Tata présente la voiture la moins chère du monde

Plus important sans doute cette petite voiture qui pourrait être une bénédiction si elle remplaçait les grosses mais qui sera plus sûrement catastrophique pour le climat en augmentant démesurément le nombre d'automobiles...

"La voiture du peuple", de Tata, automobile hyper-compétitive de quatre places tirée par un minuscule moteur de 630 cm3, soit la cylindrée d'une moto, est présentée au moment où la compétition internationale s'aiguise dans la gamme des véhicules très bon marché. Son nom est la "Nano".

Malgré ses 3,1 mètres de long, ses 1,5 de large et ses… 1,6 de haut (voilà qui promet une tenue de route aléatoire, surtout vu la taille "rikiki" de la dot pneumatique), cette mini-citadine aux faux-airs de Smart du pauvre a en effet le mérite de disposer de 5 portes et consomme 5 l/100km.

Le français Renault et le japonais Nissan se penchent également sur une automobile à un prix imbattable, conçue et fabriquée au royaume des délocalisations et du travail à coûts réduits.

Renault poursuit le développement de cette voiture à 2.500 dollars avec le constructeur indien de motocyclettes, Bajaj, qui pourrait aussi être produite au Brésil.

- Tokyo 2007 : Toyota i-REAL

La structure en fibre de carbone s’incline plus ou moins vers l’arrière en fonction de la vitesse (maximum 30 km/h) et prend de l’angle dans les virages. Les commandes sont dans les bras du fauteuil, et i-REAL émet son et lumière en guise de signalisation.

- Des nanofils de silicium pour produire de l'électricité à partir de la chaleur

Cette image, produite par un microscope électronique à balayage, montre un nanofil de silicium reliant deux plaques - une qui sert de source de chaleur et l'autre de capteur. Les chercheurs ont constaté que 50 nanomètres de nanofils de silicium ont une conductivité thermique bien plus faible que le silicium ordinaire mais conservent leur conductivité électrique, ce qui donne aux nanofils les propriétés des matériaux thermoélectriques - ceux qui convertissent la chaleur en électricité et vice-versa.

Recharger un téléphone mobile grâce à la chaleur du corps, climatiser la voiture grâce à celle du pot d'échappement ou transformer en électricité les calories perdues par les bâtiments : c'est le genre d'applications qu'imagine une équipe de chercheurs après la découverte de propriétés inattendues de nanofils de silicium.

- Des nanotubes de carbone absorbent 99,955% de la lumière

A droite le carbone vitreux, à gauche un étalon standard d'absorption et au centre le "corps noir".

Le corps obtenu est le plus noir jamais synthétisé par l’homme jusqu’à présent. Le secret : encore et toujours des nanotubes de carbone.

L’une des applications potentielles importantes de ce nouveau matériau est la conversion thermophotovoltaïque. Elle requiert pour produire efficacement de l’électricité une absorption la plus complète possible de la lumière à tous les angles, toutes les polarisations et à toutes les longueurs d’onde.

- Des puces électroniques à base d'algues

Les diatomées sont des algues unicellulaires, et l'un des types les plus courants de phytoplancton. Une de leurs caractéristiques principales est de s'envelopper dans une carapace de silice. Selon une équipe de chercheurs américains qui a réussi à décoder le génome d'une de ces diatomées, nommée Thalassiosira pseudonana, ces algues très petites pourraient devenir la prochaine grande percée dans les puces électroniques. Elles pourraient aussi être utilisées pour éliminer le dioxyde de carbone de l'atmosphère afin de réduire les effets des changements climatiques mondiaux qui se produisent actuellement.

Qu'est-ce que ces chercheurs ont trouvé? Ils ont découvert un ensemble de 75 gènes spécifiquement impliqués dans la production de silice et qui pourraient conduire à des puces d'ordinateur plus rapide. Ces nouvelles données permettront à Sussman de commencer à manipuler les gènes responsables de la production de la silice et peut-être de les exploiter pour produire des puces informatiques. Cette puce pourrait augmenter considérablement la vitesse, selon Sussman, parce que les diatomées sont capables de produire des lignes beaucoup plus fines que ne le permet la technologie actuelle. "L'industrie des semi-conducteurs a été en mesure de doubler la densité des transistors sur les puces électroniques toutes les quelques années. Ils l'ont fait en utilisant des techniques de photolithogravure ces 30 dernières années", explique Sussman. "Mais ils sont désormais face à un mur infranchissable car ils doivent passer en-dessous de la résolution de la lumière visible".

"Les diatomées, dont la plupart sont trop minuscules pour qu'on les voit sans grossissement, sont incroyablement importantes dans le cycle mondial du carbone", explique Thomas Mock. "Au cours de la photosynthèse, les diatomées transforment le dioxyde de carbone en carbone organique et, dans ce processus, produisent de l'oxygène. Elles sont responsables de 40% de la production de carbone organique dans les océans chaque année".

Et comment cette recherche génomique pourrait être en mesure d'améliorer la vie sur Terre? Considérant que 30% des océans de la planète sont pauvres en fer, certains chercheurs ont suggéré de les fertiliser en fer de sorte que les diatomées deviennent plus nombreuses et puissent absorber plus de dioxyde de carbone atmosphèrique, freinant donc ainsi le réchauffement de la planète.

- Des élèves sous haute surveillance par RFID !

Le collège Hungerhill à Doncaster a mis en place, à titre expérimental, un système de surveillance utilisant des puces RFID, Radio Frequency Identification, intégrées aux badges des élèves. Dix élèves se sont portés volontaires pour en tester l'efficacité.

Avec ce système de surveillance par RFID, les élèves de Hungerhill ont une carte à puce intégrée à leur badge, qui peut émettre des signaux radio. L'élève peut ainsi être identifié lorsqu'il rentre dans une classe. La puce est connectée à un système central, ce qui permet d'avoir de nombreuses informations sur l'élève comme par exemple sa photo ou ses résultats scolaires. De plus, le système permet aussi de restreindre l'accès à certaines zones de l'établissement pour les élèves qui ne sont pas autorisés à y accéder.

- Transferts haut débit par contact

Sony a annoncé une nouvelle technologie sans fil nommée “TransferJet”. Le débit théorique élevé (560 Mbps) permettra de transférer vidéos, images et son HD entre téléphones portables, ordinateurs et télévisions.

L'innovation vient du fait qu'il suffit de se faire “toucher” les appareils entre eux pour qu'ils communiquent sans fil (technologie “Touch & Get”). La mise en place de la communication s'en trouve ainsi grandement simplifiée.

Basé sur le 4,48 GHz, cette technologie de type NFC sera intégrée à l'ensemble de l'offre Sony.

- Bientôt l'usb sans fil

- Le MacBook Air : un portable de luxe de 2cm d'épaisseur

La version de base sera vendue 1.800 dollars aux Etats-Unis et 1.700 euros en France, des tarifs faisant du MacBook Air un objet de luxe.

Le principal défaut est sans doute la connectique d'un autre âge : une seule prise USB et à peu près rien d'autre, même pas de connecteur FireWire... En option, on peut ajouter une prise Ethernet (30 dollars). Heureusement, sans fil, les possibilités sont plus larges, avec une compatibilité Wi-Fi et Bluetooth.

En fait, si c'est d'un autre âge c'est plutôt parce qu'il est en avance car la plupart des connexions se feront en WiFi désormais...

- Eee-PC : SFR et Asus vendent un ordinateur à 200 euros

On avait déjà parlé de ce tout petit portable d'Asus qui n'est pas seulement un minitel perfectionné, même s'il est destiné surtout à l'utilisation d'internet et vendu 300€. SFR le propose désormais à 200€ avec un modem 3G permettant de se connecter en voyage, mais avec un abonnement de 60€ quand même... (bientôt on offrira l'ordinateur avec l'abonnement).

Un ordinateur ultraléger, un modem 3G et un forfait de connexion : c'est le cocktail de SFR et d'Asus pour proposer une solution de connexion permanente aux voyageurs. Avec un prix plus faible que les UMPC, ce terminal Internet pourrait inaugurer une nouvelle tendance.

Pour 200 euros (contre 300 pour l'ordinateur seul chez Asus) plus 60 euros par mois, l'opérateur de téléphonie mobile propose l'Eee-PC muni d'un modem sous forme de clé USB capable de se connecter par la voie des airs via le réseau SFR.

- Un terminal internet de 300 grammes

Au CES de Las Vegas, Lenovo a montré un prototype de PC de poche, en fait un terminal Internet. Ce petit appareil sera commercialisé en Chine en 2008 et dans les autres pays – sauf le Japon – en 2009.

Le petit appareil de Lenovo arbore un écran de 12 centimètres de diagonale affichant 800 x 480 points. Le stockage des fichiers est assuré par un disque dur SSD de 4 ou 8 Go. Pour la connexion, Lenovo annonce une compatibilité Wi-Fi, Bluetooth et Edge (téléphonie mobile).

Le prototype montré par Lenovo utilisait Linux et se lance en vingt secondes.

- Démarrage instantané du PC

Plusieurs sociétés (splashtop, Phoenix Technologies ou même Intel), développent des systèmes capables de démarrer presque instantanément (5 secondes), principalement pour consulter internet (FireFox ou Skype).

- Des lunettes écran

Fini l’écran, voici les lunettes donnant l'illusion d’une scène à taille réelle se déroulant devant vous... C'est ce que propose Lumus, une société israélienne, grâce à un ingénieux système consistant à projeter les images devant les yeux.

- Des lentilles de contact affichant des données multimédias

Cette nouvelle création doit son origine à l'Université de Washington qui a conçu effectivement un procédé permettant de produire des lentilles de contact intégrant un circuit électronique ainsi qu'une source de lumière permettant aux futurs utilisateurs de pouvoir consulter dans un environnement réel diverses informations.

En fait ce n'est pour l'instant qu'un prototype testé sur des lapins et il y a des problèmes d'alimentation, voir Internet-Actu.

- Un mur-écran

Il ne s'agit encore que d'un prototype, mais il a le mérite de démontrer que cette technologie est désormais à la portée des ingénieurs. Le projet LifeWall (littéralement mur de vie) utilise des écrans plats géants, couplés à des caméras, pour créer un environnement modifiable.

- Une imprimante de poche

Cette imprimante Polaroid est à peu près de la taille d'un jeu de cartes et peut imprimer des photos sur deux pouces par trois sans utiliser d'encre ni de toner. Au lieu de cela, elle utilise un nouveau type de technologie d'impression thermique, développée par la startup Zink Imaging. Zink a développé un papier spécial (en bas) qui contient des couches de cristaux de pigment qui sont libérés lorsqu'ils sont chauffés.

- Les Fab@home débarquent

A l’université de Cornell une équipe a mis au point le “Fab@Home“, les spécifications en “open source” d’une imprimante 3D à bricoler soi même (mais on peut s’aider en achetant des kits) pour environ 2400 $. Ces petites fabriques personnelles pourraient bouleverser l'industrie et les modes de distribution en diminuant les transport tout en réduisant les délais.

- Tendances 2008

- Après le contenu généré par les utilisateurs, va-t-on assister à l'introduction des produits générés par les utilisateurs ? Plusieurs sites ont en tout cas commencé à se positionner sur ce marché. C'est le cas de Ponoko, qui permet aux internautes d'uploader une maquette 2D de leur projet, de choisir entre différents matériaux, et qui ensuite se charge de la découpe au laser pour la phase de fabrication.

- Après l'euphorie des premiers moments, ceux de la découverte, les internautes vont peut-être apprendre à leurs dépens qu'il n'est pas souhaitable de trop élargir son réseau d'amis.

- Le ciblage comportemental, dans le domaine du commerce électronique, du contenu éditorial ou de la publicité, consiste à proposer aux internautes des offres en fonction de leurs comportements de navigation et de leurs centres d'intérêts, sur Internet, sur mobile ou par e-mail. La technique repose sur le dépôt et l'analyse de cookies placés sur les postes des utilisateurs.

- En 2008, les réseaux mobiles vont continuer à s'étendre, plus rapidement. Cette tendance, combinée à la sortie de nouveaux terminaux facilitant l'accès à l'Internet mobile, va booster l'usage de l'Internet mobile.L'extension des réseaux mobiles va s'appuyer à la fois sur le Wi-Fi et sur la 3G et 3G+, dont la norme dominante est le HSDPA (haut debit mobile).

- Cela fait des années que les professionnels du secteur annoncent le décollage prochain du marché du marketing mobile. Mais il semble que 2008 réunisse enfin les facteurs clés de développement du marché.

- Le boom des réseaux sociaux locaux qui se pensent comme des animateurs de communautés amenées à entretenir des liens dans la vie réelle.

- Les réseaux sociaux pourraient bien, en 2008, commencer à détourner les budgets des liens sponsorisés vers leurs propres offres publicitaires.

- Vidéo en ligne : le téléchargement supplanté par le streaming financé par la pub.

- Objets relationnels

Ce ne sont que des gadgets...

Jean-Louis Frechin propose ainsi 5 objets, pour interroger notre lien à la maison de demain :

  • Waaz, une étagère combinée à une chaîne hi-fi, qui lit les infos d’une pochette de CD ou de DVD que l’on pose sur elle, via un dispositif Rfid. Un objet-interface qui comble l’écart entre la musique immatérielle et la musique stockée sur des supports physiques.
  • WaSnake, une étagère malléable dotée d’écrans lumineux qui permet de diffuser des SMS ou des flux RSS dans le salon.
  • WaDoor est un écran-objet pour la maison ou l’espace public. Il consiste en un papier électroluminescent qui permet d’afficher des informations ou des ambiances en grand format et de les personnaliser dans des chorégraphies réactives et récréatives, comme un panneau d’affichage personnalisable.
  • WaNetLight est une suspension lumineuse qui forme une matrice lumineuse tridimensionnelle et permet de moduler la lumière (sa profondeur, son rythme, ses couleurs) pour créer de nouvelles compositions lumineuses dans l’espace.
  • WaPix consiste en un duo de cadres photos numériques “chronopictographiques”, exposant des moments, des lieux, des situations plutôt que des instantanés. Les images défilent d’un cadre à l’autre dans une continuité et à un rythme qui dépend de leur éloignement.

- Radionomy, un outil pour créer sa propre Web radio en ligne

Créer sa propre radio sera prochainement à la portée de tous. Radionomy va lancer en bêta test en février une plate-forme permettant de créer gratuitement une Web radio. Le test sera dans un premier temps limité à 250 internautes, avant de s'ouvrir à tous. Quiconque a déjà rêvé de devenir animateur sur les ondes, pourra donc à défaut le devenir sur le Web.

Pour leur faciliter la tâche, Radionomy va donner accès à une bibliothèque musicale de quelques 100.000 titres permettant à ses utilisateurs de réaliser leur propre programmation. Des flux préprogrammés, compilés par style (rock, classique etc.), seront accessibles en écoute.

- Second Life ferme des banques virtuelles

Pendant des mois, alors que plusieurs déconfitures bancaires dans le monde virtuel Second Life avaient pu coûter des pertes en argent réel à certains participants, les propriétaires de l'entreprise Linden Lab de San Francisco maintenaient la ligne du laissez-faire, essentiellement en disant: Nous hébergeons juste le logiciel; les résidents devraient éviter les deals trop beaux pour être vrais. Mais cette semaine, Linden Lab a brusquement interdit toutes les banques virtuelles qui ne peuvent pas fournir "la preuve de leur enregistrement officiel comme institution financière." Voilà de quoi fermer sans doute toutes les banques de Second Life.

"Il n'ya pas de solution viable", selon Linden Lab. "Ces soi-disant banques ne sont pas exploités, surveillés ou assurés par Linden Lab, nous ne pouvons pas prédire celles qui vont échouer et à quel moment. Linden Lab n'est pas et ne peut pas commencer à agir comme un régulateur de banques". La société a écrit que "ces banques ont apporté des risques importants pour Second Life, et nous estimons qu'il est de notre devoir d'y mettre un terme. En offrant des taux d'intérêt trop élevés insoutenables, ils sont condamnés dans la plupart des cas à l'échec - laissant les "déposants" avec rien pour leurs investissements. A mesure que ces activités prenaient de l'ampleur, elles devenaient plus susceptibles d'entraîner une déstabilisation de toute l'économie virtuelle".

- eBay à l'origine de 19 milliards de dollars d'économies

Sept milliards de dollars. C'est ce qu'aurait économisé l'ensemble des acheteurs sur eBay au cours de l'année 2003 en privilégiant ce service d'enchères pour faire leurs achats (...) Suivant une projection, les mêmes internautes auraient économisé pas loin de 19 milliards de dollars en 2007.

- Après Google : les moteurs de recherche P2P ?

Les barrières ne reposent pas sur la qualité des algorithmes de recherche, mais d’abord sur les pratiques et notamment le fait que changer de moteur de recherche nécessite de changer d’habitude. L’autre barrière est désormais que la profondeur de l’indexation demande d’investir des millions de dollars dans des fermes de serveurs pour arriver à scanner le web aussi massivement que le fait Google. (...) Pour Bernard Lunn, les réseaux P2P sont le seul moyen pour dépasser cette barrière technico-financière qui devient chaque jour plus élevée : il faut utiliser l’infrastructure des utilisateurs !

Et de signaler Faroo, le moteur de recherche en P2P, qui outre sa proposition économique (Faroo propose aux utilisateurs de leur retourner 50 % des revenus des recherches), propose aussi quelques fonctionnalités intéressantes en matière de respect de vie privée ou du contrôle sur le Spam. Bien sûr, reconnaît-il, le modèle de Faroo n’est pas évident à entr’apercevoir à ce stade : encore en beta, et avec un nombre d’utilisateurs très limités, Faroo a plutôt tendance à ne renvoyer aucune réponse à vos résultats puisqu’il indexe seulement les sites que les utilisateurs de Faroo visitent. Tant que ce nombre ne se mesure pas en millions, le service risque bien d’être très décevant.

- Critique de la création collective

Un article très intéressant sur InternetActu fait état des critiques de Jaron Lanier contre l'idéologie des logiciels libres, argumentant que la création collective est conservatrice plus qu'innovante.

"Pour Lanier, une idéologie dangereuse, le “maoisme numérique”, se profilerait derrière les TIC consistant, petit à petit, à nier l’importance des individus. Une idéologie de “la ruche” qui serait à l’oeuvre derrière Wikipedia, par exemple. “La beauté d’internet”, écrit-il, “est qu’il connecte les gens. Sa valeur, c’est les autres. Si l’on en vient à croire que l’internet lui-même pourrait avoir quelque chose à dire, nous dévaluons la valeur des autres et nous nous transformons en idiots.”

Sans être fausse, cette critique ne tient pas compte du fait que si le travail collaboratif est indispensable, c'est à cause de la complexité en jeu, unique raison pour laquelle les logiciels libres peuvent etre supérieurs aux logiciels propriétaires. La conclusion de l'article me semble la bonne : il faut arriver à combiner création individuelle et travail collectif.

"Au final, on peut se demander s’il n’est pas possible d’obtenir le meilleur des deux mondes : un système de conception logicielle qui fonctionnerait, comme la science, de manière ponctuée, alternant les phases d’ouvertures et celles d’encapsulation".

- Des peintures rupestres fascinantes découvertes en Papouasie

- L'énigme Pythagore : La vie et l'oeuvre de Pythagore et de sa femme Théano

Pour ce que j'en ai entendu, il y a beaucoup d'invention, il ne faut pas tout prendre au pied de la lettre mais cela donne une représentation intéressante, sinon vraisemblable, de Pythagore, bien trop méconnu et si pittoresque pourtant. Je n'arrive pas à croire que ce soit le même Pythagore qui soit champion olympique en mangeant de la viande rouge et le philo-sophe végétarien... En tout cas, cela pourrait faire un beau film.

Surgi des tréfonds mystérieux d'une Grèce antique plus fascinante que jamais, Pythagore incarne comme personne avant lui la grandeur humaine.

Héros olympique, champion de lutte, élève de Thalès, ami du pharaon Amasis, géomètre, philosophe, musicien, astronome, il aimait rire, apprendre, partager. Avec lui, nous foulons le sol de Samos, d'Olympie, de Tyr, de Jérusalem, d'Alexandrie, de Babylone, d'Héraklion... La belle et brillante Théano combla de bonheur cet homme déjà mûr qui avant de la rencontrer préférait le célibat à un mariage sans âme.

Epouse, mère, élève puis maître à penser, cette femme exceptionnellement moderne tint de son vivant un rôle de premier ordre. L'école qu'elle fonda avec Pythagore fut celle de la tolérance et de l'ouverture sur le monde. On compara Pythagore à Apollon pour sa beauté, on compara Jésus à Pythagore pour sa bonté. Vinci, Kepler et bien d'autres furent fascinés, inspirés par sa science. Pythagore savait déjà que la Terre était ronde, qu'elle tournait autour du Soleil...

Enquête historique à lire comme un roman, portrait sensible d'un homme hors du commun, L'énigme Pythagore conte la passionnante aventure du savoir humain, à l'aube de notre civilisation.

L'énigme Pythagore : La vie et l'oeuvre de Pythagore et de sa femme Théano, PRESSES DE LA RENAISSANCE Henriette Chardak

 <- Revue des sciences précédente | Revue des sciences suivante ->
copyleftcopyleft 

3 réflexions au sujet de « Revue des sciences 02/08 »

  1. Vous en oubliez quelques-uns.

    Tenez moi j'ai aussi l'oignon génétiquement modifié pour ne pas faire pleurer: http://www.lefigaro.fr/flash-act...

    Ce matin je suis allé voir la réintroduction de chevaux dans un "marécage" (y'a pas d'autre mot) Normand: l'élu du coin était tout fier de me dire qu'ils étaient equipés de puce RFID à radiofréquence pour savoir où ils sont en permanence, qu'ils étaient vaccinés et recevaient des antiobiotiques tous les six mois pour éviter qu'il meurt. Vu le niveau de pollution de la Normandie et la geule du "milieu naturel", je leur donne pas 5 ans à vivre. Amen.
    Comme quoi totalitarisme technologique et écologie peuvent faire bon ménage.

    Allez, espérons que la nature s'enerve un peu en s'autodétruisant, qu'elle balaye toutes ces folies compliquées sorties de la tête des cerveaux humains.

  2. Bonjour,

    Vous n'auriez peut-être pas dû, même avec les réserves que vous émettez, présenter ce livre sur Pythagore à la fin de votre revue. S'il faut en croire les quelques lignes que vous reproduisez, il ressemble nettement plus à un hagiographie romancée dans le style des légendes dorées qu'à un travail réellement scientifique.

    Prenez par exemple la phrase «L'école qu'elle fonda avec Pythagore fut celle de la tolérance et de l'ouverture sur le monde.»

    C'est une contre-vérité absolue. Depuis longtemps les études sur le sujet décrivent cette école comme une secte intolérante. Voir par exemple la courte biographie de Pythagore sur le site du Projet Socratès-COMÉNIUS (coll-ferry-montlucon.plan... ou cet extrait de l'article de l'encyclopédie UNIVERSALIS :

    ...........

    Les ambiguïtés du pythagorisme

    Dans son histoire la plus ancienne, le mouvement fondé par Pythagore se présente sous deux aspects : tantôt comme un groupe d’intention religieuse, une secte dont le genre de vie est dominé par l’ascétisme et les purifications, tantôt, au contraire, comme un groupe d’action politique, une hétérie dont l’activité est principalement orientée vers la gestion des affaires publiques.

    Selon la tradition la plus répandue, les pythagoriciens sont des hommes tout de blanc vêtus, qui fuient le contact des femmes en couches, évitent d’entrer dans la maison d’un mort, refusent énergiquement de croquer une fève ou de manger un œuf. Leur existence quotidienne paraît encombrée de tabous et d’interdictions de tout genre, tandis que leur vie communautaire, avec la règle du silence, les degrés d’initiation, le mystère dont elle aime à s’entourer, ressemble étrangement à celle d’une de ces confréries dont les esséniens ou les thérapeutes offrent l’exemple le plus évident pour la période qui précède immédiatement l’ère chrétienne.

    Par ailleurs, les mêmes personnages forment une espèce d’ordre à vocation politique, fondé sur un système d’éducation collective, véritable dressage, qui comprend des repas de corps ou syssities, le compagnonnage (solidaire de la mise en commun des biens), enfin des techniques telles que les exercices physiques, l’apprentissage de la musique et la réglementation des nourritures. Ce sont ces pythagoriciens disciplinés et entraînés qui exaltent çà et là le courage à la guerre et l’honneur au combat. Pour eux, « il est noble de mourir à la suite de blessures reçues de face », ou encore « il faut combattre non en paroles mais en actes, car il est juste et pieux de faire la guerre quand on la fait homme contre homme ». Toutes ces traditions militaristes sont inséparables du rôle qu’une partie de l’historiographie attribue à Pythagore et à ses disciples dans les hostilités prolongées entre Crotone et Sybaris, comme elles sont également solidaires de manifestations spécifiquement guerrières dont une des dernières sera la résistance armée de trois cents jeunes gens lors des persécutions qui, au milieu du Ve siècle, viendront mettre un terme à l’action politique des disciples de Pythagore.

    .............

    Alors ce livre est peut-être un bien pour le niveau général des romans à l'eau de rose et les légendes dorées, mais probablement encore un pas en arrière pour la simple vérité.
    Mais tout cela n'est pas important.

  3. Oui, ce n'est qu'un amusement rien de sérieux sinon qu'il est intéressant de voir qu'on peut se passionner encore, de nos jours, pour des figures si anciennes.

    Evidemment il n'est pas question d'avoir à épouser toute la doctrine de Pythagore, qu'il faut resituer dans son contexte, pour reconnaître son importance fondatrice : Platon lui doit beaucoup avec son académie où nul n'entrait s'il n'était géomètre. Le néo-platonisme se voulait très pythagoricien, le tirant vers une mystique assez éloignée de l'original sans doute. Certes, je ne pense pas que ce livre fasse beaucoup avancer la vérité, il peut du moins stimuler l'imagination et sortir des représentations trop rapides qu'on s'en fait.

    J'y attache d'autant moins d'importance que je ne l'ai pas mis dans la version du site Transversales, c'est juste une curiosité dont je voulais me rappeler, rien de plus (il faut aussi explorer les faux savoirs).

Les commentaires sont fermés.