Revue des sciences 11/07

Leonard de Vinci

Revues : Pour la Science - La Recherche - Revue des livres 
Brèves : Physique - Climat - Biologie - Santé - Technologie

Drôle de mois, un peu trop riche avec les 30 ans de Pour la Science et les 60 ans de Sciences et Avenir ! Impossible de rendre compte de tout. En dehors des revues, ce n'est pas un hasard cette fois s'il y a toute une série de nouvelles du mois qui tournent autour de la substitution au pétrole de biocarburants et de bioplastiques, avec un nombre d'annonces impressionnant ! mais avec aussi tous les problèmes que cela peut poser (ce n'est valable qu'en production locale et à partir de déchets principalement). En effet, non seulement les nouvelles sur le climat ne sont pas bonnes du tout mais le pétrole va rapidement manquer si sa consommation continue à augmenter à ce rythme ! A part ça, les nouvelles les plus importantes concernant les technologies sont sans doute la première utilisation de supercondensateurs dans des batteries et la nouvelle technique pour les OGM consistant à introduire un chromosome entier, et pas seulement un gène, dans les organismes génétiquement modifiés. Sinon, la vitesse variable de la lumière à très haute énergie serait une grande découverte et la matière noire occupe toujours beaucoup les cosmologistes alors que le LHC qui pourrait trancher un certain nombre d'énigmes de ces 30 dernières années se fait encore attendre un peu plus... Il faut savoir enfin que, pour la première fois, une étude semble confirmer les risques de tumeur au cerveau à cause des mobiles, mais cela reste très marginal quand même. Par contre si le cancer de la gorge est bien causé par un virus, la sexualité orale pourrait être mise en cause...


Pour la Science no 361, 30 ans d'aventure scientifique


Pour la Science

- Zéro aux agences de notation, p6
Ivar Ekeland

En dernière analyse, si vous laissez votre argent à la banque, c'est que les dépôts sont garantis par l'Etat. Ce faisant, l'Etat rend aux banques un service qui pourrait être rémunéré par un impôt sur les bénéfices !

- Documents numériques : attention, fragiles !, p14

Non seulement les supports numériques s'altèrent rapidement (entre 2 et 10 ans pour les CD) mais les appareils ou programmes pour les lire disparaissent aussi. Des solutions existent mais qui n'intéressent pas encore le marché tant que les pertes ne deviendront pas plus apparentes. Notre mémoire numérique s'efface inexorablement avec de graves conséquences trop sous-estimées...

Les supports d’enregistrement numérique ont une durée de vie relativement brève. Ce problème passé sous silence risque d’avoir de graves conséquences.

Jamais, dans son histoire, l'humanité n'a utilisé des techniques aussi instables pour conserver et transmettre l'information aux générations futures.

Beaucoup de CD enregistrables ont une durée de vie limitée à quelques années (on cite parfois une moyenne d'environ 5 ans), certains même devenant illisibles en un an ou deux.

Pour une raison mystérieuse, il semble exister une espèce de tabou qui fait que la gravité du problème est passée sous silence. Et pourtant, les faits sont là : tout patrimoine numérique abandonné à lui-même 5 ou 10 ans risque d'être définitivement perdu.

Chacun doit comprendre les enjeux et ne pas attendre 10 ou 20 ans pour constater que les souvenirs familiaux d'une génération ont disparu, ou que les précieuses données récoltées grâce à des équipements scientifiques fort coûteux ont subi le même sort.

- Alzheimer : un autre diabète ?, p18

Ce n'est pas entièrement nouveau, on avait déjà parlé pour la maladie d'Alzheimer d'un diabète de type 3 (le risque pour des diabétiques de contracter la maladie est de 65%) mais si l'hypothèse se confirme, c'est une nouvelle très importante pour la prise en charge de l'Alzheimer et l'orientation de la recherche. Dans le cerveau, l'insuline servirait à la mémorisation et non au métabolisme du glucose (Il y aurait tout de même un rapport entre glucose et dégénérescence du cerveau si l'on en croit une brève plus bas. On avait vu aussi au mois de février qu'il y aurait un rapprochement possible entre Alzheimer et hibernation).

Les biologistes ont observé comment ce rôle de l'insuline est entravé dans le cas de la maladie d'Alzheimer. Dans des neurones d'hippocampe en culture, un peptide extracellulaire (le peptide bêta-amyloïde), connu pour être abondant dans le cerveau des malades, entraîne la disparition des récepteurs à l'insuline de la surface des cellules, notamment au niveau des synapses. Les récepteurs restent près du noyau cellulaire. Les neurones deviennent insulinorésistants, et ne peuvent donc plus jouer leur rôle dans les processus mnésiques.

- Fer et Parkinson, p22

On peut remarquer que le rôle délétère du stress oxydatif est de plus en plus précis, ce n'est plus une généralité théorique mais un fait d'observation.

La répartition de la dopamine dans les neurones serait anormale, et le neuromédiateur serait libéré par les vésicules sous forme de complexes fer-dopamine. En présence de fer, la dopamine participerait à des réactions de stress oxydatif dommageables pour les neurones. Hypothèse à confirmer.

- Néandertal, l'hypothèse climatique, p20

On ignore quand les Néandertaliens ont disparu, même si l’on date leurs derniers fossiles de 30 000 ans environ (...) la date la plus récente est juste antérieure à l'entrée dans la phase extrême de glaciation, phase qui a culminé il y a 20 000 ans. Il est donc possible que les Néandertaliens tardifs d'Espagne aient disparu faute d'avoir pu s'adapter au climat sec et froid dû à la glaciation.

- Labourer la Mer pour refroidir la Terre !, p22

Parsemer la Mer de tubes de 200m pour la fertiliser et augmenter la masse nuageuse. Difficile de croire que cela puisse avoir un impact significatif...

Comment aider la planète à compenser les effets néfastes des activités humaines ? Le chimiste britannique James Lovelock, de l’Université d’Oxford, et la microbiologiste américaine Lynn Margulis, de l’Université Amherst, ont eu une idée.

Il s'agirait de faire flotter de très nombreux tubes d'environ 200m de haut et 10m de diamètre, munis d'une valve à leur extrémité inférieure de façon à laisser l'eau entrer mais pas sortir. Grâce aux vagues, ce système amènerait en surface l'eau profonde riche en nutriments, ce qui augmenterait les efflorescences d'algues en surface, donc leur consommation de dioxyde de carbone. Cela augmenterait aussi la production de sulfure de diméthyle, un composant organique à l'origine des germes de condensation des nuages. Les nuages réfléchissant la lumière solaire, cela contribuerait à refroidir la Terre.


La Recherche no 413, L'Internet du futur


- Des bactéries peuvent nous transmettre leurs gènes, p14

La Recherche On savait déjà que les virus participaient à la diffusion de gènes, y compris dans les organismes évolués. On savait aussi que les bactéries échangeaient facilement leurs gènes. On vient de découvrir qu'il y avait aussi des transferts de gènes entre bactéries et animaux ! Ainsi la bactérie Wolbachia se loge à l'intérieur des ovocytes des invertébrés ce qui lui permet de transmettre ses gènes qu'on retrouve chez des mouches par exemple, ce qui pourrait s'avérer positif dans certains cas (à condition que cela ne touche pas des fonctions vitales bien sûr).

Un hôte est d'autant plus susceptible de contrôler son parasite qu'il exprime certaines fonctions nécessaires à ce dernier. Et il est aussi possible que l'hôte acquière de nouvelles fonctions par le biais des nouveaux gènes.

Par ailleurs, une brève constate avec étonnement que des séquences d'ADN "ultraconservées" parfaitement identiques entre homme et souris par exemple, n'auraient pourtant pas de fonctions vitales comme on pouvait légitimement s'y attendre puisque des souris privés de ces gènes se sont révélés viables et fertiles sans anomalies particulières !

- Un nouveau mode de transmission neuronal, p14

Ce n'est peut-être rien d'autre que le signe qu'il y a toujours redondance dans les systèmes biologiques, ce qu'on appelle l'équifinalité qui signifie qu'on poursuit un but par différents moyens jusqu'à ce que l'objectif visé soit atteint. En tout cas, un neurone dont on bloque la circulation électrique, fait passer le signal par un autre moyen (plus lent, 1cm/mn, et moins bien adapté à ce type de transmission), par modification de proche en proche de la composition lipidique de la membrane des cellules nerveuses, en particulier la concentration d'un sphingolipide, le céramide qui se trouve dans ce qu'on appelle des radeaux lipidiques.

On pensait que la conduction de signaux nerveux le long des neurones se faisait exclusivement grâce à des "potentiels d'action", créés par des mouvements d'ions de part et d'autre de la membrane neuronale. Mais 4 équipes françaises viennent de découvrir un nouveau mécanisme.

Nous avons élucidé les modalités de la transmission du signal de radeau en radeau : elle nécessite la production en cascade de calcium intracellulaire, de monoxyde d'azote et de GMP cyclique.

- Un modèle animal pour l'autisme, p19

Il faut être d'autant plus prudent avec les innombrables tentatives de trouver les gènes de l'autisme et les perturbations neuronales qui en sont la cause qu'il y a, à n'en pas douter, de multiples formes qui sont regroupées sous cette appellation. Il s'agit ici de la forme d'autisme assez spécifique, quoique très floue, dite syndrome d'Asperger qui a été reliée statistiquement aux gènes codant des protéines qui participent à la formation des synapses. En introduisant la mutation d'un de ces gènes (neuroligine 3) ils ont obtenu chez la souris à la fois une perturbation des relations sociales et une augmentation de certaines performances cognitives.

Ces souris mutantes ont moins d'interactions sociales avec leurs congénères et sont douées d'une capacité supérieure à la moyenne dans un domaine précis, en l'occurrence l'exploration spatiale.

Sur le plan neuronal, ces travaux montrent que la mutation perturbe l'équilibre entre les transmissions synaptiques excitatrices et inhibitrices.

- Echec d'un vaccin contre le Sida, p20

L'essai du vaccin V520 du laboratoire Merck a été arrêté car il s'est révélé n'avoir aucune efficacité, ne procurant aucune protection, voire pire...

- La pilule favorise bel et bien certains cancers, p20

Enfin, ce n'est pas si simple et plus ambivalent puisqu'elle protège de certains et favorise d'autres mais, globalement, les risques l'emporteraient légèrement sur les bénéfices, pour autant qu'on sache...

Elle accroît en effet les risques de cancer du sein, du col de l'utérus et du foie. En revanche, elle les réduit pour les cancers de l'endomètre (corps de l'utérus), de l'ovaire et, vraisemblablement, du côlon et du rectum.

- Jusqu'où ira Google ?, p29

La position de ce moteur n'est écrasante qu'en Europe, où le géant s'octroie 90% du marché, contre un peu pus de 50% aux Etats-Unis (devant Yahoo, MSN et AOL).

Google a annoncé en mars 2007 que les recherches datant de plus de 18 mois seront désormais rendues anonymes.

Peut-être qu'une exploitation plus intensive de tout ce que l'entreprise connaît de ses usagers pourrait payer... à court terme. Mais il faut si peu de temps à un internaute déstabilisé pour changer de moteur de recherche.

- Tim Berners-Lee, p34

L'interview de Tim Berners-Lee est presque entièrement consacrée au "web sémantique" basé sur des fichiers RDF (Ressource Data Framework) contenant la description du contenu des documents par catégories définies avec le langage OWL (Web Ontology Language). C'est la constitution de ces fichiers qui freine la mise ne place du web sémantique même si certains RDF peuvent être automatisés. Il faut une véritable motivation, qui pourra venir du domaine scientifique ou des besoins internes des grandes entreprises, pour ce travail supplémentaire. Le démarrage risque donc d'être très lent pour le grand public (voir cependant l'offre récente de twine dans les brèves ci-après).

- Comment Internet prépare sa mue, p42

L'article ne m'a pas semblé très intéressant, consacré pour l'essentiel à l'automatisation de la gestion du réseau et la sécurisation des données (par une carte puce) même si on envisage de nouvelles architectures, une pluralité de protocoles qui pourraient cohabiter sous forme des "réseaux virtuels" indépendants les uns des autres tout en utilisant les mêmes supports matériels.

- L'optimisation de l'évolution, p82

Certains voudraient nous faire croire que l'évolution est aveugle qu'elle ne progresse pas, ne se complexifie pas, ne s'améliore pas forcément avec le temps, sauf qu'elle aboutit à des formes et des mécanismes complètement optimisés, ce qui se prouve mathématiquement, comme si le vivant se modelait sur les forces physiques en jeu, se structurait sur ses finalités vitales par une causalité descendante assurée par la sélection naturelle mais seulement sur le long terme et les grands nombres. C'est ce que la théorie constructale avait déjà établi à partir des lois universelles du mouvement...

On peut émettre l'hypothèse qu'un organe a peu ou prou une forme qui est adaptée à son environnement, lui permettant de "survivre", c'est-à-dire de remplir au mieux sa fonction. Mais adapté signifie-t-il optimisé d'un point de vue mathématique ?

On parle de "modélisation inverse". Il décrit d'abord la fonction de l'organe à l'aide d'un modèle mathématique. Puis, après avoir choisi un critère à optimiser, il lui faut résoudre le problème correspondant.

- Les Phéniciens ont influencé toute la Méditerranée, p17

On parlait le mois dernier des Hittites, peuple méconnu dont l'importance est pourtant considérable (sans doute à l'origine du monothéisme solaire), l'autre peuple méconnu dont le rôle est fondamental, ce sont les Phéniciens. Les deux ont porté leur influence sur une vaste étendue, les Hittites par la guerre, les Phéniciens par le commerce (aussi différents que Sparte et Athènes).

(Je n'irais pas jusqu'à prétendre comme Jack Goody dans la revue des livres ci-dessous, que les Grecs n'ont rien inventé et que le miracle est d'abord phénicien car si les Grecs n'ont fait qu'ajouter des voyelles à l'alphabet phénicien, en effet, c'est un progrès décisif malgré tout puisque l'écriture sortait ainsi de son statut ésotérique réservé aux scribes pour devenir l'affaire de tous, un "langage parlé", un média de masse, et si la démocratie a bien existé avant les Grecs, c'est la première fois qu'un grand nombre de citoyens pouvaient lire les lois, sans compter l'accès donné par Hérodote, avec son "Enquête", aux différences de tradition et de religion des autres peuples, bien avant la télévision satellitaire...)

Les Phéniciens apparaissent étonnamment modernes dans leur capacité à développer de nouveaux marchés, en s'appuyant sur des artisans itinérants et les réseaux de production locale, et non sur une politique de colonisation.

Livres :

- Systèmes Nucléaires du futur Génération IV, CEA, 2007, 136p., gratuit !

- Le facteur temps ne sonne jamais deux fois, Etienne Klein, Flammarion, 2007, 267p, 20€

Chose déroutante, décidément, que le temps. Nous en parlons comme d'une notion familière, évidente, voire domestique, "gérable". Une sorte de fleuve dont nous pourrions accommoder le cours à notre guise, à coups de plannings, de feuilles de route, d'agendas. Nous parlons même d'un "temps réel" pour évoquer l'instantanéité, c'est-à-dire le temps sur lequel nous n'avons aucune prise. Les physiciens, eux, l'ont couplé à l'espace, en ont fait une variable mathématique, abstraite, qu'ils intègrent dans des théories audacieuses, spectaculaires, mais si complexes qu'elles sont difficiles à traduire en langage courant.

Certains disent même avoir identifié le moteur du temps. Quant aux philosophes, ils ne cessent depuis plus de deux millénaires de lui tourner autour, et de le soumettre au questionnement : Le temps est-il une sorte d'entité primitive, originaire, qui ne dériverait que d'elle-même ? Ou procéderait-il au contraire d'une ou plusieurs autres entités, plus fondamentales : la relation de cause à effet, par exemple ? Le temps s'écoule-t-il de lui-même ou a-t-il besoin des événements qui s'y déroulent pour passer ? S'apparente-t-il au devenir, au changement, au mouvement ? Et au fait, le temps a-t-il eu un commencement ? À toutes ces questions, la physique apporte des éléments de réponses, souvent fascinants.

- Même pas fausse ! La physique renvoyée dans ses cordes, Peter Woit, Dunod, 2007, 327p, 25€

En physique théorique, les cordes sont depuis vingt-cinq ans " le sujet brûlant ". En effet, cette théorie débauche tous les talents, aspire tous les crédits, alors que selon Peter Woit elle n'est qu'une intuition qui domine pourtant outrageusement le paysage de la recherche. Pas une seule prédiction n'en est sortie, pas une seule expérience n'a été imaginée qui pourrait la confirmer, ou l'infirmer. Résultat : non seulement la théorie des cordes ne peut pas être considérée comme "vraie", mais surtout, elle n'est "même pas fausse". Les adeptes des cordes cherchent donc désormais à redéfinir la Science elle-même, plutôt que d'admettre que leurs travaux sont dans l'impasse. Après un exposé exhaustif des évolutions théoriques et expérimentales qui ont mené au modèle standard de la physique des particules, Peter Woit nous décrit les évènements et les difficultés de la physique théorique contemporaine, jusqu'aux dernières théories, concurrentes des cordes, qui ont tant de mal à émerger.

- Histoire du monde en 7 catastrophes, Hervé Ponchelet, Tallandier, 2007, 182p, 21€

Selon l’auteur, Homo sapiens devrait son existence à sept catastrophes principales qui ont formé le monde tel que nous le connaissons, tout en le détruisant presque. Il soutient ce point de vue en sept chapitres écrits dans un style journalistique enlevé, qui vont du Big Bang (Catastrophe numéro I) à l’explosion du volcan Toba de Sumatra, il y a environ 75 000 ans (Catastrophe numéro VII). Sans doute discutables, mais toujours plausibles, les interprétations de l’auteur sont stimulantes, notamment parce qu’elles suggèrent qu’une grande part de hasard a joué un rôle dans notre advenue.


Revue internationale des livres et des idées no 1


Voilà le premier numéro d'une nouvelle revue ambitieuse puisque son modèle est la London Review of Books. Bien que "littéraire" cette revue est surtout politique et philosophique.

Il y a par exemple un entretien de Stuart Hall sur "Pouvoir et culture" ou des articles sur Frederic Jameson et l'utopie ou le postmodernisme (daté du livre de Lyotard mais aussi de celui d'André Gorz "Adieu au prolétariat") avec la régression de l'oeuvre au texte et la substitution de la lutte des sexes à la lutte des classes ainsi que le rejet d'une totalité qui revient comme complot...

Relisant le Principe Espérance de Marc Bloch, Frederic Jameson note que la science-fiction hérite de l'utopie dans la triple promesse d'un temps aboli, d'un corps transfiguré et d'expériences collectives où nos individualités trouveraient à se fondre.

Un compte-rendu du livre de Michael Scott Christofferson "The French Intellectual Against the Left" nous apprend que pour les Anglais "les nouveaux philosophes" anti-totalitaires "inaugurent un nouveau Thermidor et ont fait de Paris cette "capitale de la réaction européenne" que Perry Anderson a fustigé dans "La pensée tiède". Christofferson montre que le mythe de la démocratie directe a joué un grand rôle à ce moment, avec la complicité de Foucault et la réprobation de Deleuze.

Il y a aussi un article sur le darwinisme qui montre que son accueil n'a pas été si difficile, y compris par les croyants dont faisait partie Darwin qui parle bien du Créateur. Ce qui avait déstabilisé les croyances, ce n'était pas Darwin mais la découverte peu auparavant de fossiles d'animaux disparus... D'autre part Darwin n'était pas si opposé que cela à Lamarck. Il croyait à la transmission de certains caractères acquis et n'a pas arrêté de corriger son ouvrage sur l'origine des espèces (à noter qu'on vient de publier "Esquisse au crayon de ma théorie des espèces" qui est l'ébauche de 1842 de son ouvrage "L'origine des espèces" qui ne paraîtra que 17 ans plus tard).



Brèves et liens



Physique


cosmologie, astronomie, physique quantique

- Une vitesse de la lumière variable ?

Voilà une découverte assez excitante. La vitesse de la lumière pourrait être variable, ralentie par les fluctuations du vide quand elle est très énergétique (on sait que tout comme une corde, plus l'énergie est grande, plus la longueur d'onde est courte : plus c'est lourd plus c'est petit comme le noyau est plus petit que l'électron! Plus c'est petit, plus l'énergie est grande, plus le temps est court et plus les fluctuations du vide sont assez importantes pour dévier les photons, qui ralentissent donc et s'embourbent).

En étudiant en 2005 la galaxie Markarian 501, les astrophysiciens ont fait une bien curieuse découverte : des photons semblent se déplacer à des vitesses différentes ! Selon les plus audacieux d’entre-eux, il pourrait s’agir d’une des toutes premières preuves en faveur de certaines théories de gravitation quantique comme la Loop Quantum Gravity ou la théorie des supercordes.

La taille de la région d’où sont originaires ces éruptions ne semble pas excéder la distance que parcourt la lumière en trois secondes et chacune d’entre elles a produit des photons gamma dont les énergies s’échelonnent entre 100 Gev et 10 Tev, et ce, pendant un temps estimé à 2 minutes à peu près. Là où les choses commencent à devenir très intéressantes, c’est que les photons gamma les plus énergétiques sont arrivés sur Terre avec 4 minutes de retard environ sur les moins énergétiques !

En particulier, John Wheeler et Stephen Hawking ont défendu depuis longtemps l’idée qu’en raison des lois de la mécanique quantique, si l’espace-temps semble lisse et calme à notre échelle, il n’en est pas de même lorsqu’on le considère à des échelles de distances bien plus petites qu’un milliardième de la taille d’un noyau d’atome. Si l’on se donne une image de fluide pour décrire ce qui se passe à une échelle de 10-35 m, la longueur de Planck, on obtient celle d’un liquide en ébullition, très turbulent. Les lois de la gravitation quantique impliquent en effet alors une structure très similaire à celle de l’écume d’une vague se brisant sur un rocher. C’est ce que John Wheeler a justement baptisé en anglais la « foam like structure » de l’espace-temps.

Une théorie quantique du champ de gravitation doit donc elle aussi conduire à des fluctuations quantiques violentes, mais transitoires, de la structure de l’espace-temps avec apparition temporaire de trous de vers et de trous noirs virtuels. Or, plus un photon est énergétique, plus sa longueur d’onde est courte. Ce qui veut dire qu’il sera d’autant plus sujet à être affecté par la structure microscopique de l’espace-temps. Plus cette longueur sera courte, plus les fluctuations conduisant à l’apparition de mini trous noirs virtuels modifieront sa trajectoire dans l’espace-temps.

Une structure discrète semble alors émerger dans certains cas, exactement comme le prédisent les théoriciens de la Loop Quantum Gravity. Les deux approches sont donc peut-être complémentaires pour décrire l’effet de la structure quantique de l’espace-temps sur la propagation des photons. De fait, ces deux approches pour la gravitation quantique que sont la théorie des cordes et la LQG, conduisent à des formules similaires pour décrire cet effet.

- Le "trou" géant dans l'Univers, un défaut de texture du champ de Higgs ?

On avait signalé au mois de septembre la découverte d'un énorme trou dans l'univers. Il pourrait être relié au champ de Higgs, dont il constituerait un défaut de texture, et confirmer les théories de grande unification.

En utilisant le super ordinateur Cosmos, destiné aux simulations en cosmologie et à extraire l’information codée dans le rayonnement de fond diffus, une équipe internationale de chercheurs a proposé une explication pour le fameux « trou » géant dans la distribution des galaxies, découvert récemment. Il pourrait s’agir d’une manifestation des hypothétiques Théories de Grande Unification : un défaut topologique.

De même que certains réseaux cristallins ne sont pas parfaits et possèdent des défauts, de même la structure des champs internes peut comporter ce qu’on appelle des défauts topologiques. Les textures sont un ensemble un peu particulier de tels défauts qui, contrairement à ce qu’on appelle des cordes cosmiques, des parois de domaines ou des monopôles, ne sont pas stables.

Lorsque la température de l'Univers a chuté, le "faux vide", avec une densité d'énergie non nulle mais une valeur de champ de Higgs nulle, s'est transformé en bulles de "vrai vide ", un peu comme des bulles de liquides se condensent dans de la vapeur. Les bulles coalescent pour constituer une plus grande zone de "vrai vide". Le processus rappelle aussi la formation des cristaux de glace dans de l'eau qui gèle. Les défauts topologiques sont alors l'analogue des défauts cristallins dans de la glace

- En vidéo : la matière noire est-elle tiède ?

La matière noire (dont on ne connaît que les effets) ne serait ni trop chaude, ni trop froide, juste un peu tiède...

Les fluctuations de matières nécessaires pour former ces grandes structures nécessitent de la matière dite noire car n’interagissant pas avec la lumière. Dans le cas contraire, la pression de la lumière sur la matière était telle dans les premiers instants de l’Univers qu’elle rendait très difficile la formation de concentrations de matière normale en contrecarrant l’action de la gravité. Si la masse des particules de matière noire est importante, on peut montrer qu’elles se comportent comme un gaz froid qui va se condenser pour donner d’abord les étoiles et les galaxies. Si la masse des particules est faible, elles se comportent comme un gaz chaud et ce sont d’abord de grands nuages de matière esquissant les amas de galaxies qui se formeront les premiers.

Les observations des années 1980 et 1990 ont fait triompher le modèle de la matière noire froide (Cold Dark Matter, ou CDM) de Peebles aux dépens de celui de la matière noire chaude (Hot Dark Matter, HDM) de Zeldovitch. Toutefois, ces mêmes observations peinent à mettre en évidence les petites galaxies naines qui auraient dû se former en très grand nombre très tôt, et être toujours en orbite autour des grandes galaxies résultant de la fusion des précédentes. En revanche, leur quasi absence est bien expliquée dans le cadre de la matière dite chaude. En fait, il suffirait de rajouter à la matière noire froide une petite composante de matière chaude pour résoudre le problème. Plus précisément, une composante avec des particules de matière noire de masses intermédiaires entre celles des modèles de matière chaude et froide suffirait. Tout naturellement on parle en général de modèle de matière tiède dans ces cas-là.

- La matière noire faite d'axions ?

L'axion est une particule hypothétique (boson neutre ayant une très petite masse et n'interagissant presque pas avec la matière en dehors de la gravitation). Elle a été inventée par les théoriciens pour expliquer la symétrie charge-parité observée pour l'interaction forte (mais Science et Avenir fait état, p22, d'une expérience qui a échoué à mettre en évidence son existence!). Il est supposé pouvoir être produit à partir d'un photon soumis à un champ très énergétique (l'effet Primakoff) et pouvoir se retransformer en photons.

L'hypothèse, émise depuis longtemps, vient de se voir renforcée par des observations effectuées sur des amas de galaxies en plein carambolage. Au passage, on en conclut que cette matière mystérieuse est restée presque intacte depuis la naissance de l'Univers.

Parmi les candidats au poste de constituant principal de la matière noire, figurent en bonne place les axions, qui auraient la particularité d'émettre en X lors de leur lente dégradation. Détecter cette émission reviendrait donc à mettre directement en évidence la présence de matière noire.

Vue d'ensemble de Bullet Cluster, formé de deux amas de galaxies en collision. Les courbes rouges montrent les mesures de la gravité de la masse formée en partie par la matière visible, en partie par la matière noire. Les mesures de rayonnement X indiquent que les nuages de gaz ont été éliminés entre les deux amas lors de la collision. La partie de droite montre une forte densité de matière noire mais très peu ou pas de rayonnement X, trahissant une très lente dégradation des particules qui la composent.

En se basant sur l'hypothèse de matière noire constituée d'axions, il est possible d'en déterminer une limite supérieure de la vitesse de dégradation et il apparaît alors que celle-ci doit avoir une espérance de vie de plus de 3 milliards d'années, ce qui implique que seule une très faible proportion s'est dégradée depuis la formation de l'Univers, voici 13,7 milliards d'années. La conclusion est que les particules composant cette mystérieuse substance ont une longue, très longue durée de vie.

- Du retard pour le LHC ?

Le retard est pour l'instant démenti mais il ne serait pas surprenant que le LHC n'entre en service qu'en 2009, ce qui est un suspens intenable étant donné les expériences ultimes qu'on attend depuis des années pour trancher entre les différentes théories ! Ensuite il n'y aura peut-être plus d'accélérateurs géants (même si l'ILC, ou International Linear Collider, est encore prévu pour 2020) et les expériences consisteront surtout à analyser les collisions de particules dans l'espace, ce qui a déjà commencé et qui donne accès à des énergies bien plus élevées. Il n'est pas impossible d'ailleurs que les expériences les plus attendues soient décevantes (le Higgs est très spéculatif, les particules supersymétriques n'existent sans doute pas dans notre univers, d'après Susskind au moins, la possibilité de créer des trous noirs est sans doute un peu trop optimiste, et d'ailleurs l'existence même des trous noirs n'est pas si certaine...). C'est bien pour faire l'expérience qu'on a besoin du LHC !

Tout le monde attend beaucoup du LHC, le super accélérateur de protons de 27 km de circonférence enterré pas très loin de Genève. A moins que le Tévatron américain ne le devance, il devrait mettre en évidence le Higgs et beaucoup l’espère, les particules supersymétriques.

Dans l’hypothèse la plus optimiste, celle où l’échelle d'énergie de la gravitation quantique ne serait que de quelques Tev, c’est la possibilité de reproduire en laboratoire la physique du temps de Planck et même de créer des mini trous noirs qui fascine le plus.

- Communiquer à travers la Terre avec des neutrinos

C'est un peu prématuré mais l'expérience de transmission de neutrinos à travers la Terre laisse envisager, dans un futur lointain, l'utilisation des neutrinos pour les transmissions, y compris interstellaires, tirant parti de la propriété des neutrinos de ne presque pas interagir avec la matière. Encore faudrait-il avoir des détecteurs moins imposants qu'actuellement car c'est le problème justement, d'arriver à les détecter et donc d'interagir avec...

Le schéma montre le faisceau de neutrinos produits au Cern à partir d'un faisceau de protons, et son trajet long de 732 km dans la croûte terrestre en direction du détecteur Opera sous la montagne du Gran Sasso en Italie.

Des neutrinos créés au Cern, à Genève, ont été interceptés près de Rome après un voyage souterrain de 732 kilomètres. L'expérience concerne d'abord la physique fondamentale mais certains ont suggéré de se servir des neutrinos pour communiquer à distance, voire pour trouver du pétrole...

A son arrivée, le faisceau de neutrinos a une largeur d'environ un kilomètre et sur 10 puissance 18 neutrinos produits au Cern, environ 2.500 de ces neutrinos interagiront avec une cible de 10.00 tonnes après un voyage n’ayant duré que 2,5 millisecondes.

Certains se sont même demandé si l’on ne pourrait pas faire avec des communications interstellaires.

- Un pont d'eau sous l'action d'un champ électro-magnétique !

Très étonnant, on peut voir 2 vidéos du phénomène.

Sous l’action d’une forte différence de potentiel, l’eau peut être « sculptée » pour former un pont entre deux béchers, défiant la pesanteur.

Elmar C Fuchs et ses collègues étaient en train d’étudier les propriétés physiques de l’eau sous l’action d’un champ électrique lorsqu’ils ont découvert un étrange phénomène. Deux béchers remplis d’eau distillée et soumis à une forte différence de potentiel étaient à une distance de quelques centimètres quand l’eau s’est mise à grimper aux parois pour sortir des béchers et former une sorte de tube d’eau flottant en l’air, connectant les deux récipients !

Si l’on filme le processus avec une caméra à prise de vues rapides, on constate des oscillations à hautes fréquences dans la structure du pont et, en l’examinant de près, on constate que celle-ci se complexifie au bout de quelques minutes. Enfin, lorsqu’au bout de 45 minutes environ, la température de l’eau est passée de 20 °C à 60 °C sous l’action du voltage, le pont s’effondre.

- Le français Albert Fert Prix Nobel de Physique 2007

Je trouve ce prix Nobel un peu décevant, décerné aux applications plus qu'à l'audace théorique !

Dans les années 70, Albert Fert travaille sur les métaux ferromagnétiques et s’intéresse au rôle du spin des électrons dans le phénomène de magnétorésistance. Le spin, qui peut adopter deux directions, est une propriété de l’électron lié à la rotation qu’il effectue sur lui-même. Dans le matériau, les électrons circulent plus ou moins bien selon la direction prise par leur spin. Ainsi, il suffit que quelques spins soient orientés dans le sens inverse de la majorité pour engendrer une résistance électrique. D’où l’idée d’agir sur le spin pour contrôler la circulation des électrons dans un matériau -et donc sa magnétorésistance. Les bases de l’électronique de spin étaient jetées.

Cependant ce n’est qu’avec le développement des nanotechnologies dans les années 80 qu’Albert Fert et Peter Grünberg ont pu les mettre en pratique. Les manifestations intéressantes de l’électronique de spin (ou spintronique) apparaissent à l’échelle nanoscopique.

C’est en 1988 que ces deux physiciens du solide ont découvert qu’une alternance de couches ultraminces de fer et de chrome, d’une épaisseur de quelques atomes pour chaque couche, présentait une très forte chute de sa résistivité sous l’action d’un champ magnétique. Grâce à ce phénomène, d’infimes variations d’intensités de champs magnétiques devenaient mesurables.

- Nobel de chimie 2007 : Gerhard Ertl et la magie des surfaces

Depuis plus de trois décennies, Gerhard Ertl, un chimiste allemand de l’Institut Fritz-Haber (Berlin), intégré à la société scientifique Max-Planck, explore le monde à deux dimensions. La chimie qui s’y déroule est très particulière, on le sait depuis longtemps. Certains atomes ou molécules peuvent se fixer sur une surface – on dit qu’ils s’adsorbent, avec un « d ». Dans cette situation, leur réactivité chimique est modifiée.

On considère que ses recherches sur la catalyse par le platine sont pour une large part à l’origine des pots catalytiques des automobiles actuelles.

Climat


- Pluies acides : un problème loin d'être résolu !

Une récente analyse effectuée par des scientifiques de la Cardiff University démontre que le problème des pluies acides se montre toujours aussi préoccupant que durant les années 1970 et 1980, malgré l'ensemble des mesures décidées et mises en application.

Les résultats de cette expertise scientifique contrastent nettement avec d'autres études, qui avaient tendance à se montrer encourageantes au point que certains avaient estimé que le problème des pluies acides était définitivement résolu. Une fois de plus, la nature se révèle bien plus complexe qu'une simple mécanique et ses dérèglements bien plus délicats à rectifier par l'Homme, dont la légèreté d'action ne semble pas faiblir…

- La pollution par les nitrates serait sous-évaluée

Les nitrates, sous-produits de la combustion des carburants fossiles retombant sur Terre entraînés par les précipitations, pourraient polluer l'eau potable et les rivières dans une mesure bien plus importante à ce que les scientifiques prévoyaient jusqu'à présent.

Les nitrates se forment dans l'atmosphère à partir des gaz d'échappement des véhicules et des rejets des cheminées d'usine, puis retombent sous forme de pluies acides en contribuant à l'acidification des sols, au déclin de la forêt et à la dégradation des eaux côtières.

Les analyses isotopiques ont démontré que leur provenance était à rechercher dans les sources stationnaires, telles les usines et les centrales électriques, parfois localisées à des centaines de kilomètres. Ces installations rejettent leurs polluants très haut dans l'atmosphère, d'où ils peuvent parcourir de très longues distances avant de retomber, tandis que les rejets des véhicules à moteur sont libérés au ras du sol et sont plus probablement déposés à proximité des chaussées sans avoir atteint la haute atmosphère.

- Le pic pétrolier en 2012 ?

On parle de plus en plus du pic pétrolier. Certains le situent en 2006, d'autres en 2012, d'autres en 2030... Au prix où il est, il n'est pas impossible que de nouvelles ressources remettent un jour ou l'autre les compteurs à zéro, hélas, mais, en attendant, l'augmentation de la consommation devrait se heurter rapidement à une production qui plafonne !

La conférence de l’Association pour l’Etude du Pic Pétrolier qui s’est tenue à Cork va sans doute marquer un tournant. Les professionnels du secteur sont de plus en plus nombreux a estimer que la ressource pétrolière va plafonner sous peu. Combien de temps reste-t-il ? Cinq ans ? Peut-être moins.

La guerre n’a pas été faite uniquement « largement pour le pétrole » comme l’a concédé Alan Greenspan, l’ancien directeur de la Fed, mais entièrement, semble-t-il, pour retarder le moment du pic pétrolier. Si c’est le cas, cette stratégie a échoué lamentablement. Avec des attaques quasi quotidiennes sur les oléoducs, la production périclite à son niveau d’avant l’invasion et les probabilités d’une augmentation significative de celle-ci dans un futur prévisible avoisinent zéro, qu’intervienne ou pas la promulgation de la nouvelle loi sur le pétrole qui fait depuis longtemps l’objet d’âpres discussions.

Nous disposons encore de quelques années, mais avec la demande qui continue de s’accroître nous devrions être fixés sous peu.

- Diminution significative de l'épaisseur de la glace arctique

De pire en pire...

Sur de grandes étendues, la glace de mer arctique n'atteindrait qu'un mètre d'épaisseur et serait ainsi deux fois plus fine qu'en 2001: tels sont les premiers résultats d'une expédition internationale, menée à bord du brise-glace allemand Polarstern, dans le cadre de l'année polaire internationale.

- Les leçons des glaciers d'Hawaii

Et le pire est encore devant nous...

Un des résultats de notre étude suggère que les variations de température au niveau de la mer sont amplifiées en altitude. Je vous laisse imaginer combien les conséquences de ce mécanisme peuvent être inquiétantes pour les dizaines de millions de personnes dont l'approvisionnement en eau dépend de la pérennité des glaciers de montagne (Andes, Himalaya).

- L’Atlantique absorbe moins de dioxyde de carbone

Une série de mesures indiquent que l’Atlantique nord remplit deux fois moins bien qu’il y a dix ans son rôle de puits à dioxyde de carbone.

Entre les deux périodes de mesures, dans le milieu des années 1990 puis entre 2002 et 2005, elle aurait diminué de moitié !

« Des changements d’une telle ampleur constituent une surprise énorme, avoue Ute Schuster. Nous pensions que ces modifications ne pourraient survenir que lentement à cause du volume de l’océan ».

- Nouvelle méthode de capture du CO2 à bas prix

La capture du CO2 ne semble pas une véritable solution ne serait-ce qu'à cause de l'énergie dépensée pour cela mais de nouvelles méthodes pourraient la rendre plus efficace.

C'est dans ce contexte que le RITE (Research Institute for Innovative Technology for the Earth) a mis au point une nouvelle méthode de capture du CO2 en deux temps. Les effluents gazeux traversent une solution à base d'aluminium qui piège le CO2. Le liquide est ensuite envoyé vers une membrane tubulaire percée d'orifices d'un dixième de micromètre. En abaissant la pression autour de cette membrane, le liquide s'éjecte par les petits trous en libérant le CO2.

A l'échelle mondiale c'est 483 des 877 milliards de tonnes de CO2 rejetés d'ici 2050 qui pourraient être enfouies.

- Vers une nouvelle extinction de masse ?

C'est le genre de nouvelles qu'on préférerait ignorer tant cela parait gros, et certes il est peu probable qu'une telle catastrophe se déroule à échelle humaine. On peut contester aussi le caractère un peu trop affirmatif de la prédiction. Rien ne garantit en effet qu'on soit vraiment entré dans une phase longue de réchauffement mais cela devrait tout de même être l'indication qu'il y a des mécanismes d'emballement susceptibles d'accélérer dramatiquement le réchauffement, une fois le processus amorcé, par la libération des hydrates de méthane sous-marins et la fonte du permafrost notamment.

Ainsi, ce ne serait pas seulement une météorite qui serait la cause de la disparition des dinosaures mais surtout une série d’éruptions volcaniques majeures (provoquées par la météorite?) produisant d’immenses quantités de gaz à effet de serre. Plus généralement, les grandes extinctions sont presque toutes liées à un pic de réchauffement (avec libération du méthane 23 fois plus puissant que le CO2 bien que durant moins longtemps dans l'atmosphère). Croire qu'un réchauffement provoquerait un refroidissement comme dans "Le jour d'après" n'est donc pas vérifié du tout par l'expérience passée, bien au contraire, ce n'est qu'un mauvais film...

Le réchauffement climatique en cours devrait déclencher un processus d'extinction de masse comparable à celui qui a exterminé plus de 50 % des espèces vivantes à cinq reprises au cours du demi milliard d'années écoulées.

"Les résultats que nous avons obtenus fournissent pour la première fois l'évidence que les variations climatiques peuvent expliquer les fluctuations quantitatives de fossiles selon la période examinée de façon simple et cohérente. Si nous transposons ces données au réchauffement actuel, comparables aux fluctuations à long terme dans le passé, elle suggère que les extinctions devraient reprendre".

L'équipe de recherche a en effet pu établir une corrélation étroite entre le climat de la Terre et les périodes d'extinction au cours des 520 millions d'années écoulées. Elle note aussi un rapport évident entre l'ampleur de la variation des températures et l'importance du taux de disparition des espèces animales ou végétales associé. De même, il a été constaté de l'examen des fossiles que les périodes à forte biodiversité coïncident avec les périodes les plus froides.

Cinq grandes phases d'extinction de masse ont été mises en évidence au cours du demi milliard d'années écoulées du passé de la Terre. Quatre d'entre elles, dont celle qui a vu disparaître les dinosaures il y a 65 millions d'années, sont étroitement associées à des périodes de réchauffement climatique. La plus importante de toutes, qui s'est produite à la fin du Permien et qui coïncide avec les températures les plus hautes, a entraîné l'extinction de 95 % des espèces animales et végétales peuplant notre planète.

La figure suivante présente la diversité taxonomique en fonction de la température (de -3 à +5 °C) sur une période de 500 millions d'années. Le tableau A prend en compte le nombre de familles répertoriées et le tableau B le nombre de genres (vivant en milieu marin). Les cercles noirs et la ligne discontinue indiquent la température, tandis que les cercles blancs et la ligne continue montrent l'importance de la biodiversité.

Sur les graphiques de gauche, en A comme en B, les cercles entourés représentent les cinq grandes extinctions de masse : fin de l'Ordovicien (-440 Ma, millions d'années); fin du Dévonien (-365 Ma); fin du Permien (-225 Ma); fin du Trias (-210 Ma); fin du Crétacé (-65 Ma). L'ensemble du diagramme fait apparaître une corrélation négative au cours du temps entre température et biodiversité.

Le GIEC qui vient d'avoir le prix Nobel de la paix n'est pas si catastrophiste car il élimine diplomatiquement les hypothèses extrêmes qui, pour ne pas être du tout certaines (les incertitudes sont immenses), n'en sont pas moins possibles...

- Impossible de réduire les incertitudes du climat !

- Les principales conclusions du GIEC

- Les six scénarios du Giec

- Une vérité qui dérange (vidéo)

- Dossier sur le climat de Futura-Sciences

- GEO4, Global Warning, rapport de l'ONU (résumé, 7 pages)

- Les Etats-Unis aux prises avec une sécheresse historique

Alors que la Californie se bat contre des incendies dévastateurs, une grande partie des Etats-Unis est confrontée à une sécheresse historique qui laisse craindre que des millions de personnes se retrouvent privées d'eau.

- Les grandes sécheresses africaines à l'origine des migrations humaines

Une période de sécheresses extrêmes subies par l'Afrique voici 90.000 à 135.000 ans aurait eu une influence déterminante sur les migrations humaines.

Selon Cohen, cette constatation fournirait une explication d'ordre écologique à une des hypothèses les plus récentes, qui soutient que les populations européennes sont issues de petits groupes ayant occupé le territoire africain voici 150.000 à 70.000 ans. A l'issue de cette période, le climat africain est redevenu plus humide et la population s'est mise à augmenter, ce qui a provoqué d'importantes vagues d'immigration en direction du nord.

- Expansion humaine et climat

L'expansion des premiers hommes modernes depuis l'Afrique via un itinéraire côtier longeant l'Asie méridionale se serait effectuée plus tard qu'on le pensait et aurait été à plusieurs reprises contrecarrée par une série d'importantes modifications environnementales.

Les premières vagues d'expansion humaines en dehors de l'Afrique selon un itinéraire côtier en Asie méridionale ont tout d'abord été contrecarrées, voire bloquées par d'importantes modifications environnementales incluant une élévation importante du niveau de la mer et une sécheresse extrême des zones côtières. Ensuite, une stabilisation du climat avec la mise à sec d'importantes bordures continentales a permis, durant la période -45.000 à -40.000 ans, la première migration importante en direction du sud-est asiatique, incluant la Mélanésie et l'Australie, puis se déployant vers le nord vers -37.000 ans en atteignant la Russie et le Japon oriental.

Les premières tentatives de progression vers le nord le long de la côte orientale asiatique se sont arrêtées à 43° de latitude, probablement en raison de la mauvaise adaptation des humains aux eaux froides et de la végétation du genre toundra et steppe. La période glaciaire qui a suivi depuis -33.000 jusqu'à -16.000 ans a provoqué de nouveaux changements importants du niveau de la mer et du climat, provoquant l'abandon de nombreux sites côtiers.

A partir de 16.000 ans avant notre ère, les températures sont progressivement redevenues plus clémentes, tandis que le niveau de la mer demeurait stable à 100 mètres au-dessous de la situation actuelle, laissant dégagées de larges bandes de terrain. Malgré des modifications climatiques brusques et répétées, ces conditions ont permis aux cohortes humaines en provenance, semble-t-il, d'Asie centrale et mieux adaptées aux climats nordiques froids, de se répandre à partir de -14.000 ans vers le Nouveau Monde en franchissant la région aujourd'hui appelée Détroit de Behring, maintenant recouverte de glace mais alors plus tempérée et sèche.

etc.

Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

- Les briques de l’ADN pourraient se former dans l’espace

C'est la suite du feuilleton des 2 mois derniers, confirmant que les bases de la vie viennent des étoiles et que donc elles sont sans doute universelles. Après avoir découvert de l'adénine dans des météorites, cette fois on aurait découvert la façon dont elle pourrait être synthétisée.

Nous avons observé une étape où s’échappe la molécule H2C2N2. Jusqu’ici, on ne voyait apparaître que des molécules de HCN (l’acide cyanhydrique). D’ailleurs, c’est une voie classique de synthèse de l’adénine que de partir de HCN (l’adénine est de formule globale H5C5N5). Mais personne n’avait jamais vu ni imaginé que le H2C2N2 puisse jouer un rôle.

- Ecotron: un grand équipement pour étudier les écosystèmes

La première pierre de l'Ecotron Européen de Montpellier a été posée le 2 octobre 2007 sur le campus de Baillarguet (à 6 km au nord de Montpellier). Ce grand équipement scientifique construit par le CNRS, la région Languedoc-Roussillon et le conseil général de l'Hérault permettra d'étudier in vitro les réponses des écosystèmes, des organismes et de la biodiversité aux modifications de l'environnement, comme le changement climatique.

Grâce à l'Ecotron, dès 2008, les scientifiques pourront isoler des portions d'écosystèmes dans des enceintes et les soumettre à des variations de climat et de stress très variées. L'intérêt de cette plateforme de recherche de rang international résidera dans sa capacité à mesurer les variations de fonctionnement induites par les changements d'environnement. Sur les trois plateaux expérimentaux (macrocosmes, mésocosmes, microcosmes), des consortiums internationaux d'équipes de recherche pourront ainsi mesurer les cycles du carbone, de l'eau, des minéraux, les émissions de gaz à effet de serre ou encore les changements et le rôle de la biodiversité.

- Les sources hydrothermales sièges d'une étonnante biodiversité

Les échantillons rapportés ont révélé des surprises aux chercheurs du MBL (Marine Biological Laboratory) et de l'Université de Washington qui les ont analysés. Leurs résultats, publiés le 5 octobre dans Science, font état de quelque 3.000 archées et pas moins de 37.000 bactéries différentes.

Parmi les espèces nouvelles, Julie Huber, auteur principal de l’étude, explique « des centaines étaient si différentes des bactéries connues que nous ne savons les classer qu’au niveau du phyllum ».

Pour parvenir à un tel résultat, Julie Huber et ses collègues ont fait appel à une technique récente, le séquençage 454 (du nom de la société 454 Life Science) de l’ARNr 16s, un des constituants de l’ARN ribosomal. Cet élément, brique de l’usine à fabriquer les protéines, fondamental pour la vie de n’importe quelle cellule, s’est conservé au fil de l’évolution. On est donc sûr d’en trouver chez tous les organismes. En analysant certaines séquences variables, on peut repérer des différences et des similitudes entre individus, donc des liens de parenté.

- Animal ou végétal ? Le génome d'une algue modèle livre ses secrets

C'est le répertoire génique de Chlamydomonas qui retient l'attention des scientifiques: il s'agit d'une véritable mosaïque évolutive, combinant des caractéristiques clairement "végétales" et d'autres typiques des animaux. En tant que plante, le séquençage de Chlamydomonas éclaire de façon originale l'évolution du règne végétal, de l'aquatique au terrestre, de l'unicellulaire au pluricellulaire. La comparaison avec d'autres génomes d'algues et de plantes a déjà permis de dresser un catalogue de nouveaux gènes impliqués dans la photosynthèse et la biologie du chloroplaste. En revanche, d'autres gènes, et pas seulement ceux liés aux flagelles, sont plus proches du répertoire des animaux.

L’analyse comparée du génome de Chlamy révèle qu’elle partage 35% de ses gènes avec les plantes à fleurs et les humains mais qu’une portion de 10% de ses gènes n’est commune qu’avec les humains.

En particulier, le chloroplaste est un compartiment de choix pour produire des molécules à haute valeur ajoutée: les gènes étrangers introduits dans l'ADN chloroplastique ne peuvent être disséminés par le pollen, à la différence de ceux qui sont portés par le génome nucléaire des OGM actuels. Aujourd'hui, Chlamydomonas est la seule plante dans laquelle la modification du génome chloroplastique est aisée. C'est également le seul eucaryote capable de produire, sous certaines conditions, de l'hydrogène en utilisant l'énergie solaire.

- Un dinosaure à bec de canard

Une nouvelle espèce de dinosaure à bec de canard datant de la fin du Crétacé, il y a environ 75 millions d’années, a été présentée aujourd’hui par des paléontologues de l’Utah, aux Etats-Unis. Le crâne du Gryposaurus monumentensis, ainsi que quelques os, ont été retrouvés sur le plateau de Kaiparowits, qui fait partie du Grand Staircase-Escalante National Monument.

Le nouveau venu se distingue par la taille impressionnante de son crâne et sa courte mâchoire. Avec une telle robustesse, le G. monumentensis devait être capable de mettre en pièces n’importe quel type de plantes, selon Terry Gates (Utah museum of natural history) et ses collègues. Le reptile aurait mesuré jusqu’à 9 mètres de long.

Ce dinosaure au bec plat disposait en permanence d’un minimum de 300 dents, ont précisé les chercheurs. Des dents en attente sont également visibles à l’intérieur de l’os de la mâchoire. A certains moments, le Gryposaurus a pu jouir d’un joli équipement allant jusqu’à 800 dents…

- Les cheveux, nouvelle clé de la génétique

Dans chaque poil, dans chaque cheveu, et même dans les griffes et les ongles, une gaine de plastique naturel protège de grandes quantités d'ADN que personne, jusque-là, n'avait pensé à aller chercher. Une véritable mine pour les paléontologues.

Cette conclusion a été permise à la suite d'examens effectués sur la fourrure de dix mammouths laineux (Mammuthus primigenius) conservés dans les glaces du nord de la Sibérie depuis 12.000 à 50.000 ans, dont le célèbre mammouth d'Adam découvert en 1799, conservé depuis plus de deux siècles à température ambiante et souvent dans de très mauvaises conditions.

La nouvelle méthode, basée sur l'extraction de l'ADN conservé à l'intérieur des poils ou cheveux, s'avère beaucoup plus simple. Ceux-ci sont en effet enveloppés d'une couche de kératine, sorte de matière plastique naturelle qui forme une barrière infranchissable aux bactéries ou à toute autre forme de pollution, même après la mort de l'animal.

Stephan Schuster s'enthousiasme devant les possibilités offertes par cette technologie, qui ouvre la voie au séquençage complet du génome du mammouth et qui pourrait peut-être permettre d'identifier les raisons de la disparition de cet animal, voici 5.700 à 14.000 ans selon les espèces. Jusqu'à présent, seuls sept génomes d'animaux disparus avaient pu être séquencés, quatre oiseaux, deux mammouths et un mastodonte.

- Plus les abeilles disparaissent, plus elles disparaissent...

Les abeilles sont plus susceptibles de disparaître que la majorité des autres organismes, car elles sont soumises à un mécanisme inhabituel de détermination du sexe qui transforme certaines femelles en mâles stériles.

Les grandes populations d'abeilles peuvent maintenir une grande variété d'allèles différents au locus, ce qui permet de réduire au minimum la production de mâles stériles. Toutefois, plus la taille de la population diminue, plus la diversité génétique diminue, entraînant la production d'un grand nombre de mâles stériles.

Cet effet cause encore plus de tort à une population déjà décroissante et peut facilement causer son effondrement. Une population d'abeilles en voie d'extinction disparaîtra jusqu'à dix fois plus vite que toute autre espèce en voie d'extinction ayant une population de même taille.

- Primates en péril

Vingt-neuf pour cent des espèces de primates du monde sont menacées d'extinction durant ce siècle !

Santé


génétique, traitements, nutrition, hygiène

- Pourquoi ne déprime-t-on pas plus ?

Il est intéressant de constater expérimentalement que l'optimisme et la pensée positive résultent d'un refoulement ou de l'inhibition des pensées négatives.

Notre capacité à ignorer les problèmes et les catastrophes qui s'annoncent est immense. Pensée positive et refoulement sont donc des constituants de base de la pensée. Lorsque ce mécanisme inhibiteur est déficient, c'est la dépression, une vraie touche du réel sans doute mais qui nous paralyse. Par contre, si l'optimisme est bien plus efficace et justifié la plupart du temps, il devient contre-productif quand la catastrophe se produit réellement, c'est le revers de la médaille. Ce qu'il faudrait, c'est n'être ni optimisme ni pessimiste mais ce réalisme est à peu près impossible dans un monde incertain où de nombreux risques ne sont que statistiques. Il est quand même bien utile de savoir qu'on a tendance à sous-estimer ces problèmes alors qu'on insiste plus volontiers sur une supposée tendance à les exagérer, à une fascination de la catastrophe très minoritaire à part chez les dépressifs...

Quand sont évoquées de sombres perspectives –perte d’un emploi, maladie, accident de voiture- la plupart des êtres humains ont tendance à les écarter, comme si cela n’arrivait qu’aux autres… Deux régions du cerveau seraient aux avants-postes pour fabriquer cette tendance à voir le bon côté des choses, ce biais optimiste formalisé par de précédents travaux de psychologie. Grâce à l’imagerie médicale, l’équipe d’ Elizabeth Phelps (New York University, USA) a observé un pic d’activité dans l’amygdale -connue pour son implication dans la régulation des émotions- et dans une partie du cortex préfrontal.

- Le téléphone portable augmenterait le risque de cancer du cerveau ?
Le Monde 09.10

Les travaux de Lennart Hardel et Kjell Hanson Mild, parus dans Occupational Environmental Medicine, sont la première étude qui confirme un risque qui avait été contesté par toutes les études précédentes mais qui reste tout de même exceptionnel (inférieur à 6 pour 100 000) et seulement pour des usages très intensifs. Il est par ailleurs curieux qu'on se fixe sur ce risque si faible alors qu'il y a bien d'autres perturbations induites par les ondes selon leurs fréquences et leurs puissances, en particulier l'augmentation de la perméabilité des cellules et les ondes du cerveau lui-même (ondes alpha, etc.) ! Il vaut toujours mieux minimiser les puissances et il semblerait que les téléphones WiFi soient potentiellement les plus nocifs.

Les risques de cancer du cerveau seraient deux fois plus élevés chez les personnes ayant utilisé un téléphone portable au moins une heure par jour sur une période de 10 ans.

La tumeur cérébrale maligne dont il est essentiellement fait état dans l'étude suédoise - le gliome - atteint chaque année environ 6 personnes sur 100.000. Quant à la seconde affection étudiée - le neurinome, une tumeur non cancéreuse du nerf acoustique -, sa fréquence n'est que 2,5 fois plus grande. Le nombre de cas est donc faible et rend difficile l'interprétation des résultats, d'autant que ces affections existaient bien avant le portable et ont bien sûr d'autres causes.

Il semble toutefois exister une tendance générale à une augmentation du risque de gliome chez les plus gros consommateurs de téléphonie mobile : utilisateurs de longue durée, au temps de communication élevé et ayant utilisé un plus grand nombre de téléphones.

- Un virus en cause dans le cancer de la gorge
Le Parisien 17.10

La sexualité orale pourrait comporter un danger si on n'est pas vacciné contre les papillomavirus...

Les oto-rhino-laryngologues français, réunis lors de leur congrès de la Société française d’ORL, ont annoncé qu’il y aurait une origine virale dans les cancers de la gorge.

Le HPV (Human Papilloma Virus) « est retrouvé dans plus de 50 % des cancers dits oropharyngés et tout particulièrement le cancer de l’amygdale ».

L’incidence des cancers liés à HPV augmente ainsi chez les jeunes, non fumeurs et non buveurs, mais qui ont de nombreux partenaires sexuels et des rapports buccogénitaux.

- De l’infection virale au cancer: quels mécanismes?

Certains virus ont un effet anti-cancer en éliminant les cellules cancéreuses dont le système immunitaire a été désactivé, au contraire, d'autres virus (comme le papillomavirus) peuvent déclencher un cancer en sélectionnant les cellules cancéreuses !

Certains virus sont connus comme étant des causes directes de cancers, comme le papillomavirus (HPV) pour le cancer du col de l’utérus ou le virus Epstein-Barr (EBV) pour la maladie de Hodgkin. Des chercheurs proposent une nouvelle piste pour expliquer comment ces virus déclenchent le processus cancéreux. Selon Preet Chaudhary (University of Pittsburgh, USA) et ses collègues, ces infections virales élimineraient les cellules normales au profit de cellules défectueuses qui favorisent le développement des cancers.

Plusieurs hypothèses sont avancées pour expliquer le rôle des virus oncogènes. Ils auraient la capacité de modifier le matériel génétique d’une cellule, de rendre sa croissance incontrôlable, créant ainsi un terrain favorable à l’émergence de cellules cancéreuses. Autre mécanisme possible : l’inflammation chronique liée à l’infection virale nécessite une multitude de réparations du tissu abîmé ; or au cours de ces réparations cellulaires un plus grand nombre d’erreurs génétiques s’accumulent, augmentant le risque de prolifération anormale des cellules.

Chaudhary et ses collègues ajoutent une nouvelle hypothèse, celle d’une ‘’pression de sélection’’ exercée par les virus sur les cellules. Ces chercheurs ont travaillé à partir de cellules de sarcome de Kaposi, maladie cancéreuse liée à une infection par un herpès virus (HHV-8). Ils ont examiné le niveau d’expression d’un gène, le K13, qui est impliqué dans le développement du cancer. Les chercheurs ont constaté que les cellules qui exprimaient le moins le K13 –et qui étaient donc les moins susceptibles de devenir cancéreuses- laissaient davantage le virus se répliquer à leurs dépends. A l’inverse, les cellules qui résistaient le mieux à la réplication du virus étaient celles qui avaient un niveau d’expression élevé du gène K13.

Le virus conduirait donc à une sorte de sélection naturelle des cellules dont les défauts favorisent la prolifération, terreau des tumeurs cancéreuses, avancent les chercheurs. Ces travaux ont été publiés le 24 octobre dans la revue PLoS ONE.

- Un vaccin contre le paludisme

Testé pour la première fois sur des enfants de moins d’un an, un vaccin préventif contre le paludisme a donné des résultats prometteurs, bien que préliminaires.

Le vaccin contre le palu s’est avéré sûr, explique aujourd’hui le Dr Pedro Alonso (Université de Barcelone, Espagne) dans la revue The Lancet, et qui plus est efficace : l’injection des trois doses vaccinales a diminué le risque d’infection par le parasite du paludisme de 65% pendant les trois mois de suivi, écrivent Alonso et ses collègues. La longévité de la protection apportée par le vaccin n’est pas encore connue.

Les enfants africains de moins de 5 ans représentent 75% des victimes mondiales du paludisme, selon l’OMS.

- Les vaccins antigrippe seraient peu efficaces
Le Figaro 02.10

Comme chaque année, le retour de l'épidémie de grippe s'accompagne de violentes critiques sur l'efficacité du vaccin.

Cette fois, c'est Lone Simonsen (Instituts nationaux de santé, Bethesda, Etats-Unis) qui, dans The Lancet, enfonce à nouveau le clou.

La preuve scientifique de l'efficacité du vaccin pour réduire la mortalité grippale (chez les plus de 65 ans) reste à faire. Il est même à craindre qu'on ne l'aura jamais !

Des essais comparatifs entre un placebo et le vaccin ont montré leur efficacité chez les plus jeunes en bonne santé, mais pas chez les seniors de 70 ans et plus, qui ont des facteurs de risque.

Or ce sont eux qui meurent le plus : les hommes et femmes de 80 ans ont 11 fois plus de risques de mourir d'une conséquence de la grippe que les 65-69 ans.

Malgré l'augmentation de la couverture vaccinale des personnes âgées (aux Etats-Unis), la mortalité observée (par rapport aux morts attendus pendant l'hiver) a même augmenté entre 1980 et 1990 !

Le poids exact des morts de la grippe est difficile à apprécier. On peut prendre pour de la grippe ce qui est en fait dû à d'autres virus respiratoires. La grippe n'est souvent qu'un facteur morbide qui va déclencher des pneumonies bactériennes de surinfection, ou décompenser une maladie cardiaque sous-jacente qui emporte le malade. Et ces morts-là ne sont pas comptées comme dues à la grippe.

Un «truc» statistique consiste donc à mesurer l'excès de mortalité toutes causes confondues, par rapport à un nombre de morts attendus pendant la période grippale. Avec cet indicateur, la grippe, depuis la grande pandémie de 1968, ne tue «que» 5 % des 600 000 Américains mourant chaque année entre décembre et mars.

Or, selon les tenants de la vaccination, les études de cohortes de vaccinés de plus de 65 ans montreraient que le vaccin réduit de 50 % le risque de toute mort hivernale.

Que le vaccin antigrippe soit capable d'éviter 10 fois le nombre de morts attribuées à la maladie est complètement invraisemblable.

Une étude néerlandaise de 1992 avait constaté une diminution de l'efficacité du vaccin avec l'âge : de 57 % chez les 65-69 ans, elle passait à 23 % chez les plus de 70 ans, du fait du vieillissement de l'immunité.

Maintenant que la vaccination est recommandée partout pour les personnes âgées, quiconque proposerait un essai comparatif en double aveugle entre le placebo et le vaccin aurait bien du mal à le faire passer auprès d'un comité d'éthique.

- Grippe aviaire : l’apparition de souches de virus résistantes due à la présence du Tamiflu® dans les eaux usées ?
Le Parisien 03.10

Selon des chimistes suédois, « le Tamiflu®, considéré comme un possible médicament de première ligne contre une éventuelle pandémie de grippe aviaire, persiste dans les systèmes d’eaux usées, ce qui pourrait favoriser l’apparition de souches de virus résistantes à ce traitement ».

- Les dangers des transfusions sanguines

On sait que des sportifs et des vedettes se font changer le sang régulièrement mais le sang transfusé étant dépourvu de NO, il pourrait favoriser les crises cardiaques, entre autres...

Une bonne partie du sang conservé en banque et utilisé pour des transfusions auprès de millions de personnes chaque année pourrait perdre un élément essentiel à l'oxygénation des tissus.

L'oxyde nitrique, qui contribue à garder les vaisseaux sanguins ouverts, commence à se dégrader dès que le sang d'un donneur est entreposé, affirment deux équipes de recherche américaines dans des études distinctes parues cette semaine dans l'édition en ligne de Proceedings of the National Academy of Sciences.

Ces dernières années, les médecins sont devenus de plus en plus préoccupés par le niveau de crises cardiaques et d'accidents vasculaires cérébraux (AVC) chez les patients ayant reçu des transfusions sanguines, et ces constats pourraient comporter des éléments d'explication du phénomène.

Les vaisseaux sanguins se relâchent et se contractent pour contrôler la circulation du sang et l'oxyde nitrique ouvre les vaisseaux sanguins, permettant aux globules rouges de livrer l'oxygène, explique le dirigeant d'un des groupes de chercheurs, le Dr Jonathan Stamler. Si le vaisseau sanguin ne peut s'ouvrir, les globules rouges ne peuvent faire leur travail et les tissus manquent d'oxygène, ce qui peut entraîner une crise cardiaque, sinon la mort.

- Une molécule qui bloque la multiplication du virus du SIDA

Une approche entièrement nouvelle pour bloquer l'infection par le HIV-1 (la forme la plus répandue du virus du sida chez l'homme) vient d'être mise au point par des chercheurs du CNRS et de l'Université de Montpellier. Il s'agit, grâce au développement d'une molécule chimique, de s'attaquer aux mécanismes cellulaires qu'utilise le virus du SIDA pour se multiplier.

Les chercheurs ont mis au point le développement d'une molécule chimique (IDC16) capable de bloquer l'infection par le HIV-1 en empêchant "l'épissage", c'est-à-dire la maturation des ARN du virus et donc sa réplication.

Cette nouvelle voie thérapeutique s'avère extrêmement prometteuse pour la lutte contre le SIDA mais aussi pour toute autre pathologie causée par un virus dépendant du même mécanisme cellulaire.

- Mucoviscidose : enfin une lueur d'espoir
Le Parisien, La Croix, L’Humanité 02.10

Testée chez la souris, une molécule, déjà utilisée contre une autre maladie génétique, sera prochainement testée chez des patients. La recherche a été rapide et l’espoir d’un médicament est réel, même s’il ne peut y avoir aucune certitude.

Cela fait près de 15 ans que l'équipe du CNRS à Poitiers, dirigée par le Pr Frédéric Becq, travaille dessus. La molécule a été trouvée en 2005 dans le cadre de la recherche sur la mucoviscidose.

Cette molécule restaure l’activité normale de la protéine CFTR (cystic fibrosis transmembrane conductance regulator), dont la défaillance est due à une mutation présente chez environ 80 % des malades.

Le miglustat est un médicament déjà connu et est vendu sous la marque Zavesca par les laboratoires Actelion, d’ailleurs responsable des essais de phase 2. Cette substance est utilisée pour soigner une autre affection génétique, rare elle aussi, la maladie de Gaucher (du moins sa variante de type 1). Le fait que cette molécule soit déjà commercialisée « a fait gagner cinq ans au processus de recherche »

Place désormais à la phase décisive de l'essai clinique - sur des malades - qui se déroulera en Espagne dans les mois à venir et mobilisera 25 patients porteurs de la protéine CFTR présente chez 70 % des patients atteints de mucoviscidose.

Les résultats de cet essai devraient être connus à la fin de l'année 2008 avec peut-être à la clé un immense espoir pour de nombreuses familles.

- Transformation de cellules souches graisseuses en cartilage

Des chercheurs de la Clinique orthopédique universitaire d'Heidelberg ont identifié un facteur de croissance favorisant la transformation de cellules souches adipeuses, prélevées par liposuccion, en cellules cartilagineuses.

- Le rôle de l'appendice

Une réserve de bactéries en cas de diarrhées...

Considéré comme un vestige sans fonction, qui ne se manifeste que pour provoquer une appendicite, ce petit organe servirait en fait d’abri pour une flore bactérienne nous aidant à digérer les aliments. Mais, dans les pays industrialisés, effectivement, cet hébergement serait plus nuisible qu’utile.

Il abriterait une flore bactérienne pour la tenir en réserve au cas où une grave indigestion et la diarrhée qu’elle provoque évacueraient le biofilm. Les bactéries bénéfiques étant parties, les nuisibles auraient alors le champ libre pour s’installer. Mais, sortant de leur cache, les bactéries amies stockées dans l’appendice pourraient rapidement réinvestir l’intestin. Dans de nombreux pays, les diarrhées sont un mal fréquent et ce petit diverticule du caecum aurait donc une précieuse utilité.

Dans les sociétés industrialisées, avec une alimentation saine et une hygiène de tous les instants, ce genre d’indigestion est rarissime. Voilà pourquoi l’ablation de l’appendice n’a pas d’effets sur la santé. En revanche, ce rôle de l’appendice pourrait expliquer la fréquence de l’appendicite. Le raisonnement fait appel à ce que l’on appelle parfois la thèse hygiéniste. Parce que nos sociétés modernes nous exposent peu à des bactéries pathogènes, nos organismes sont mal préparés à lutter contre elles quand nous croisons leur route. La rencontre peut alors plus facilement conduire à une réaction disproportionnée, cause d’allergies dans les cas bénins, ou d’inflammations contre des attaques plus graves. C’est ce qui arriverait après l’intrusion d’une bactérie ennemie dans cette réserve protégée que serait l’appendice, provoquant une réaction violente et une appendicite.

- L’anorexie, un processus addictif?

Sachant que des drogues comme la cocaïne, les amphétamines ou l’ecstasy réduisent ou coupent l’appétit de ceux qui les consomment, des chercheurs du CNRS et de l’Inserm ont comparé les circuits neuronaux impliqués dans l’action de ces drogues avec ceux de l’anorexie. Valérie Compan (CNRS, Montpellier) et ses collègues soupçonnent l’anorexie de passer par les mêmes circuits de la récompense que les drogues.

- Le tabagisme maternel mis en cause dans la mort subite du nourrisson
Le Monde 16.08

Selon une étude anglaise, à paraître dans la revue Early Human Development, « 9 mères sur 10 ayant perdu leur enfant de mort subite du nourrisson étaient fumeuses pendant la grossesse ».

L’étude « indique que les femmes enceintes qui fument voient les risques de perdre ainsi leur bébé multipliés par 4 par rapport aux non-fumeuses ».

- Les statines pour protéger les poumons ?

Déjà parées de nombreuses vertus favorables pour le malade "moderne" (hypolipémiantes -leur vocation première - protectrices vasculaires, freinant la démence, anti-inflammatoires dans divers domaines) voilà que selon une étude américaine parue dans le second numéro de l’American Journal of Respiratory and Critical Care Medicine, les statines (ST) auraient une action favorable sur la fonction pulmonaire(FP). Elles participeraient à un ralentissement de la perte des capacités respiratoires, en particulier chez le sujet âgé et ce, y compris chez les fumeurs.

Afin d’expliquer ces premiers résultats pour le moins encourageants, les investigateurs suggèrent que les ST sont aptes à diminuer d’une part les processus inflammatoires (comme en témoigne leur capacité à réduire la Protéine C-réactive sérique) donc les effets délétères pulmonaires du tabac. D’autre part, ils seraient un élément protecteur supplémentaire contre les attaques oxydatives.

- Pas de douleur mais toujours du mouvement

Une anesthésie qui bloque uniquement la douleur et n'endort pas le patient.

Des chercheurs américains ont découvert le moyen d’inactiver les neurones sensibles à la douleur sans bloquer l’activité motrice, grâce à la capsaïcine, la molécule qui procure la sensation de chaud lorsque l’on consomme du piment.

Avant d’essayer ce nouveau mode d’anesthésie chez l’humain, les chercheurs doivent s’assurer qu’il ne provoque pas de sensation de brûlure, même courte, avant que le dérivé de lidocaïne agisse. En effet, le TRPV1 est un récepteur sensible à la chaleur et lorsque la capsaïcine se lie avec lui le cerveau comprend que ça chauffe (trop). Bean et ses collègues doivent aussi trouver le moyen de prolonger l’action du produit, qui ne dure pour l'instant que deux heures.

- La santé à l'épreuve des modes de vie
Les Echos 03.10

Près de la moitié de la population française ne gère pas son capital santé et s'implique peu dans la prévention des maladies.

plus du quart d'entre eux, soit plus de 13 millions de personnes, vivent dans une tranquille insouciance et restent sourds aux recommandations des professionnels de santé et aux campagnes d'information

une constatation réalisée récemment dans un hôpital parisien confirme ce détachement, qui frôle parfois la désinvolture suicidaire : près de la moitié des personnes ayant subi une intervention chirurgicale après un problème cardio-vasculaire (pontage) recommencent à fumer dans les semaines qui suivent la sortie de l'hôpital

les Français comptent sur le système collectif de santé pour prendre en charge leurs maladies et s'investissent peu en amont. Pour la majorité, la santé reste un dû, plutôt qu'un devoir

pour Bernard Debré, de l'hôpital à Cochin, c'est le système hexagonal orienté sur «le curatif et le remboursement des soins» qui est partiellement responsable d'une situation «où la médecine soignante l'a emporté sur la médecine d'hygiène»

la marge de manoeuvre est étroite, entre responsabilisation (qui marche parfois) et culpabilisation (qui ne marche jamais). Particulièrement chez les adolescents, présentés comme la population qui tire le plus de chèques en blanc sur sa santé

- Prévalence de la SEP en France selon les régions

Selon les données d'octobre 2004 il y aurait une nette prévalence de la sclérose en plaque dans le Nord-Est, 1,5 fois supérieure à celle du Sud-Ouest.

Cette différence indentique observée entre les pays européen du Nord et du Sud fait donc une nouvelle fois discuter l'existence de facteurs environnementaux dans l'apparition de la maladie.

- Une mutation régulant l'énergie impliquée dans le diabète

Cette étude, réalisée à l'Hôpital général d'Ottawa et publiée dans le journal PLoS ONE, a porté sur le gène activant l'AMPK, protéine kinase activée par des agents mitogènes. Cette dernière, contrôle la quantité d'énergie contenue dans nos cellules en s'activant lorsque nos réserves diminuent, comme, par exemple, au cours d'un exercice physique. La mutation, retrouvée chez des membres de deux familles sans lien de parenté, a entraîné un redoublement d'activité de l'AMPK au niveau musculaire en période de repos, imitant ainsi un état d'activité physique.

La mutation produit une diminution du gras emmagasiné dans les muscles, de même qu'une augmentation du glycogène musculaire. Cette découverte a donc des répercussions sur le traitement du diabète de type 2, car des niveaux de gras élevés emmagasinés dans les muscles ont été associés à la résistance à l'insuline.

La metformine est un médicament qui a pour effet d'augmenter l'activité de l'AMPK et couramment utilisé pour prévenir et traiter le diabète.

- Trop de sucre dans les neurones : une cause de maladies neurodégénératives

Une cause possible de plusieurs maladies neurodégénératives, dont la terrible maladie de Lafora, vient d'être découverte : les neurones accumuleraient trop de glycogène, la forme de stockage du sucre dans les cellules.

Les conclusions de cette étude apportent l'espoir de découvrir une parade à cette maladie incurable, notamment en identifiant une molécule possédant la capacité d'empêcher la synthèse de glycogène dans les neurones. Toute découverte sur les mécanismes qui enclenchent ou empêchent la production de glycogène est également susceptible d'aider à la compréhension d'autres maladies neurodégénératives ou neurologiques et d'évoluer vers un traitement.

- Eviter les hypnotiques pour les personnes âgées
Prescrire numéro 288

Chez les personnes âgées, les hypnotiques sont souvent utilisés pour les troubles du sommeil. Pourtant, plusieurs études montrent que, chez les personnes insomniaques âgées de 60 ans et plus, l'augmentation du sommeil apportée par ces médicaments est de l'ordre d'une demi-heure seulement par nuit.

Il vaut mieux ne pas commencer un traitement par hypnotique, en raison des effets indésirables disproportionnés par rapport au mince bénéfice prévisible : maux de tête, cauchemars, nausées, troubles digestifs, etc.

Chez les personnes âgées, les hypnotiques entraînent des risques accrus spécifiques, notamment un surcroît de fatigue le lendemain, des troubles intellectuels et de la mémoire, des pertes d'équilibre et des sensations vertigineuses, sources de chutes et de fractures du col du fémur.

L'arrêt durable de ces traitements utilisés au long cours s'avère le plus souvent long et difficile

- Un rapport propose de rémunérer l’accompagnement de fin de vie
La Croix, 02.10

Le Comité de suivi du développement des soins palliatifs a remis ses premières propositions au gouvernement.

L’organisme propose de rémunérer le congé pris par des proches d’une personne en fin de vie.

Chaque année, sur 500 000 personnes qui meurent en France, 300 000 bénéficient de l’accompagnement d’un proche. Or, on sait que 200 000 de ces proches se voient accorder un arrêt maladie. (…) La rémunération d’un congé d’accompagnement ne coûterait pas plus cher à la société, mais procèderait d’une clarification.

- Les danois fournissent la planète en sperme !
Le Nouvel Observateur numéro 2239

Le Nouvel Observateur publie un reportage réalisé au sein de la banque de sperme Cryos, près de Copenhague, « une PME danoise qui inonde de précieux liquide une cinquantaine de pays. (…) Près de 15 000 enfants sont déjà nés du sperme des petits étudiants danois. Les Vikings sont de retour ».

Le Vieux Continent manque cruellement de sperme. Les pays qui ont levé l'anonymat des donneurs (…) ne trouvent plus d'hommes prêts à offrir gracieusement leur semence. (…) Le liquide blanc est devenu presque aussi précieux que l'or noir.

Tout le monde en veut, les couples sans cesse plus nombreux confrontés à des problèmes de stérilité, mais aussi les lesbiennes, et de plus en plus les femmes célibataires… Le désir d'enfant balaie les lois et les frontières.

Les donneurs, rémunérés, sont des jeunes hommes, anonymes. Et surtout garantis «purs Scandinaves». (…) Certains donneurs ont, paraît-il, engendré plus de 100 bébés.

Le catalogue de Cryos - jusqu'ici accessible aux seuls médecins, mais bientôt ouvert aux particuliers - précise le poids, la taille, la couleur des cheveux, des yeux des donneurs, mais aussi leurs études, leur profession, leur race...

Le magazine cite le fondateur de l’entreprise, Ole Schou, qui « ne veut pas juste faire de l'argent » mais aussi « rendre service aux gens ».

Ce dernier « devance les accusations de dérives eugénistes » et déclare : « Toute notre société est fondée sur la sélection naturelle. Il est normal que des parents puissent choisir un géniteur selon leurs critères ».

A l'ère du tout-génétique et de la revendication croissante du droit de chacun à connaître ses origines, les banques de sperme risquent gros... Ole Schou est parfois pris de vertige quand il imagine les 15 000 enfants conçus par Cryos frapper à sa porte.

Le fondateur de Cryos envisage un jour de monter un club pour faciliter les retrouvailles.

- Le Prix Nobel de médecine 2007 récompense la technique du "ciblage de gènes"

Les Américains Mario Capecchi et Oliver Smithies, ainsi que le Britannique Martin Evans, avaient découvert une procédure aujourd'hui nommée mutagénèse dirigée par "recombinaison homologue".

Le comité du Prix Nobel a décidé de récompenser les trois lauréats pour la mise au point de cette technique permettant une inactivation de gènes ciblés aussi appelée "knock-out de gène", qui a entraîné une série de découvertes à présent appliquées dans de nombreux domaines de biomédecine, de recherche fondamentale ou de mise au point de nouvelles thérapies.

Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie

- Des chromosomes entièrement artificiels

Il ne s'agit plus de modifier un seul gène dont la position est aléatoire, exigeant de nombreux essais pour avoir une plante viable. Désormais, on peut introduire un chromosome étranger entier, avec plusieurs gènes artificiels qui sont immédiatement opérationnels et que la plante reproduit comme les autres chromosomes.

C'est un progrès décisif car d'une part les OGM produits seront mieux maîtrisés qu'aujourd'hui mais cela ouvre surtout la voie à des modifications de plus grande ampleur à partir de kits de fonctions assemblées. La sécurité acquise d'un côté devrait provoquer un emballement de l'autre, ce qui pourrait augmenter finalement les risques...

Les premières expériences ont eu lieu avec du maïs et Montsanto s'apprête à utiliser cette nouvelle technologie dont elle vient d'acquérir les droits.

(A) Détection par fluorescence des chromosomes artificiels dans une feuille de maïs.

(B) et (C) vues à plus grande échelle des feuilles de Maïs (B) - dans le domaine lumineux et (C) - par fluorescence.

(D) fort grossissement du secteur (C) signalé par une astérisque. Les cellules avec des expressions typiques du chromosome artificiel sont indiquées par des flèches.

- Des têtards génétiquement modifiés pour déceler des polluants

"Les modifications de l'équilibre hormonal provoquées par la substance recherchée sont révélées par la fluorescence des jeunes amphibiens transgéniques, explique Jean-Baptiste Fini, doctorant au laboratoire, titulaire d'une bourse Cascade. Cette fluorescence est spécifique et mesurable, ce qui confère une grande sensibilité au test. En outre, cette méthode est simple à utiliser, relativement peu coûteuse et rapide (72 heures)." Elle est appliquée dans le contexte de Cascade pour analyser les effets du bisphénol A, un plastifiant, de la vinclozoline, un pesticide, et de la génistéine, un phyto-oestrogène, c'est-à-dire trois des quatre perturbateurs hormonaux choisis par le réseau comme modèles (le dernier est la tétrachlorodibenzo-p-dioxine).

- OGM : le maïs transgénique Bt affecterait la faune aquatique

Selon une étude américaine, l’insecticide produit par le maïs génétiquement modifié Bt, abondamment utilisé aux Etats-Unis, agirait aussi sur les insectes des cours d’eau, notamment via le pollen.

- L’agriculture intensive érode les sols

Avec les pratiques conventionnelle de l’agriculture, les sols s’érodent d’un millimètre par an. Or, pour reconstituer cette minuscule épaisseur, il faut dix années.

Il en tire deux conclusions, une mauvaise et une bonne. La première est que l’agriculture conventionnelle dégrade les sols beaucoup plus vite qu’elle ne les reconstitue, la différence étant de plusieurs ordres de grandeur. La seconde est que les pratiques agricoles sans labour ou avec labour léger, et avec rotation des cultures, permettent une exploitation éternelle d’un sol. Optimiste, il remarque que ces bonnes pratiques ont tendance à se répandre aux Etats-Unis et au Canada, qui comptent parmi les plus producteurs agricoles de la planète.

Mais il s’interroge du même coup à propos de l’agriculture pour la production de biocarburants, qui pourrait relancer la course à la productivité à court terme et donc favoriser les méthodes d’agriculture intensive.

- La production de biocarburant en Inde ou en Chine consomme trop d'eau

Au Brésil, pour un litre d’éthanol fabriqué à partir de la canne à sucre, les agriculteurs consomment 90 litres d’eau en irrigation. Aux Etats-Unis, pour un litre d’éthanol tiré du maïs ce sont 400 litres d’eau qui sont ajoutés. En Inde, pour le même litre d’éthanol ce sont 3.500 litres d’eau qui sont versés sur les cultures de canne à sucre, tandis qu’en Chine il faut compter 2.400 litres d’eau par litre d’éthanol produit à partir du maïs.

Troisième producteur mondial d’éthanol, dont 76% est tiré du maïs, la Chine veut multiplier sa production par quatre d’ici 2020. Pour cela, elle doit augmenter sa production de maïs de 26%. L’Inde a des ambitions similaires qui l’amèneraient à augmenter sa production de canne à sucre de 16%.

Alors qu’au Brésil et aux Etats-Unis les pluies apportent une bonne partie de l’eau nécessaire à la canne à sucre ou au maïs pour pousser, en Chine et en Inde ces cultures dépendent essentiellement de l’irrigation.

D’autres cultures, comme le jatropha ou le sorgho, qui ont moins besoin d’eau, permettraient à ces deux grandes puissances émergeantes d’assurer leur indépendance énergétique en préservant leurs réserves en eau.

Jean Ziegler, le rapporteur de l’ONU pour le droit à l’alimentation, a annoncé qu’il était favorable à un moratoire de cinq ans sur la production d’agrocarburants, estimant qu’elle allait aggraver la faim dans le monde et qu’il valait mieux attendre l’amélioration de nouvelles techniques (biocarburants à partir de cellulose, de jatropha, etc).

Le problème se poserait aussi aux USA...

- Production potentielle de biodiesel

Cette production ne devrait pas pouvoir dépasser 5% de la demande mondiale et n'est donc pas une véritable solution...

- Bioliq: lorsque les forêts produiront notre carburant

Intéressant pour autant qu'on utilise des déchets et qu'on ne coupe pas les forêts pour cela !

Le centre de recherche de Karlsruhe en Allemagne a présenté lors du salon automobile de Francfort son procédé "bioliq" qui permet de transformer des résidus agricoles et forestiers en carburants synthétiques dont la qualité dépasse largement celle des autres biocarburants et même des hydrocarbures.

Ce procédé en deux étapes, développé au sein du centre de recherche de Karlsruhe, permet d'utiliser divers constituants de la biomasse, à teneur énergétique le plus souvent faible, et satisfait également aux exigences de la production à grande échelle, donc à sa viabilité économique. Dans un premier temps, la biomasse est transformée en un produit intermédiaire fluide, donc aisément transportable, et à haute valeur énergétique via une rapide pyrolyse, et répond aux exigences économiques pour être amenée sur de longues distances jusqu'à des installations importantes pour la production de gaz de synthèse ou de carburant.

Les principaux résidus utilisables dans ce procédé sont la biomasse sèche: pailles, foin, diverses chutes de bois (découpe d'arbre, écorce), mais aussi le papier et le carton. Grâce à cette vaste palette de résidus agricoles et forestiers, ce procédé présente un énorme potentiel qui dépasse largement les biocarburants de la première génération, le biodiesel et le bioéthanol, et offre la possibilité d'utiliser la totalité d'un végétal. D'après les indications de l'agence des matières premières renouvelables (FNR), 15% des besoins en carburant pour la circulation en Allemagne pourraient déjà être assurés en 2015 par les résidus de la biomasse, sans entrer en concurrence avec la production alimentaire.

- De la graisse de conserve pour le biodiesel

Le Ministère pour l'Innovation et l'Industrie de Galice finance un projet de recherche sur l'utilisation de la graisse de poisson des industries de la conserverie dans l'élaboration du biodiesel. Pour l'instant, l'étude en est aux essais préliminaires. Le "Centre Technologique National de Conservation des Produits de la Pêche" (Anfaco Cecopesco) met à l'étude les avantages que la graisse de poisson trouvée dans les eaux résiduelles de l'industrie de la conserverie pourrait présenter pour la fabrication du biodiesel.

- Et revoici la centrale solaire orbitale !

Le Secrétariat américain à la Défense a repris ce projet en mains, avec l'aide de la Nasa. Selon le JPL (Jet Propulsion Laboratory), un tel projet deviendra rentable lorsque le prix du baril atteindra les 150 dollars.

L'agence spatiale américaine, qui a déjà consacré 23 millions d'euros au projet pour la seule étude de la mise en orbite des gigantesques panneaux solaires, y croit. Selon les estimations des experts, une telle installation pourrait transmettre vers un récepteur terrestre jusqu'à 10 GW de puissance électrique (soit dix centrales nucléaires de moyenne puissance) sous la forme d'un faisceau de micro-ondes. A 36.000 kilomètres d'altitude, les collecteurs recevraient huit fois plus d'énergie solaire qu'au sol, ce qui justifie amplement l'investissement à moyen terme, selon les ingénieurs.

"Imaginez qu'une centrale gigantesque perde son orientation et que le rayon tombe au-delà du récepteur", prévient Anatoli Kiriouchkine, responsable du Central Research Institute for Machine Building (TsNIIMASH). "Si un flux énergétique traverse des immeubles d'habitation ou des entreprises industrielles, il brûlera tous les équipements électroniques, mettra hors service tous les transports, alors que les gens risquent de recevoir de graves brûlures. En outre, il faudra fermer de vastes zones du ciel à la navigation aérienne".

Une telle centrale, et on peut imaginer qu'il pourrait en exister un grand nombre en orbite d'ici quelques décennies, est aussi une arme potentielle capable d'atteindre de nombreuses cibles au sol, mettant hors service toute l'électronique et provoquant d'énormes dommages, matériels comme humains.

- Produire du plastique à partir de CO2

Une équipe mixte de laboratoires universitaires et industriels a réussi à produire du plastique (résine) à partir de CO2. Les propriétés du matériau sont similaires à celles du polypropylène ou du polyéthylène qui à eux deux représentent plus de 60% du marché des résines plastiques.

Le matériau est dérivé à 50% de CO2 issu d'usines, mélangé à des époxydes. Ceci permet une réduction de 30% des émissions de gaz à effet de serre comparé à la fabrication de plastique issu des hydrocarbures.

- Du bioplastique à partir du sucre

Une société italienne, la Bio-On, commencera bientôt à produire du "bioplastique" à partir du sucre. C'est elle qui détient à l'heure actuelle l'exclusivité du projet. Les bioplastiques se sont en effet diffusées dans de nombreux pays, mais n'ont été obtenus jusqu'à présent qu'à partir de céréales.

Le processus fait intervenir les sous-produits, dérivés de la production de sucre à partir de la canne à sucre et de la betterave. Ces sous-produits sont fermentés grâce à une bactérie qui transforme le mélange en acide lactique, filtrés et polymérisés, les transformant ainsi en bioplastique. Le polymère qui résulte de ce nouveau processus industriel est plus résistant que le bioplastique actuellement disponible sur le marché et présente des avantages au niveau du rendement quantitatif: pour obtenir une tonne de bioplastique, il faut 2 tonnes de céréales. Avec le sucre en revanche, le rendement est de 95%.

- Du plastique à partir de mauvaises herbes

Le RITE (Research Institute of Innovative Technology for the Earth), institut japonais de recherche public, et Honda, ont conjointement développé une méthode permettant de synthétiser du polypropylène à partir de mauvaises herbes. Actuellement synthétisé à partir de pétrole, l'utilisation de matériel végétal permettrait de réduire de 60% les émissions de CO2 induites par sa production.

La cellulose provenant des mauvaises herbes est tout d'abord décomposée en sucres, eux-mêmes fermentés en propan-2-ol par des bactéries génétiquement modifiées. Cet alcool est ensuite utilisé pour la synthèse de polypropylène. Le rendement actuel est de 1kg de polypropylène obtenu pour 2 à 3 kg de plantes.

- Du plastique biodégradable à partir de l'amidon

Les plastiques pétrochimiques ont une grande durabilité, mais prennent une éternité à se décomposer. "Les matériaux faits des polymères de l'amidon, eux, se dégradent rapidement, explique M. Huneault. Néanmoins, si besoin est, on peut les faire durer beaucoup plus longtemps. Leur fabrication demande aussi moins d'énergie et libère moins de gaz que celle des plastiques issus du pétrole."

Depuis 2005, M. Huneault et son groupe de Boucherville, au Québec, travaillent en étroite collaboration avec le Réseau canadien d'innovation dans la biomasse et l'Ecole Polytechnique de Montréal pour produire du bioplastique avec l'amidon du pois, du riz et du blé.

- Le plastique qui imite les membranes cellulaires !

Un plastique possédant des pores en forme de sablier, imitant ceux des cellules végétales, vient d’être découvert par une équipe internationale. Remarquablement efficace pour filtrer certaines molécules, il pourrait être utilisé à grande échelle pour réduire les émissions de CO2 et déssaler l’eau de mer.

En particulier, il permet de séparer le dioxyde de carbone du méthane ce qui est très précieux pour réduire la pollution liée à l’emploi du gaz naturel et du charbon.

Les propriétés impressionnantes de ce nouveau matériau devraient même pouvoir être mises à profit pour déssaler l’eau de mer ou séparer l’hydrogène de l’azote, ce qui dans ce dernier cas serait utile pour l’emploi de l’hydrogène comme source d’énergie.

- Un plastique aussi solide que l'acier

Constitué de 300 couches nanométriques, superposées une à une, d'un alliage d'argile et d'alcool polyvinylique (PVA) utilisé dans les peintures ou colles et qui agit comme une bande Velcro, ce nouveau plastique se révèle aussi solide que l'acier. Il pourra servir d'armure légère mais aussi en médecine ou dans l'aviation.

- Une colle à base de dopamine !

Cette nouvelle colle capable de coller avec un film très fin de protéines tous les métaux, même le Teflon, pourrait avoir de multiples applications (filtres, production d'électricité à partir de la chaleur, nanotechnologies).

Ils ont utilisé le levodopa, une petite molécule intermédiaire dans la synthèse de la dopamine mieux connue comme molécule neurorégulatrice, pour mimer une protéine de la moule ayant des propriétés à la fois de liaison et d'adhésion.

- Construire des nanostructures

Il s'agit d'une espèce de moule ou de matrice permettant d'assembler des nanostructures. La seule technique envisageable à l'échelle nanométrique c'est, un peu comme pour les microprocesseurs, une espèce de sérigraphie.

Des chercheurs du CNRS et du CEA ont mis au point une méthode pour guider l'assemblage de molécules sur une surface, à l'aide de "clips moléculaires". Comme dans un jeu de construction, les clips vont constituer des outils importants pour la réalisation de nano-composants sur mesure.

Les chercheurs s'appuient sur les possibilités infinies qu'a la matière de s'organiser spontanément, en fonction des symétries du système. Ils utilisent un substrat cristallin (une surface d'or ou de graphite) dont le réseau va imposer un ordre aux objets déposés.

C'est en suivant cette démarche que des chercheurs du CNRS et du CEA viennent de mettre au point une méthode qui permet de prévoir et de maîtriser l'assemblage de molécules sur une surface de graphite, en jouant sur le nombre et la position de "clips moléculaires".

Des molécules contenant un, deux ou trois clips (schématisés par deux traits) forment des dimères (à gauche) ou des réseaux à deux dimensions (au centre et à droite) qui s'assemblent spontanément sur une surface, selon une géométrie ajustable en fonction des molécules considérées. Ces assemblages peuvent ensuite être soumis à d'autres manipulations, comme la réorganisation contrôlée (cyclisation) d'une chaîne autour d'une molécule hexagonale (au centre, en vert).

- Un nano poste de radio

La vidéo présentée n'a aucun intérêt mais la technique pourrait avoir de grandes conséquences puisque c'est donner des capacités de communication radio à l'échelle nanométrique...

Deux chercheurs américains ont réalisé un poste de radio en utilisant comme démodulateur un nanotube de carbone. Des dispositifs bien plus complexes, comme des nanomachines injectables dans un organisme, pourraient un jour être équipés d’un émetteur radio.

Les applications sont potentiellement immenses. On pourrait par exemple réaliser ce que certains appellent de la poussière intelligente : des dispositifs plus petits qu’un grain de sable et équipés de capteurs, transmettant par radio des informations sur les conditions physiques et chimiques de leur localisation. Cela pourrait être une révolution en médecine, sur un champ de bataille ou en météorologie.

- Des nanotubes pour cicatriser les avions

Ce n'est pas si extraordinaire...

Sur des structures métalliques ou en composite, la détection des criques, prémisses de ruptures, est l’une des grandes occupations des équipes chargées de la maintenance des avions. La méthode la plus utilisée fait appel aux ultrasons, à la manière de l’échographie. Mais la pièce à vérifier doit préalablement être démontée et installée dans la machine de contrôle.

Nikhil Koratkar propose une évolution radicale. La première étape consiste à incorporer dans le composite lui-même une grande quantité de nanotubes de carbone et de bien mélanger le tout. Dans cet essai, les nanotubes représentaient 1 % de la masse totale. Les chercheurs ont également inclus dans la résine une grille de conducteurs électriques.

Uniformément répartis dans le matériau final, ces nanotubes apportent une certaine conductivité électrique. En appliquant deux pointes métalliques sur deux endroits de la grille de conducteurs, on peut mesurer entre les deux, grâce à un classique ohmmètre, une certaine résistance électrique. Elle sera la même partout… sauf là il y a une crique.

Mais il y a mieux. En appliquant une tension électrique suffisamment forte, mais durant une courte durée, de part et d’autre de la crique, les chercheurs sont parvenus à fondre localement le mélange résine-nanotubes. Devenu liquide, il se répand à l’intérieur de la fissure et finit par la combler. L'amorce de rupture est ainsi réparée !

- Un Boeing au biocarburant

L’année prochaine, un 747 emportera dans ses réservoirs du carburant vert, fabriqué à partir de végétaux. Un progrès, explique Boeing, qui affirme tenir compte des risques liés aux biocarburants.

Le constructeur prend soin également d’expliquer qu’il veille à trouver des sources fiables, pour la qualité et pour la quantité. Mais il ajoute qu’il cherche aussi à éviter d’initier une nouvelle vague de déforestation et d’abandon des cultures vivrières. Boeing parle d’approvisionnement durable.

- Hy-Bird un avion électrique

Il apparaît dans le documentaire de Leonardo Di Caprio la Onzième heure.

Le projet, baptisé « Hy-Bird », prévoit d’effectuer le tour du monde en avion électrique, dont les ressources seront fournies grâce à l’énergie solaire et à l’hydrogène. En effet, des cellules photovoltaïques apposées sur les ailes et l’empennage fourniront l’énergie nécessaire pour le décollage ainsi que pour les alimentations auxiliaires, tandis que, la pile à combustibles alimentera l’avion pour son vol en vitesse de croisière. Le tout sera propulsé par un moteur électrique beaucoup plus silencieux que les moteurs thermiques.

- Une voiture volante

Pour bientôt peut-être, les ailes du moins semblent au point... Voir vidéo.

Terrafugia développe le transition®, un avion léger de sport qui pourra attérir à l'aéroport, plier ses ailes, et se conduire sur la route.

- Une voiture électrique de location pliable !

Le moteur électrique est dans les roues. Le système destiné à réduire la pollution et les encombrements pourrait être opérationnel dans 3 ans. C'est la version motorisée des Vélibs ! avec les mêmes problèmes de gestion du parc : il faut ramener les véhicules par camion à l'endroit où ils sont le plus utilisés...

- Des batteries condensateurs

ZENN sera la première voiture équipée de ces nouvelles batteries-condensateurs. La seule bonne solution pour avoir des batteries efficaces et non polluantes, c'est d'utiliser des super-condensateurs où l'électricité est stockée physiquement et non pas chimiquement. L'enjeu est considérable puisque c'est ce qui permettra de généraliser les véhicules électriques et le solaire (entre autres) mais certains considèrent que c'est un peu comme le mouvement perpétuel, un rêve inaccessible car anti-entropique... Jusqu'à maintenant les super-condensateurs étaient aussi plus lourds que les batteries. Pour l'instant c'est apparemment un système hybride combinant une batterie classique à un supercondensateur, le supercondensateur faisant plutôt office d'interface entre la batterie et le moteur pour délivrer une plus grande puissance. Ce n'est pas encore la batterie propre (en nanotubes de carbone?) mais on s'en rapproche juste un peu.

C'est une sorte de supercondensateur-batterie hybride basée sur le titanate de baryum.

Tout comme les condensateurs, ces supercondensateurs stockent l'énergie dans un champ électrique entre deux conducteurs (ou de plaques) étroitement espacés. Lorsqu'on applique une tension, la charge électrique s'accumule sur chaque plaque.

Ces supercondensateurs présentent de nombreux avantages par rapport aux piles électrochimiques. Contrairement aux piles, ils peuvent absorber complètement et libérer une charge très rapidement, et pratiquement dans un cycle sans fin avec très peu de dégradation.

- Des batteries auto-rechargeables

Il s'agit de batteries à base de cellules solaires organiques, développées à l'origine par Konarka Technologies et qui se rechargent toutes seules en présence de lumière.

Les chercheurs européens ont intégré des cellules solaires organiques en couche mince dans une batterie polymère souple pour obtenir une batterie solaire ultramince destinée aux appareils à faible puissance comme les cartes à puce et des téléphones mobiles. La batterie peut se recharger elle-même lorsqu'elle est exposée à la lumière, ce qui signifie que certains gadgets électroniques n'auraient plus besoin de chargeur. Les chercheurs prévoient qu'un tel dispositif pourrait être disponible dans le commerce dès l'année prochaine.

- Des vêtements qui servent de batterie

Les chercheurs ont développé une technologie qui combine des matériaux multiples dans des fibres complexes, comme montré ici. Les chercheurs espèrent stocker de l'énergie dans ces fibres ou convertir la lumière du soleil en électricité, ce qui pourrait être utilisé pour les uniformes de soldats.

- Un combinaison pour sentir les coups

Pour des jeux vidéo plus réalistes...

- Un ordinateur de poche-GPS

Le fait d'équiper un ordinateur de poche d'un GPS n'apporte pas seulement une fonction supplémentaire mais ouvre à de nouvelles applications en fonction de sa localisation.

Nokia a dévoilé son dernier produit, un ordinateur ultraportable Wi-Fi appelé le N810. Ce nouveau gadget, qui sera disponible aux Etats-Unis en novembre pour 479 $, est légèrement plus grand, plus large et plus épais que le iPhone d'Apple, mais il est muni d'un clavier à glissière, d'un écran tactile, d'une caméra Web aisi que du GPS. Nokia offre également un ensemble d'outils qui permettent aux programmeurs d'ajouter leurs propre fonctions à l'appareil.

"Le GPS apporte beaucoup aux appareils mobiles ... et il permet des applications novatrices basées sur la localisation".

- un modèle réduit d’ordinateur pour 300 euros

Annoncé début octobre, cet étrange portable, tournant sous Linux, sera commercialisé en France pour Noël et vendu 299 euros, ce qui en fait l’ordinateur le moins cher du marché. A un détail près : ce n’est pas un ordinateur…

De loin, l’Asus EeePC ressemble à un ordinateur portable. Mais il est minuscule. Il mesure moins de trente centimètres et ne pèse que 920 grammes. Son écran de 7 pouces de diagonale présente un format inédit de 15,3 x 9,3 centimètres, proche d’un 16/9.

Il s’agit plutôt d’un appareil mobile dédié aux connexions Internet bien que ses caractéristiques soient proches de celles d'un véritable micro. A l’intérieur, le processeur Celeron M ULV 353 (à 900 MHz) d’Intel dispose d’une mémoire vive de 512 Mo (DDR2-400) et d’une capacité de stockage de 2 à 4 Go. Cette dernière n’est pas un disque dur mais une mémoire Flash (comme celle d’une clé USB).

Asus s’aventure ainsi sur un marché inconnu, celui d’un ordinateur simplifié et bon marché, dont on se sert surtout pour surfer ou relever son courrier.

- Open-Source Hardware

C'est le transfert de la philosophie Open-Source et des logiciels libres au matériel lui-même. Ce n'est pas entièrement nouveau car la compatibilité IBM était déjà un standard ouvert, mais c'est sûrement l'avenir et participe à la contestation des brevets.

Un ordinateur de poche reconfigurable pourrait favoriser la création de matériels "open-source" et de normes communautaires pour le matériel permettant de s'affranchir des droits propriétaires, en substituant un fabricant à un autre. On sait que l'adaptation au matériel est le point faible de Linux à cause du manque de coopération des constructeurs. Voilà qui permettrait de mettre au même niveau hardware et software.

La "BugBase" est d'abord destinée aux ingénieurs et devrait être commercialisée pour quelques centaines de dollars au mois de novembre.

- Objets téléchargeables

Sans que cela soit vraiment nouveau, et même si la Vidéo qui l'illustre n'a pas vraiment d'intérêt, il est intéressant de voir le succès du concept d'objets téléchargeables (appelés ici "spime") construits par des machines numériques (sortes d'imprimantes 3D) qui ont été appelés aussi MUPs (micro-usines personnalisées) ou fabbers ou digital fabricator... Un avantage de ces systèmes, outre leur caractère recyclable, ce serait de pouvoir se procurer les pièces détachées plus facilement, même longtemps après.

Bruce Sterling utilise pour parler de ces objets le terme de spime, des objets manufacturés à support informationnel, si étendus et si riches, qu’ils pourront être considérés comme des instanciations matérielles d’un système immatériel. Les spimes sont conçus sur écrans, fabriqués par des moyens numériques, précisément suivis à travers l’espace et le temps. Ils sont composés de substances recyclables qui peuvent servir à la construction d’autres spimes.

- Les débuts du "web sémantique" ?

Je dois dire que je n'y crois pas trop même si le MIT en fait ses gros titres. Ce qu'on appelle le "web sémantique" ne va pas très loin. Il y a quand même des progrès significatifs mais la nécessité de télécharger toutes ses données sur le site de twine limite largement l'intérêt. Cela ne deviendra une technologie de masse qu'à être intégrée au système d'exploitation. Il n'empêche qu'on s'approche d'une meilleure gestion des données.

Twine est un site Web où l'on peut télécharger les informations qu'on considère importantes, des courriels aux vidéos YouTube, ou, si on préfère, Twine peut automatiquement recueillir toutes les pages Web où l'on s'est rendu, les e-mails envoyés et reçus, et ainsi de suite. Une fois que Twine a ces informations, il commence à les analyser et les trier automatiquement dans des catégories qui incluent les personnes concernées, les concepts abordés, et les lieux, les organisations et les entreprises. De cette manière, lorsque l'utilisateur est à la recherche de quelque chose, il peut avoir un accès rapide aux informations relatives à ce sujet. Twine utilise également des éléments de mise en relation sociale, afin que l'utilisateur puisse avoir accès aux informations recueillies par d'autres dans son réseau. Tout cela crée une sorte de "l'intelligence collective", explique Nova Spivack, PDG et fondateur de Radar Networks.

- L'ordinateur peut reconnaître un homme d'une femme...

Sony a déjà intégré la reconnaissance du sourire dans deux de ses appareils photo. Une autre société japonaise fait mieux : son logiciel peut mesurer le taux de sourire (un indice exprimé en pourcentage…), distinguer un homme d’une femme et estimer l’âge…

- Bientôt des disques durs enregistrant les données par effet tunnel ?

Pour la première fois au monde, des scientifiques de l'Université de Hambourg ont réalisé la magnétisation de zones nanoscopiques en appliquant des courants de spin ciblés et sans contacts. Ces résultats, pionniers en la matière, pourraient mener au développement de nouveaux types de disques durs qui posséderaient une capacité de stockage dix mille fois supérieure aux systèmes actuels.

Les chercheurs du groupe "Méthodes à sondes de trame" de l'Institut de Physique Appliquée de l'Université de Hambourg ont présenté un nouveau procédé pour l'écriture des informations, renonçant totalement aux champs magnétiques tout en permettant des densités de stockage extrêmement élevées. Pour y parvenir, les chercheurs allemands, sous la direction du professeur Wiesendanger, ont utilisé la sonde d'un microscope à effet tunnel, grâce à laquelle ils ont pu travailler localement et sans contact sur une surface magnétique au moyen de courants tunnels.

Ce procédé extrêmement précis permet de reproduire les états magnétiques, non seulement pour des atomes isolés, mais également à l'échelle du nanomètre. Les scientifiques étudient pour cela les plus infimes zones nanoscopiques qui contiennent jusqu'à 100 atomes.

- De nouvelles mémoires pour mobiles

D'ici 18 mois une nouvelle technologie pourrait porter la mémoire des mobiles ou appareils photos à la capacité d'un téraoctets (1000 Go!) tout en consommant beaucoup moins d'électricité ! Destinée à remplacer les mémoires actuelles (disques durs, mémoire flash, DRAM) ce nouveau type de mémoire non volatile, baptisé "métallisation programmable de cellules de mémoire" (CPM), ou "mémoire nano ionique", a été élaborée à l'Université de l'Arizona pour des sociétés comme Sony et IBM. Chaque cellule est constituée d'un électrolyte solide en sandwich entre deux électrodes en métal. L'électrolyte est une sorte de verre qui contient des ions métalliques.

- Mobiles : faire du neuf avec du vieux

La start-up Skyward Mobile, a développé un technologie baptisée APX, qui permet de doter des anciens téléphones de nouvelles fonctionnalités, rapporte la Technology Review. APX permet de créer des applications avancées pour une large gamme de téléphone, dont certains de plus de 8 ans d’âge.

APX nécessite de télécharger une petite application client qui fait le lien avec les serveurs de Skyward. Celle-ci gère et compense les manques du téléphone et permet ainsi de faire jouer une vidéo à un téléphone qui n’a pas de système pour le faire.

- Skype sur mobiles

3 Mobile crée un mobile Skype dont les coûts de communication devraient être très réduits par rapport aux mobiles actuels, surtout pour les appels internationaux (mais avec un confort moindre sans doute).

- Google phone sous Linux

Là encore, c'est le logiciel libre et la gratuité (payée par la publicité) qui gagnent du terrain...

Le fameux GPhone ne serait pas un téléphone mobile à proprement parler mais prendra la forme d'une suite de services ou d'un nouveau système d'exploitation basés sur Linux. L'objectif n'est donc pas de rivaliser de manière frontale l'iPhone d'Apple. Google cherche juste à étendre sa main mise sur la publicité en ligne jusqu'aux téléphones mobile ; et c'est plus vers Microsoft que se situe la concurrence car, contrairement, au géant de l'informatique, le moteur de recherche proposerait son système d'exploitation gratuitement aux opérateurs ou aux fabricants qui souhaiteront l'intégrer. "Le point essentiel dans la stratégie de Google est de mener la création d'un concurrent open-source à Windows Mobile".

- Le Brésil menace d'interdire l'accès à Google sur son territoire

Les autorités policières reprochent à Google de refuser de communiquer les coordonnées de certains membres de son réseau social, Orkut, accusés d'appartenir à des groupes dédiés à des activités illégales (pédophilie, groupes nazis, etc.). Le patron de Google au Brésil a été mis en examen et, selon Le Monde, certains annonceurs commencent à retirer leurs publicités de peur de les voir accolées à des contenus illégaux. De son côté, Le groupe affirme que les données des membres d'Orkut sont toutes stockées aux Etats-Unis et donc, non soumises à la législation brésilienne.

- Avec Prism, les logiciels en ligne fonctionnent comme les vrais

Le nouveau projet de Mozilla permet d'ouvrir une application en ligne directement sur le bureau de Windows.

Visiblement, les auteurs du logiciel ont cherché à réunir les caractéristiques des applications de bureau et des applications Web, en ne gardant que le meilleur de leurs possibilités et surtout en simplifiant leur utilisation. Il est à noter que cette première version n'existe encore que pour Windows, Mozilla promettant une adaptation rapide aux mondes Mac et Linux.

Chaque application en ligne pourra être appelée via une icône personnalisable sur le bureau. Enfin, cette technologie devrait à terme permettre de faire tourner les applications Web hors ligne, en offrant une nouvelle gamme de possibilités.

La première version de Prism peut être téléchargée sur un site dédié de Mozilla.

- Deux internautes sur trois ont payé l'album de Radiohead

Une hirondelle ne fait pas le printemps mais c'est quand même le signe qu'un modèle proche du "shareware" a toute sa place à l'ère d'Internet et qu'il peut être plus rentable que le circuit marchand pour certains artistes. En tout cas, cela montre qu'un fan est motivé pour payer un album à hauteur du plaisir qu'il lui donne !

Selon le quotidien britannique The Times, deux tiers des internautes ayant téléchargé le dernier album de Radiohead ont décidé de rétribuer le groupe. Disponible depuis le 10 octobre sur le site Internet de Radiohead, l'album est proposé en libre téléchargement, les internautes étant libre de payer, ou non. Selon le journal, le prix moyen dont se sont acquittés les internautes est de 5,78 euros.

En trois jours, Radiohead avait vendu 1,3 millions d’albums. Le prix moyen aurait été de 6 euros - un chiffre qui semble être tombé à 4 euros après que les premiers fans aient passé commande. Avec l’élargissement de l’audience a un plus grand public, la moyenne du prix d’achat s’est tassé : on estime entre 1/4 et 1/3 le nombre d’internautes qui auraient choisis de ne rien débourser. Wired estime néanmoins que le groupe aurait déjà pu récolter entre 4 et 8 millions de d’euros.

- Demain les mondes virtuels : Une économie aux pieds d’argile ?

Pour Edward Castronova, Second Life n’est rien d’autre qu’un petit village, avec des ressources réelles, mais limitées. “Ce n’est pas une arnaque, c’est une économie villageoise”, affirme-t-il. Il ne s’agit pas, ajoute-t-il, “d’un “schéma pyramidal” mais d’une mini-ruée vers l’or. L’or existe et possède une authentique valeur. L’erreur consiste à penser qu’il y en a pour tout le monde. Castronova met en garde contre l’apparition d’une éventuelle “anti-hype”, aussi déséquilibrée que l’enthousiasme qui l’a précédée, et qui pourrait faire de “2007 l’année du crash des mondes virtuels (…) tout ça parce que SL ressemble plus à Mayberry (NDT : un petit village fictif d’une série télé américaine) qu’à Manhattan.”

Robert Bloomfield, qui dirige à l’université de Cornell le Business Simulation Laboratory (Laboratoire de simulation économique) en est venu à créer une nouvelle sorte de science économique, la “métanomique”, qu’il subdivise en trois grande tendances :

  • La perspective immersionniste, qui étudie l’économie des mondes virtuels comme un domaine séparé du reste de l’expérience, de manière indépendante du monde réel ;
  • La perspective “augmentationiste”, qui prend au contraire en compte l’existence du système économique dans sa globalité, envisageant ainsi les conversions entre argent virtuel et réel, le phénomène des “gold farmers” chinois, etc. ;
  • Enfin, la perspective “expérimentationiste” qui consiste à considérer les univers virtuels comme autant de laboratoires où effectuer des expériences.

- Un robot à visage presque humain...

Plutôt inquiétant...

On peut voir une vidéo.

- Un robot pour être là... où on n’est pas

Une galette à roulettes, munie d’une caméra et d'un téléphone, peut vous remplacer auprès de vos enfants ou de votre grand-mère : c’est ce que propose un fabricant américain de robots.

ConnectR ressemble à un aspirateur Roomba mais lui n’a aucune utilité concrète. Manœuvrable à distance via Internet et, sur place, une liaison Wi-Fi, il est muni d’une caméra orientable. L’utilisateur, devant son micro, peut le déplacer à loisir dans la maison et espionner tout ce qui s’y trouve (sans pouvoir toutefois franchir les escaliers ni la glissière de la terrasse ou du balcon). Mais ConnectR n’est pas discret et ne cherche pas à voir sans être vu. Comme l’explique iRobot sur son site, papa ou maman, grands voyageurs ou travaillant au bout du monde, peuvent ainsi faire coucou à leurs enfants, qui verront l’engin se déplacer sur la moquette et venir vers eux en allumant quelques lampes.

Grâce à une ligne téléphonique (sur IP, bien sûr), enfants et parents pourront se parler (mais le robot n’a pas d’écran et, pour les images, ne fonctionne donc que dans un seul sens). De même, obligeamment installé chez les grands-parents, ConnectR permettra à la famille trop occupée de manifester sa présence sans se déranger. Le site avance une troisième utilisation : venir tenir compagnie à l’animal laissé à la maison.

Enfin, en bon robot domestique, quand personne n’a besoin de lui, il peut se garer dans son coin pour ne pas gêner et se rendre tout seul vers une prise électrique pour faire le plein de sa batterie.

- Un papier électronique innovant chez Bridgestone

Curieusement, c'est du fabricant japonais de pneus Bridgestone que provient la dernière innovation, dont la surface (vaste), le nombre de nuances (4.096) et l'épaisseur (faible) pourraient faire la différence.

Selon le fabricant, le marché visé serait surtout celui des commerces, en proposant un système d'étiquettes à affichage électronique à l'instar de ce qui existe déjà dans certaines chaînes de grandes surfaces, mais non consommatrices d'énergie. Les panneaux publicitaires de plus grande taille constituent aussi un objectif de choix. Bridgestone annonce aussi que ce sont des découvertes effectuées lors de ses nombreuses recherches sur les matériaux utilisés pour la fabrication des pneus qui lui ont permis de s'orienter vers le papier électronique.

- Un "papier électronique" à base de MEMS

Cela ressemble plus à une tablette qu'à un papier mais c'est tout de même lisible comme un papier à la lumière du jour et, pour la première fois, assez rapide pour afficher des vidéos.

- Plus un mot est utilisé, moins il évolue

Ce n'est pas vraiment une découverte mais les verbes irréguliers par exemple sont parmi les mots les plus utilisés, qui restent donc insensibles aux simplifications qui affectent les autres mots. Les mots les plus courants (comme water ou wasser) se conservent même depuis des temps immémoriaux (on les retrouve dans l'indo-européen, chez les Hittites par exemple ce qui a permis de déchiffrer leur langue).

Sur 177 verbes qui étaient irréguliers il y a 1.200 ans, 98 le sont restés. Croisant leur longévité avec leur fréquence d’usage, Nowak et ses collègues ont pu établir qu’un verbe utilisé 100 fois plus souvent qu’un autre évolue 10 fois moins vite vers une forme régulière.

- Le Néandertalien était doté du même gène du langage que l'homme moderne

Les Néandertaliens, ancêtres les plus proches de l'homme moderne, éteints mystérieusement il y a moins de 30.000 ans, étaient aussi pourvus du gène-clé pour acquérir le langage, selon des travaux de chercheurs européens publiés jeudi aux Etats-Unis.

Cette découverte ouvre la possibilité que l'homme de Neandertal qui a divergé avec les humains modernes, l'homo sapiens, il y a plus de 300.000 ans, avaient les capacités génétiques pour parler, selon les auteurs de cette étude parue dans la revue américaine Current Biology.

Ce gène, appelé FOXP2, est le seul connu à ce jour qui joue un rôle essentiel dans la formation de régions du cerveau liées à l'apprentissage du langage.

"Il n'y a aucune raison de penser que les Néandertaliens ne pouvaient pas parler".

La version humaine du FOXP2 diffère de celle des chimpanzés en deux endroits, notent aussi ces scientifiques.

Les anthropologues avaient précédemment fait valoir que l'homme de Neandertal était doté des caractéristiques anatomiques nécessaires pour parler comme les terminaisons nerveuses des muscles de la langue indispensables pour former des sons.

D'après Futura-Sciences, ce gène du langage pourrait aussi avoir été transmis par croisement avec l'homo sapiens avec lequel il a longtemps cohabité (des études génétiques ont réfuté ces croisements qui auraient pu se faire dans un seul sens ?). Sinon, pour Sciences et Avenir, l'étude de leur patrimoine génétique indique qu'au moins 1% des Néandertaliens auraient été roux à la peau blanche...

- Le littoral, refuge des premiers hommes modernes?

La consommation de coquillage, les pierres taillées et l'utilisation de colorants pour un usage symbolique dateraient de l'origine de l'humanité alors qu'on les pensait plus récents (100 000, 80 000 voire 40 000 ans) jusqu'ici. Cela signifie surtout que le langage est originaire, dès l'apparition de l'espèce et même sans doute avant... Cela n'empêche pas qu'il a pu y avoir un progrès décisif dans le langage ou la culture il y a 50 000 ans au moment des premières sépultures (aussi bien chez Néantertal).

La grotte de Pinnacle Point, située près du Cap, en Afrique du Sud, avec une vue imprenable sur l’océan Indien, aurait abrité il y a 164.000 ans environ des hommes aux pratiques étonnamment modernes

Les chercheurs ont retrouvé dans cette grotte des coquilles de mollusques, des lamelles de pierre et des morceaux d’hématites. Les deux méthodes de datation utilisées (uranium et luminescence) indiquent que cette couche archéologique a 164.000 ans. Des êtres humains seraient venus vivre près du littoral, à une période où la majeure partie du continent africain était froid et sec, expliquent Marean et ses collègues.

Il y aurait eu à l’extrême sud de l’Afrique une petite population d’humains modernes qui, durant cette période glaciaire, se maintenait par le biais de la consommation des produits de la mer et l’utilisation de technologies avancées. Leurs actes et comportements symboliques auraient été importants en terme de relations sociales. Cette population a pu être la population-mère de tous les humains modernes, avance Marean.

copyleftcopyleft 

8 réflexions au sujet de « Revue des sciences 11/07 »

  1. C'est très certainement beaucoup trop long... On n'est pas obligé de tout lire mais j'ai fait une version un tout petit peu allégée pour le site de Transversales :

    grit-transversales.org/ar...

    Je dois dire que je m'intéresse à ces nouvelles scientifiques et techniques pour plusieurs raisons : c'est l'occasion de se confronter à notre propre ignorance, ignorance des sciences en question mais aussi ce que toutes ces sciences ignorent encore, c'est aussi par nécessité de savoir ce qui nous attend, les sciences et les techniques étant configurateurs de monde, c'est enfin essayer de savoir quoi faire, comment se sortir de l'impasse dans laquelle nous sommes...

  2. Ca n'est pas si long, mais, je suis casse pieds, y aurait il un moyen aisé d'avoir un index qui renvoie par liens hypertexte sur les articles qui nous accrochent par leur titres, comme pour certains fichiers pdf par exemple. Simple aspect ergonomique en fait.

    En tous cas c'est toujours stimulant votre revue de la "quincaillerie" technologique et scientifique, ne voyez rien là de péjoratif dans l'expression. C'est simplement que la prolifération des découvertes ou innovations me fait penser à ce terme qui souligne bien les discontinuités de nos connaissances.

  3. Je ne suis pas sûr d'avoir bien compris mais si c'est pour avoir accès à l'article complet des revues, ce n'est pas possible : il faut acheter la revue si l'article semble intéressant ! C'est bien sûr embêtant une fois le mois passé mais pour avoir accès aux articles en ligne il faut être abonné, ce n'est pas la pointe du progrès !

  4. Je parlais d'un renvoi à partir de l'index en tête de la page vers la ligne correspondante au sujet abordé, dans la page.
    Par exemple si je clique, en haut, sur :
    - Vitesse variable de la lumière ?

    j'arriverai sur la partie correspondante. Ou plus simplement sur la partie de la page ou ça se trouve. Compte tenu du nombre de sujets abordés ça permet d'arriver plus simplement à la partie de page qui contient le sujet que l'on veut lire.

  5. Ce n'est pas impossible, je l'ai fait par catégories (revues et brèves), le faire pour tous les titres me demandera encore un peu plus de travail et pose quelques problèmes mais je peux essayer de le faire...

  6. Bien que "longue" (mais n'est ce pas plus lié au fait que la science avance très (trop) vite qu'autre chose ?), cette revues scientifique du mois offre des clefs, et des entrées importantes, pour mettre en oeuvre notre sens de la logique, et parfaire nos connaissances.

    Comme vous le dites Jean, elle "est l'occasion de se confronter à notre propre ignorance, ignorance des sciences en question mais aussi ce que toutes ces sciences ignorent encore, c'est aussi par nécessité de savoir ce qui nous attend, les sciences et les techniques étant configurateurs de monde, c'est enfin essayer de savoir quoi faire, comment se sortir de l'impasse dans laquelle nous sommes..."

    Cela résume son utilité, et le travail fourni, par vous, est exemplaire de ce point de vue, et plus qu'utile. Encore merci.

Les commentaires sont fermés.