Revue des sciences 12/07

Temps de lecture : 96 minutes

Leonard de Vinci

Revues : Pour la Science - La Recherche 
Brèves : Physique - Climat - Biologie - Santé - Technologie

Plusieurs découvertes de taille, ce mois-ci, en premier lieu cette "nouvelle théorie du Tout" d'un physicien surfeur... Une souris génétiquement modifiée laisse espérer un progrès décisif dans la lutte contre le cancer et un nouveau traitement anti-âge semble très prometteur mais le rôle de l'inflammation est réévalué dans le déclenchement de nombreuses maladies (c'est une voie des maladies du stress). La production d'ARNs par les télomères et leur rôle dans le vieillissement modifie aussi nos anciennes certitudes sur la fonction des extrémités des chromosomes. Enfin, on a un peu de mal à le croire mais la modélisation du cerveau commencerait à être opérationnelle et pouvoir simuler son fonctionnement ! Le cerveau est pourtant censé être dans un remaniement permanent ? En tout cas, ce serait une extraordinaire prouesse. Par contre, du côté du climat, les dernières nouvelles me donnent hélas un peu trop raison, c'est l'emballement et l'on ne voit pas comment on va s'en sortir, alors qu'il y en a encore qui veulent minimiser le risque et se croient très malins de ne pas sombrer dans ces peurs soi-disant irrationnelles...


Pour la Science no 362, Exploration spatiale, quelles priorités ?


Pour la Science

- Travaillez, prenez de la peine ?, p8
Ivar Ekeland

Où Jean Tirole (médaille d'or du CNRS dont on reparlera plus bas) montre qu'il vaut mieux tirer parti, comme aux USA, de la naïveté des pauvres qui croient que le travail est récompensé, plutôt que d'avouer la vérité, qualifiée de "cynique", que la richesse va aux riches et qu'on doit presque tout au hasard de la naissance ou des rencontres :

Si les pauvres cyniques demandent un taux d'imposition trop élevé, dans l'espoir de plumer les riches, ils vont s'aliéner les pauvres naïfs qui comptent bien s'élever par leur travail et ne veulent pas se voir privés par anticipation du fruit de leur labeur.

La société investit un effort considérable pour faire croire aux gens que le mérite sera récompensé, et les électeurs choisissent en majorité de ne pas payer d'impôts. On produit plus dans ce deuxième équilibre que dans le premier, et le surplus va aux riches, puisqu'il y a moins de redistribution. En plus, ils ont la morale pour eux : la majorité des citoyens pense que les pauvres sont responsables de leur sort, ce qui permet aux riches de jouir de leur fortune avec bonne conscience.

- L'empreinte parentale (la guerre des sexes), p58

Les gènes des parents se font la guerre et les enfants trinquent... En tout cas, et seulement chez les mammifères, il n'y a pas seulement des gènes dominants ou récessifs, cela dépend parfois uniquement du fait que le gène vient du père ou de la mère. A noter cependant que dans cette guerre c'est la femme qui a le dessus si l'on en croit le piètre état dans lequel en sort le gène Y du mâle !

Certains gènes s’expriment différemment selon qu’ils viennent du père ou de la mère. Des anomalies de ce phénomène d’empreinte seraient la cause de diverses maladies.

Dans une cellule diploïde, tous les chromosomes (leur nombre dépend de l’espèce) sont appariés ; ainsi, chaque gène existe en deux copies ou allèles, un sur le chromosome d’origine paternelle, un sur le chromosome qui provient de la mère. Avec ces deux allèles, la cellule dispose d’une assurance la garantissant contre les effets délétères des mutations, qui peuvent modifier l’un des deux allèles. Quand un allèle sur l’un des chromosomes contient une erreur, l’autre copie est disponible, et, pour la plupart des gènes, une seule copie correcte suffit. S’ajoute à cela le phénomène de l’« empreinte génomique » ou empreinte parentale : certaines séquences d’ADN, selon qu’elles viennent du père ou de la mère, restent silencieuses, c’est-à-dire qu’elles ne s’expriment pas. À cause de l’empreinte parentale, les gènes de ces régions n’ont qu’un allèle fonctionnel, si bien qu’ils ne disposent plus d’une assurance les protégeant des mutations.

L'activité de certains gènes dépend en fait de quel parent ils proviennent, plutôt que de leur caractère dominant ou récessif. On dit que ces gènes sont soumis à l'empreinte parentale.

Les biologistes ont découvert que les gênes soumis à l'empreinte sont souvent impliqués dans l'asthme, le cancer, le diabète, l'obésité et de nombreux troubles du comportement et du développement.

Selon l'hypothèse dite du conflit, les gènes qui sont actifs sur les chromosomes paternels tendent à augmenter le transfert de nutriments et favorisent la croissance du foetus : le père aurait ainsi plus de chances d'avoir une descendance viable et donc de transmettre ses gènes. Et, à l'inverse, les gènes qui ne sont actifs que sur les chromosomes hérités de la mère se propageraient mieux en limitant la croissance du foetus ; en effet, un transfert trop important de nutriments compromettrait sa survie et, par conséquent, celle de sa descendance.

De nombreuses anomalies du développement et divers états pathologiques sont liés aux gènes soumis à l'empreinte. En outre, comme ces gènes sont souvent proches les uns des autres et contrôlés en bloc, un seul changement épigénétique ou génétique dans la région peut perturber de nombreux gènes.

Dans la mesure où la plupart des gènes régulant le cancer sont toujours efficaces même quand l'une des copies est inactivée, le passage d'un phénotype normal à un phénotype cancéreux nécessite deux mutations ou atteintes - une sur chaque allèle - d'un gène contrôlant le cancer. Une mutation sur l'un des allèles inactiverait ce gène, une empreinte inactiverait l'autre. De fait, une activité aberrante de gènes soumis à l'empreinte est liée à toute une série de cancers.

Des effets causés par l'un ou l'autre des parents s'observent aussi dans d'autres pathologies, notamment l'autisme, la maladie d'Alzheimer, le trouble bipolaire et la schizophrénie. Ces troubles résulteraient en partie d'erreurs d'empreinte lors du développement précoce du cerveau.

- La violation de symétrie, p 80

Les symétries sont fondamentales en physique, à la base des forces (électriques) et de leur unification (comme le groupe de Lie, voir plus bas). Cela donne d'autant plus d'importance à la violation de parité constatée dans l'interaction faible où droite et gauche ne sont plus équivalents, ce qui reste un grand mystère !

Il y a 50 ans, on découvrait que les désintégrations de certaines particules ne respectent pas la symétrie gauche-droite. La violation de cette symétrie est aujourd’hui à la fois l’un des fondements du modèle standard de la physique des particules et un outil pour tester cette théorie avec précision.

L’image dans un miroir de certains processus représente des processus qui n’ont pas lieu dans le monde réel. Cette bizarrerie de la nature est l’apanage de l’interaction faible, responsable de la désintégration bêta des noyaux atomiques.

Un système quantique n'est plus décrit par des trajectoires classiques, mais des "nombres quantiques" qui correspondent à des grandeurs conservées, et donc aux symétries sous-jacentes, que celles-ci soient géométriques ou de nature abstraite.

L'interaction faible n'agit que sur les particules dont le spin (moment cinétique intrinsèque) est orienté dans la direction opposée à leur mouvement, c'est-à-dire sur les particules dites d'hélicité gauche.

Pour autant, l'origine du phénomène reste un mystère : même si la violation de la parité est bien décrite par la théorie électrofaible, la préférence droite-gauche dans l'interaction faible n'est qu'une hypothèse à la base du modèle standard et n'a pas de justification théorique fondamentale.

- Les longues traînes, p 88

Certaines distributions de nombres s’étalent largement ; elles sont bien plus fréquentes qu’on ne le croyait, et les sociétés sur Internet les exploitent pour créer une nouvelle économie florissante.

Les "longues traînes" apparaissent quand il y a plus de cas extrêmes que n'en prévoit la loi classique des statistiques, la loi en cloche de Gauss.

Le sociologue et économiste Vilfredo Pareto (1848-1923) a noté, il y a déjà un siècle, que les revenus des gens s'étalaient bien loin au-delà des nombres les plus fréquents (donnant ce qu'on appelle une "distribution de Pareto" ou loi à "queue épaisse").

Plus récemment, on a aussi utilisé l'expression plus élégante de "loi à longue traîne". Les termes de "loi de Zipf", "loi de puissance" ou "loi à invariance d'échelle" désignent des concepts presque équivalents.

Les lois à longue traîne se retrouvent dans un nombre étonnant de phénomènes naturels et artificiels. Citons la taille des villes, la force des tremblements de terre, le diamètre des cratères à la surface de la Lune, la gravité des incendies de forêt, le nombre d'espèces par genre dans la classification des mammifères. Mais aussi la fréquence d'utilisation des mots, l'intensité des guerres, la répartition des noms de famille, etc.

Ces lois de longue traîne sont la clef des réussites du commerce électronique sur Internet, Amazon, Google, eBay et quelques autres. C'est l'idée que défend Chris Anderson dans un livre récent "La longue traîne. La nouvelle économie est là".

Un quart des ventes de livres porte sur des titres qui ne sont pas dans les 100 000 premiers du classement et donc absents des rayons d'une grande librairie. Contrairement à ce qu'on a longtemps pensé, les produits qui se vendent peu ne doivent pas être négligés, car pris ensemble, ils engendrent une part importante des chiffres d'afaires potentiels d'un secteur donné.


La Recherche no 414, Les 3 inconnues du climat


Alors que Pour la Science, titrait un de ses articles du mois d'octobre "Réchauffement climatique : le temps des certitudes", La Recherche évoque ce mois-ci "Un monde d'incertitudes" : les effets des nuages, l'incidence des aérosols, l'adaptation des écosystèmes végétaux, la capacité d'absorption du CO2 par les océans, la circulation océanique, la stabilité des hydrates de gaz, le dégel du permafrost, la fonte des glaces, l'activité solaire et le rayonnement cosmique, les rejets humains de gaz à effet de serre, les événements extrêmes... Les 3 plus importants étant à leurs yeux le rôle ambiguë des forêts, la capacité d'absorption de l'océan et le rôle des nuages ou des aérosols ! Il faut bien dire pourtant, que la plupart de ces incertitudes vont vers le pire, en premier lieu la fonte du permafrost qui s'accélère avec celle de la banquise mais aussi la capacité d'absorption de l'océan qui diminue dangereusement.

- Magnétisme tourbillonnant, p10

Le ferromagnétisme est une propriété de matériaux comme le fer ou le nickel qui deviennent des aimants sous l'action d'un champ magnétique qui aligne leurs spins. Sous l'effet d'un champ électrique par contre les atomes s'alignent en alternant charges positive et négative. C'est l'effet ferroélectrique. On vient de découvrir un nouvel effet combinaison des deux : la ferrotoroïdicité où les charges se mettent en rond, propriété qui pourrait servir pour y stocker de l'information.

Contrairement à ce qui se produit dans les matériaux ferromagnétiques, les moments magnétiques des atomes ne sont plus orientés de façon parallèle. ils sont disposés en rond les uns à côté des autres.

Les bits d'information correspondant au 0 pourraient être enregistrés dans les domaines où les tourbillons tournent dans un sens, et les bits correspondants au 1, dans l'autre. Il devrait être possible d'inverser l'orientation des tourbillons en les soumettant à une combinaison de champs magnétiques et électriques (...) Une particularité qui, assurent les auteurs, ferait des disques durs à "tourbillons magnétiques" des systèmes plus économes et surtout plus stables que ceux disponibles sur le marché. Ces derniers ne sont en effet sensibles qu'aux champs magnétiques.

- De l'ARN dans les télomères, p16

On croyait que l'extrémité des chromosomes ne servaient qu'à protéger l'intégrité des gènes, marge silencieuse qui diminue à chaque reproduction et en l'absence de laquelle la cellule ne pouvait plus se dupliquer sans altérer des gènes opérationnels. En fait, les télomères auraient une fonction qui est de détruire les ARN défectueux.

On sait que les télomères raccourcissent lors de chaque division cellulaire et que cette érosion contribue au vieillissement des cellules somatiques. or, les chercheurs ont observé que, lorsque les ARN sont éliminés des télomères, l'ADN des extrémités des chromosomes peut être brutalement perdu. Le lien de cause à effet reste à démontrer, mais on peut imaginer que les ARN sont importants pour la réplication des télomères, contrôlant ainsi le vieillissement des cellules.

- Le geai malin comme un singe, p57

Ce n'est pas très nouveau et cela n'explique pas l'intelligence des céphalopodes mais certes nous ne sommes pas les seuls animaux intelligents et il ne faut pas surestimer notre intelligence même si on est effectivement au-dessus du panier. Il est indéniable que les dinosaures devaient être assez intelligents, surtout les prédateurs, avant de conquérir les airs même si les poules ne sont pas des modèles d'intelligence ! D'un certain côté, la capacité à anticiper est le processus même du vivant, de la mémoire et de l'information mais il est bon de souligner le caractère social de l'intelligence...

En fait, toutes ces expériences laissent entendre que la capacité à anticiper pourrait bien s'être développée en dehors de la lignée humaine.

Certains pensent que cela pourrait tenir à la complexité de leur vie sociale : les geais et les singes doivent à la fois réaliser mais aussi coopérer et s'accoupler avec leurs congénères. Cette pression sociale pourrait avoir eu pour conséquence une sélection des individus capables de se projeter dans l'avenir afin de résoudre les problèmes sociaux.

Mais une chose est claire : le gros cortex préfrontal avec six couches neuronales des grands singes n'est pas la seule plateforme à partir de laquelle l'intelligence peut se développer.

On peut donc s'attendre à trouver également des capacités cognitives élaborées chez d'autres espèces grégaires au mode de vie similaire. Dauphins, éléphants, perroquets ou mammifères qui chassent en meute comme les loups et les hyènes semblent de bons candidats.

- Au bonheur de l'économie !, p62

Je ne sais pas vous, mais moi ça me fait rire de voir les grandes découvertes de Jean Tirole, promis au Nobel d'économie paraît-il !

Nous avons notamment identifié 3 motivations à la générosité : un altruisme véritable, intrinsèque, motivé par exemple par une conviction philosophique; une motivation par une récompense, monétaire ou symbolique (comme sont rémunérés les donneurs de sang dans certains pays); et enfin la volonté de donner à soi-même ou à autrui une bonne image de soi. Nous avons modélisé ces 3 composantes et conçu une théorie qui a permis de formuler des prédictions et de les tester expérimentalement (..) les incitations monétaires à la générosité sont plus efficaces pour des actes privés, qui ne peuvent être observés par autrui, que pour des actes public.

Lorsque nous oublions les mauvaises nouvelles, ou lorsque notre mémoire se fait sélective, on peut y voir un problème de théorie des jeux avec soi-même : on arbitre entre celui que l'on est aujourd'hui et celui que l'on sera dans 1, 10 ou 30 ans, en tentant de lui "cacher" les mauvaises informations.

- Quand le tout-électrique favorise le CO2, p96

Benjamin Dessus montre que, selon la commission énergie du Centre d'analyse stratégique, le nucléaire ne pouvant pas se passer d'un complément d'hydrocarbures en périodes de pointe ne permettra pas de réduire assez les émissions de gaz à effet de serre, contrairement au scénario Négawatt sans nucléaire mais à base d'énergie renouvelable et d'économies d'énergie !

- Dominique Lecourt est un con !, p97

Parfois il faut dire les choses comme elles sont et lorsque l'autorité philosophique s'autorise à dire des bêtises du haut de sa suffisance et au nom de préjugés sans pensée, c'est un crime contre l'esprit qu'il faut dénoncer comme tel ! C'est à pleurer tellement c'est de la pensée automatique sans aucune réflexion, et qui s'y croit par dessus le marché. Ce n'est pas l'ignorance savante, non c'est juste le savant très ignorant ! Bien sûr il y a beaucoup à (re)dire sur le principe de précaution et on aurait pu espérer un peu mieux du Centre Georges Canguilhem, censé étudier cette question, que ce délire sur "l'homme précautionneux" ! Ce n'est rien qu'un refus de voir la réalité du moment sous des principes trop généraux et anhistoriques ! J'avais déjà dû faire face avec stupéfaction à la même mauvaise foi, d'intelligences réputées pourtant mais qui poussent le principe à l'absurde et se croient très malins, confondant l'abus de droit possible en tout domaine avec le principe lui-même qui s'impose à une technique devenue trop puissante et dans le monde de la technique où la panne a remplacé la peine. Comme toujours, ce sera au juge de juger si les précautions qui s'imposaient ont été raisonnablement prises, chacun devant être bien conscient de la responsabilité de ses actes et de leurs conséquences, mais ce n'est absolument pas vouloir supprimer tous les risques, pas les risques économiques en tout cas (et croire comme Attali qu'abandonner ce principe augmenterait la croissance est du pur délire) ! Ce n'est pas du tout une question de risquophiles et de risquophobes, on pourrait rire d'une telle indigence de la pensée si l'enjeu n'était si sérieux. Dominique Lecourt avait déjà voulu nous faire peur avec des écologistes assimilés à un nouveau pouvoir totalitaire au nom d'un écomoralisme que rien ne justifierait. Il récidive dans l'aveuglement avec l'attaque sans nuance du principe de précaution qui pourtant est la présence de l'ignorance au coeur du savoir et le principe de la conscience de soi post-moderne, c'est-à-dire d'une modernité réflexive. Que personne n'ignore donc que Dominique Lecourt est un con et fier de l'être.

- La résilience, Serge Tisseron, PUF

Ce "Que sais-je?" consacré à la résilience en fait une évaluation critique bienvenue.

La résilience, qui masque donc plusieurs processus complexes, est presque toujours envisagée comme intrinsèquement bonne, et toute personne dite résiliente se voit du même mouvement louée et admirée. Pourtant, tout dépassement d'un traumatisme ne se fait pas sans dommages, et ce sont notamment ces délicats mécanismes de reconstruction que le mot résilience a tendance à évacuer.

- Les neurones de la lecture, Stanislas Dehaenne, Odile Jacob

C'est l'écriture elle-même qui a évolué afin de présenter une forme adaptée à nos circuits (?!).

- La science du cerveau et la connaissance, Gerald M. Edelman, Odile Jacob

Théorie évolutionniste de la conscience pour expliquer l'émergence de la créativité et de l'imagination.

- Moral Minds, How Nature Designed our Universal Sense of Right and Wrong, Marc D. Hauser, HarperCollins

La règle de la réciprocité est universelle, plus que l'égoïsme, pas seulement chez l'homme mais aussi chez de nombreux animaux sociaux. De là à prétendre que la morale est un fait de nature, c'est un peu rapide...



Brèves et liens



Physique


cosmologie, astronomie, physique quantique

- Une théorie du tout exceptionnellement simple
Le Monde 19.11

La "théorie du tout" d'un surfeur jette le trouble chez les physiciens ! Vous voyez les émotions que procure la physique ! Une nouvelle théorie du Tout venue de nulle part ! C'est cette émotion qu'on peut partager même si on est bien incapable de comprendre de quoi il s'agit, encore moins de savoir si c'est une théorie qui tient le coup ! En effet, un nouveau génie de la physique (Anthony Garrett Lisi) qui serait un inconnu surfeur (mais docteur en physique tout de même, et financé par un institut de recherche!), aurait réussi une tentative originale d'unification de la physique à partir du groupe de Lie E8 (ce qui n'est pas en soi très nouveau). La théorie du Tout, ce n'est pas ce qui explique "Tout" mais "seulement" une théorie qui rend compte de toutes les particules connues et de toutes les forces physiques, aussi bien les champs quantiques que la gravitation et la relativité générale, ce qui avait échoué jusque là. Plusieurs grands physiciens s'y intéressent (Lee Smolin, David Finkelstein) même si d'autres trouvent que c'est un formalisme vide et que cela ne vaut rien. Il ne semble pas effectivement que cela prenne un caractère explicatif pour l'instant même si cela se vérifie par l'expérience (de nouvelles particules pourraient être détectées par le LHC), c'est juste des symétries mais du moins il n'y a pas besoin de dimensions supplémentaires (on reste avec 4 dimensions d'espace-temps), et, pour autant que j'ai compris, on passerait des cordes aux triangles ? (voir l'article de Futura sciences, la représentation ci-dessous et surtout la vidéo).

"Dans son état actuel la théorie prédit l'existence de 20 nouvelles particules. Parce que la théorie n'est pas complètement développée, cela peut toutefois changer".

"Avec cette théorie, c'est "tout ou rien". Il n'y a pas de possibilité de trifouiller les paramètres ou de fantaisistes structures supplémentaires. Aujourd'hui, la théorie a un aspect satisfaisant, mais il y a encore des choses à préciser".

Tentative de traduction de l'abstract :
"Tous les champs du modèle standard et de la gravité sont unifiées par un groupe de Lie E8. Une forme non compacte du groupe de Lie E8 a des algèbres G2 et F4 qui se décomposent en interaction forte su(3), électrofaible su (2) x u(1), gravitationnel so(3,1), le champs de Higgs et trois générations de fermions sont liés par ternarité. Les interactions et la dynamique de ces 1-form et une évaluation Grassmann des parties d'une superconnection E8 sont décrits par la courbure et l'action sur une base de quatre dimensions".


Vidéo à voir, animation du dessin ci-dessous

Il se trouve, coïncidence étrange, que l'auteur d'un théorème qui réfute cette tentative (en démontrant "qu'il n'est pas possible de mélanger les symétries d'espace-temps avec les symétries des théories de jauge de Yang-Mills, au moyen des groupes de Lie" à cause des transformations de Lorentz) vient de mourir. Il s'agit d'un grand physicien méconnu du public, Sidney Coleman, à l'origine de nombreuses révolutions physiques et grand pédagogue comme Richard Feynman.

"Comme d'autres grands physiciens, tels Wolgang Pauli et Julius Schwinger, Coleman était un original. Il dormait le matin et ne travaillait qu'à partir de l'après-midi, se rendant à son bureau en vélo où l'attendaient impatiemment ses étudiants et ses collègues".

- Un méson à quatre quarks défie la physique et les physiciens

Les physiciens de l'expérience Belle du KEK laboratory au Japon ont découvert un curieux méson baptisé Z(4430). Selon certains, il s’agirait d’une particule composée de quatre quarks. Une telle chose semble impossible ou presque dans le cadre de la théorie de la chromodynamique quantique.

La théorie implique de façon assez solide que les quarks ne peuvent s’assembler que par paires de particule-antiparticule, pour former des mésons, et par trois pour former des baryons.

- Des Univers entiers à l'intérieur des trous noirs ?

Ce ne sont pas des hypothèses nouvelles (voir Veneziano-Gasperini-Damour entre autres) mais une autre façon de les "prouver". Cela me semble tout de même bien douteux, surtout si la théorie holographique se vérifie, mais il est toujours amusant de voir ce qu'on peut en dire...

Böhmer et son collègue Kevin Vandersloot de l'université de Portsmouth sont favorables à une approche appelée la gravitation quantique à boucles, qui définit l'espace-temps comme un réseau de liens abstraits qui connectent de minuscules morceaux primitifs d'espace. Dans cette théorie, l'espace-temps n'est plus un continuum, comme en relativité générale, mais possède une structure discrète.

Cette théorie a déjà été utilisée pour aborder le problème de la singularité à l'origine de notre univers. Elle suggère qu'au lieu du Big Bang, un premier univers pourrait s'être effondré pour ensuite "rebondir" dans une nouvelle expansion, un "Big bounce" (rebond).

Ces études suggéraient l'existence d'une frontière répulsive empêchant la matière de s'agglomérer dans la singularité. Mais Böhmer et Vandersloot ont voulu constater les effets de cette théorie appliquée aux trous noirs en général. Comme les équations ne pouvaient pas être résolues exactement pour chaque trou noir, les chercheurs ont utilisé des simulations numériques.

"Nous avons été très étonnés des résultats", indique Böhmer. Au lieu d'une frontière autour de la singularité, deux autres types de solutions sont apparus, assez surprenants, qui se substituaient à la singularité.

Un des ensembles de réponses ressemblait à ce que l'on appelle un "univers de Nariai", modèle mathématique autorisé par la relativité générale dans lequel l'univers n'est en expansion que dans une seule dimension de l'espace. (Notre propre univers observable apparaît, lui, comme un espace dit "de Sitter", car il s'étend dans chacune des trois dimensions, de sorte que les galaxies lointaines s'éloignent de nous, peu importe l'endroit que nous regardons dans le ciel).

"L'intérieur du trou noir serait un univers en lui-même", note Böhmer. La matière ne tomberait pas dans une singularité, mais se déplacerait pour toujours dans cet univers de Nariai, qui serait d'une taille infinie bien que contenu à l'intérieur d'un trou noir de taille finie.

L'autre ensemble de solutions découvert par les chercheurs est une connexion, une sorte de tunnel entre la bouche de deux trous noirs. Ce tunnel rappelle un trou de ver, raccourci hypothétique de l'espace-temps connectant deux points éloignés de l'univers. Selon les chercheurs, le destin de la matière à l'intérieur n'est pas très clair, mais il se pourrait qu'elle effectue un va-et-vient éternel entre les deux extrémités du trou noir.

- Et si la matière noire n'existait pas ?

En bleu, les effets de lentille gravitationnelle liés à la matière noire selon les chercheurs de la NASA.

Le seule réalité de la matière noire, c'est son effet gravitationnel, c'est la masse invisible qui manque pour rendre compte des observations astronomiques. Alors qu'on s'évertue à faire toutes sortes d'hypothèses sur son origine avec des particules chimériques (axions, supersymétrie, etc.), il suffirait selon certains physiciens comme John Moffat de modifier la gravitation à longue distance, c'est-à-dire la relativité générale. Auparavant une théorie appelée Mond (MOdified Newton Dynamycs) dont parle Lee Smolin, avait tenté de se passer de matière noire mais elle échouait là où la nouvelle théorie MOG (MOdified Gravity) a montré qu'elle pouvait rendre compte des observations, y compris de "l'anomalie Pioneer". C'est souvent comme cela que la physique progresse, avec la mise en équation des phénomènes sans se poser la question de sa cause, mais cela pourrait bouleverser la représentation qu'on s'était péniblement faite de la relativité générale.

Moffat et Brownstein utilisent donc une extension de la théorie de la relativité générale d’Einstein qui introduit des champs scalaire et vectoriel en plus du champ tensoriel standard décrivant la métrique de l’espace-temps. Ce faisant, la théorie MOG ressemble à l’extension relativiste de la théorie Mond que Bekenstein, bien connu pour ses travaux sur l’entropie des trous noirs, a récemment proposée. La théorie autorise en particulier la valeur de la constante de la gravitation G à être variable dans le temps et dans l’espace.

- Des collisions de naines blanches génèrent des supernovae !

Joli ballet, non ?

- Coucher de terre sur le Lune

- Des condensats de Bose-Einstein à la demande

La nouvelle est présentée comme la réalisation du couplage de photons avec des atomes, ce qui n'a rien de nouveau, ce qui est nouveau c'est la technologie qui rend très facile ce qui était auparavant un exploit : la création de condensats de Bose-Einstein qui se produisent lorsqu'on refroidit presque au zéro absolu des atomes ayant un nombre pair d'électrons (de fermions de spin 1/2) ce qui leur permet de se comporter comme des bosons (spin 1) exhibant les propriétés ondulatoires de la matière ! Ce qui est absolument extraordinaire et qui doit permettre notamment de faire des lasers à matière (on ne sait pas encore à quoi cela pourrait servir mais cela pourrait devenir aussi courant que les lasers actuels!).

Dans le cercle agrandi, deux paires de fibres optiques forment deux cavités microscopiques. La puce à atomes, en bas à gauche, forme l'une des parois d'une petite enceinte à vide, dans laquelle on crée le condensat de Bose-Einstein. Elle permet de positionner le condensat dans la cavité entre deux fibres

Ce résultat est une première, qui a été réalisée grâce à l'association d'un nouveau type de cavité microscopique et d'une "puce à atome", laquelle miniaturise le dispositif expérimental et simplifie la production du condensat.

Le condensat de Bose-Einstein est un nuage d'atomes ultrafroids qui occupent tous l'état quantique fondamental ; sa taille est réduite à son minimum théorique.

Cette expérience pourrait conduire à des applications dans le domaine des communications et de l'informatique quantique.

- Construire des nanoparticules atome par atome

C'est de la physique encore, pas de la technologie. On est donc encore bien loin de la reconstruction de la matière par le bas qui est le fantasme des nanotechnologies alors que cette construction atome par atome prendrait un temps infini...

Pour les agrégats de petite taille, la probabilité de collage dépend fortement de l'énergie de collision. De façon plus surprenante, au-delà d'une certaine énergie de collision, il a été mesuré une probabilité de collage plus petite que celle prédite par le modèle des sphères dures. Cette propriété est attribuée aux électrons de l'agrégat qui jouent sans nul doute un rôle important, mais jusqu'ici négligé, dans le phénomène de collage.

Transposable à de nombreux autres systèmes, cette expérience livre quelques paramètres essentiels de la phase initiale du processus de formation des nanoparticules. Elle devrait permettre de mieux comprendre certains aspects de la formation des nuages de haute altitude, comme les cirrus stratosphériques, dont l'influence sur le climat terrestre est considérable.

Climat


- La première atmosphère respirable sur Terre : un effet de serre inversé ?

C'est la confirmation de l'interaction entre le climat et la biosphère (voir la part maudite).

Il y a environ 525 millions d’années, l’atmosphère s’est brusquement enrichie en oxygène et le nombre d’espèces vivantes pluricellulaires a lui aussi augmenté considérablement : c’est ce qu’on appelle l’explosion cambrienne. Selon des chercheurs de l’Université de l’Ohio, un événement similaire, à l’Ordovicien, aurait été en partie causé par un effet de serre inversé.

La connexion entre les deux phénomènes, augmentation du taux d’oxygène et augmentation du nombre de métazoaires, a bien sûr été notée dès les années 50 et certains y ont même vu un lien de causalité. On penche aujourd’hui plutôt vers une connexion avec un bouleversement climatique, comme celui proposé dans la théorie de la Terre « boule de neige ».

A cette époque, le super continent de Gondwana était le siège d’une activité tectonique importante et d’une forte érosion, du fait des pluies acides résultant d’une atmosphère riche en dioxyde de carbone. Cela aurait causé une sédimentation importante piégeant celui-ci. Du coup, par un effet de serre inversé, la température des océans aurait chuté, ce qui aurait favorisé un développement important du plancton végétal. On devine la suite. La quantité d’oxygène produite par photosynthèse aurait elle aussi augmenté.

- Fonte de la banquise en Arctique : un emballement est possible

Lors du dernier été, la fonte estivale des glaces de l’Océan Arctique a atteint un niveau exceptionnel. Les causes ne sont pas certaines mais il est clair qu’elle est bien plus importante que ce que prévoient les modèles.

La surface de banquise est en recul très net depuis la fin des années 1980, avec une diminution de l’ordre de 3 % par décennie pour l’extension maximale et 10 % par décennie pour l’extension minimale.

Dans ce contexte de réduction progressive de la surface de banquise, l’année 2007 est exceptionnelle. Le précédent record atteint en septembre 2005 (5,32 millions de kilomètres carrés) a été pulvérisé en septembre 2007 (4,14 millions de kilomètres carrés). La banquise, déjà très fine à la fin de l’hiver 2007, a ensuite fondu massivement en raison d’un ensoleillement estival exceptionnel en Mer de Beaufort.

Plusieurs facteurs pourraient effectivement provoquer un emballement. Une mer libre de glace absorbe davantage d’énergie solaire et génère une plus forte évaporation. Une atmosphère plus chaude, contenant davantage de vapeur d’eau, limite le refroidissement de la surface marine. Enfin, les nuages formés ces dernières années sur l’Océan Arctique semblent également renforcer l’effet de serre.

L’année 2007 marque aussi un record en ce qui concerne l’intensité de la fonte estivale à l’intérieur de la calotte du Groenland (à des altitudes de plus de 2.000 mètres).

Une comparaison simple entre l’évolution de la couverture de glace minimale observée et simulée (médiane des différents modèles de climat) montrent que les changements en cours sont beaucoup plus rapides que ne le prévoient la majorité des modèles de climat.

- L'emballement (bis) : nos émissions augmentent et l'absorption par la mer diminue...

L'accélération de l'augmentation du CO2 atmosphérique constatée depuis 2000 est causée par trois facteurs principaux: une croissance économique soutenue et plus intensive en émissions de CO2 ainsi qu'un affaiblissement de la capacité d'absorption du CO2 par les puits de carbone naturels.

L'étude montre que la récente accélération du CO2 atmosphérique observée entre 2000 et 2006 a également pour cause une réduction de l'efficacité des puits naturels de carbone, qui absorbent une partie du gaz carbonique émis dans l'atmosphère. Leur capacité d'absorption a en effet décru au cours des 50 dernières années d'environ 10%. "La réduction d'efficacité des puits naturels de carbone contribue à l'augmentation rapide du CO2 atmosphérique observée récemment" indique Philippe Ciais, du Laboratoire des sciences du climat et de l'environnement, l'un des auteurs de l'étude. "Cette réduction d'efficacité des puits de carbone dans l'océan et la végétation, est causée notamment par des changements de circulation dans l'océan Austral et, peut-être, par des sécheresses dans l'hémisphère nord. Elle est responsable de près de 20% de l'accélération récente de la teneur atmosphérique en CO2".

- Regain d’émissions de gaz à effet de serre dans les pays riches

Selon un rapport de l’ONU, les pays industrialisés ont augmenté leurs émissions de gaz à effet de serre entre 2000 et 2005. De quoi alimenter les discussions des ministres de l’Environnement qui négocieront dans deux semaines la suite du protocole de Kyoto…

"Le total des gaz à effet de serre émis par 40 pays industrialisés a atteint un record en 2005".

Aux Etats-Unis et en Australie, qui n’ont pas ratifié Kyoto, on observe des augmentations du même ordre, respectivement 16 et 26 %. La Chine, elle, joue dans une autre catégorie, avec +80 %..

L’Europe, globalement, réduit légèrement ses émissions (-1,5 %), grâce à quelques pays : l’Allemagne (-18,4 %), le Royaume-Uni (-14,8 %) et la France (-1,6 %).

- Les plus gros producteurs de CO2

"L’information conduit à l’action. Nous savons que cela fonctionne pour d’autres formes de pollution et nous croyons que cela devrait marcher aussi pour les émissions de gaz à effet de serre".

Une base de données, accessible sur le Web, recense pour le monde entier les 50.000 centrales de production d’énergie (grosses émettrices de CO2) et les classe selon leur production de dioxyde de carbone. Noms des installations et emplacements géographiques sont indiqués : de quoi se faire enfin une idée précise sur qui émet combien et où.

Réalisée par l’initiative du Centre pour le développement Global (Center for Global Development, CGD) sous la direction de David Wheeler, cette énorme base de données baptisée Carma (Carbon monotoring for action) indique pour 50.000 centrales productrices d’énergie et 4.000 compagnies d’électricité les émissions annuelles de dioxyde de carbone et le nombre de MWh/an générés. Rappelons que pour l’ensemble de la planète, la production d’énergie est responsable du quart des émissions humaines de CO2.

Dans le classement par pays, les Etats-Unis figurent en première position pour la production de gaz à effet de serre des centrales, avec 2,79 GT (milliards de tonnes) par an, suivis de très près par la Chine (2,68 GT). Ces deux nations sont loin devant les autres puisque le troisième, la Russie, émet 661 MT (millions de tonnes). En Europe, c’est l’Allemagne qui devance tout le monde (356 MT). La France est loin derrière, avec 45,8 MT, un score très bas qui est dû bien sûr à la forte proportion (74,73 %) d’énergie générée par les centrales nucléaires.

Un autre classement est celui des émissions par tête d’habitant. A cette aune, c’est l’Australie qui mène le bal, avec onze tonnes par personne et par an contre 3,5 tonnes pour un Britannique et 2 tonnes pour un Chinois. Avec 0,77 tonne, la France est hors concours (mais on pourrait aussi s’amuser à compter la masse de déchets nucléaires par habitant…).

- Rapport mondial sur le développement humain 2007/2008

Le rapport sur le développement humain est largement centré sur la question du réchauffement global.

Dans l’ensemble des pays en développement, des millions de personnes parmi les plus pauvres doivent déjà faire face aux impacts du changement climatique. Ces impacts n’apparaissent pas comme des événements apocalyptiques sous les projecteurs des médias mondiaux. Personne ne les remarque sur les marchés financiers ni quand on mesure le PIB mondial. Mais les efforts de millions de personnes parmi les plus pauvres au monde, qui essayent de bâtir un avenir meilleur pour leurs enfants et pour elles-mêmes, sont ralentis parce qu’elles sont de plus en plus exposées à la sécheresse, à des tempêtes tropicales plus intenses, aux inondations et au stress environnemental.

Le changement climatique va saper les efforts internationaux déployés pour lutter contre la pauvreté.

On ne changera pas la situation sans changements profonds. Si le monde n’était constitué que d’un seul pays, il devrait réduire les émissions de gaz à effet de serre de moitié d’ici à 2050, par comparaison avec les niveaux des années 1990, et continuer à les réduire pour le reste du XXIe siècle. Mais le monde n’est pas constitué d’un seul pays. En utilisant des hypothèses plausibles, nous estimons que pour éviter un changement climatique dangereux, il faudra que les nations riches réduisent leurs émissions d’au moins 80 pour cent, en commençant par une réduction de 30 pour cent d’ici à 2020.

- La faisabilité d'une production d'électricité 100% renouvelable

Il faut arrêter de faire comme s'il n'y avait pas d'alternative au pétrole en courant à la catastrophe, ou qu'on serait condamné au nucléaire qui ne peut de toutes façons couvrir qu'une petite partie des besoins d'énergie. Il y a une solution, surtout au niveau des prix atteints par le pétrole : la combinaison des énergies renouvelables, le solaire en tête ! (et sans compter le gisement d'économies d'énergie).

En coopération avec l'institut des techniques solaires de production d'énergie (ISET) de l'Université de Kassel, les entreprises Schmack Biogas AG, Solarworld AG et Enercon AG ont présenté, mardi 9 octobre 2007 à Berlin, un système décentralisé de production d'électricité à partir de sources d'énergie renouvelables réparties sur l'ensemble du territoire allemand, l'objectif affiché étant de couvrir, à terme, 100% de la demande électrique nationale.

Combinant différentes technologies de production et de stockage de l'énergie à partir de sources renouvelables (éolien, solaire, hydraulique et biogaz), ce système pilote innovant, raccordé au réseau électrique depuis plus de deux mois, relie et régule 36 centrales isolées. Le système est capable de fournir de l'électricité 100% renouvelable en continu, en fonction de la demande, de manière fiable et indépendante des conditions météorologiques.

"Le Kombikraftwerk montre que les énergies renouvelables fournissent assez d'électricité, qu'elles sont régulables à tout moment, peuvent fonctionner en association et se compensent l'une l'autre via le réseau".

- Invasion de méduses en Irlande

C’est par milliards que des méduses ont envahi un élevage de saumons en Irlande, décimant plus de cent mille poissons.

Une mer de méduses a envahi une baie au nord de l’Irlande, où sont installées les cages à saumons de la ferme d’élevage de la Northern Salmon. Cette nappe vivante s’étendait sur 27 kilomètres carrés sur treize mètres d’épaisseur.

De mémoire d’Irlandais, on n’avait jamais vu pareille invasion à une latitude aussi haute. La température élevée de l’océan et la réduction des effectifs de prédateurs (comme les poissons-lunes ou les balistes) pourraient expliquer le gigantisme de ce débarquement irlandais.

Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

- Un réfrigérateur géant pour les semences du monde

Une immense cave souterraine accueillera sous peu une collection de semences pour les conserver avant qu’elles ne disparaissent, préservant pour les générations futures une indispensable biodiversité.

Cette réserve mondiale pourra devenir fonctionnelle en février et accueillir jusqu’à 4,5 millions de graines, en provenance du monde entier.

- ADN ou ARN ?

Le plus probable, c'est que la vie a commencé avec l'ARN qui est le véritable acteur de la celule, l'ADN n'en étant que la mémoire mais le fait qu'un fragment de 6 nucléotides d'ADN suffit à produire des cristaux liquides rend pensable que ce soit plutôt l'ADN qui soit l'élément structurant de la cellule (aussi bien l'ADN que l'ARN pourraient d'ailleurs être venus de l'espace).

Pour expliquer l’émergence de la vie à partir de la soupe prébiotique, l’ADN et l’ARN sont à l’heure actuelle les deux meilleurs candidats, chacun ayant ses avantages et ses inconvénients. Les résultats publiés aujourd’hui dans Science apportent un argument de plus en faveur de l’ADN.

- Un dinosaure-vache étonnant

Une drôle de bouche, avec des drôles de dents, des os trop légers, un crâne presque transparent et ne pouvant pas lever la tête, condamné à brouter fougères et prêles...

- Un scorpion de 2m50 !

Des paléontologues ont découvert une griffe fossile géante vieille de 390 millions d'années qui aurait appartenu à un scorpion dont la taille était bien supérieure à celle d'un homme!

Il s'agit d'une griffe de 46 cm de long qui a été extraite en plusieurs morceaux puis reconstituée pour être conservée dans une gaine de plâtre. Elle provient d'une espèce de scorpion de mer (ou euryptéride) Jaekelopterus rhenaniae qui vivait entre 460 et 255 millions d'années.

La taille imposante de cette griffe permet d'en déduire les mensurations de son antique propriétaire. Et là ça devient monstrueux ! La bestiole devait en effet mesurer environ 2 mètres et demi alors que les scientifiques n'imaginaient pas trouver d'arthropodes de plus d'1,5 mètre. Certains géologues estiment que les euryptérides ont atteint de telles dimensions à cause de plusieurs facteurs : hausse subite du niveau d'oxygène dans l'atmosphère, nourriture abondante, absence de concurrence...

Les entomologistes estiment que les euryptérides sont les ancêtres des scorpions actuels et peut-être même de tous les arachnides.

- La coopération entre parasites apparentés

Dans des systèmes où plusieurs souches de parasites sont en compétition afin d'exploiter les ressources d'un même hôte, celles qui drainent ces ressources le plus vite se reproduisent davantage et sont, à terme, les plus favorisées. S'ensuit, in fine, une augmentation de la virulence de la maladie. Toutefois, des souches différentes mais apparentées (donc de même famille), d'un parasite identique (même espèce), devraient avoir un comportement plus coopératif et moins compétitif lorsqu'ils infectent le même hôte. Cette baisse de la compétition entre souches entraînerait une diminution de la sévérité des symptômes.

Certaines vaccinations, par exemple, peuvent augmenter la virulence des maladies pour les individus non vaccinés. Dans ce cas précis, les parasites ayant moins d'hôtes potentiels, ils évoluent afin de capter davantage de ressources dans les rares hôtes qu'ils trouvent.

- Le fantasme d'un dopage par thérapie génique est relancé
Le Monde 05.10

Une "super-souris" aux capacités décuplées.

Selon les travaux de chercheurs de la faculté de médecine de Cleveland (Ohio, Etats-Unis) dirigés par Richard Hanson, publiés dans le Journal of biological chemistry, "en modifiant un gène, l’équipe a créé des rongeurs capables de courir des heures, de manger sans grossir et de vivre plus longtemps".

Sur un tapis roulant, ces souris génétiquement modifiées peuvent courir jusqu'à 6 kilomètres à la vitesse de 20 m/minute, quand les souris normales s'arrêtent au bout de 200 mètres.

L'amélioration de leurs capacités à courir s'explique par leur consommation d'oxygène, plus élevée de 40 %, et leur faible production d'acide lactique.

L'ensemble des modifications est lié à la surexpression dans le muscle squelettique d'un gène, celui de l'enzyme "phosphoenolpyruvate carboxykinase cytosolique" (PEPCK-C). Cette enzyme est impliquée dans la synthèse du glucose, le carburant des cellules, et du glycérol, qui se trouve dans les graisses.

Richard Hanson affirme ne pas voir dans ces souris transgéniques un modèle pour une thérapie génique chez l'homme.

Les connaissances acquises grâce à ces travaux pourraient cependant servir à l'industrie pharmaceutique pour développer des médicaments améliorant les performances musculaires. Ce qui, selon Richard Hanson, rend "très possible" le détournement de telles molécules par des sportifs à des fins de dopage.

- Une grenouille avec des yeux n'importe où !
Le Quotidien du Médecin - 29 octobre 2007

Après la grenouille transparente, la grenouille avec des yeux n'importe où. Une équipe américaine, auteur de cette nouvelle fantaisie batracienne, vient d'identifier le signal biologique qui déclenche la différenciation des cellules embryonnaires de xénope en oeil. "Les similitudes existant entre le développement des grenouilles et celui des humains laissent espérer que ce signal pourra un jour permettre la productions d'yeux humains in vitro". En attendant, si vous croisez aux alentours d'une mare, de petites grenouilles arborant une constellation oculaire, ne vous inquiétez pas, c'est normal, c'est la science !

- La maladie de la langue bleue

Apparue pour la première fois dans deux exploitations hollandaises proches de la frontière allemande en août 2006, cette pathologie s'est ensuite étendue à la Belgique et à l'Allemagne avec comme porte d'entrée la région d'Aix-La-Chapelle. Cette épizootie a poursuivi sa course en Rhénanie du Nord-Westphalie, Rhénanie-Palatinat, Hesse, Sarre et Basse-Saxe jusqu'à la fin de l'année 2006. Le vecteur de cette épidémie d'origine virale, identifié alors par l'équipe du professeur Melhorn est un moucheron piqueur d'une taille de 0,8 mm : Culoides obsoletus.

Ce sont en effet les ruminants sauvages ou d'élevage qui représentent la cible principale du virus de la fièvre catharrale. Si, habituellement, le virus affecte plus particulièrement les ovins, l'épidémie observée ici se distingue par l'apparition de signes cliniques chez les bovins (survenue de fièvre, salivation excessive, atteinte des muqueuses, langue enflée et colorée en bleue pour certains animaux). Cette pathologie conduit au décès de l'animal dans 40 % des cas pour les ovins et 4 % des cas pour les bovins.

Il semblerait ainsi que le transport d'animaux contaminés vers l'Europe centrale représente l'origine la plus vraisemblable de l'apparition de cette pathologie initiée en Hollande.

- Washoe, la guenon qui parlait, est morte

A la fin des années 1960, Washoe, femelle chimpanzé, devint le premier primate à apprendre le langage des signes, bousculant nos idées sur les capacités mentales des singes et initiant une série de recherches. Washoe s’est éteinte à 42 ans.

- Un modèle du cerveau opérationnel

Un modèle du cerveau pourrait, à terme, permettre aux neurosciences d'utiliser la simulation informatique.

Le projet ambitieux de créer un modèle informatique précis du cerveau a atteint un cap impressionnant. Les scientifiques travaillant en Suisse avec des chercheurs d'IBM ont montré que leur simulation sur ordinateur de la colonne neocorticale, sans doute la partie la plus complexe du cerveau des mammifères, semble se comporter comme son homologue biologique. En démontrant que leur simulation est réaliste, à ce que disent les chercheurs, ces résultats donnent à penser que l'ensemble du cerveau des mammifères pourrait être complètement modélisé en trois ans, et le cerveau humain dans la prochaine décennie...

"Ce que nous faisons est de la rétro-ingénierie du cerveau", explique Henry Markram, codirecteur du Brain Mind Institute de l'Ecole polytechnique fédérale de Lausanne, en Suisse, qui a dirigé les travaux du projet, appelé Blue Brain, qui a commencé en 2005. En imitant le comportement du cerveau jusqu'au neurone individuel, les chercheurs ont pour objectif de créer un outil de modélisation qui puisse être utilisé par des chercheurs en neurosciences pour réaliser des expériences, tester des hypothèses, et analyser les effets de médicaments plus efficacement qu'en utilisant les véritables tissus cérébraux.

Le modèle de cette partie du cerveau a été achevé l'an dernier, dit Markram. Mais aujourd'hui, après de nombreux essais comparant son comportement avec les résultats des expériences biologiques, il est convaincu que la simulation est suffisamment précise, et que les chercheurs peuvent s'attaquer au reste du cerveau.

"C'est un travail incroyable", déclare Thomas Serre, un neuroscientifique - chercheur au MIT. "C'est susceptible d'avoir un impact énorme sur les neurosciences".

Le projet a commencé avec un objectif initial de modélisation des 10 000 neurones et 30 millions de connexions synaptiques qui composent la colonne néocorticale d'un rat, constituant fondamental du cortex des mammifères. La colonne néocorticale a été choisie comme point de départ, car elle est largement reconnue comme étant particulièrement complexe, avec une structure hétérogène composée de nombreux types de canaux ioniques et de synapses. "Il est inutile de rêver à la modélisation du cerveau si vous ne pouvez pas modéliser une petite partie de celui-ci", déclare Markram.

Le modèle en lui-même est basé sur 15 ans de données expérimentales sur la morphologie neuronale, l'expression des gènes, les canaux ioniques, la connectivité synaptique, et les enregistrements électrophysiologiques des colonnes néocorticales de rats. Les outils logiciels ont ensuite été mis au point pour le traitement de cette information afin de reconstituer automatiquement des modèles 3D physiologiquement exacts des neurones et de leurs interconnexions.

- Découverte de 300 gènes humains supplémentaires

En utilisant des superordinateurs afin de comparer des portions du génome humain avec celles d’autres mammifères, des chercheurs de l’université Cornell (Etats-Unis) ont découvert 300 gènes humains auparavant non identifiés, et trouvé des extensions à plusieurs centaines de gènes déjà connus.

L’important, avancent les chercheurs, est que leur découverte montre qu’il pourrait y avoir beaucoup plus de gènes qui ont été oubliés en utilisant des méthodes biologiques courantes. Ces méthodes sont très efficaces pour trouver des gènes largement exprimés mais pourraient oublier ceux qui ne sont exprimés que dans certains tissus ou à des stades précoces du développement embryonnaire.

Santé


génétique, traitements, nutrition, hygiène

- Décoder son génome pour 700€ !

Les compagnies 23andme, DeCode Genetics et Navigenics se lancent en effet simultanément sur le même marché. En échange d’un échantillon de votre salive, ou d’un frottis de l’intérieur de la joue, il deviendra possible non seulement de traquer votre généalogie dans ses moindres détails, mais également de connaître vos points faibles et les maladies qui vous guettent.

En fait, ce n'est pas le génome complet, seulement les gènes les plus significatifs. Le décodage complet est proposé par une autre start-up (Knome) mais pour 350 000$!

- Des cellules souches à volonté

On avait déjà signalé qu'on avait réussi à transformer en cellules souches (c'est-à-dire pluripotentes) des cellules ordinaires grâce à certaines protéines. La technique est désormais maîtrisée et les médias en font grand cas car c'est la perspective de ne plus se heurter aux tabous religieux et surtout d'en disposer à volonté. Il y a tout de même une question qui se pose : si les cellules qui se divisent ne sont pas identiques mais comportent une cellule-mère qui vieillit (accumule les déchets et les blessures) et une cellule-fille encore vierge des dommages du temps, il ne faudrait pas se tromper dans le choix de la bonne cellule à transformer en cellule souche, raison peut-être du fait que ces cellules souches artificielles ont tendance à devenir cancéreuses ? En fait, il semble que ce serait un des 4 gènes introduits qui provoquait les cancers et une nouvelle technique avec seulement 3 gènes règlerait le problème, à confirmer quand même...

L’équipe américaine a isolé quatre gènes à l’origine de ces protéines (OCT4, NANOG, SOX2 et LIN28) et les a introduits, à l’aide d’un rétrovirus, dans des cellules de peau humaine (des fibroblastes), provenant de fœtus et de nouveaux-nés. Les lignées qui en sont issues se sont révélées indifférenciées.

De l’autre côté du Pacifique, l'équipe japonaise, conduite par Shinya Yamanaka de l'université de Kyoto, a utilisé elle aussi ces facteurs de transcription sur des cellules de peau humaine, prélevées chez deux adultes. Le rendement est faible : il a fallu 5.000 cellules pour obtenir une seule lignée de cellules iPS. Mais le succès est déjà remarquable.

- Les métastases se comportent comme des embryons

Une interview de Robert Weinberg, un de pionniers de la recherche contre le cancer et qui montre que les métastases échouent la plupart du temps sauf lorsqu'elles viennent de cellules souches qui retrouvent un comportement embryonnaire (notons que c'est une hypothèse qui avait déjà été formulée mais qui fut rejetée alors). En se focalisant sur cette propriété, on pourrait plus aisément lutter contre le cancer.

Sur le long terme, la plus grande réduction de la mortalité par cancer proviendra en réalité de la prévention et non du traitement. Donc, on peut probablement réduire de moitié, voire diminuer des deux tiers le risque de cancer en ne fumant pas, en ne vivant pas avec des fumeurs, en restant mince, en ayant un régime alimentaire riche en légumes et pauvre en viandes rouges, En faisant de l'exercice, et peut-être à l'avenir en prenant différents types de vitamines. Il est encore un peu difficile de savoir lesquelles.

- Le système immunitaire peut «endormir» des cellules cancéreuses

Découverte qui confirme l'hypothèse métabolique du cancer, du moins dans certains cas, le développement d'un cancer pouvant être lié au déficit du système immunitaire.

Certaines cellules du système immunitaire sont capables de maintenir une tumeur cancéreuse à l’état latent, bloquant sa progression sans pour autant l’éliminer. Grâce à la mise au point d’un modèle animal reproduisant cet état de veille, des chercheurs apportent la preuve d’un phénomène qui est suspecté depuis longtemps et offrent les moyens de démonter ses rouages pour éventuellement développer un nouveau moyen de contrôler le cancer.

Les périodes inexpliquées de rémissions de cancers chez certains patients suggèrent que des agents du système immunitaire sont capables d’empêcher le développement de cellules cancéreuses. De même, les cas d’apparition d’une tumeur après une greffe d’organe -tumeur issue des cellules du donneur qui lui ne semblait pas malade- semblent indiquer que des tumeurs cancéreuses peuvent être maintenues à l’état latent –et caché- dans l’organisme.

Les périodes inexpliquées de rémissions de cancers chez certains patients suggèrent que des agents du système immunitaire sont capables d’empêcher le développement de cellules cancéreuses. De même, les cas d’apparition d’une tumeur après une greffe d’organe -tumeur issue des cellules du donneur qui lui ne semblait pas malade- semblent indiquer que des tumeurs cancéreuses peuvent être maintenues à l’état latent –et caché- dans l’organisme.

Dans certains cas la police de l’organisme est capable d’éliminer les cellules cancéreuses, dans d’autres cas elle ne parvient pas à les identifier, dans d’autres enfin elle serait à même de les circonscrire. Les résultats de l’équipe de Schreiber auraient aussi des retombées moins souhaitables, souligne Cornelis Melief, chercheur à l’Université de Leiden (Pays-Bas), dans la revue Nature. Les traitements par chimiothérapie ou radiothérapie, qui affaiblissent le système immunitaire, pourraient réveiller ces tumeurs ‘’sous contrôle’’. D’où la nécessité de pouvoir les identifier.

- Une souris résistante au cancer !

Une des plus importantes nouvelles du mois sans doute. On sait que la prostate est un organe très exposé au cancer à cause des spermatozoïdes, mais qui dispose aussi de puissantes défenses anti-cancer. Au point qu'on a déjà constaté que l'ablation de la prostate augmentait le risque de cancer. Or, en introduisant dans le génome d'une souris la principale défense de la prostate, le gène Par-4 ("Prostate apoptosis response-4") dit "suppresseur de tumeurs" (tout comme le plus habituel P53), on a créé une nouvelle lignée de souris dépourvue de cancer. Cela pourrait sonner une grande victoire contre le cancer, même si sans doute tous les cancers ne seront pas concernés, débouchant sur de nouveaux traitements plus efficaces et moins agressifs. On n'en est pas encore là, il faut tester cette protéine sur l'homme d'abord...

Des chercheurs de l'Université du Kentucky ont créé une souris résistante au cancer par l'introduction d'un gène suppresseur de tumeur, appelé "Par-4" dans un œuf. Le gène "Par-4", découvert en 1993, tue les cellules cancéreuses, mais pas les cellules normales. Il a été trouvé initialement dans la prostate, mais ce gène peut aussi entraîner la mort d'un large éventail de cellules cancéreuses. Dans leurs nouvelles expériences, les scientifiques ont découvert que le gène "Par-4" a été transmis à de nouvelles générations de souris. La prochaine étape sera d'utiliser ce gène chez l'homme grâce à la greffe de moelle osseuse, mais il reste encore du travail à faire avant cela. Quoi qu'il en soit, cela semble une bonne nouvelle pour les personnes atteintes de cancer.

- Pesticides aux Antilles : Le Pr Belpomme admet des «inexactitudes» dans son rapport
Le Monde 09.11

Le Monde relève que « le cancérologue Dominique Belpomme, auteur d’un rapport sur les pesticides annonçant un «désastre économique et sanitaire» dans les Antilles françaises, admet que celui-ci comporte des «inexactitudes» ».

Le journal cite le spécialiste, qui a déclaré lors d’une audition à l’Assemblée nationale, qu’« il y a des inexactitudes dans les détails. Mais le message de fond reste pertinent ».

Le Figaro retient pour sa part que le Pr Belpomme se rétracte. "La chlordéquone n’est probablement pas à l’origine de l’augmentation des cancers de la prostate aux Antilles".

- Les dangers de l'aspartame pour le foetus
Le Parisien, 21.11

A confirmer (l'étude porte sur des rats) et cela dépend sans doute des doses mais on savait déjà que l'aspartame peut être (légèrement) cancérigène. L'effet sur le foetus pourrait être plus significatif et justifier son interdiction pour les femmes enceintes...

C'est ce que tend à prouver une étude épidémiologique menée par la fondation Ramazzini de Bologne (Italie), parue en septembre dans Environnemental Health Perspectives.

Les chercheurs italiens ont étudié des lots de 75 à 95 rats, jusqu'à leur mort, qui avaient été exposés à l'aspartame à partir du douzième jour de leur gestation. Pour les sujets exposés à une ingestion quotidienne équivalente à 100 mg par kg, le taux de tumeurs mammaires, de cancer, grimpe à 31,4 % contre seulement 18,7 % pour des témoins adultes sans exposition in utero.

- Alimentation : les dix commandements anticancer
Le Parisien 08.11

Il est assez amusant de voir présenté comme une découverte récente ce que des médecins injustement décriés clament depuis si longtemps et qu'Hippocrate appelait déjà la 3ème médecine...

Les plus grands chercheurs en cancérologie publient demain un rapport sur le mode de vie que chacun devrait adopter pour éviter la maladie.

Une alimentation minceur et la pratique régulière d'un sport éviteraient 100 000 cas chaque année en France.

Le quotidien livre les recommandations de ces experts, qui conseillent de "limiter la consommation de viandes rouges et grasses", ou encore de ne pas prendre de "compléments alimentaires pour vous protéger du cancer".

"Il ne faut pas que les patients culpabilisent pour la simple raison qu’ils ne savaient pas. Il y a très peu de temps que l’on parle du rôle de l’alimentation dans la survenue de la maladie".

- Mieux que le vin : la pilule-longévité !

Une nouvelle qui pourrait aussi être très importante si les essais sont positif. On avait vu au mois d'octobre que les gènes SIRT des mitochondries, stimulés par le resvératrol du vin, semblaient la clé des maladies dégénératives en simulant l'effet bénéfique du jeûne ou de restrictions caloriques (moins on consomme, plus on vit longtemps, mais à condition de ne manquer de rien...). Fini de boire ! Les premiers véritables médicaments anti-âge vont bientôt débarquer (en premier lieu pour le traitement du diabète) ! On n'en est quand même qu'aux essais, il n'est pas sûr que ça marche aussi bien chez l'homme.

Une nouvelle classe de médicaments 1000 fois plus puissants que le resvératrol, molécule qu'on pense être à la base des bienfaits du vin rouge pour la santé, se montre très prometteur pour le traitement du diabète.

Un nouveau groupe de médicaments qui ciblent un gène lié à la longévité pourrait fournir un moyen d'inverser le processus du vieillissement. Ils ont donné des résultats prometteurs dans le traitement de l'obésité et du diabète chez les rongeurs.

Des essais cliniques chez l'homme devraient être lancés pour tester l'efficacité pour le diabète. Ils devraient commencer dès le début de l'année prochaine.

"Pour autant que je sache, c'est la première molécule anti-âge à entrer dans des essais sur l'homme", déclare David Sinclair, un biologiste de la Harvard Medical School, à Boston, et cofondateur de Sirtris. "De ce point de vue, il s'agit d'un jalon important dans la médecine".

Les nouveaux médicaments ciblent une enzyme appelée SIRT1, qui appartient à une classe de protéines connue sous le nom de sirtuins dont on a montré qu'ils sont impliqués dans l'allongement de la durée de vie, au moins dans les organismes inférieurs. Sinclair, et d'autres, on fait l'hypothèse que l'activation de ces enzymes, qui jouent un rôle clé dans le métabolisme des cellules, simule en fait les effets de la restriction calorique (d'un faible apport en calories) dont on sait que, lorsqu'il constitue un régime alimentaire complet nutritionnellement, il diminue les maladies et augmente la longévité, à la fois chez les invertébrés et les mammifères.

Depuis plusieurs années, les scientifiques ont été à la recherche d'un médicament qui pourrait apporter les avantages de la restriction calorique sans un régime alimentaire trop strict. L'automne dernier, Sinclair et ses collègues ont franchi une première étape quand ils ont montré que des souris à qui ils avaient donné du resvératrol, une molécule qui active SIRT1, étaient restés en bonne santé malgré une alimentation riche en gras. Mais il y a un inconvénient: les souris ont été traitées avec l'équivalent humain de plus de 1000 bouteilles de vin, une quantité impossible à absorber ou prendre en comprimés pour l'homme !

Aujourd'hui, une équipe à Sirtris, dirigée par Christophe Westphal, a identifié un groupe de composés qui activent SIRT1 1000 fois plus que le resvératrol. Selon les résultats publiés aujourd'hui dans la revue Nature, les composés se lient à l'enzyme et augmentent de façon spectaculaire son activité. Parce que les nouveaux composés sont plus puissants, de beaucoup plus faibles doses sont probablement nécessaires pour atteindre les mêmes effets bénéfiques. "Nous croyons que les doses nécessaires à l'homme pour les nouveaux composés sont probablement de l'ordre de centaines de milligrammes, comme de nombreux médicaments commercialisés", selon Westphal.

- Manger BIO c’est meilleur

Les fruits et les légumes biologiques contiennent 40 % d'antioxydants en plus que les produits non biologiques. Cette différence est encore plus grande dans le cas du lait biologique, qui ne contient pas moins de 60 % d'antioxydants et d'acides gras sains en plus. Un tel écart est tellement significatif que le coordinateur du projet affirme que les aliments biologiques ont un apport équivalant à une portion supplémentaire de fruits et de légumes par jour.

- La dinde bonne pour le moral !

La dinde serait anormalement riche en tryptophan, un précurseur de la sérotonine, ce qui pourrait avoir un léger effet anti-dépresseur...

- Alzheimer : peut-être un espoir »… dans le curry
Atmosphères numéro 112

Le Dr Milan Fiala et son équipe ont découvert un élément présent dans le curry susceptible de soigner la maladie d’Alzheimer.

Il s’agit du bisdemethoxycurcumin, un des composants du curcuma, à l’origine de la couleur jaune du curry, qui pourrait guérir. En utilisant des prélèvements sanguins de plusieurs malades, les scientifiques ont pu constater que le bisdemethoxycurcumin entraînait une multiplication des cellules immunitaires et détruisait l’amyloïde bêta, une protéine éliminant les cellules du cerveau.

- Alzheimer : l’« incroyable effet secondaire » de la simvastatine
Avantages numéro 230

D’après des statistiques américaines, la simvastatine (un médicament de la classe des statines agissant sur le taux de cholestérol) abaisserait de 50 % le risque de survenue des maladies d’Alzheimer et de Parkinson. Seul souci, personne ne sait pourquoi !

On peut supposer que son action neuroprotectrice pourrait être liée à la production de NO. La simvastatine augmente en effet la NO synthase endothéliale par un mécanisme indépendant de l'activité hypolipidémiante, mais qui pourrait être lié à l'activation d'une protéine kinase Akt, ce qui favorise la production de monoxyde d'azote et l'angiogénèse. Possèderait également une activité anti-inflammatoire et antioxydante.

- Les cellules souches neurales dans la restauration de la mémoire

L'équipe du Pr. LaFerla a ensuite analysé le potentiel des cellules souches dans la réparation de la mémoire, en injectant des cellules souches neurales aux souris ayant ou non subi des dommages cérébraux. 3 mois après, les souris ont été soumises à nouveau à l'exercice de mémoire spatiale. Toutes les souris présentent alors les mêmes capacités de mémorisation que les souris normales. En revanche, seulement 4% des cellules souches injectées se sont différenciées en neurones, ce qui indique que ce n'est pas en remplaçant les neurones endommagés que les cellules souches injectées améliorent la mémoire. Il semble que l'action des cellules souches consiste à procurer un support aux neurones endommagés en produisant de la neurotrophine, permettant ainsi aux neurones de rester en vie et fonctionnels.

De ce fait, les futures recherches pourraient être orientées vers la mise au point de traitements visant à augmenter la production ou le relargage de neurotrophine au sein du cerveau.

- La schizophrénie, une inflammation ?

Hypothèse à prendre avec des pincettes : il y aurait corrélation entre schizophrénie et "l'existence d'un état inflammatoire chronique illustré par des concentrations sanguines plus élevées que la normale de cytokines inflammatoires chez les patients schizophrènes".

- L'inflammation à l'origine de la résistance à l'insuline dans le diabète de type 2

Selon une hypothèse récente, l'excès de graisse dans les cellules provoquerait une inflammation rendant les cellules indifférentes à l'action de l'insuline. Il suffirait donc, peut-être, d'empêcher cette inflammation, pour éviter le diabète.

Quand un animal ou un être humain devient obèse, il déclenche un processus de steatosis, principalement au niveau du foie. Il s'agit d'une rétention anormale de lipides par les cellules, qui reflète une anomalie dans la synthèse ou la dégradation des triglycérides. Cet excès de lipides est stocké dans des vésicules dont la taille va augmenter progressivement jusqu'à déformer le noyau. La steatosis entraîne l'inflammation du foie.

En conclusion, une molécule capable de bloquer la protéine JNK1 pourrait potentiellement constituer un agent anti-diabétique.

- Deux vaccins japonais contre le H5N1

- Un vaccin freinerait la sclérose en plaques
Science et Vie numéro 1082

Testé sur 30 malades, un traitement à base d’ADN ralentirait les lésions cérébrales caractéristiques de la sclérose en plaques.

Des premiers résultats prometteurs mais à confirmer.

Le traitement ralentit le rythme d’apparition de nouvelles lésions cérébrales, responsables de graves troubles neurologiques. Mieux, le vaccin curatif aurait induit une diminution de la réaction auto-immune caractéristique de la sclérose en plaques.

Le vaccin contient de l’ADN codant pour la PBM (la protéine attaquée par les cellules immunitaires), ce qui provoque un phénomène de tolérance, donc une diminution de cette réaction auto-immune.

Le vaccin expérimental s’avère sans danger et bien toléré.

- Le laser : une nouvelle arme contre le Sida ?

En utilisant un laser émettant dans le proche infrarouge, des chercheurs de l’Arizona State University et de la célèbre Johns Hopkins School of Medicine ont montré qu’ils pouvaient détruire sélectivement des virus tout en épargnant les cellules. On pourrait s’en servir pour lutter contre le Sida et d’autres virus, par exemple pour désinfecter simplement des poches de sang avant transfusion.

- L'homme bionique, c'est pour demain
Le Parisien 06.11

Assez exagéré...

Le Parisien consacre sa Une à la « révolution des organes artificiels », titrant en gros caractères : « Bientôt un corps 100 % réparable ».

Œil électronique, implant auditif invisible, bras, squelette et même utérus artificiels... Jamais la technologie n'a autant révolutionné la recherche médicale.

Un peu partout sur la planète, des chercheurs testent de nouvelles techniques pour «réparer» le corps humain. Grâce aux dernières avancées de l'électronique, du numérique, de la vidéo ou encore des liaisons sans fil, des médecins espèrent améliorer la vie de millions de patients qui souffrent.

Et les scientifiques français sont particulièrement en pointe !

Il y a quelques jours, le Pr José Sahel, de l'hôpital des Quinze-Vingts à Paris, s'est vu décerner le prix Altran pour l'innovation, pour avoir conçu une rétine artificielle qui pourrait bien être capable, d'ici quelques années, de redonner la vue... aux aveugles !

Reste qu'entre l'«homme réparé», qui reste une affaire de médecins, et l'«homme amélioré» ou «augmenté», qui soulève de lourds débats philosophiques, les limites sont ténues.

Certaines inventions dépassent les objectifs de la médecine. Ainsi, l'exosquelette, sorte de combinaison munie d'articulations électroniques, intéresse beaucoup les militaires : cet équipement peut en effet décupler les forces de ses utilisateurs !

De même, l'utérus artificiel, consistant à permettre à un foetus de se développer à l'extérieur du ventre maternel, pose de nombreuses questions éthiques. A partir de quand est-on encore un être humain ? Remplacer un membre n'a-t-il aucune conséquence ?

Le quotidien cite toutefois Henri Atlan, biologiste et philosophe, spécialiste de la bioéthique, qui déclare que "tout progrès thérapeutique n'implique pas la recherche de l'immortalité. Pallier une déficience, ce n'est pas faire un surhomme. On a toujours mis une jambe de bois à celui qui l'avait perdue ! Il faut juste qu'il y ait assez de motivations sociales pour intéresser les gens".

- Greffé dans l’estomac, un pacemaker coupe la faim
Science et Vie numéro 1082

Science et Vie se penche sur le projet de "couper l’appétit des mangeurs en envoyant un simple influx électrique vers leur cerveau".

Avec son équipe pluridisciplinaire de l’Inra (Rennes), le Pr Charles-Henri Malbert vient de déposer le brevet d’un pacemaker implantable dans l’estomac.

L’appareil, expérimenté chez le porc, mime les signaux qui parcourent le nerf vague jusqu’au cerveau, et font naître le sentiment de satiété.

Le porc diminue la quantité d’aliments ingérés et modifie ses préférences alimentaires en se dirigeant plus vers des fibres que vers des glucides.

Reste à savoir si cette découverte sans effets secondaires chez l’animal serait applicable chez l’homme.

- Une oreillette numérique pour arrêter de bégayer
Le Parisien

Le Parisien consacre un article à une "oreillette numérique sans fil, qui vient d’être commercialisée en France".

Le SpeechEasy pourrait bien changer la vie des 600 000 bègues de l’Hexagone.

Le quotidien note que l’appareil « promet de mettre un terme au bégaiement d’une manière instantanée », et cite Stephen Douezy, responsable de l’enseigne Ecoute ! Ecoute !, qui explique que « l’oreillette permet au bègue d’écouter ce qu’il est en train de dire avec un petit retard, et une fréquence plus grave ou plus aiguë, au choix. Concentré sur ce que lui retransmet l’appareil, il ralentit son débit, sa parole devient plus fluide… il ne bégaie plus.

Le taux de réussite est de 80 %.

Commercialisées aux Etats-Unis en 2001, ces oreillettes connaissent depuis un succès énorme, 18 % des bègues qui ont essayé un appareil de ce type disent que c’est un réel succès, 44 % déclarent avoir constaté quelques améliorations et 38 % que c’est un échec complet.

Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie

- Des étudiants français leaders de la biologie synthétique

On parle beaucoup du retard de la France dans les biotechnologies. Des étudiants parisiens viennent d'être doublement récompensés par le MIT pour leurs recherches en biologie synthétique : "C'était la première fois que des Français participaient", et ils ont gagné !

Pendant trois mois, ils ont essayé de créer un organisme constitué de deux lignées cellulaires interdépendantes, chacune ayant besoin de l'autre pour se développer. "En général, les projets actuels se basent sur la reprogrammation d'une seule lignée. Nous avons cherché à complexifier le problème", résume David Bikard. Même s'ils n'ont pas été au bout de leur projet, le jury les a doublement félicité. Par un premier prix et par une médaille d'Or. Cette dernière récompense la qualité des "briques" génétiques qu'ils ont mises au point et assemblées sur des filaments d'ADN. Elles seront désormais ajoutées à une base de données accessibles à toute la communauté du domaine.

- Des OGM qui bloquent les gènes de leurs parasites

Monsanto met au point des plantes génétiquement modifiées qui utilisent l'interférence ARN pour tuer les insectes qui les mangent.

Les chercheurs ont créé des plantes qui tuent les insectes en perturbant l'expression de leurs gènes. Les plantes qui déclenchent l'inhibition de gènes, par la production d'ARN-interférents, constituent une nouvelle étape par rapport aux cultures génétiquement modifiées qui produisent des protéines toxiques. Parce que ces nouveaux OGM ciblent des gènes spécifiques de certains insectes, ces chercheurs pensent qu'ils seront plus sûrs et moins susceptibles d'avoir des effets inattendus que les autres plantes génétiquement modifiées. D'autres avertissent au contraire qu'il est bien trop tôt pour faire de telles prédictions et que les plantes doivent être soigneusement testés afin de s'assurer qu'ils ne posent pas de problèmes à l'environnement.

On voit sur l'image la différence entre les racines d'un plant normal et d'un plant OGM.

- Une méthode industrielle de fabrication de nanofils

Des chercheurs du National Institute of Standards and Technology (NIST) viennent de proposer une méthode de croissance qui permet d'obtenir directement sans manipulation des réseaux de nanofils de ZnO (oxyde de zinc) alignés et parallèles. Le procédé de croissance est traditionnel et consiste tout d'abord à déposer par des procédés conventionnels de lithographie des nanoparticules d'or sur des sites prédéfinis par gravure de la surface du substrat de saphir. La croissance des nanofils d'oxyde de zinc se fait à partir des gouttelettes d'or qui se forment suite à la fusion des nanoparticules déposées et qui servent de germe, et la direction de croissance est déterminée par le léger désaccord de maille entre le substrat et le cristal de ZnO, de sorte que les nanofils poussent tous dans la même direction à la surface du saphir. Puisque la localisation des germes et la direction de croissance sont bien déterminées, il est ensuite beaucoup plus facile d'implanter des contacts et les autres éléments nécessaires à la réalisation du dispositif par lithographie.

- Des centrales nucléaires au thorium plus propres

Associer du thorium à l'uranium 235 permettrait de produire moins de déchets radioactifs mais surtout beaucoup moins de plutonium susceptible de faciliter la dissémination nucléaire. Cette technologie bien que plus complexe pourrait être appliquée aux centrales existantes et devrait être imposée pour la construction de centrales à l'étranger.

Thorium Power a été lancé en 1992 pour commercialiser une technologie qui réduit la quantité de déchets toxiques produits par les réacteurs traditionnels. La technique a été développée par le défunt Alvin Radkowsky, un des concepteurs originaux des réacteurs de l'US Navy's et des premiers réacteurs de centrales nucléaires commerciales. Le schéma de Radkowsky repose sur les deux carburants, uranium et thorium, le rendant finalement plus complexe. Mais faire cela permet de laisser plus longtemps plus de combustible dans le réacteur et de produire des déchets qui sont moins toxiques.

- Après ITER et HYPER voici Ignitor !

Le projet Italo-américain Ignitor (Ignited plasma in Tokamaks) n'est sûrement pas une bonne solution à long terme pour la fusion nucléaire car utilisant un carburant trop rare, mais ce modèle réduit a quand même plus de chances de marcher que le gigantesque projet ITER condamné d'avance.

Le plan Ignitor peut dans les 10 prochaines années, être complètement opérationnel.

Il fonctionne en brûlant du deutérium et du tritium avec des pics de température allant jusqu'à 111 millions de degrés (plus élevée que celle du soleil) et des pressions de 33 atmosphères générant une puissance de 100 MégaWatts. Avec ce réacteur, il n'y a aucun problème de déchet car tout se recycle.

Ignitor est un réacteur expérimental qui doit vérifier chaque hypothèse théorique. Il nécessite 3 ans de construction et si les attentes se confirment, il sera possible de procéder à la fabrication du réacteur opérationnel de puissance de 300 MégaWatts, qui requiert 5 ans de réalisation.

- Des algues pour produire de l'hydrogène

Il y a plusieurs projets de production d'hydrogène à partir de bactéries. Cette fois-ci, c'est à partir d'algues.

Lorsqu’elles sont placées dans un milieu où il y a peu d’ oxygène mais beaucoup de lumière, certaines algues d’eau douce sont capables de produire de l’hydrogène. En manipulant leurs gènes, une équipe de chercheurs franco-suisse montre que cette réaction naturelle des algues au stress peut être exacerbée et constituer une nouvelle voie intéressante pour la biosynthèse d’hydrogène.

Les chercheurs ont réussi à manipuler les gènes d’algues vertes unicellulaires de telle sorte qu’en présence de cuivre les gènes impliqués dans la production d’oxygène soient inhibés. Cela risque d’être néfaste pour l’algue qui, privée trop longtemps d’oxygène, pourrait en mourir. L’expérience montre que tel n’est pas le cas : le système génétique imaginé par les chercheurs conduit à une reprise temporaire de l’activité photosynthétique cellulaire si le niveau en oxygène atteint est trop bas.

- Les termites au service des biocarburants

Face aux problèmes posés par les agrocarburants –augmentation du prix des denrées alimentaires, pollution des terres agricoles..- la transformation de déchets de bois en bioéthanol semble une meilleure solution pour répondre aux besoins en carburant vert de la planète. Cependant, à l’heure actuelle, il est plus facile de faire de l’essence à partir du maïs ou de la canne à sucre que des fibres du bois. Ces dernières contiennent des molécules plus difficiles à casser : la lignine, la cellulose et l’hémicellulose.

Les termites. Leurs intestins abritent des communautés bactériennes spécialisées dans la digestion du bois. En théorie, l’intestin des termites peut transformer une feuille de papier A4 en deux litres d’hydrogène.

- L'énergie osmotique, renouvelable et non polluante

Transformer en énergie la différence de salinité entre eau douce et eau de mer : l’idée peut étonner. Mais « ce n’est pas une lubie de chercheur ».

On appelle cela l’osmose. Une différence de salinité peut forcer de l’eau à traverser une membrane, provoquant d’un côté une élévation de la surface, que l’on peut utiliser pour tirer un peu d’énergie. Simple ? Oui. Utopique ? Pas du tout puisqu’un prototype existe déjà…

Les calculs montrent, si on prend le projet norvégien, qu’on peut récupérer de l’ordre de 3 watts par m2. Si on prend un appartement qui consomme 10 kilowatts, et si on imagine une récupération jusqu'à 4 watts par m2, il faudra 2.500 m2 de membranes, soit le tiers d’un terrain de football. Mais les membranes sont spiralées et prendraient moins de place.

Il y a peu d’énergie récupérée par mètre carré mais la source d’approvisionnement est pratiquement gratuite. C’est pour cela que c’est relativement révolutionnaire. Et par rapport au solaire et à l’éolien, c’est une production constante. Alors qu’avec l’éolien, il faut du vent et avec le solaire, il faut du soleil.

- Produire de l'électricité en marchant

De quoi alimenter au moins un portable, rien qu'en marchant...

La marche, et autres mouvements, en agitant les aimants de la ceinture, produisent de l'énergie dans les fils des bobines du microgénétateur de M2E.

- Stocker la chaleur du soleil

L'accumulateur vise à stocker, sous forme de chaleur latente, une partie de l'énergie solaire récupérée par la centrale. Grâce à ce système de stockage, la centrale doit pouvoir produire de l'électricité la nuit ou par temps nuageux.

L'accumulateur (à sel de nitrate) est constitué de plusieurs couches de graphite et de matériaux, caractérisés par un changement de phase à température quasi-constante, qui permettent un stockage thermique par chaleur latente. Installé sur la plateforme de recherche solaire d'Almeria en Espagne, l'appareil délivre une puissance de 100kW avec des températures de vapeur d'eau dépassant les 200 degrés Celcius. Il est capable de stocker la chaleur pendant 10 heures et d'en restituer, en temps voulu, jusqu'à 90%.

- Le recyclage du silicium

IBM Burlington a annoncé avoir développé une technologie uniquement mécanique et abrasive qui permettra de recycler ces galettes usagées en panneaux solaires. Elle permet de réduire la consommation d'énergie de cette phase, de ne pas consommer d'acides, et d'accélérer le recyclage. Le Silicium ainsi obtenu n'est pas d'une pureté suffisante pour être réutilisé dans des processeurs, mais convient à des productions de panneaux solaires.

- L'effet "pacificateur" des énergies renouvelables

Ce n'est pas une découverte mais une étude allemande montre que les énergies renouvelables étant décentralisées réduisent la dépendance extérieure et la compétition pour les ressources ainsi que les risques terroristes.

- La voiture électrique de Bolloré

Rien d'extraordinaire, juste un petit progrès dans les batteries pour voitures électriques et sa disponibilité en France dès 2009 pour environ 15 000€.

Le groupe Bolloré vient d'obtenir l'homologation de sa Bluecar. Cette petite voiture électrique peut accueillir trois passagers de front à l'avant et deux à l'arrière. Sa particularité principale ? Elle dispose d'une batterie s'appuyant sur la technologie Lithium Métal Polymères (LMP).

La Bluecar dispose aujourd'hui d'une autonomie de 250 km et peut atteindre la vitesse de 130 km/h en pointe. Long de 3,3 mètres, le modèle se caractérise avant tout par sa batterie Lithium Métal Polymères aux avantages nombreux et, évidemment, respectueux au maximum de l'environnement: durée de vie de dix ans, sans liquide, entièrement recyclable, cinq fois plus légère que les batteries au plomb et rechargeable en six heures pour une autonomie totale.

- Voir son véhicule de dessus pour se garer

Nissan va mettre sur le marché très bientôt sur les véhicules Elgrand au Japon et Infiniti EX35 aux Etats-Unis un système d'aide au parking extrêmement séduisant dans son principe.

Le système Around View Monitor, repéré pour la première fois sur le concept EX au salon de New York au printemps, offre une vue imprenable sur la voiture et ses environs immédiats, grâce a un dispositif composé de 4 caméras à très grand angle (180 degrés) tournées vers le sol et situées stratégiquement sur les quatre faces du véhicule: une dans la calandre, une dans la poignée du coffre et une sous chaque rétroviseur latéral. Les images de ces quatre caméras sont réarrangées sur le moniteur de bord en une vue aérienne virtuelle qui montre très exactement où se trouve le véhicule par rapport aux obstacles qui l'entourent.

- Des voitures futuristes

Des designers ont planché sur le thème de l’automobile telle qu’elle pourrait être dans cinquante ans. De la voiture fondante à celle qui avale la pollution, les perspectives envisagées ne manquent pas d’audace.

C’est pour répondre au problème de l’encombrement de la circulation que Volkswagen a imaginé cette voiture verticale dans laquelle on se tient pratiquement debout. Oui, mais alors pourquoi avoir imaginé un véhicule monoplace, comme on le voit sur les dessins ? Guidée par une multitude d’automatismes, dans la voiture et dans la route, la Splitstream roule redressée en ville, de sorte d’en tasser un grand nombre à la queue leu leu sur des pistes spéciales. Hors des agglomérations, ce véhicule peut emprunter des routes spéciales (que Volkswagen nomme déjà, justement, Splitstream). La voiture se couche à l’horizontale et accélère jusqu’à 400 kilomètres à l’heure…

- Quand le GPS transforme les téléphones mobiles en outils de cartographie sociale

Un pas de plus dans la surveillance réciproque...

C’est en constatant que les gens s’appellent sans cesse pour savoir où ils sont, que Sam Altman, le cofondateur de Loopt, a imaginé son service. Pour 3 dollars par mois, vous pouvez géolocaliser vos amis qui ont souscrits à ce service et inversement. On peut contrôler avec qui on partage le service et on peut masquer sa géolocalisation si besoin.

- L’intérim hyperlocal sur nos mobiles

Le travail à la sonnerie, le travail hyperflexible...

La société japonaise LocationValue a développé Otetsudai Networks, que l’on pourrait définir comme un réseau d’intérim hyperlocal accessible depuis son téléphone mobile.

Pour les concepteurs d’Otetsudai Networks, les jeunes Japonais cherchent de plus en plus la liberté et la flexibilité, plutôt que de l’argent, quand ils cherchent des boulots à temps partiel. D’où l’idée du service mis au point par LocationValue : si vous cherchez ou offrez un job, vous vous inscrivez, vous remplissez votre profil de compétence ou votre demande et vous branchez le GPS de votre mobile. Il vous suffit ensuite d’envoyer votre requête au réseau : “je cherche un caissier pour le rush de fin de journée” ou “je cherche quelqu’un pour m’aider à déménager”. En quelques minutes, vous obtenez la liste des personnes qui correspondent à votre demande et qui sont disponibles à proximité.

Employeurs et employés sont notés par les contractants, ce qui permet de mettre au point un système de confiance efficace, à la eBay. Fin octobre 2007, le réseau comptait 45 000 utilisateurs et grossissait de 1000 nouveaux utilisateurs quotidien.

- Des mobiles avec projecteur intégré

L'intérêt ne saute pas aux yeux...

- Un IRM portatif

Les IRM nécessitent les fameux Superconducting Quantum Interference Device (Squid) capables de mesurer des champs aussi faibles que quelques femtoteslas (10-15 T). Malheureusement, ces dispositifs (voir ci-dessus) ne sont pas très commodes car ils nécessitent d’être refroidis avec de l’hélium liquide à seulement quelques kelvins. Les nouveaux capteurs mis au point n’ont pas ce problème, même s’ils ne permettent pour le moment que de mesurer des champs magnétiques de 70 femtoteslas. Cela devrait mettre l'IRM, et donc l'étude du cerveau, à la portée de tous...

Le principe du fonctionnement est simple. On enferme un gaz d’atomes de rubidium dans une petite boîte transparente et l’on fait passer à travers un faisceau laser polarisé circulairement. Tant que le gaz n’est pas soumis à un champ magnétique, le faisceau laser ne subit pas d’absorption significative mais son intensité baisse aussitôt à la sortie du dispositif lorsque l’on plonge celui-ci dans le faible champ magnétique généré par un corps quelconque.

Pour en faire un véritable dispositif portable, il reste encore à miniaturiser le laser et le détecteur d’intensité lumineuse nécessaires, mais cela devrait pouvoir se faire. Les chercheurs pensent même que le tout pourra fonctionner avec de simples batterie et qu’il pourra équiper des aéroports afin de détecter d’éventuelles bombes.

- Un bras artificiel commandé par EEG

Ce n'est plus très nouveau, et encore assez primitif, mais les progrès continuent...

- Vers le robot assistant personnel

Un nouveau logiciel permet aux robots de ramasser des objets qu'ils n'ont jamais vu auparavant - une étape décisive vers la création d'assistants domestiques multifonctionnels.

- Les enfants aiment les robots

Rien de tellement étonnant que les enfants considèrent un petit robot comme l'un des leurs, c'est quand même mieux qu'une poupée et cela ne veut pas dire qu'ils ne font pas du tout la différence...

- Un siège qui vous suit !

Jelte van Geest, étudiant à la Eindhoven Design Academy propose à l'utilisateur de bénéficier d'un siège mobile et interactif, qui le suit dans ses déplacements au moyen d'une carte d'identification RFiD. Testé dans une bibliothèque d'Eindhoven (Hollande), le dispositif permet d'avoir accès à un siège quand on s'arrête dans les rayons de la bibliothèque pour feuilleter des livres et pour assurer plus de confort à l'usager. Dès que vous sortez de la zone d'action, le siège retourne tout seul dans son parc.

La vidéo est très amusante et convaincante.

- Un écran souple qui peut afficher des vidéos

Les annonces de papier électronique se multiplient. Le prototype d'E-link semble le plus convainquant, pouvant même afficher des vidéos à 30 images par seconde (voir la vidéo).

Aucune date de commercialisation n'a été avancée pour l'instant, mais l'arrivée de la couleur et de la vidéo étend le domaine d'application de la technologie et fait d'E-Ink le candidat le plus à même de dominer le marché des écrans de demain.

- L'ordinateur au travail

C'est un programme de l'Union Européenne de faciliter l'utilisation de l'ordinateur au travail et dans des situations extrêmes.

Pour les travailleurs mobiles, l'objectif est de remplacer les interfaces traditionnelles, telles que l'écran, le clavier ou l'unité centrale, par la parole ou le geste, sans modifier les applications. Ce système portable est actuellement à l'essai dans quatre domaines différents, comme l'entretien des avions, les interventions d'urgence, la fabrication de voitures et le domaine de la santé.

- Le télétravail est bon pour le moral

Selon l’étude, l’un des facteurs le plus important pour la satisfaction des employés est l’autonomie, que le télétravail apporte à un niveau individuel. “Nos résultats montrent que le télétravail a un effet largement bénéfique parce que le réaménagement qu’il implique apporte à l’employé plus de contrôle sur la manière dont il accomplit son travail”, explique Ravi Gajendran, l’un des co-auteur de l’étude. “L’autonomie est un facteur majeur de la satisfaction du travailleur et cela résonne vraiment dans notre analyse. Nous avons trouvé que les télétravailleurs rapportent qu’ils ont une meilleure satisfaction, qu’ils sont moins enclins à quitter leur société, ont moins de stress, améliorent l’équilibre entre le travail et la vie privée et améliorent leurs performances.”

- Google, l'empire du gratuit

C'est l'explosion, l'emballement, l'invasion sur tous les fronts, la course contre la mort car pendant ce temps de nombreux autres moteurs apparaissent (kartoo, exalead, ixquick, etc.) qui pourraient renverser sans coup férir cet empire si fragile : il faut recycler très vite les immenses revenus trop précaires dans un environnement très incertain et volatile. La gratuité est un lien faible. Il n'empêche que Microsoft régresse devant cette puissance fragile.

Google ayant renoncé à construire ses propres mobiles, on croyait qu'ils se contenteraient de fournir le software en open-source mais voilà qu'ils se montrent intéressés par l'achat des fréquences mobiles : Google est officiellement candidat.

En plus du reste, Google investit dans les énergies renouvelables !

- Google lancerait bientôt son disque dur virtuel

Google prépare activement le lancement de son offre de stockage en ligne, qui pourrait être disponible dans quelques mois, affirme le Wall Street Journal. Le moteur de recherche proposerait gratuitement aux internautes de stocker leurs documents sur ses propres serveurs, avec des espaces supplémentaires payants. L'accès pourrait se faire depuis un ordinateur ou depuis un mobile.

- Google-libre contre Microsoft-propiétaire

Le groupe Wal-Mart propose pour 199 dollars un ordinateur intégrant des applications développées par Google, comme GMail pour la messagerie, ou la suite bureautique en ligne Google Document composée d'un traitement de texte et d'un tableur, associées à la suite de logiciels libres Open Office.

- Urban jungle à Hong Kong

Un délire de graphiste...

Le projet "Jungle Urbaine" du cabinet d'architectes Vincent Callebaut propose de re-domestiquer la nature et d'élargir le territoire de cette ville ultra contemporaine. Au coeur de la mer de Chine méridionale, le projet prévoit la re-naturalisation du paysage urbain du "Port aux Parfums" et de son extension du bord de mer. Dans le cadre d'un développement durable, l'objectif est ainsi d'augmenter les possibilités immobilières de la ville tout en les marquant d'une empreinte fortement écologique. Les nouveaux espaces devront être autosuffisants et produire plus d'énergie qu'ils n'en consommeront.

- Les étoiles du design 2008

Strida 5, Vélo pliant

Pratique en cas de grève des transports ! Ce vélo de 9,5 kg se plie en 3 secondes et roule alors comme une poussette. Il atteint les 42 km/h sur le plat et il s'arrête grâce à des freins à disques. Son cadre numéroté en aluminium est garanti à vie. Il est pour l'instant réservé aux bobos parisiens, vendu 790 € chez Colette et au BHV.

Spykee, Jouet robot Wifi (Meccano 249€)

Parents, attention. Ce robot à monter soi-même se transforme en espion, grâce à une webcam, un haut-parleur et deux moteurs.

On le pilote par l'intermédiaire d'un ordinateur équipé du Wifi. Spykee voit, entend, parle, prend des photos et des vidéos, détecte les mouvements, donne l'alarme et envoie même par email une photo de l'intrus. Jamais à court, il retourne tout seul à sa base recharger sa batterie.

- Comprendre le cerveau : l’interprétation en question

Article intéressant sur les tentatives de lire dans le cerveau par IRM les réactions émotionnelles pour faire du neuromarketing. Il est certain que la technique reste actuellement très frustre et souffre de nombreux biais dans son interpétation mais il ne faut pas s'y tromper, on n'en est qu'au début. On arrive à en savoir de plus en plus et si on n'en est pas encore à lire dans nos pensées, loin de là, ces techniques seront à n'en pas douter efficaces, au moins à un niveau statistique et ne pourront plus être ignorées.

- De l'art de l'incompétence

Les personnes qui occupent des responsabilités pour lesquelles elles s'estiment incompétentes ont l'habitude de s'entourer de collaborateurs tout aussi peu efficaces révèle une étude de l'université de Grenade.

Une étude du département de psychologie sociale de l'université de Grenade a révélé que les personnes qualifiées pour exercer un travail qui implique une responsabilité préfèrent travailler avec des sujets compétents et sociables, alors que ceux qui se perçoivent comme incapables pour remplir une tâche préfèrent avoir à leur côté des personnes moins compétentes et moins sociables. Elles espèrent sans doute par ce moyen éviter d'entrer en concurrence avec un subordonné autant ou plus qualifié qui pourrait les démasquer.

- Toutankhamon dévoilé !

Son visage a été découvert pour la première fois, on ne respecte plus les morts mais du moins on peut constater sa parfaite conservation à travers les millénaires. Pas sûr que les conditions actuelles lui donnent autant de temps à vivre sous les projecteurs... [il paraît noir, avec le temps, mais sa génétique le rapproche plutôt des européens]

2 258 vues

6 réflexions au sujet de “Revue des sciences 12/07”

  1. Pour le laser anti-sida, j'avais rencontré des russes qui avaient d'après eux mis au point une fibre optique implantée dans une veine par exemple, comme une aiguille en somme. Leur théorie était que selon les fréquences et intensités utilisées pour éclairer le sang circulant devant le faisceau laser, il était possible de traiter toutes sortes de maladies.
    Leur explication était que la lumière laser modifiait les propriétés de perméabilité de la membrane cellulaire.

    La collaboration n'a pas été plus loin, le principe était séduisant mais je me suis toujours demandé si ils n'étaient pas des charlatans sans aucun résultat clinique sérieux...

  2. Jean,

    Merci encore une fois pour cette revue.

    Les progrès de la science sont impressionnant, surtout ces derniers temps. Mais on note tout de même qu'elle se doit non d'être censurée, mais au moins étudiée vis à vis de son impact sur l'environnement, et au sens large sur le biotope et la biosphère.

  3. Je me pose une question sans doute très bête au sujet des trous noirs: certes la densité est grande, les lois de la physique s'y expriment différemment que dans "notre" monde. Pour autant cela n'empêche sans doute pas la création de structures voir d'organisations. Je ne sais pas hein mais peut-être que le temps et toute autre mesure dimensionnelle pourrait être une fraction de densité énergétique. Si les arguments pour que l'homogénéité règne dans les trous-noirs sont forts, ils le sont tout autant pour qu'elle règne dans notre univers. L'histoire nous dit que ça ne se passe pas forcément comme ça.

    En fait c'est quoi la définition du mot "univers" ?

  4. Pour Alain Cardon, mon impression est mitigée. Je suis persuadé qu'il y a des idées valables et qu'il en sortira quelque chose mais je suis à peu près sûr qu'il se trompe sur plusieurs points, qu'il ne tient pas assez compte de la construction collective de l'intelligence, ni de la fonction de l'inhibition, ni surtout qu'il comprend bien le fonctionnement du langage et son incidence sur sa propre représentation de la conscience. Je pense qu'on en apprendra plus de la simulation du cerveau ou de son observation, comme on l'a fait récemment pour le processus d'abstraction et d'apprentissage. Son schéma du fonctionnement cérébral peut avoir son utilité, il peut être fonctionnel, il n'en reste pas moins largement fantasmatique et il y a quelque chose de psychotique dans son rapport à la conscience et sa prétention d'arriver vraiment à recréer la conscience avec, pour corollaire, sa peur de déclencher ainsi des forces infernales... Evidemment, c'est peut-être moi qui ai tort, je n'ai pas passé assez de temps à étudier ses théories, et ce sont les résultats qui trancheront, mais il y a sûrement plusieurs idées intéressantes et la pensée n'avance que pas à pas. On n'est sûrement pas au bout de nos peines...

    Dans la lignée de Laborit, j'ai abordé, sous un tout autre angle, "l'émergence de la conscience":
    jeanzin.fr/ecorevo/scienc...

    --

    L'univers, c'est l'espace-temps entre les corps en mouvement et le rayonnement qui le traverse : il n'y a pas d'espace vide de champ. On parle de bulles d'univers en tant qu'on ne pourrait interagir avec d'autres bulles d'univers dont on est séparé.

    Supposer qu'un trou noir puisse donner naissance à un autre univers dans d'autres dimensions, c'est supposer que nos dimensions d'espace ne sont pas une donnée première mais des champs qui peuvent être impénétrables à d'autres champs situés dans d'autres univers avec lesquels ils n'interagissent pas... Il ne me semble pas que ces hypothèses soient compatibles avec la théorie holographique qui fait d'un trou noir le maximum d'entropie avec le maximum d'agitation des particules sur une surface minimale. Ce qui fait que le trou noir est supposé sans structure et détruire l'information (pourtant indestructible!) c'est la chaleur et la pression qui y règnent, comme au moment du Big Bang, ainsi que les fluctuations quantiques énormes à cette échelle. On ne peut dire qu'il soit complètement sans structure, plutôt sans structure stable. On pourrait dire, d'un point de vue entropique, que toute l'organisation ultérieure est l'héritage de l'organisation initiale de structure chaotique et donc créatrice d'informations et de régularités. Ceci dit, pour l'instant personne n'a vu un trou noir, peut-être que ça n'existe pas, qu'il n'y a que des corps noirs très massifs mais qui ne vont jamais jusqu'au trou ! En physique on ne sait pas de quoi on parle, on manipule des équations, c'est pour cela qu'il faut l'expérience pour décider, mais de quoi secouer nos certitudes... (sans tomber dans le n'importe quoi mystique!)

Laisser un commentaire