Revue des sciences 03/09

Temps de lecture : 79 minutes

<- Revue des sciences précédente | Revue des sciences suivante ->
Revues : Pour la Science - Sciences et Avenir - La Recherche 
Brèves : Physique - Climat - Biologie - Santé - Technologie

L'histoire ne s'écrit souvent qu'après coup. En Physique au moins, il est bien difficile de nos jours de savoir lorsqu'on fait une découverte historique car il faut beaucoup de temps de vérification des données. On a peut-être eu trace du boson de Higgs, on a peut-être une confirmation de la théorie des cordes... En tout cas, malgré le retard à l'allumage du LHC, ça s'agite autour de particules exotiques. En biologie, notre connaissance de la génétique s'avère encore bien primitive puisqu'on vient seulement de découvrir que l'ADN était lu dans les 2 sens ! Il faut dire que nous ne sommes, parait-il, que des éponges évoluées, absorbant l'atmosphère ambiante. En tout cas, on a beaucoup à apprendre sur le fonctionnement du cerveau des "autistes" extraordinaires comme Daniel Tammet ("si on n'a pas d'amour, on n'a pas de génie"). Bien sûr, on trouve quelques différences dans le fonctionnement du cerveau entre hommes et femmes qui sont bien distincts biologiquement, au grand dam de certaines féministes négationnistes de la différence sexuelle, mais cela ne suffit pas à faire une pensée féminine différente de la pensée masculine, dans les sciences au moins. Malgré toutes nos différences, il y a unité de l'esprit, un monde commun. Sinon, la nouvelle révolution technologique est sûrement l'internet des objets qui devrait prendre rapidement beaucoup plus d'importance que l'internet des humains et dont les puces RFID 2.0 donnent un avant goût. Les objets réactifs ont sûrement de l'avenir aussi. Si nous avons un avenir ? On ne sait si on pourra compter sur la géoingénérie pour nous sauver d'un réchauffement déjà irrémédiable, mais on en aura besoin, ça c'est de plus en plus sûr, et le principal dossier du mois...

On trouvera une version éclatée en plusieurs articles de cette revue des sciences sur le site du GRIT-Transversales : physique - climat - biologie - santé - technologies.


Pour la Science no 377, Le grand défi des nombres premiers


Pour la Science

- ADN :lecture à double sens, p9

Très grande découverte qui complexifie encore la génétique puisque l'ADN serait lu dans les 2 sens !

La transcription de l'ADN en ARN n'est pas un processus à sens unique : le brin d'ADN peut être lu dans les deux sens.

Lors de la transcription, par exemple pour fabriquer une protéine, les deux brins de la double hélice s'écartent au niveau du gène qui code la protéine, et laissent la place à un complexe enzymatique, l'ARN polymérase, qui reconnaît un site particulier nommé promoteur. Ce site indique le point de départ de la transcription, qui se fait ici dans le sens 3'-5'. Cependant, ce schéma n'est valable que pour les fragments d'ADN codant des protéines. Or cette fraction ne correspond qu'à deux pour cent du génome d'une cellule humaine.

Pourtant, la quasi-totalité du génome est transcrite en ARN, certains ARN étant stables, d'autres étant rapidement dégradés. Parmi les premiers, on trouve par exemple des ARN régulateurs de l'expression des gènes, ceux qui constituent les ribosomes, etc. Et l'on ignore la fonction de beaucoup...

Les biologistes ont étudié des cellules de levure (Saccharomyces cerevisiae), ces micro-organismes fonctionnant à la façon des cellules humaines, et ont analysé tout ce qui est transcrit. La plupart des régions du génome sont transcrites, plusieurs produits de ce processus l'étant à partir des mêmes promoteurs. De plus, de la majorité des promoteurs, la transcription a lieu dans les deux sens, 3' vers 5', mais aussi 5' vers 3' : en d'autres termes, le promoteur n'est pas situé à une extrémité de la séquence transcrite, mais au centre. Plusieurs des ARN fabriqués correspondraient à une sorte de « bruit transcriptionnel » : ils disparaissent rapidement sans avoir apparemment de fonction.

- Les mathématiciens responsables ?, p18
Ivar Ekeland

Aujourd'hui, grâce à la modélisation mathématique, le marché est certainement l'un des concepts les mieux compris, dans sa force comme dans ses limites : il ne répond pas au problème de la justice sociale (l'équilibre dépend de la répartition initiale des richesses), il s'applique mal aux situations où l'avenir est incertain, où la concurrence est imparfaite, où les acteurs ne partagent pas l'information, et où il y a des externalités (ma consommation influe sur celle des autres) ou des biens publics (l'environnement ou l'éducation). Cela fait quand même beaucoup, et l'on ne trouvera guère de mathématiciens qui pensent que le recours au marché est la réponse à tous les problèmes de l'économie.

Ajoutons, sur le sujet, cet article de Roubini (le nouveau gourou de la crise) :
L’échec du modèle anglo-saxon

Toutefois, si cette crise ne signifie pas la fin d’une économie de marché capitaliste, elle a montré l’échec d’un modèle particulier de capitalisme : celui du laissez-faire non réglementé (ou agressivement déréglementé), du modèle d’un capitalisme de marché du « far-west » caractérisé par l’absence de réglementation prudentielle, de supervision des marchés financiers et par l’absence de prise en charge adéquate des biens publics par les gouvernements.

Elle marque l’échec d’idées telles que celle de « l’hypothèse des marchés efficients » qui entretenait des illusions quant à l’absence de défaillances du marché, dont font partie les bulles spéculatives ; celle des « anticipations rationnelles » qui est remise en cause par les apports des études comportementales dans le domaine de l’économie et de la finance ; celle de « l’auto-régulation des marchés et des institutions » qui contredit le constat classique sur les conflits d’intérêts à l’oeuvre dans la gouvernance d’entreprise qui sont eux-mêmes exacerbés dans les sociétés financières par le plus grand degré d’asymétrie de l’information.

- Une nouvelle science : la neuromagie, p58

En fait, c'est l'étude des illusions cognitives : cécité au changement, par inattention, par distraction, par rationalisation, corrélation illusoire, auxquelles il faudrait ajouter les illusions visuelles, notamment les images rémanentes, persistance rétinienne de 100 millisecondes qui serait suffisante pour de nombreux tours...

- Une ombrelle pour la planète Terre, p67

Un nuage de parasols spatiaux ferait de l’ombre à la Terre et réduirait le réchauffement climatique. Une solution futuriste ?

La géo-ingénierie, en d'autres termes l'étude de solutions techniques pour « climatiser » la Terre, n'est pas un domaine nouveau. Dès 1965, un comité d'experts de l'environnement avertit le président des États-Unis que les émissions de dioxyde de carbone entraînent des « modifications significatives du climat » qui « pourraient avoir des effets délétères ». Ces experts ne suggèrent pas de réduire les émissions, mais de « répandre de minuscules particules réfléchissantes » au-dessus de quelques millions de kilomètres carrés d'océan, afin de renvoyer dans l'espace un pour cent supplémentaire de lumière solaire. Pour farfelue qu'elle paraisse, l'idée reste d'actualité puisqu'en 1997, le physicien américain Edward Teller (le père de la bombe à hydrogène) propose d'imiter les grandes éruptions volcaniques en injectant de fines particules dans la haute atmosphère, car la présence en altitude de ces aérosols refroidit la Terre. Nous examinerons ici une nouvelle variante de cette ancienne proposition, ainsi que deux autres projets, très futuristes, mais qui illustrent la créativité des géo-ingénieurs et le potentiel de leur discipline.

On avait parlé dès Juillet 2006 des projets de manipulation du climat qui semblaient un peu fous alors mais de plus en plus inévitables aujourd'hui ! Il est certain qu'on ne restera pas à se laisser griller sans rien faire, quand à savoir si ça marchera... Ainsi, l'effet d'un voile sur le soleil n'est pas équivalent à un effet de serre moindre, surtout au niveau des pôles la nuit, modifiant le bilan radiatif. Or la préservation des glaces polaires est un enjeu primordial. Ce sont malgré tout des phénomènes relativement courants avec les éruptions volcaniques dégageant de grandes quantités de soufre.

Soulignons que ces masses sont petites quand on les compare à la quantité de dioxyde de soufre que l'on a déjà introduites dans la basse atmosphère. Sur le plan des coûts, P. Crutzen les estime entre 25 et 50 milliards de dollars par an, ce qui reviendrait à moins de 50$ par citoyen des pays développés.

On avait aussi parlé, au mois d'octobre 2008, du brumisateur de Stephen Salter qui semble d'autant plus intéressant que "tout changement climatique est local".

S. Salter et J. Latham estiment que 1500 bateaux pulvérisant chacun 30 litres par seconde (pour un coût de 2 millions de dollars par bateau, soit 3 milliards de dollar au total) pourraient compenser le réchauffement global résultant d'un doublement du CO2.

Une autre approche vise à rendre l'eau de mer moins acide mais le plus curieux ici, c'est le projet très science-fiction d'envoyer des petits miroirs-robots autonomes au point d'équilibre entre la Terre et la Lune. Le plus fou dans l'affaire, c'est qu'on espère obtenir que différentes ondes s'annulent en retardant certains rayons par rapport à d'autres !

Pour obtenir un effet notable, il faudrait en placer des milliers de milliards à l'aide d'un canon magnétique en partie enterré et mesurant 2km de long. Il faudrait une trentaine d'années, au rythme d'un "paquet" d'un million de disques par minute environ.

Très efficaces, des moteurs à propulsion ionique emporteraient chaque lot de disques jusqu'au point de Lagrange, et ils seraient distribués à la volée, comme des cartes à jouer, pour former un nuage de 100 000 km de long, pointant vers le Soleil. Des satellites "bergers" patrouillant à proximité du nuage seraient équipés d'un système de localisation par GPS, et chaque disque serait reconduit vers le troupeau au moyen de minuscules miroirs faisant office de voile solaire s'ils tentaient de s'échapper. Les photons traverseraient les disques de nitrure de silicium, mais ceux passant par les trous auraient une petite longueur d'avance. Ainsi les photons passant par les trous et ceux traversant le matériau transparent interfèreraient destructivement !



Sciences et Avenir no 745, Dans le secret des archives de France


- L'énigme de la disparition des dinosaures

L'hypothèse d'un changement climatique à la suite d'un impact météoritique à la fin du crétacé (-65 millions d'années) ne suffirait pas à justifier à elle seule les causes de l'extinction des dinosaures.

Ces dinosaures se sont non seulement adaptés au froid, mais ont surtout su s'acclimater à la nuit polaire et donc à une alimentation moins variée et moins riche de longs mois de l'année.

La véritable raison de la disparition des dinosaures est donc encore à découvrir, car d'autres reptiles à sang froid (crocodiles, tortues, lézards) ont passé sans encombre la limite du crétacé tertiaire.

Sutout, qu'il n'ont pas tout-à-fait disparus mais il ne reste que les oiseaux. Le fait de voler ayant été décisif pour échapper au feu, au sulfure d'hydrogène, à la cendre, aux mammifères qui mangeaient leurs oeufs ?

- Parkinson, maladie auto-immune

Un dérèglement immunitaire, comme l'inflammation dans l'Alzheimer, pourrait constituer la véritable cause de la maladie de Parkinson car ce n'est pas une maladie génétique bien qu'elle dépende de l'âge (de l'inhibition des processus de réparation).

En s'infiltrant dans le cerveau, des cellules du système immunitaire, les lymphocytes T, contribueraient à détruire les neurones atteints dans la maladie de Parkinson.

Nous avons déjà montré que les neurones meurent par apoptose ou mort programmée au cours de la maladie. Et nous savons maintenant que les lymphocytes T sont bien capables de déclencher cette apoptose.

Pour arriver aux endroits précis où le cerveau est atteint, les lymphocytes T doivent recevoir un signal d'accès, à partir des vaisseaux sanguins voisins. Notre objectif est désormais de neutraliser ce signal pour bloquer la destruction des neurones par le système immunitaire.

PLUS DE 120 000 personnes sont atteintes par la maladie en France, dont 55% d'hommes.11 000 nouveaux cas environ et 3500 décès sont dus à la maladie chaque année.3% des plus de 75 ans environ sont atteints, et 1% des plus de 65 ans; elle est rare avant 40 ans.LES FORMES FAMILIALES constituent moins de 10% des cas.

- Schizophrénie et troubles bipolaires

Grâce à une très vaste enquête épidémiologique compilant les données médicales de plus de 9 millions d'individus aux liens de parenté connus, des chercheurs suédois ont découvert des déterminants génétiques communs à la schizophrénie et aux troubles bipolaires (psychose maniaco-dépressive). Ils suggèrent même dans leur article publié dans The Lancet que des liens existent entre les deux pathologies.

- Les prématurés font des adolescents à risque


Des études récentes, comme Epipage de l'Inserm, ont montré que les grands prématurés ont un risque important de troubles cognitifs et psychomoteurs au cours de la petite enfance. Les données les plus récentes des registres suédois, sur plus de 500 000 sujets, confirment, elles, que la prématurité est associée à une augmentation du risque de troubles psychiques nécessitant une hospitalisation chez l'adolescent. Le risque de psychose, de tentative de suicide ou de conduite addictive entre 8 et 30 ans est d'autant plus grand que l'âge gestationnel était faible.

Comparativement à ce que l'on observe pour des sujets nés à terme, le risque d'admission en service psychiatrique est augmenté de plus de 50% pour un âge gestationnel de 24 à 32 semaines et de 20% pour un âge gestationnel de 33 à 36 semaines. Pour les prématurés légers (âge gestationnel de 37 à 38 semaines), le risque reste supérieur de 8%.

- L'arrêt du charbon a réchauffé le climat

La baisse de l'utilisation de ce combustible dans les années 1960 en Europe de l'Ouest, et après la chute du mur de Berlin en 1989 à l'Est, coïncide avec une augmentation moyenne des températures de 0,5 °C par décennie contre 0, 27 °C sur les autres continents. «L'arrêt des émissions est responsable de 20% du réchauffement sur l'Europe de l'Ouest et de 50% sur l'Europe de l'Est», conclut Robert Vautard.




Brèves et liens



Physique


cosmologie, astronomie, physique quantique

- Le boson de Higgs détecté au Fermilab ?

On ne sait pas encore si on l'a vraiment détecté car le dépouillement des données prend des mois. Son existence étant très controversée (je fais partie de ceux qui n'y croyaient pas), ce serait une très grande nouvelle même si le boson de Higgs ne pourra être vraiment étudié qu'au LHC à des énergies supérieures. Cet article vaut surtout pour sa présentation imagée du mécanisme de Higgs d'une résistance de l'espace à l'accélération, comparée d'habitude au déplacement dans une foule :

Cette particule scalaire serait responsable de la masse des particules de l’Univers observable depuis le moment où celui-ci s’est suffisamment refroidi pour que se produise une transition de phase, analogue au passage de la vapeur à l’eau liquide. En effet, si l’on s’imagine que le champ associé au boson de Higgs était l’analogue de la vapeur d’eau dans l’Univers primordial, les quarks et les leptons pouvaient alors se déplacer comme s'ils étaient sans masse car le champ de Higgs n’offrait alors pas de résistance notable aux mouvement des particules. Tout a changé lors de son refroidissement. En poursuivant cette analogie, il est devenu l’équivalent de l’eau liquide.

On se déplace moins facilement dans un liquide que dans un gaz ténu... Pour des particules comme l’électron, cette résistance au mouvement est donc l’analogue de l’apparition d’une force de frottement. Mais au lieu d’être proportionnelle à la vitesse, elle est proportionnelle à l’accélération. Avec cette explication, très simplifiée, on peut donc se rendre compte de ce qu’est le boson de Higgs.

- La preuve de la théorie des cordes ?

Non, pas vraiment, mais quand même ! Des étonnantes similitudes de comportement (liquide parfait) entre des phénomènes aussi éloignées que le Big Bang ou des atomes ultrafroids semblent donner raison à la théorie des cordes. Il faut dire que celle-ci étant principalement une généralisation mathématique unifiant toutes les forces, on peut comprendre qu'elle mette en valeur des comportements identiques entres différents processus (y compris les supraconducteurs et l'évaporation des trous noirs!), un peu comme les fractals. Tout cela reste incompréhensible au commun des mortels.

Lors d'un récent colloque de l’American Association for the Advancement of Science (AAAS), des physiciens de trois branches différentes ont fait le point sur une spectaculaire convergence apparue il y a quelques années entre la physique des atomes ultra-froids et celle des collisions d’ions lourds, recréant les températures infernales du plasma de quarks du Big Bang. Le lien commun est la théorie des cordes...

Il semble bien que l’on soit là en présence de correspondances profondes entre des théories et des systèmes physiques très différents. D’un coté la théorie des interactions fortes entre quarks, de l’autre la physique de la matière condensé avec des atomes et finalement, faisant un lien mathématique entre eux, la théorie des cordes sous la forme de la conjecture de Maldacena.

On reste pantois devant le fait qu’un système refroidit à 10-7 K puisse renseigner sur ce qui se passe dans un système porté à 1012 K. Ce dernier étant en effet dix milliards de milliards de fois plus chaud !

Les physiciens durent se rendre à l’évidence, le plasma de quarks-gluons, encore appelé quagma, qu’ils observaient dans les collisions de RHIC se comportait comme un fluide parfait ! La « boule de feu » créée entraient alors en expansion à la façon d’un ellipsoïde d’un fluide à la viscosité presque nulle, à la façon de l’hélium superfluide donc.

Ainsi, l’évaporation d’un trou noir dans un espace-temps à 10 dimensions avec un rayonnement de corps noir se trouve reliée mathématiquement aux phénomènes se déroulant lors de la formation d’un plasma de quarks-gluons. Rapidement en effet, la boule de plasma devient une sorte de boule de mésons pi et de hadrons chauds, s’évaporant selon la même loi du corps noir mais dans un espace-temps à quatre dimensions.

Remarquablement, il existe un système physique qui doit lui aussi se comporter comme un liquide presque parfait et conduire à l’analogue de l’expérience de RHIC. Il s’agit d’un gaz d’atomes de lithium ultra-froids piégés à l’aide de lasers.

On commence donc par refroidir à l’intérieur d’un piège optique ces atomes qui forment alors des paires de Cooper, comme les électrons dans un supraconducteur. Plongées dans un champ magnétique adéquat, les interactions entre les paires d’atomes disparaissent à l'exception d'effets quantiques et le tout se comporte comme un fluide quantique parfait. Si l’on coupe les lasers, les atomes de lithium confinés en boule entrent en expansion à la façon du quagma dans les expériences de RHIC. La boule prend rapidement la forme d’un ellipsoïde.

- Le retour de l'axion

L'axion est une particule hypothétique dont on reparle régulièrement car les équations de la QCD (ChomoDynamique Quantique) semblent imposer son existence mais les expériences ont toujours échoué à la détecter. La nouvelle hypothèse sur son rôle dans les rayons gamma n'a rien de décisif mais, en physique, ce sont ces questions irrésolues qui sont les plus passionnantes.

Dans le cas des interactions fortes entre quarks transmises par l’analogue des photons, les gluons, deux termes devraient y être présents. Cependant, si le premier terme est bien constaté expérimentalement, le second ne l’est pas. Il conduit en effet à l'existence d’un moment dipolaire électrique pour le neutron… jamais observé.

Pour éliminer l’influence de ce second terme, un autre champ de particules fut postulé. Remarquablement, il pouvait servir à expliquer la présence de la matière noire. Parce que l’introduction de cette nouvelle particule résolvait le problème dont était entachée la théorie de la QCD, le prix Nobel de physique Franck Wilczek la baptisa du nom d’une marque de lessive, axion...

Cette particule, que même le Soleil doit produire, doit être très légère et interagir très faiblement avec la matière pour être passée inaperçue dans les expériences en accélérateurs. Toutefois, elle se manifesterait, si elle existait, par un phénomène remarquable. En envoyant un faisceau laser en direction d’une paroi opaque devant laquelle règne un puissant champ magnétique, une partie des photons du laser se transformeraient en axions capables de traverser aisément la paroi pour ensuite être retransformés en photons éclairant un écran derrière la paroi.

Les rayons gamma à ultra hautes énergies semblent se déplacer plus facilement que prévu sur des distances cosmologiques. Cette énigme suggère à certains théoriciens l’existence de particules analogues à l’axion. Couplées aux champs magnétiques des galaxies, ces hypothétiques particules rendraient compte de la surprenante transparence de l’Univers pour les photons gamma.

En voyageant sur de longues distances cosmologiques, la probabilité d’une création de paires de photons par les rayons gamma n’est pas négligeable et devrait conduire sur Terre à un faible flux de ces rayons, plus faible que ce que l’on observe.

Pour expliquer cette transparence trop élevée, deux groupes de physiciens ont eu l’idée de faire intervenir la conversion des photons gamma en axions dans les champs magnétiques galactiques. Cela semble de prime abord résoudre le problème.

Sauf que pas vraiment mais "On ne devrait pas tarder à en savoir plus" !

- Et la soeur caméléon de l'axion...

Particule hypothétique, l’axion constitue peut-être une partie de la matière noire. Une autre particule hypothétique, lui ressemblant beaucoup, dont la masse et l’effet sur les particules de matière normale pourraient varier en fonction de la densité de matière, pourrait, elle, expliquer l’énergie noire.

Rappelons que l’énergie noire ne semble se manifester qu’à des distances énormes, au niveau des amas de galaxies, et qu’elle accélère l’expansion de l’Univers. Elle se comporte donc comme une sorte d’anti-gravité.

Selon Khoury et Weltman, on pourrait imaginer que la particule soit massive et avec un couplage très faible au niveau du système solaire et des galaxies, mais au contraire légère et avec un couplage fort au niveau des amas de galaxies, là où la densité de matière est beaucoup plus faible. Ceci permettrait alors de réconcilier les observations. S’adaptant selon son environnement, une telle particule a donc tout naturellement été nommée une particule caméléon.

Les équations proposées par Khoury et Weltman décrivent un champ scalaire qui ressemble beaucoup à un autre invoqué pour résoudre la problème de la matière noire, en l'occurrence l'axion.

Il s’agit toujours de la technique consistant à faire passer un faisceau laser dans un lieu où règne un fort champ magnétique. En l’occurrence, en pénétrant dans une chambre à vide aux parois massives plongée dans un champ magnétique intense, les photons du laser se convertiraient en partie en particules caméléons massives. Ce faisant, à cause de la conservation de l’énergie, elles ralentiraient fortement et resteraient un certain temps dans la chambre à vide. Or, si l’on coupe le faisceau laser mais que le champ magnétique existe toujours, les particules peuvent redevenir des photons que l’on peut détecter avec un photomultiplicateur à la sortie de la chambre à vide.

- Des neutrons qui tournent autour du noyau

La structure en halo du noyau exotique 11Be révèle un neutron orbitant selon les principes de la mécanique ondulatoire autour d'un noyau de 10Be. Le rayon de l'orbite, 7 femtomètres, est presque 3 fois supérieur à celui du noyau central.

Bien que la description probabiliste sous la forme de fonctions d’onde rende compte de la structure de tels halos de neutrons, leur existence même est paradoxale et doit provenir de propriétés encore mal comprises des forces résiduelles entre quarks et gluons, responsables des liaisons entre protons et neutrons dans les noyaux.

En effet, ces neutrons se trouvant souvent hors de la zone ou classiquement s’exerce la portée des forces nucléaires mésoniques, ils ne devraient pas être liés aux noyaux et pourtant ils le sont !

- Une nouvelle vue des restes de la supernova de Tycho

Elle montre la scène plus de quatre siècles après l'explosion brillante de l'étoile dont Tycho Brahe et d'autres astronomes de cette époque ont été les témoins.

- La Lune manque d'eau

Dans une série de quatre articles, les chercheurs japonais font le bilan des observations et des mesures effectuées grâce à la sonde Kaguya-Selene, la plus importante mission lunaire depuis le programme Apollo, lancée en 2007. Comme le prédisait la théorie de sa formation, la Lune semble bien très pauvre en eau.

Il y a 4,533 milliards d'années, soit environ 34 millions d'années après la formation de la Terre, une petite planète de la taille de Mars (6.500 km de diamètre) aurait heurté la Terre. L’impact se serait fait tangentiellement, arrachant une partie du manteau terrestre. La violence du choc aurait conduit à la fragmentation complète et à une vaporisation importante de ce corps céleste qui a été baptisé Théia.

Probablement déjà différentié, le noyau ferreux de Théia se serait incorporé à celui de la Terre et un océan de magma aurait recouvert notre planète. Pendant ce temps, une partie du matériau du manteau terrestre et des restes de Théia seraient restés en orbite autour de la Terre où ils auraient fini par s’accréter pour former notre satellite.

Or, cette absence d'eau est précisément ce à quoi on doit s’attendre si la Lune provient bien de l’accrétion du matériau de Théia. Portée à de hautes températures par le choc, cette planète a dû perdre ses composants volatils dont, notamment, l’eau.

- Mesure de Titania : les astronomes amateurs plus forts que Voyager !

J'ai mis la brève à cause de l'image, même si le rôle des amateurs dans la science est à souligner, surtout en astronomie (mais pas seulement).

En 2001, une centaine d’astronomes amateurs et quelques professionnels ont suivi l’occultation d’une étoile particulièrement brillante, SAO 164538, par Titania, l’un des satellites d’Uranus. Résultat étonnant : ces observations ont permis de surpasser en précision la détermination du diamètre de cette lune effectuée lors de son survol par la sonde Voyager 2. Mieux encore, de nouvelles bornes sur la présence d’une éventuelle atmosphère ont aussi été obtenues.

- Le graphane, du graphène avec de l'hydrogène

Aujourd’hui, les deux co-découvreurs du graphène en 2004, Andre Geim et Kostya Novoselov, viennent d’étendre encore le champ des applications du graphène en trouvant le moyen de lui ajouter des atomes d’hydrogène. Par analogie avec les alcanes, les molécules de carbone hydrogénées comme le méthane ou le propane, on appelle ce nouveau matériau du graphane.

Ce matériau avait était prédit théoriquement il y a quelque temps par Jorge Sofo. La structure produite rappelle celle du diamant et comme on s’y attendait, le graphane est aussi un isolant. Les circuits électroniques sont des assemblages de conducteurs et d’isolants et il est intéressant de voir la perspective dans un avenir proche d’obtenir à volonté des composants de ce genre à partir d’un seul matériau de base. Les chercheurs pensent ainsi partir d’un feuillet de graphane qui pourrait être en quelque sorte gravé avec une pointe appropriée libérant les atomes d’hydrogène. On aurait ainsi de véritables circuits conducteurs en graphène tracés sur du graphane. Plus généralement, le graphane pourrait porter des zones conductrices, semi-conductrices et isolantes. On n’en est pas encore là...

Une autre application intéressante est que le processus de fixation des atomes d’hydrogène à l’aide d’un courant de gaz et de décharges électriques sur le graphène peut être inversé simplement en chauffant le graphane. En puissance, on aurait là un matériau permettant de stocker dans un faible volume de grandes quantités d’hydrogène facilement libérable. Ce serait donc une clé importante pour des voitures à hydrogène sûres et fiables. Le problème est que si l’on peut fabriquer facilement de la poudre de graphène, des feuillets de quelques centimètres carrés coûtent des sommes astronomiques dépassant largement le million de dollars.

 

Climat


Climat, écologie, énergies

- L’Australie, première nation victime du changement climatique ?

La vague de chaleur sans précédent qui frappe le sud de l’Australie manifeste-t-elle les prémices d’une évolution climatique rendant à terme la situation intenable sur ce continent qui est déjà l’une des régions les plus sèches du monde ? Une étude scientifique qualifie l’écosystème australien de « potentiellement le plus fragile » face à cette menace.

Des feuilles qui tombent des arbres en plein été, des voies ferrées tordues par la chaleur, des habitants se réfugiant dans leur lit avec des thermos remplies d’eau glacée, voilà le spectacle qu’offrait l’Australie durant ces derniers jours où elle subit la pire canicule que le pays ait connue.

Le froid relatif ici et la canicule là-bas pourraient être reliées à La Niña ?

- La Niña faiblit, retour des grandes chaleurs ?

Le phénomène climatique La Niña et son pendant El Niño s’inscrivent dans un vaste ensemble de mouvements atmosphériques et hydrologiques qui intéressent l’ensemble du globe terrestre. En partie responsable de la vague de froid actuelle sur l'Europe, il est en train de faiblir.

« Comme les paramètres de La Niña sont en train de faiblir, les prévisions les plus probables sont neutres pour la période mars-mai », précise l’OMM dans un communiqué, ajoutant que ceux-ci devraient atteindre un point d’équilibre de mars à mai 2009, ce qui rend les prévisions futures très incertaines.

Il fera sans doute de nouveau bien trop chaud, en espérant que cela fasse taire les négationnistes qui n'y connaissent rien (mais pas les très rares sientifiques dissidents dont on a besoin pour éprouver les hypothèses).

- Les conséquences seraient très sous-estimées

Il faut bien dire que la partie semble perdue d'avance même si on inversait la tendance. D'où les tentatives désespérées de voiler le ciel...

Plusieurs conséquences du réchauffement climatique en cours s’avèrent bien plus critiques que ce qui avait été prévu à l’origine, amenant les scientifiques à revoir l’évaluation des risques.

En conclusion, il est de plus en plus évident que même les plus légères augmentations de la température moyenne au-dessus des valeurs de 1990 peuvent dérégler le système climatique dans son ensemble avec le risque d’incidences très importantes s’étalant sur plusieurs siècles, comme la fonte accélérée des glaces du Groenland avec de multiples conséquences irréversibles sur l’environnement (réchauffement en cascade par réduction de l’effet d’albédo, injection d’eau douce dans la mer entraînant la suppression, voire l’inversion de courants marins, hausse du niveau océanique, etc.).

Selon le rapport, il y a nécessité absolue de limiter le réchauffement climatique à deux degrés par rapport aux moyennes de 1990 sous peine de modifications climatiques graves et irréversibles.

Il y a seulement une semaine, Christopher Field, directeur du Department of Global Ecology de la Carnegie Institution de Washington, avait déclaré lors de la réunion annuelle de l'Association américaine pour le progrès de la science que l’augmentation des rejets de CO2 dans l’atmosphère était passée de 0,9 % par an dans les années 90 à 3,5 % par an depuis l’an 2000.

L’étude actuelle avait été précédée de deux autres, soulignant déjà la sous-estimation du risque climatique.

- Les forêts tropicales absorbent davantage de CO2 qu'on ne le croyait

Confirmation de ce qu'on avait déjà vu, le bilan des forêts du nord pouvant être négatif au contraire des forêts tropicales qui sont notre poumon.

Une étude internationale vient de démontrer que les forêts humides stockent plus de carbone qu'elles n'en libèrent. Elles absorberaient actuellement près d'un cinquième des émissions humaines de gaz carbonique.

Manifestement, le problème se pose différemment selon la latitude. Pour les régions au climat tempéré, une étude récente montrait même qu'un reboisement pourrait réchauffer l'atmosphère.

Selon les auteurs, l'ensemble des forêts tropicales du monde absorberaient environ 18% des émissions de gaz carbonique d'origine humaine.

L'un des co-auteurs, Lee White, a pragmatiquement calculé la valeur financière de ces 4,8 millards de tonnes, compte tenu d'un « prix réaliste de la tonne » : 13 milliards de livres par an, soit environ 15 milliards d'euros. La lutte contre la déforestation paraît donc, encore plus qu'on ne le pensait, un moyen efficace de réduire l'impact des activités humaines sur le climat planétaire.

- L'océan était peut-être plus haut de 21 mètres il y a 400.000 ans !

D'une part cela signifie que les températures étaient beaucoup plus élevées il y a 400 000 ans et qu'on pourrait les atteindre à nouveau mais aussi qu'on risque une montée des mers bien supérieure aux prévisions actuelles. A l'opposée, les trous bleus des Bahamas représentés ici, prouvent que le niveau de l’océan était de 100 à 120 mètres plus bas que de nos jours pendant la dernière glaciation, la montée des eaux suite au réchauffement ayant produit plusieurs déluges mémorables...

Un ornithologue et un géologue américains pensent avoir trouvé des preuves convaincantes de ce qu’ils avançaient il y presque 10 ans. Des dépôts découverts dans une carrière de calcaire des îles Bermudes montreraient que le niveau des océans était probablement plus élevé de 21 mètres il y a environ 400.000 ans.

On aurait tort de considérer comme absurde la possibilité de la variation du niveau des océans d'une telle ampleur. Nous avons des preuves indiscutables que la Nature a fait bien mieux pendant la dernière glaciation. En effet, les trous bleus des Bahamas sont des dolines, creusées à cette époque à l'air libre par l'érosion, et certaines contiennent même des stalactites, comme on peut le voir dans l’un des films du commandant Cousteau. Ils indiquent que le niveau de l’océan était alors de 100 à 120 mètres plus bas que de nos jours.

- L'effet de la tectonique des plaques sur le climat

Le rôle de la tectonique des plaques dans les modifications du climat et l'ensemencement des mers est compris depuis peu. Il s'agit d'essayer d'en faire l'histoire.

Ainsi, à partir de 50-40 Ma, la subsidence (abaissement) des seuils continentaux a rendu possible la mise en route d'une proto-circulation circumpolaire Antarctique, ce qui coïncide avec les enregistrements isotopiques montrant le début du refroidissement global dès cette époque. Puis sur chaque seuil, des dorsales océaniques ont fonctionné après la distension continentale, ouvrant franchement le passage Tasmanie-Antarctique à partir de 34 Ma, puis le Passage de Drake à partir de 29 Ma.

Les auteurs examinent les effets d'une telle constriction sur la circulation océanique globale et envisagent une diminution de l'efficacité du courant circumpolaire Antarctique, entrainant à son tour un ralentissement de la circulation thermohaline se traduisant par un réchauffement des eaux de fond océanique, bien visible sur l'enregistrement isotopique.

- MARGO: Améliorer la fiabilité des modèles climatique

C'est l'enjeu prioritaire, d'avoir des modèles plus fiables, ce qui est une gageure car on a affaire à des systèmes chaotiques imprévisibles où l'oubli d'un facteur secondaire peut tout changer. S'il y a imprévisibilité, il y a malgré tout des bornes et des cycles tout ce qu'il y a de plus prévisible, comme le fait qu'il fait plus froid en hiver, le climat étant plus stable que la météo.

Reconstruire les climats passés pour mieux comprendre le présent et prévoir le futur, tel est l'objectif principal du projet MARGO, dont les résultats viennent d'être publiés dans Nature Geoscience. Pour y parvenir, une collaboration internationale réunissant notamment des chercheurs français a mis au point une reconstitution des températures de l'océan au cours du dernier maximum glaciaire, survenu il y a environ 20 000 ans, avec une fiabilité et une précision sans précédent. Grâce à cet ensemble unique de données, les chercheurs ont pu identifier certaines faiblesses des modèles climatiques utilisés par le GIEC. MARGO constitue donc un outil précieux permettant de parfaire ces modèles et mieux anticiper les changements à venir.

- Un jeu gratuit, Clim'City

Le jeu ClimCity, basé sur le très connu SimCity, est donc un jeu de simulation en ligne et gratuit du développement d’une ville dans le contexte du réchauffement climatique. Dans le cas présent, l’élément décisif est en effet la réduction des émissions de CO2 afin de ménager un climat déréglé. Imaginé par Cap Sciences, le centre de culture scientifique d’Aquitaine, le projet a réuni plusieurs acteurs publics comme l’Ademe et la Région Aquitaine. Avec Clim’City, le joueur dispose de 50 ans et de 250 actions pour sauver la planète du réchauffement climatique et de ses conséquences. Et ce n’est pas de trop. Le jeu est complexe et il est très difficile de gagner, mais comme l’admet le concepteur, « ça fait partie de la prise de conscience »…

 

Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

- Complexification par redondance

Il semblerait que la duplication de gènes soit à l'origine de l'évolution et de la diversification des primates au moins dont l'ancêtre aurait 12 millions d'années, mais il n'est pas exclu que ce soit un mécanisme plus général, non pas seulement une complexification par perte de redondance (comme le théorisait Henri Atlan) mais une redondance qui permet ensuite une complexification en introduisant des variations adaptatives. Non seulement la redondance permet d'être plus résistant à une altération du gène mais elle favorise son évolution. On sait en effet que pour les organismes complexes la probabilité qu'une mutation génétique soit bénéfique est presque nulle, ce pourquoi le mécanisme de l'évolution se réduit inévitablement au bricolage, avec une bibliothèque de fonctions donnée, en agissant sur les gènes architectes et des facteurs de taille ou de temps mais la réplication offre une voie plus ouverte. On pourrait en tirer des conséquences pour les organisations où la redondance, le doublement de certains services, pourrait constituer une méthode douce de transition et d'évolution par différenciation ?

- L'auto-organisation des ribosomes

Le ribosome, c'est la vie, c'est la production de protéines par des ARNs. C'est même la taille du ribosome qui limite la taille de cellules vivantes qui ne peuvent être nanométriques. C'est sans doute le miracle de la vie que le ribosome s'auto-assemble mais c'est le résultat d'une sélection, ce n'est pas une propriété naturelle mais la rétroaction de l'effet sur la cause.

Le ribosome est une véritable machine moléculaire chargée de décrypter le code génétique porté par l’ARN messager et de synthétiser les protéines correspondantes. Ces protéines assurent toutes les fonctions, y compris la reproduction du génome lui-même.

Selon les normes des molécules biologiques, les ribosomes sont immenses. Et vu leur taille, les scientifiques se demandaient s’ils pouvaient provenir d’un processus d’assemblage spontané comme les autres molécules primitives simples. C’est ce qu’affirme le Pr Steinberg dans la revue Nature de cette semaine. Selon lui, le ribosome est organisé selon un ensemble de règles structurelles simples et il fallait qu'il soit assemblé à partir de motifs structuraux fondamentaux dans un ordre très spécifique

La construction du ribosome s'est probablement faite selon une série ordonnée d'étapes, pour former la structure trouvée dans la première cellule vivante et qui n’a pratiquement pas changé depuis . « Même si le ribosome est une structure complexe, il présente une hiérarchie très nette qui s'est dégagée des principes chimiques fondamentaux ».

- Les animaux descendent des éponges

Nous ne serions donc que des éponges, imprégnés du monde extérieur, absorbant sa substance de toutes les pores de notre peau et par tous nos sens.

Les plus anciennes traces de vie animale auraient été mises en évidence par des chercheurs dans des sédiments vieux de 635 millions d’années forés sous la péninsule arabique, dans le bassin d’Oman. Le biomarqueur identifié place des éponges primitives aux racines de la vie animale.

Ils ont cherché la trace d’un stéroïde particulier (24-ipc) dont l’unique source serait certaines espèces d’éponges (Demosponges). Or en suivant la piste du 24-ipc dans les sédiments, les chercheurs sont remontés loin, avant la faune d’Ediacara, avant même la fin de la glaciation qui aurait transformé la Terre en «boule de neige» période a priori peu propice au développement de la vie.

« Nos découvertes suggèrent que l'évolution des animaux multicellulaires a débuté bien plus tôt que nous le croyions. Nos théories convergent à présent vers une divergence de la faune multicellulaire complexe qui aurait débuté sur le fond océanique à faible profondeur à une période comprise entre 635 et 750 millions d'années ».

Voir aussi Futura-Sciences.

- Un dinosaure omnivore était l'ancêtre des diplodocus

Un squelette d'un dinosaure très particulier a été découvert en 2006 dans la célèbre Vallée de la Lune du Parc naturel d’Ischigualasto en Argentine. Panphagia protos, dont un article de Plos One révèle les caractéristiques, est l’un des chaînons manquants entre les dinosaures carnivores et les dinosaures herbivores. C’était il y a environ 228 millions d’années...

Malgré des caractéristiques de carnivore, ses dents et certains de ses os l’apparentaient clairement aux sauropodes, les dinosaures herbivores géants. C’est pourquoi les deux chercheurs lui ont donné le nom de Panphagia protos, Panphagia signifiant omnivore en grec et protos, le premier.

Il semble en effet que l’explication la plus probable est qu’il s’agissait d’un dinosaure omnivore capable de se nourrir de végétaux en cas de disette. Ce serait donc un des ancêtres directs des sauropodomorphes, un sous-ordre des saurischiens qui comportaient les dinosaures herbivores quadrupèdes et bipèdes comme les diplodocus et les brachiosaures.

- Les ptérosaures respiraient comme les oiseaux !

Un bel exemple de convergence, c'est-à-dire de sélection des mêmes mécanismes par un environnement qui sculpte pareillement des organismes différents (faisant par exemple ressembler les dauphins à des poissons).

Lorsqu’on pense au monde des dinosaures et plus précisément aux animaux volants de cette époque, deux exemples viennent tout de suite à l’esprit : l’archéoptéryx et le quetzalcoatlus. Alors que l’archéoptéryx peut bien être considéré comme un dinosaure et qu’il descend des théropodes, il ne peut en être de même pour les ptérosaures de l’époque, comme quetzalcoatlus, un reptile volant de 12 mètres d’envergure dont les premiers restes ont été découverts en 1971 au Texas.

Malgré tout, si l’on savait déjà que certains dinosaures respiraient comme les oiseaux, Leon Claessens, professeur assistant en biologie au College of the Holy Cross de l’université de Leicester, et Patrick O’Connor, professeur assistant en sciences biomédicales à l’université de l’Ohio, viennent de montrer que certains ptérosaures possédaient aussi un système respiratoire semblable à ceux des oiseaux modernes.

- Découverte d’un serpent géant

Au Nord de la Colombie, sur le site de Cerrejon (une mine de charbon à ciel ouvert) des chercheurs de l’institut Smithsonian de recherche tropicale du Pana et de l’université de Floride ont découvert des vertèbres fossiles d'un serpent géant qui vivait il y a 60 millions d’années environ, dans la forêt tropicale colombienne. La taille des vertèbres de Titanoboa cerrejonensis indique un poids probable supérieur à une tonne pour une longueur d’environ treize mètres.

Selon les chercheurs, le Titanoboa pour atteindre cette dimension devait vivre dans un environnement où la température moyenne annuelle oscille entre 30 et 34°c. Les forêts tropicales devaient être à l'époque de trois à quatre degrés plus chaudes qu'elles ne le sont aujourd'hui. Cette estimation qui correspond à la prédiction des modèles paléoclimatiques permet de rejeter l’hypothèse selon laquelle la forêt tropicale agit comme un « thermostat » et prévoit que les températures tropicales restent relativement stables alors que d'autres parties du monde se réchauffent.

- Quand les baleines naissaient sur la terre ferme

Les fossiles d’une femelle et d’un mâle mis au jour en 2000 et en 2004 au Pakistan, par l’équipe du paléontologue américain Philip Gingerich (université du Michigan), sont équipés de grosses dents parfaites pour la pêche sous-marine. De plus leurs quatre membres sont bien adaptés à la nage mais pas à de longs déplacements sur la terre ferme. Même si ces pattes pouvaient supporter le poids de leur corps, elles ne permettaient sans doute pas à ces archéocètes d’aller bien loin du rivage.

Pourtant, c’est hors de l’eau que leurs petits voyaient le jour, ont découvert les chercheurs. La femelle a en effet été fossilisée avec un fœtus dans son ventre, orienté de telle sorte que la tête sorte la première, comme pour les mammifères terrestres, soulignent Gingerich et ses collègues, qui publient leurs travaux dans la revue PLoS One. La femelle devait donc probablement venir sur le rivage pour mettre bas.

- La recette de la seiche, à la façon des dauphins !

En Australie, des dauphins préparent les seiches avant de les manger, selon un rite culinaire peut-être enseigné aux jeunes et consistant à éliminer l'encre et l'os. Ce comportement a pu être minutieusement observé en pleine eau, une chance rarissime dont a pleinement profité une équipe de zoologistes.

Comment tuer une seiche géante et la préparer pour en faire un bon repas : Foncer sur l'animal (A). Le frapper violemment en s'aidant éventuellement du fond sableux (B). Remonter la seiche (C). La secouer énergiquement jusqu'à ce que toute l'encre soit sortie (D). La transporter vers un fond sableux et la frotter pour déchirer la peau dorsale et extraire l'os (E). Servir immédiatement (F).


- Un poisson au crâne transparent !

Des océanographes chanceux ont observé et même remonté à bord un étonnant poisson abyssal, dont le crâne est transparent. Ses yeux peuvent regarder vers le haut, à travers le crâne, donc, mais aussi vers l'avant pour gober ses proies.

Vu de près, Macropinna microstoma exhibe son crâne transparent qui laisse voir ses deux yeux – les demi sphères vertes. Les protubérances au-dessus de la bouche sont des organes olfactifs.

On peut voir une vidéo.

- Surmortalité des abeilles : plus de 40 causes !

J'avais souligné déjà la multiplicité des causes dans "La maladie de la disparition", il y a 2 ans, ce qui serait confirmé, avec un plus grand rôle sans doute d'un acarien mortel (Varroa destructor) qui ne serait pas assez traité. L'association avec un virus est peut-être sous-estimé ici. A noter que d'autres études s'étonnent que cette surmortalité n'ait pas encore d'impact décelable dans la pollinisation.

L’Agence française de sécurité sanitaire des aliments (Afssa) vient d’en publier les résultats dans un rapport, sous le titre « Mortalités, effondrements et affaiblissements des colonies d'abeilles », qui désigne cinq catégories de responsables et une quarantaine de causes distinctes. La place de choix revient aux agents biologiques, c’est-à- dire les divers prédateurs, parasites, champignons, bactéries, virus. Et en particulier au Varroa destructor.

Pierre Testud, du réseau Biodiversité pour les abeilles, se réjouit de voir le varroa spécifiquement désigné, car il est une des causes principales de mortalité, alors qu’un traitement existe mais n’est appliqué que par un apiculteur sur quatre.

La dégradation de l’environnement, ainsi que la perte de biodiversité induite par l’agriculture intensive entre aussi pour une part importante dans la surmortalité en privant les abeilles de plantes à butiner.

- Erectus marchait comme nous

Dès qu'Erectus a pu marcher comme nous, il est allé au bout du monde !

L'analyse d'empreintes de pied laissées dans un sable fin près d'Ileret, au Kenya, suggère que l'un de nos ancêtres avait déjà, il y a plus de 1,5 million d'années, une démarche moderne.

Les empreintes d'Ileret étudiées par balayage laser montrent qu'elles ont toutes les marques du pas humain moderne : un pied arqué, un gros orteil dans le prolongement du reste du pied et un transfert caractéristique du poids du talon vers le métatarse et le gros orteil durant la marche. La taille, l'espacement entre les pas et la profondeur des empreintes qui permettent respectivement d'estimer la démarche, la foulée et le poids de leurs auteurs sont tous dans les normes des humains modernes.

Erectus est le premier homme préhistorique à s’être déplacé sur de grandes distances, jusqu’à migrer hors d’Afrique. Sa bipédie « moderne » explique sans doute cette capacité.

- Pas de trace de croisements dans l'ADN de Néandertal

Cela confirme les hypothèses de "L'émergence de l'humanité". S'il y a eu disparition de Néandertal sans mélange, c'est sans doute que le mélange était impossible mais il y a bien eu compétition entre les espèces, sinon "génocide" ou anthropophagie (la cause la plus probable me semblant l'extermination par l'homme des grands mammifères, nourriture principale de Néandertal). L'absence de lactase semble indiquer que Néandertal ne pouvait digérer le lait mais c'est un caractère bien plus tardif de sapiens, datant seulement du Néolithique. On n'a décrypté pour l'instant que 60% du génome de Néandertal et les conclusions actuelles devront être confirmées, la comparaison des génomes affinée. C'est en fait un appel à financements...

Voir aussi Technology Review.


- Daniel Tammet, autiste savant, tente de percer les mystères du cerveau humain

Il n'a pas l'air tellement autiste et paraît même très sympathique mais il est très étonnant.

Aîné d'une famille londonienne modeste de neuf enfants, Daniel Tammet, âgé de 30 ans, s'est fait connaître en 2004 pour avoir énuméré de mémoire et pendant cinq heures, les 22.514 premières décimales du nombre pi (3,1415).

Pourtant, ses talents ont aussi leurs revers.

"Je me perds très facilement, j'ai toujours besoin d'être accompagné, je ne peux pas conduire parce qu'il m'est très difficile de voir quelque chose dans son ensemble", énonce-t-il.

"J'ai aussi des difficultés à me souvenir des visages", une "tâche cognitive très complexe" que chacun effectue sans s'en rendre compte, sourit-il.

Il critique aussi l'idée que les génies auraient un cerveau-ordinateur "quasi inhumain". "En réalité, le cerveau, les compétences, le talent, le génie sont liés à l'humanité de chacun et à l'amour", dit-il, énigmatique.

"Mozart a fait ce qu'il a fait parce qu'il avait un amour de la musique. Einstein aussi parlait de la beauté de ses équations, moi je ne compresse pas les nombres, je danse avec eux, c'est lié à une sensibilité, si on n'a pas d'amour, on n'a pas de génie", tranche-t-il.

- Les différences d'activité cérébrale pour le langage liées au sexe ?

Les voies de la perfection ne sont pas tout-à-fait les mêmes entre hommes et femmes, même s'il n'y a qu'une seule science (et un monde commun).

Les hommes activent davantage que les femmes les zones cérébrales classiques du langage. Par ailleurs, quel que soit le sexe de la personne, les participants ayant une performance verbale faible activent davantage une zone cérébrale (le cingulaire antérieur) tandis que ceux montrant une performance verbale élevée activent plus le cervelet.

- Le groupe d'hommes ayant de hautes performances en fluidité verbale activent davantage que les trois autres groupes de participants deux zones cérébrales (le précunéus droit et le cortex préfrontal dorsolatéral gauche) et plus faiblement une autre zone (le gyrus frontal inférieur droit),

- Chez les femmes ayant des performances faibles en fluidité verbale, les chercheurs ont observé une activation plus importante du cingulaire antérieur gauche que chez les femmes ayant des performances élevées.

En dissociant pour la première fois les effets du sexe et de la performance sur l'ampleur des activations cérébrales, cette étude montre soit un effet exclusivement lié au sexe de la personne, soit un autre effet exclusivement lié à la performance, soit un effet lié aux deux facteurs dans des régions cérébrales différentes.

- La douleur de l'envie

Les douleurs psychiques sont ressentis dans le corps, physiquement.

Les chercheurs ont trouvé que le sentiment de l'envie stimulait le cortex cingulaire antérieur dorsal, la même région associée à la douleur physique, tandis que la schadenfreude activait le striatum ventral, chargé de traiter la gratification.

Ils ont aussi observé que ces signaux "gratifiants" étaient plus forts lorsque la personne enviée par le sujet rencontrait des problèmes. Ces résultats démontrent pour la première fois la relation dynamique existant entre douleurs et plaisirs sociaux et suggèrent aussi que le cerveau humain pourrait plus traiter les expériences sociales abstraites comme des expériences physiques que tout ce que l'on a pu croire auparavant.

 

Santé


génétique, traitements, nutrition, hygiène

- Grippe, vers un traitement universel ?

Si cela se vérifie, c'est incontestablement une grande nouvelle qui pourrait éradicer la grippe mais il faudrait s'inquiéter des conséquences tant les virus font partie de notre génome peut-on dire, en tout cas de notre co-évolution. Ainsi, on pense que les virus nous nettoient de certaines cellules cancéreuses et on sait que l'hygiénisme déséquilibrant le système immunitaire est responsable de nombreuses maladies auto-immunes...

Des chercheurs ont isolé des protéines, recrées en laboratoires, capables de neutraliser plusieurs souches différentes de grippe saisonnière ainsi que les virus pouvant provoquer des pandémies comme celui de la grippe aviaire.

Ces protéines sont en fait des anticorps dits monoclonaux car ils dérivent d’une même lignée cellulaire. Ils agissent, et c’est une découverte aussi, en empêchant le virus de changer de forme, sans cette métamorphose celui-ci ne peut pénétrer dans les cellules. Pour ce faire, ces anticorps se lient à une protéine qui se trouve à la surface du virus de la grippe appelée hémagglutinine (HA). Or l’HA a une structure génétique relativement stable d’une souche à l’autre ce qui rend ces anticorps efficaces contre plusieurs souches.

Voir aussi Futura-Sciences.

- Pollution et mortalité : un lien prouvé à l'échelle de la France entière

Les auteurs se sont intéressés à trois indicateurs de pollution : le dioxyde d’azote (NO2), le dioxyde de soufre (SO2) et l’ozone (O3). Leurs niveaux respectifs ont été régulièrement relevés entre 2000 et 2004. Les résultats ont ensuite été comparés aux registres de mortalité de neuf villes : Bordeaux, Le Havre, Lille, Lyon, Marseille, Paris, Rouen, Strasbourg et Toulouse.

Il en ressort que plus les taux de pollution sont élevés, plus les risques d’hospitalisation et de mortalité « à court terme » sont importants. « Le risque de décès toutes causes ou pour causes cardiovasculaire et cardiaque est significativement associé à l’ensemble des indicateurs de pollution étudiés ».

- Trop de travail nuit à la santé

Une étude publiée par l’American Journal of Epidemiology indique que ceux qui travaillent plus de 55 heures par semaine ont de moins bonnes facultés mentales que ceux qui travaillent huit heures par jour.

Les auteurs d’études associent ce résultat aux problèmes de sommeil, de dépression et aux risques de maladies cardiovasculaires dont souffrent ceux qui travaillent de longues heures.

- Auto-médication contre l'obésité

Alli n’est pas un médicament nouveau : c’est en quelque sorte un demi-cachet de Xenical (orlistat), un médicament contre l’obésité vendu uniquement sur ordonnance. GSK a passé un accord laboratoire suisse Roche pour en faire une version dosée à 60 mg au lieu de 120 mg pour le Xenical. Il s’agit d’un inhibiteur des lipases gastriques qui réduit l’assimilation des graisses ingérées lors d’un repas. Il est destiné aux personnes obèses (12,4% de la population française) ou en surpoids (29%).

Il ne s’agit en aucun cas d’une aide pour affiner sa silhouette avant l’été, encore moins d’une pilule miracle : la prise de l’orlistat doit obligatoirement être accompagnée d’un régime hypocalorique, pauvre en graisses, et d’exercice physique pour aider à la perte de poids.

Pour Rue89, c'est surtout une pilule qui vous punit quand vous mangez de la graisse en vous donnant la diarrhée ! Cela n'empêche pas qu'il est aussi dangereux d'être obèse que de fumer.

- Cancer du poumon : la pauvreté et pas seulement le tabac

L’incidence du cancer du poumon est généralement plus fréquente au sein des classes sociales défavorisées. La consommation plus élevée de tabac de ces populations ne permet pas d’expliquer une telle différence.

Le cancer du poumon représente la 1ère cause de mortalité en Europe chez les hommes et la troisième chez les femmes. Il existe une association forte entre le risque de survenue d’un cancer du poumon et le niveau d’éducation, avec les taux les plus forts généralement observés au sein des classes sociales défavorisée.

Après avoir pris en compte la consommation de tabac dans chaque classe sociale, l’excès de risque des classes sociales défavorisées reste significatif (2,3 pour les hommes et 1,6 pour les femmes). Les chercheurs concluent que les différents niveaux de consommation de tabac permettent d’expliquer un peu plus de la moitié des cancers supplémentaires mais certainement pas leur totalité.

- Effets cancérigènes de l'alcool, de la viande et des béta-carotènes

L'Institut national du cancer et la direction générale de la santé viennent de publier une brochure stigmatisant certaines pratiques nutritionnelles favorisant l’apparition de cancers. L’alcool y tient une place de choix.

La brochure indique aujourd’hui : « l'augmentation de risque est significative dès une consommation moyenne d'un verre par jour. » Elle conclut par cette recommandation : « la consommation d'alcool est déconseillée, quel que soit le type de boisson alcoolisée (vin, bière, spiritueux, etc.). » Il est désormais bien loin le temps où le corps médical tolérait (voire recommandait…) « trois verres de vin par jour pour les hommes, deux pour les femmes ».

L'étude date en fait de 2007 et ne s'intéresse qu'au cancer sans prendre en compte les bienfaits sur d'autres plans qui peuvent être supérieurs dans certains cas où les risque de cancer sont tès faibles, même si on ne peut nier les ravages de l'alcool. Il y a des études qui montrent le contraire et ce type de conclusion est absurde au regard du célèbre French paradox, mais c'est comme pour les anti-oxydants, on ne peut généraliser : il faut distinguer au moins entre jeunes et vieux. Il semble effectivement que des petites quantités d'alcool mais surtout de vin sont très bénéfiques lorsqu'on prend de l'âge. Le resvératrol contenu dans le vin est même le seul véritable traitement anti-âge à l'heure actuelle. Il est vrai que, disponible en pharmacie, il n'y a plus besoin de boire du vin... Pour le béta-carotène, c'est plus nouveau.

Apprécié dans certains aliments (surtout comme colorants…) et souvent utilisé comme facteur de bronzage, le bêta-carotène n’est pas aussi inoffensif qu’on pourrait – ou voudrait – nous le faire croire. Ses propriétés antioxydantes sont bien réelles et son utilisation comme complément alimentaire est souvent recommandée. On le trouve dans de nombreux végétaux, comme les poivrons, les carottes, l’épinard, la laitue, la tomate, la patate douce, le brocoli, le cantaloup (un melon), la courge et l’abricot. Mais son utilisation n’est pas sans risque, selon l’INCA, qui dénonce leur absorption totalement inutile comme complément alimentaire puisqu’une alimentation équilibrée suffit amplement à pourvoir au besoin. Par contre, une utilisation à forte dose (20 à 30 mg/jour) non seulement ne présente aucun effet protecteur contre le risque de cancer, mais encore, augmente significativement le risque de cancer du poumon en potentialisant les effets du tabac chez les fumeurs.

La consommation de viande reste autorisée, voire conseillée (le manque de fer, dont la viande est riche, est la carence la plus fréquente), mais moyennant certaines précautions. Ainsi, l’INCA fixe une limite recommandée à 500 grammes de viande rouge par semaine, mais demande de compléter l’apport de protéines avec une alternance de viandes blanches, de poissons, de légumineuse et d’œufs. En revanche, les charcuteries, en particulier grasses ou très salées, sont à proscrire autant que possible.

Le rapport de l’INCA précise que le risque de cancer colorectal est accru de 29% par tranche de 100 grammes/jour, et de 21% pour 50 grammes supplémentaires de charcuteries quotidiennes.

- Confirmation de l'effet anticancérigène de la vitamine C

Bien qu'il prenait de fortes doses de vitamines C, Linus Pauling est mort d'un cancer... mais à plus de 90 ans !

L’idée que l’acide ascorbique puisse avoir des vertus anticancéreuses n’est pas nouvelle. En son temps, Linus Pauling (le « papa » de la vitamine C, prix Nobel de Chimie 1945) avait suggéré un tel rôle pour des doses élevées supérieures à 2 grammes par jour. Pourtant les études menées depuis aussi bien chez l'animal que chez l'homme ont donné des résultats contradictoires.

« Nous apportons aujourd’hui la preuve des propriétés anti-prolifératives et donc anticancéreuses de l’acide ascorbique » explique Michel Fontès directeur du laboratoire Thérapie des Maladies Génétiques de l’Université de la Méditerranée à Marseille. Son équipe a en effet pu démontrer que l’acide ascorbique avait une action inhibitrice sur les gènes impliqués dans la prolifération cellulaire.

Un premier essai sur des souris porteuses de tumeur a montré, sur un modèle animal de cancer, qu'un traitement par injection augmentait fortement la survie des souris, réduisait la croissance de la tumeur et inhibait la formation de métastases. "Les cellules cancéreuses semblent avoir une appétence particulière pour la vitamine C qui provoque leur destruction. Les meilleurs résultats ont été obtenus chez les souris qui avaient reçu les plus fortes doses".

- Un test urinaire pourrait suffire à repérer un cancer de la prostate

En fait, le cancer à la prostate étant d'évolution lente, des médecins prétendent qu'il ne sert à rien de le dépister (surtout si le traitement est la réduction de la testostérone), mais quand même, la "sarcosine" manifestation d'un cancer qui nous ronge...

La présence d'un acide aminé, la sarcosine, témoignerait de la présence d'une tumeur de la prostate. Cette découverte ouvre l'espoir d'un dépistage facile et rapide, après une simple analyse d'urine. En outre, le rôle de cet acide aminé dans le déclenchement ou l'évolution de la tumeur pourrait mener à de nouvelles voies thérapeutiques.

 

Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique

- OGM : "L’industrie fait obstacle à la recherche !"

Dans une réclamation inhabituelle, un groupe de scientifiques universitaires affirment que les compagnies de biotechnologies les empêchent de pouvoir mener des recherches complètes sur l’efficacité et les impacts des plantes modifiées génétiquement, commercialisées par l’industrie.

« Les gens ont peur d’être mis sur des listes noires. Si votre seule tâche est de travailler sur des insectes du maïs, que vous avez besoin des dernières variétés de maïs et que les compagnies décident de ne pas vous les donner, vous ne pouvez pas travailler ».

- L'hybride à air comprimé, la solution ?

La voiture à air comprimé française paraissait bien sympathique mais trop limitée. Les voitures hybrides paraissaient l'avenir mais beaucoup trop chères. La solution pourrait être des voitures hybrides à air comprimé supprimant les batteries et permettant d'avoir des moteurs plus petits car l'air comprimé pourrait participer aux accélérations. Certes, ce n'est pas l'idéal. Notamment, on garde ainsi toute la transmission mécanique avec leurs pertes, alors qu'un véhicule électrique pourrait l'éviter, mais c'est sans doute un compromis viable à court terme (à condition d'y ajouter la possibilité d'une compression électrique sur secteur, au garage, afin de réduire au minimum la consommation d'essence dans l'usage quotidien).

- Un concentrateur solaire bon marché

- Des nanotubes poduisent du méthane avec du soleil, de l'air et de l'eau

Il y a déjà longtemps que j'ai soutenu que le méthanol était le meilleur substitut au pétrole, malgré son acidité, et bien plus pratique que l'hydrogène sous forme gazeuse. Cette nouvelle méthode est encore expérimentale, avec un rendement trop faible et la présence de platine dans l'expérience constitue un obstacle en terme de coûts, mais on pourrait s'en passer. C'est donc une piste très encourageante pour l'avenir.

Dans leur expérience, les chercheurs ont rempli des tubes en acier d'air et de vapeur d’eau, leurs extrémités étant recouvertes d’un film constitué de ces nanotubes. Par-dessus, un hublot de quartz laissait passer la lumière. Ces chambres ont ensuite été exposées à l’extérieur de juillet à septembre 2008.

Lorsque la lumière frappe les nanotubes, ceux-ci libèrent des particules chargées qui coupent en deux les molécules d’eau, comme dans une électrolyse, libérant des radicaux hydroxyles (OH-) et des ions d’hydrogène (H+). Ces derniers se combinent pour former de l’hydrogène gazeux (H2). Les chercheurs n’expliquent pas encore ce qui se produit ensuite, mais pensent que le dioxyde de carbone (CO2) contenu dans l'air se divise également en oxygène et en monoxyde de carbone (CO), lequel réagit avec l’hydrogène gazeux en donnant du méthane (CH4) et de l’eau (H2O).

Un mètre carré de film constitué des nanotubes actuels sur lequel serait concentrée la lumière du Soleil pourrait fournir 500 litres de méthane en huit heures. Même si la réaction de catalyse est encore relativement lente, le chercheur estime que de nouvelles améliorations pourront encore amplifier les taux de conversion d’un facteur de plusieurs milliers. « Je crois que ce procédé peut être commercialement viable en l’associant à une importante source de dioxyde de carbone, comme une centrale au charbon ».

- Japan Prize : Nanotechnologies au Japon

Ces technologies de l'infiniment petit vont très loin qui permettront par exemple de fabriquer... des coeurs humains, en imprimant des couches de cellules vivantes. Le raisonnement est basique: un organe n'est jamais qu'un assemblage très ordonné de cellules. Reste qu'il est a priori difficile de le reproduire compte tenu de la taille minuscule desdites cellules, de leur diversité, de leur nature vivante et de leur positionnement complexe. Mais un chercheur japonais, Makoto Nakamura, a découvert que les gouttes d'encre bombardées sur du papier par une imprimante à jet avaient à peu près les mêmes dimensions que des cellules, et que l'impression d'une photo en millions de couleurs n'était pas moins compliquée.

- Des circuits électroniques réalisés avec des neurones

Ces chercheurs ont d’abord commencé par démontrer que l’on pouvait faire croître des neurones le long d’une fente dans une plaque de verre et les stimuler non pas grâce à un champ électrique (ce qui a déjà été fait) mais à l'aide d'un champ magnétique.

Pour fonctionner, un circuit de neurones doit être tel que chacun d'eux soit connecté à un grand nombre d'autres neurones, par le buisson de dendrites (qui assurent la réception des données) et par l'axone (qui envoie ses signaux à d'autres neurones). Les chercheurs se sont aperçus que dans leur dispositif, il existait un seuil pour le nombre d’axones si on veut réaliser des portes logiques. Il en faut au moins une centaine, organisés en faisceaux.

- Transmission sans fil d'énergie électrique sur de longues distances

Lors d'une récente conférence, Intel a fait la démonstration d'un système capable d'expédier une puissance électrique faible à distance, selon le même principe que celui des chargeurs de batterie sans fil. Mais avec une portée de plusieurs kilomètres...

La puissance était émise par une antenne classique d'un émetteur de télévision. A 4,1 kilomètres de là, elle a pu être récupérée par une antenne d'environ vingt centimètres sur trente, sous forme électrique. La puissance reçue était de 60 microwatts (l'histoire ne dit pas quelle puissance a été émise), sous une tension de 0,7 volt.

Alanson Sample estime qu'il est possible, sur cette distance, d'atteindre la puissance maximale théorique de 200 microwatts, donnée par l'équation des télécommunications (Friis transmission equation en anglais). Avec un tel éloignement, la puissance transmise restera donc, quels que soient les progrès à venir, extrêmement faible.

- Samsung mise sur le soleil

Au dos de l’appareil, une série de capteurs lumineux permet de recharger la batterie dès que les conditions de luminosité sont suffisantes et sans qu’il soit nécessaire d’être dehors, une bonne lumière artificielle suffît. Selon Samsung, une heure et demie de charge permettent de téléphoner environ une demi-heure et il faut compter entre dix et quatorze heures pour recharger complètement la batterie.

A noter que Samsung lance enfin l'usb sans fil ou Wireless USB (WUSB), et que d'ici 2012, tous les chargeurs devraient être enfin compatibles, au format micro-USB sous le nom d'UCS pour Universal Charging Solution....

- Un mobile solaire pour les pays en développement

Alors que Samsung a présenté un mobile à cellules photovoltaïques et en a fait un modèle de luxe, un fabricant chinois (ZTE) vient d'en annoncer un autre, mais à très bas coût et uniquement destiné aux pays en développement, où l'électricité est une denrée rare.

Le fabricant chinois ne commercialisera pas le Coral-200-Solar sur tous les marchés, mais se concentrera sur les pays en développement. L'appareil sera dans un premier temps distribué par l'opérateur Digicel en Haïti, en Nouvelle-Guinée et dans les îles Samoa, à un prix abordable. Il serait, selon certaines rumeurs, vendu à moins de 40 dollars (32 euros).

- Convergence entre téléphone et PC

C'est un peu inspiré du iPod. On peut se demander si une liaison WiFi ne suffirait pas ?

Enfiché dans un socle servant d'interface, un mobile pourrait être relié à de multiples périphériques, écran, clavier ou imprimante, ou encore à un réseau local. L'appareil n'existe pas encore mais Microsoft vient d'en déposer le brevet.

- On reparle de l'ordinateur à 10 €

On en avait déjà parlé, on n'en sait pas beaucoup, juste cette image : une unité centrale avec disque dur et wifi pour connecter les périphériques. La base pourrait en être un téléphone mobile.

Après la Tata Nano, la voiture la moins chère du monde, l’Inde s’attaque à l’ordinateur et prévoit de commercialiser avant la fin de l’année un laptop à 500 roupies (un peu moins de huit euros) dans le cadre d’une « mission nationale pour l’éducation ». Ce projet prévoit la mise en place d’un réseau d’ordinateurs portables à partir duquel les étudiants pourront accéder à des conférences, des cours en ligne et à une aide personnalisée à partir de n’importe quel point du territoire.

Le Sakshat a été conçu par des étudiants de l’Institut Of Technology de Vellore et par des chercheurs de l'Institut indien des sciences de Bangalor et de l'Institut indien de technologie de Madras. Il serait équipé de 2 Go de mémoire vive et d’une connectivité sans fil.

- Marvell SheevaPlug : un ordinateur dans une prise de courant

Une entreprise américaine, Marvell, fabricante de circuits électroniques (et notamment de processeurs), propose un ordinateur complet prenant la forme d'un simple boîtier enfichable sur une prise électrique. Embarquant Linux, cet ordinateur minimaliste, vendu 100 dollars, est destiné à se connecter à un réseau pour partager un périphérique, par exemple une mémoire de stockage.


- RFiD 2.0 : des puces ou des ordinateurs ?

Et si les étiquettes intelligentes (les puces RFiD) se mettaient en mode “2.0“, et devenaient plus participatives et ouvertes aux usages des gens - selon la définition du web 2.0 qu’on en retient ? Plusieurs projets en revendiquent l’épithète.

Nous sommes au début d’une nouvelle vague dans l’utilisation de la RFiD. La première visait à remplacer les codes-barres. La seconde étend considérablement l’horizon. Considérer les puces RFiD comme des ordinateurs, et s’assurer que les utilisateurs disposeront d’un contrôle complet et exclusif de leurs données et communications, rendra possibles de très nombreuses applications dans de nombreux secteurs. L’industrie de la RFiD doit donc résoudre dès aujourd’hui les problèmes de vie privée et de sécurité auxquels ils sont confrontés”.

- Une puce pour télécharger sans fil un DVD en moins d'une seconde !

Une nouvelle puce RF conçue à partir de transistors CMOS, capable de transmettre des signaux sans fil à 60 GHz, a été développée par les professeurs Joy Laskar et Stephane Pinel.

Le design de cette puce pourrait dynamiser la commercialisation des applications sans fil ultra rapides et à courte portée, car la technologie CMOS est à la fois peu coûteuse et faible en consommation. Selon Lark "A ce jour, cette technologie offre le plus faible besoin en énergie par bit transmis en sans fil, à un taux de transmission supérieur au gigabit". Selon le GEDC, elle consomme moins de 100 milliwatts. Par ailleurs, les chercheurs ont déjà réussi le transfert de données à des taux sans précédent: 15 Gbps à une distance de 1 mètre, 10 Gbps à une distance de 2 mètres et 5 Gbps à une distance de 5 mètres.

- Pachube : l'internet des objets

Pachube (prononcez patch bay) peut paraître un projet un peu fou. Il est conçu comme un service web qui vous permet de connecter et partager en temps réel les données d’un capteur, quel qu’il soit. L’idée de Pachube est de faciliter l’interaction entre les environnements physiques et virtuels, les données d’un capteur physique pouvant alimenter un site web ou un objet dans Second Life et inversement. Ainsi, Pachube permet d’encastrer des données dans une page web à la manière d’un widget, que ce soit pour y donner accès ou pour transformer un blog en capteur de données.

Pachube n’est pas simplement un projet de réseau social pour les données issues de capteurs, assène son initiateur, mais plutôt un terreau d’applications, pour connecter les objets et les données entre eux.

Il fait le pari que c’est dans la multitude des services, puis dans leur interconnexion, que résidera la valeur. Une sorte de “web 2.0 des objets”.

- Graspables : Quand l’objet sait comment il est tenu

Il devient téléphone quand vous le mettez à votre oreille, appareil photo quand vous le tenez devant vos yeux, télécommande quand vous le dirigez vers quelque chose !

- QB1: l'ordinateur attentif à vos désirs

Concrètement, QB1 se présente sous une forme géométrique sobre et articulée, revêtue de tissu noir. Dès qu'il repère un utilisateur, son écran se tourne vers lui. Pour interagir, ni clavier, ni souris: on navigue simplement par des gestes. QB1 peut prendre en compte simultanément les gestes de deux mains. Et plus l'utilisateur s'approche, plus il lui propose d'informations.

La première application présentée est un jukebox. QB1 répond à distance aux désirs de l'utilisateur: choix de disques et de chansons, modification du volume Mais il sait aussi reconnaître l'utilisateur et s'adapter progressivement à lui pour lui faire des suggestions toujours plus pertinentes. Le système combine à cet effet plusieurs techniques d'intelligence artificielle, chacune étant adaptée à un type de prédiction particulière.

- 10 Emerging Technologies 2009

Comme tous les ans, la prospective du MIT :

Intelligent Software Assistant - génome à $ 100 - mémoire nanométrique - Machines biologiques - diagnostic de papier - batterie liquide - nouveau réacteur nucléaire - Nanopiezoelectronics - Nouvelle méthode HashCache de stockage sur le web - contrôle à distance des réseaux.

1. Déchargée, 2. en charge, 3. chargée

Magnésium : bleu. Electrolyte : vert. Antimoine : jaune.

Ce qui fait l'intérêt de cette batterie liquide, c'est qu'elle est destinée au stockage de quantités énormes d'éléctricité, par exemple celle d'une ville comme New York.

Voir aussi sur internetactu.

- De la vidéo dans les lunettes dès 2010

La société Optinvent a mis au point une technologie permettant d'afficher de la vidéo grâce à un équipement incorporé dans des lunettes transparentes. Il est ainsi possible de voir autour de soi tout en regardant un film comme vous le feriez dans votre salon en fixant l'écran du téléviseur tout en restant non coupé de votre environnement.

L'écran virtuel est superposé sur l'environnement. L'utilisateur a la sensation d'un écran flottant devant les yeux, il voit parfaitement ce qui se passe sur cet écran mais il est également conscient de la réalité autour. Cela évite le problème posé par des lunettes vidéo occultantes qui peuvent faire perdre les repères à l'utilisateur et sont susceptibles d'entraîner des effets secondaires tels que "le mal de mer". Les lunettes ainsi équipées pourraient être commercialisées dès l'année prochaine.

Dans chaque branche des lunettes est intégré un boîtier contenant un microdisplay, écran très petit d'environ 1,5 cm recevant l'image, et la technologie "clear vu" qui va prendre cette image et la mettre en forme, elle va être "collimatée" avec un jeu de lentilles optiques spéciales. Cela va latéralement de l'arrière vers les verres des lunettes qui servent de guide optique.

- Ces inventions qui vont cartonner

Du papier qui s'imprime et s'efface, une pâte qui répare les os, des matériaux qui se réparent tout seuls ou encore une pomme qui lutte contre les rides... Ce n'est pas de la science-fiction mais bel et bien des innovations qui devraient débarquer d'ici quelques années.

Plusieurs choses dont on avait déjà parlé, d'autres qui sont exagérées, d'autres qui sont encore de la science-fiction malgré tout comme la cape d'invisibilité...

- Des gadgets "verts"

Ce ne sont que des gadgets, pour produire ou économiser de l'électricité la plupart du temps, rien de fondamental...

- New Songdo City (Corée du Sud) : la ville numérique

Ce n'est qu'une ville nouvelle sans âme comme il y en a tant, mais entièrement câblée et numérisée.

New Songdo City est une ville nouvelle en Corée, créée de toutes pièces comme vitrine d'un mode de vie 100 % numérique dans un univers d'objets intelligents interactifs grâce à la technologie RFID. Une carte à puce y servira par exemple de clé de maison, de pass pour utiliser un vélo en libre service ou emprunter des livres à la bibliothèque, à prendre le métro, à payer le parking ou de petits achats...

 

<- Revue des sciences précédente | Revue des sciences suivante ->
2 693 vues

7 réflexions au sujet de “Revue des sciences 03/09”

  1. Le moteur à air comprimé me parait valable dans la mesure où beaucoup de déplacements des particuliers sont ceux quotidiens. Statistiquement, probablement peu de kilomètres par jour d'où une faible autonomie nécessaire et la possibilité de recharge quotidienne. L'adjonction d'un moteur à essence réalimentant la compression du réservoir d'air permet d'étendre l'autonomie pour les déplacements ponctuels plus longs. Un tel moteur compresseur peut être de faible taille et tournant à régime constant, donc optimisation maximale du cycle thermodynamique. Autre avantage de l'interface air comprimé, pas de consommation au point mort et récupération de l'énergie cinétique lors du ralentissement.

    D'autre part les technos à mettre en œuvre sont assez rudimentaires pour envisager une faisabilité à court terme. Ce qui n'est pas négligeable quand l'aiguille du réchauffement climatique continue sa course.

    D'autres pistes, le stockage hydrogène en hydrures de magnésium :

    http://www.usinenouvelle.com/art...

  2. Concernant "Les mathématiciens responsables ?", l'évaluation du risque financier semble bien un problème que les modèles mathématiques les plus complexes ne permettent pas de résoudre, au contraire ces modèles permettent surtout à ceux qui les connaissent de jouer des airs de pipeau, c'est peut être aussi ça, l'asymétrie de la maitrise des modèles, lire :
    http://www.telos-eu.com/fr/artic...

  3. Il y a une confusion entre finances et assurance, confusion justifiée par le fait que sur le court terme il peut y avoir équivalence mais on ne peut réduire les fluctuations économique à de l'aléatoire alors qu'on a affaire à des phénomènes structurés, en particulier par des cycles démographiques ou saisonniers. Il faudrait pouvoir s'indexer sur des variables objectives pour améliorer la visibilité des modèles financiers mais cela semble hors de portée, bien plus que le climat. Il est certain qu'à partir d'un certain niveau de complexité on tombe dans une relation mystérieuse, irréfutable, une confiance de l'ordre de la foi. De toutes façons, la perversité, c'est que plus on réduit le risque, plus on prend de risques inconsidérés, plus le risque devient systémique. Seulement il faudrait rendre hors la loi les logiciels permettant de réduire le risque en période ordinaire...

  4. J Zin,

    Le facteur discriminant est celui qui discerne le court terme du long terme.

    Les mécanismes de réassurance me semblent très proches des mécanismes de produits dérivés, la contrainte de rentabilité court termiste fini de lier l'ensemble.

    L'urgence des bilans annuels voire semestriels entraine une dynamique de compétition du mieux disant sur ces périodes. Devant ces impératifs, les cycles longs sont pratiquement occultés. Nécessité fait loi.

    La complexité des modèles est aussi, et peut être surtout, l'opportunité de créer un langage occulte. Que chaque domaine de compétence ait un argot, est compréhensible, mais l'imperméabilité de cet argot est une bonne occasion
    de prestidigitation par certains. La foi, bien sûr, intervient pour les non "initiés" mais elle me parait plutôt une conséquence, une abdication devant ce qu'on n'appréhende plus du tout, plutôt qu'une cause tropique.

    Plus qu'asymétrie de l'information, il y a surtout asymétrie du langage, ce qui n'est pas similaire.

Laisser un commentaire