Revue des sciences 05/12

<- Revue des sciences précédente | Revue des sciences suivante ->
Revues : Pour la Science - La Recherche - Sciences et Avenir
Brèves : Physique - Climat - Biologie - Santé - Technologie

 

Les hommes sont bien présomptueux à croire qu'ils font l'histoire et choisissent leur destin, accordant trop d'importance à leur volonté comme à leur intelligence supposée qui pour être bien supérieure aux autres animaux témoigne constamment de toutes ses limitations (en particulier en politique où la bêtise la plus crasse triomphe). On s'aperçoit au contraire que la vie est dépendante de l'évolution cosmique et que l'homme fait partie de la nature plus qu'on ne le croit, dépendant notamment du climat et d'une évolution technique qu'il subit plus qu'il ne la dirige, au moins depuis la cuisson des aliments qui remonterait à plus d'1 millions d'années... Si les prétentions de changer les hommes sont délirantes au regard de l'anthropologie, des sciences sociales et de notre rationalité limitée, la sortie de l'état de nature qui est désormais une condition de notre survie (pour éviter une sélection naturelle brutale) commencerait donc par la si difficile maîtrise du climat à l'ère de l'anthropocène. On n'en est pas là encore et pour la maîtrise des techniques, c'est encore une autre paire de manche (quoiqu'en pensent technophiles comme technophobes), mais c'est l'occasion de souligner à quel point on ne peut séparer philosophie et sciences comme cela a pu être la mode quelque temps. La philosophie doit s'intéresser aux sciences et techniques en tant que c'est notre réel - on dit notre futur - mais aussi parce que c'est là que se joue le progrès de la connaissance et qu'il n'y a rien de mieux pour manifester nos limites cognitives (quand on se cogne au réel). En particulier les Big Data (qualifiées ici de "télescope" ce que Joël de Rosnay appelait plus justement "macroscope") devraient faire faire un saut conceptuel aux sciences sociales (avec les humanités numériques) nous confrontant en temps réel à nos déterminismes sociaux. Il ne sera plus possible de prétendre faire des positions politiques un problème neurologique ! C'est aussi la pensée magique ou religieuse qu'on voudrait vainement ramener au cerveau, voire à un "point God" (!) alors que c'est bien plutôt un effet du langage (et sans doute, pour la notion de Dieu comme pasteur, de la domestication des animaux).

On se moque du temps que je passe à cette revue des sciences, en pure perte semble-t-il, mais si j'y vois un exercice salutaire pour la pensée, d'étonnement ou de prévoyance, en tout cas échappant au discours courant, j'ose prétendre en faire aussi une sorte d'oeuvre d'art, certes pas toujours réussie car c'est trop pour un seul homme, avec des zones laissées en friche ou à peine esquissées, des ratés, des ratures. J'y vois pourtant des correspondances qui en constituent l'unité secrète (comme sur l'apprentissage cette fois ou les influences cosmiques, entre autres) même si cela reste inaperçu à la plupart et qu'il n'y a rien de plus éphémère que les nouvelles du mois constituant notre actualité, comme un visage dessiné sur le sable, aussitôt effacé par les flots...

(voir aussi le commentaire plus bas sur la revue des sciences)

 

On ne peut pas dire que ce soit vraiment nouveau mais il y a encore eu ce mois-ci des chefs d'Etat et des économistes plaidant pour un légalisation des drogues, en particulier le cannabis, devant l'évidence de l'échec et du coût d'une guerre à la drogue qui met des pays à feu et à sang sans aucun résultat. Par ailleurs, on découvre quasiment une drogue de plus par semaine en Europe, l'inventivité des chimistes contournant la répression. C'est un exemple tragique du caractère inutilement destructeur de la volonté de changer les hommes et de son échec tout comme la prohibition de l'alcool en son temps malgré tous les moyens de coercition et de contrôle social (que certains voudraient étendre jusqu'à la peine de mort pour tous les drogués!). D'ailleurs, pour des pays comme l'Equateur la question se réduit au fait de ne tout simplement pas avoir les moyens de la guerre aux trafiquants mais pour ceux qui y mettent les moyens comme la Colombie ou le Mexique, ce n'est pas mieux, c'est le moins qu'on puisse dire ! Rien de plus fascisant que ces politiques moralisatrices (ou religieuses) du même ordre que la répression de l'homosexualité, ce qu'on peut appeler des utopies négatives. En tout cas les déclarations se multiplient pour arrêter la guerre à la drogue même si les résistances, principalement des Etats-Unis, restent fortes malgré une légalisation rampante (sous couvert médical), notamment en Californie où il y a même des distributeurs de cannabis :

Autospense permet d’une part de garantir la sécurité des employés et surtout de mettre au point quelques couches de sécurité supplémentaires contre les fraudeurs.

Pour acheter une dose, il faut préalablement acquérir une carte magnétique dédiée. Facile à copier ou à voler répondrez-vous… Certes, en revanche il faut ensuite valider sa commande grâce à son empreinte digitale et également entrer un code secret.


En attendant, pas besoin de substances chimiques pour survoler Londres comme un oiseau avec kinect, notre corps orientant le déplacement des vues aériennes de la ville. Pas besoin de pilules non plus pour guider vos rêves : il y a une application pour ça ! Il ne s'agit en fait que de programmer des ambiances sonores sur iPhone sensées influencer nos rêves. Il paraît que ça marche mais ne semble guère différent des disques qu'on met pour s'endormir... Ce ne sont que des gadgets sans importance, ce qui est déjà moins le cas avec le GPS d'appartement configurant le mobile selon la pièce où l'on est mais on n'a rien vu encore de l'ère du numérique qui commence à peine. L'avenir, ce sont les imprimantes 3D, les exosquelettes, les prothèses (entre autres) commandées par la pensée et les robots (même des prostituées robot !). En les combinant, on devrait pouvoir bientôt fabriquer par imprimante 3D un robot personnalisé (électronique inclue) !! On pourrait déjà "imprimer" des produits chimiques à la demande (y compris des drogues donc!), mettant en tout cas la chimie à portée de n'importe qui. Une autre voie, plus industrielle, s'oriente plutôt vers l'autoassemblage (la Claytronique avec des grains magnétisés, etc.) à la place de l'assemblage atome par atome.



HUD Test (Holographic 3D Interface)
from mgfxstudio on Vimeo.

On ne sait si l'interface holographique ci-dessus a de l'avenir mais on pourrait bientôt se servir de sa main comme carte bancaire (pour retirer de l'argent on met sa main sur le scanner). Signalons enfin la sortie d'un linux anonyme pour surfer sans laisser de traces et du logiciel Serval pour Android destiné à téléphoner gratuitement en P2P, sans opérateur, en passant d'un mobile à l'autre par wifi (il faut être assez nombreux à l'utiliser pour avoir une chance que ça marche...). On se rend compte sinon que la majorité du trafic des sites internet proviendrait de sources frauduleuses ou automatisées. Au final, la portion représentée par un humain ne serait plus que de 49 %, laissant 51 % au trafic généré par des bots. Avec l'internet des objets la part humaine devrait encore énormément régresser !


Pour la Science no 415, Les virus géants


Pour la Science

- Les virus géants, p21

Pas grand chose de neuf pour nous dans ce dossier répétitif sinon peut-être le mode de reproduction de ces virus géant qui n'utilise pas l'appareil génétique de la cellule infectée pour se reproduire mais uniquement ses ribosomes, possédant son propre appareil de reproduction, ce pourquoi ils comportent beaucoup plus de gènes que les virus ordinaires, mais raison aussi pour laquelle ils peuvent être eux-mêmes infectés par d'autres virus (comme le Sputnik). Ils ne pénètrent pas non plus dans les cellules mais attendent d'être ingérés par une amibe (ce pourquoi ils ont besoin d'être assez gros et d'avoir un goût sucré) pour s'y reproduire. Leur comportement étant tellement différent, on devrait appeler ces virus géants des girus !

Comme leurs gènes sont spécifiques et peuvent remonter aux premiers eucaryotes, on veut en faire une nouvelle branche du vivant, ce qui est un peu tiré par les cheveux en l'absence de métabolisme et d'autant qu'il y a d'importants échanges de gènes entre les virus (et les bactéries) et non pas une descendance linéaire comme avec les multicellulaires mais il est effectivement probable que ces girus soient d'anciennes bactéries ayant perdu leur métabolisme comme d'autres parasites perdent des fonctions vitales qu'ils trouvent chez leur hôte. On peut aussi considérer que c'est simplement un mode de reproduction différent de celui des bactéries et plus proche de la reproduction sexuée (ou des parasites justement).

La plupart font partie des « grands virus nucléocytoplasmiques à ADN », ou NCLDV (de l'anglais nucleo-cytoplasmic large DNA viruses). Ce groupe comprend plusieurs familles. Citons les Poxviridés, qui infectent des vertébrés (tel le virus de la variole) et des invertébrés, les Iridoviridés et Ascoviridés, qui parasitent des insectes et des vertébrés à sang froid, les Phycodnaviridés, des virus aquatiques dont les hôtes sont des algues vertes, et les Asfarviridés, des virus de mammifères.

On considère comme géants les virus dont le génome a plus de 300 000 paires de bases et dont la capside (l'enveloppe du virus, formée de protéines) mesure environ 0,2 micromètre ou plus. Mimivirus, dont le diamètre atteint environ 0,75 micromètre, est un géant parmi les virus géants. Son génome comporte plus de 1,182 million de paires de bases et code 1 018 protéines.

Quand une amibe ingère un Mimivirus, ce dernier pénètre dans la cellule à l'intérieur d'une vacuole, compartiment bordé d'une membrane, qui fusionne avec des lysosomes, des organites digestifs. C'est probablement l'activité des enzymes lysosomales qui provoque l'ouverture de la structure en étoile du virion. Il semble qu'ensuite, une membrane interne au Mimivirus fusionne avec la membrane de la vacuole qui l'entoure, le génome du virus étant ainsi directement injecté dans le cytoplasme de l'hôte, avec de nombreuses autres protéines contenues dans la capside. Un complexe d'assemblage viral, nommé usine de réplication, se forme alors dans le cytoplasme autour de cette capside virale dénudée. Cette usine de réplication s'agrandit au point que, six heures après le début de l'infection, elle occupe une grande partie du volume cellulaire.

Une reconstitution de l'évolution des NCLDV, publiée en 2010 par Eugene Koonin et Natalya Yutin, des Instituts américains de la santé à Bethesda, suggère l'existence d'un ancêtre commun aux virus de ce groupe. Cet ancêtre était vraisemblablement doté d'un petit ensemble de 47 gènes ayant laissé des traces dans les génomes viraux actuels.

Quant à l'origine du groupe des NCLDV, elle est controversée. Lors de la découverte de Mimivirus, certains chercheurs, constatant qu'un nombre gigantesque (86 pour cent) de ses gènes ne présentent aucune ressemblance notable avec des gènes d'organismes cellulaires, ont conclu que l'on devait considérer les NCLDV comme une quatrième branche du vivant, à côté des archées, des bactéries et des eucaryotes (organismes à cellules pourvues d'un noyau). On a ainsi suggéré que certains gènes des NCLDV proviendraient du même patrimoine génétique ancestral que celui dont sont issus les procaryotes et les eucaryotes.

Deux hypothèses distinctes ont été émises : soit l'ancêtre des NCLDV actuels a donné naissance au génome des eucaryotes, soit le génome de la famille des NCLDV est issu de la dégradation du génome d'un eucaryote ancestral.

Par cette séparation nette du soma (l'organisme proprement dit, transitoire et producteur d'agents reproducteurs) du germen (les agents de la reproduction, véhicules du génome), le mode de réplication des virus géants apparaît soudain plus proche de celui des organismes dotés d'une reproduction sexuée que de celui des micro-organismes pratiquant la scissiparité.

- La diversité des virus aquatiques, p34

Pour ma part, je considère les virus comme l'information circulante (transfert de gènes) et comme la part externe du génome participant à la régulation des populations en fonction des ressources. Ils ne sont donc pas vivants mais font partie intégrante du vivant. Ce sont d'ailleurs les virus aquatiques qui m'ont persuadé, par leur nombre et leur diversité, de leur intégration aux organismes qu'ils infectent. Il n'y a pas en effet de virus en soi, toujours attaché à l'espèce qui l'héberge et dont il dépend. On a vu aussi que les virus étaient un facteur de maintien de la biodiversité (en empêchant une espèce de devenir trop invasive) et de stabilisation des écosystèmes en protégeant les populations vaccinées (ayant survécu au virus) de nouveaux intrus, ce qui explique assez leur persistance. On leur attribue aussi un rôle dans la régulation climatique (enfouissement du co2 mais empêchant aussi un refroidissement par production excessive d'oxygène). On peut ajouter que beaucoup de virus ne sont pas mortels et apportent une protection contre certaines maladies tout en favorisant d'autres moins graves ou plus tardives, etc.

On a en effet constaté que généralement, chaque type de virus a un hôte privilégié et, inversement, que chaque procaryote est la cible d'un virus particulier.

Plusieurs mécanismes permettent cette coévolution des virus et de leurs hôtes et, de façon plus générale, lient étroitement diversité virale et diversité du vivant. Nous citerons les deux principaux : la pression de sélection qu'exercent les virus sur les populations de procaryotes (bactéries et archées), et le transfert de gènes.

En « tuant le meilleur », c'est-à-dire en parasitant l'espèce la plus compétitive (qui est souvent la plus abondante) dans un écosystème donné, les virus laissent vacante une niche écologique où les espèces plus rares – moins compétitives pour les ressources nutritives, notamment – peuvent alors se développer.

En milieu aquatique, le transfert de gènes entre les cyanobactéries et leurs virus, les cyanophages, est particulièrement intéressant. Au fil de leur évolution, les cyanophages ont assimilé dans leur génome de nombreux gènes – probablement récupérés chez leurs hôtes – qui codent des composants clefs de l'appareil photosynthétique bactérien. Exprimés pendant l'infection, ces gènes assurent que la photosynthèse et d'autres fonctions de la cyanobactérie perdurent pendant la réplication des virus.

Aujourd'hui, il n'est plus possible d'ignorer le rôle des virus dans les écosystèmes aquatiques. Par leurs activités régulatrices des populations, ou grâce à l'action indirecte de leurs gènes, les virus aquatiques, de par leur nombre et leur diversité, contribuent de façon essentielle à la biodiversité en augmentant la variabilité génétique des micro-organismes. Ce faisant, ils participent à la régulation du fonctionnement écologique de la planète et à ses changements évolutifs. Ils pourraient même prendre part à la régulation climatique : en recyclant la matière organique présente dans les océans, ils modifient le flux de carbone qui y transite, notamment son transfert vers le fond, et influent in fine sur la quantité de gaz carbonique que ces derniers absorbent ou rejettent dans l'atmosphère.

- Des interrupteurs cachés dans le cerveau, p50

L'environnement et les expériences vécues contribueraient à l'apparition de maladies mentales par le biais des modifications épigénétiques, qui activent ou inhibent les gènes.

Une dose unique de cocaïne provoque des changements importants dans l'expression de nombreux gènes. Ces modifications sont mesurées par les concentrations d'arn messager, témoin direct de l'expression des gènes. Une heure après la première injection de cocaïne à des souris, près de 100 gènes sont activés. Ce qui se passe lorsque les animaux sont exposés de façon chronique à cette drogue est encore plus intéressant. Quelques-uns des gènes activés par une première injection deviennent silencieux si cette drogue est administrée tous les jours. Ces gènes sont « désensibilisés ».

Cependant, d'autres gènes – en plus grand nombre – font exactement l'inverse : ils sont temporairement activés par une première exposition à la cocaïne, mais une exposition chronique, loin de diminuer leur activité, l'augmente bien davantage – dans certains cas, pendant des semaines après la dernière injection. Qui plus est, ces gènes restent très sensibles à la cocaïne même après une longue période où l'animal n'a plus été exposé à la drogue. Ainsi, l'usage chronique de la cocaïne prépare ces gènes à une future activation, en leur permettant de se « souvenir » des effets de la drogue. Cette réceptivité favorise aussi la rechute, et ouvre la voie à la dépendance. Or cette sensibilité exacerbée résulte de modifications épigénétiques des gènes.

En fait, c'est uniquement les soins maternels (ou plutôt leur carence), la dépression et la dépendance aux drogues qui provoqueraient des modifications épigénétiques leur donnant persistance mais le phénomène semble surévalué par rapport à des processus d'équilibration ou de mémoire et des causalités plus psychiques. Lorsque les modifications épigénétiques sont réversibles et rétablies par un antidépresseur, on peut penser que le niveau génétique n'est pas le plus pertinent.

- La gravitation quantique en deux dimensions, p72

On ne peut pas dire que ce soit très lumineux mais le fait de réduire le nombre de dimensions pour mieux comprendre un problème est incontestablement intéressant. Cela m'agace un peu quand même cette manie de la gravitation quantique de dire que le temps émerge d'un univers dépourvu de temps alors qu'on parle juste du choix d'un repère dans un univers en mouvement (on ne passe pas d'un univers figé à l'apparition miraculeuse du mouvement).

À la fin des années 1980, cependant, le sujet renaît quand les chercheurs s'aperçoivent que la gravitation fonctionne d'une façon inattendue dans un espace à deux dimensions. Certes, deux masses ne s'attirent pas selon la loi de Newton (avec une force proportionnelle à l'inverse du carré de la distance), mais la gravitation joue néanmoins sur la forme générale de l'espace et pourrait même y engendrer des trous noirs. Récemment, la gravitation en deux dimensions a apporté un éclairage sur certains concepts fondamentaux de la gravitation quantique, tels que le principe holographique ou la question de l'émergence du temps à partir d'un cadre atemporel.

Ainsi, la gravitation quantique à deux dimensions n'est pas une théorie des gravitons, mais une théorie de l'évolution de la forme globale des tores.

Dans l'une des formulations de la gravitation quantique à 2 dimensions, contrairement à ce qui se passe en théorie de la relativité générale, la tipologie de l'univers peut changer. Par exemple, un tore à un seul trou a une probabilité non nulle d'évoluer vers un tore doté d'une anse, c'est à dire de 2 trous. Cela reviendrait à créer un trou de ver, un passage direct d'un endroit à un autre. L'univers pourrait aussi subitement devenir un point et disparaître.

Le problème du temps a un cousin moins célèbre : le problème des observables. La physique est une science empirique. Une théorie doit faire des prédictions testables portant sur des quantités observables. En physique classique, ces quantités sont affectées à des positions spécifiques. On calcule l'intensité du champ électrique « ici » ou la probabilité de trouver un électron « là ». Les lieux sont étiquetés avec des coordonnées, et les théories prédisent comment les observables dépendent des valeurs de ces coordonnées spatiales et du temps.

Or d'après la théorie de la relativité, les coordonnées spatiales sont des étiquettes artificielles et arbitraires, et il n'existe pas de repère absolu. Mais si vous ne pouvez pas identifier objectivement un point dans l'espace, vous ne pouvez prétendre savoir ce qui s'y passe. Charles Torre, de l'Université de l'État de l'Utah, a montré qu'une théorie quantique de la gravitation ne peut pas avoir d'observables purement locales, c'est-à-dire des observables dont les valeurs dépendent d'un seul point de l'espace-temps. Les scientifiques en quête d'une telle théorie doivent composer avec des observables non locales, dont la valeur dépend de plusieurs points en même temps.

- Des interférences de molécules organiques

Cette dualité onde-corpuscule m'a toujours fasciné, déjà démontrée avec des fullerènes (C60) et par les condensats de Bose-Einstein mais à condition de s'approcher du zéro absolu afin de réduire l'énergie des particules et augmenter leur longueur d'onde, ce qui ne semble pas le cas ici.

Le dispositif utilisé pour obtenir les interférences et les enregistrer en temps réel : le laser bleu est focalisé sur la plaque de verre (W1) où sont déposées les molécules organiques, ce qui permet de les évaporer sans les détruire. Le réseau (c) est placé en (G). Les molécules arrivent sur la plaque de verre (W2), où elles sont excitées par le laser rouge pour obtenir une image en fluorescence enregistrée par la caméra CCD placée à l'extrémité du dispositif.

Markus Arndt et ses collègues ont utilisé un réseau ultrafin - un ensemble de fentes parallèles fondé sur le même principe que les fentes de Young - ainsi qu'un dispositif optique pour réaliser l'image de chaque molécule et la localiser sur l'écran avec une précision de dix nanomètres. Ils ont utilisé des molécules organiques, la phtalocyanine et l'un de ses dérivés, dont les masses respectives sont de 514 et 1 298 unités de masse atomique (le fullerène C60 a 720 unités de masse atomique). Les particules sont d'abord évaporées grâce à un laser choisi avec précaution afin de ne pas surchauffer les molécules, qui pourraient alors se décomposer. Les molécules passent ensuite par le réseau, fait en céramique (SiN).

Le pas du réseau est un paramètre crucial, car il détermine la distance entre les franges d'interférences. Il doit être suffisamment petit - 100 nanomètres - pour que les franges soient bien séparées.

- Le mécanisme d'inhibition par ARNm de la traduction des gènes

Deux équipes ont dévoilé les mécanismes intimes par lesquels un microARN inhibe la traduction d'un ARN messager.

Leurs travaux montrent que, d'abord, un microARN bloque la traduction d'un ARNm, puis, qu'ensuite, cet ARNm subit une transformation nommée déadénylation qui consiste en l'élimination de la queue poly(A), une succession de nombreux nucléotides de type adénosine (A) située à l'une des extrémités des ARNm. Cette queue poly(A) est essentielle au déclenchement de la traduction (elle participe au recrutement du ribosome) et à la stabilité de l'ARNm : la durée de vie d'un ARNm dans le cytoplasme est d'autant plus longue que cette queue l'est aussi. Aussi, son élimination conduite par le microARN entraîne la rapide dégradation de l'ARNm.

 

- La malédiction de la mauvaise file, p84

Sur la route, quand vous être pris dans un ralentissement, la file voisine semble presque toujours plus rapide que la vôtre.

En clair, et dans notre vie à propos de bien d'autres choses que les encombrements de circulation, nous considérons normal d'avoir de la chance et nous ne nous en réjouissons pas comme nous le devrions (ce que les probabilités nous permettent d'analyser), alors que nous trouvons injustes les désagréments qu'un peu de malchance provoque et cela surtout lorsque le désagrément est plus long que la satisfaction.

 


La Recherche no 464, Systèmes complexes


On ne fera que signaler ce dossier au titre aguichant mais bien décevant. Il est certes on ne peut plus pertinent d'aborder le concept flou de complexité par la théorie des réseaux mais la domination de ce domaine par la physique est une impasse ignorant la spécificité de l'information et de son caractère réactif. Des "systèmes multi-agents" sembleraient plus adaptés.

La modélisation biologique ne m'a pas semblé beaucoup plus convaincante bien qu'elle serve à déterminer les noeuds prépondérants dans le basculement entre 2 états stables et surtout qu'elle rétablit les relations de causalité mais tout cela est encore très approximatif (pour autant qu'on y comprenne quelque chose!).

Un élément central pour construire un réseau biologique causal - dans lequel les relations entre noeuds sont de nature causale - est le recours à des dépendances conditionnelles issues de la théorie des probabilités, pour inférer des relations de causalité dans le contexte d'une source systématique de perturbations.

Enfin, je ne dirais pas comme Claudine Tiercelin (titulaire de la chaire de métaphysique au Collège de France) que "la philosophie doit être scientifique" (ce que prétendait Husserl aussi). Si la philosophie doit effectivement s'intéresser aux sciences, c'est moins pour les surplomber par l'épistémologie (bien que les concepts scientifiques aient besoin d'être critiqués) que pour en rabattre sur ses propres prétentions métaphysiques dans les démentis qu'apportent chaque découverte à nos préjugés et raisonnements, dans l'expérience de cette dialectique cognitive en acte (d'une vérité comme processus dans lequel on est engagé, d'une épistémologie comme apprentissage et non comme platitude logico-positiviste). Plusieurs brèves ci-après abordent justement les mécanismes de l'apprentissage avec sa part d'aléatoire liée à notre rationalité limitée.

 


Sciences et Avenir no 783, Méroé l'empire qui défia Rome


Je ne connaissais pas ce royaume soudanais (kouchite) de Méroé (-300, +450) héritier des pharaons noirs avec leurs petites pyramides mais dirigé par des femmes (les Candaces), notamment Amanirenas la borgne qui a tenu tête aux Romains vers -25 av.JC. Une autre reine connue comme grande bâtisseuse s'appelle Amanitore.

Ce sont les Nubiens (nom venant du grec Noubai mais signifiant esclave en méroïtique) qui détruiront cette civilisation au moment où le désert s'étend (autrefois fertile et même marécageux avant de se désertifier à partir du début du premier millénaire av.JC).

Il me semble avoir vu un film sur Antoine et Cléopâtre où les Romains étaient battus par une reine borgne mais je n'en suis pas sûr du tout... En tout cas, on savait déjà que des femmes avaient régné, notamment en Egypte, mais il n'est pas mauvais de rappeler, entre autres aux Egyptiens actuels, qu'il n'y a rien de nouveau à ce que les femmes accèdent au pouvoir ou à toute autre fonction, les différences sexuelles n'étant en rien une infériorité et la répartition des rôles étant largement culturelle même s'il y a des prédispositions biologiques.

- Les risques des voitures électriques, p14

Risques d'incendie, d'émanations toxiques, de court-circuits et d'électrocution !

- Fabriquer du ciment propre, p22

L'industrie cimentière est responsable de 5% des émissions de CO2. Une nouvelle méthode de fabrication émettrait 97% de CO2 en moins.

Le nouveau ciment ne nécessite aucun chauffage : il est formé à partir d'un mélange de calcaire broyé et de "laitier", un sous-produit de l'industrie sidérurgique contenant des oxydes de silice et d'alumine, ainsi qu'un "activeur" pour dissoudre le laitier.

 



Brèves et liens



Physique


cosmologie, astronomie, physique quantique

 

- L'univers a eu un début même s'il n'a pas de fin

Je n'ai pas bien compris mais des considérations mathématiques semblent rendre impossible que nous ayons une éternité derrière nous, sans que cela empêche d'avoir une éternité devant (ce qui n'est pas prouvé pour autant). Il faut un événement créateur, pas seulement des fluctuations du vide ou une simple émergence quantique qui s'effondrerait aussitôt. Cela ne veut pas dire que cet événement s'identifierait avec le Big Bang car même un univers subissant des rebonds (Big Bang, expansion, concentration, nouveau Big Bang, etc.) devrait avoir un commencement, en particulier à cause de l'expansion.

Ce sont des raisonnements très abstraits dont il est difficile de tirer des conclusions car tout dépend de ce qu'on appelle univers et commencement. La question du commencement pose le problème de ce qu'il y avait avant (ou alors, on dit que le temps n'existe pas avant l'univers) mais on ne sait pas si une collision de membranes par exemple constituerait un commencement acceptable. En tout cas la notion de commencement absolu ne peut être de la physique mais seulement de la métaphysique en dehors de toute expérience.

- Simulation de l'univers à partir du Big Bang

La simulation du modèle standard de la cosmologie, qui vient d'être réalisée, a déjà permis de mesurer le nombre d'amas de galaxies de masse supérieure à cent mille milliards de masse solaire qui s'élève aujourd'hui à plus de 144 millions. Autres enseignements: le premier amas de ce type est apparu alors que l'Univers n'avait que 2 milliards d'années et l'amas le plus massif dans l'Univers observable aujourd'hui pèse 15 millions de milliards de masses solaires. Les données générées lors du calcul permettent également de mesurer les fluctuations de la distribution de la matière noire. Celles-ci résultent des fluctuations du fond de rayonnement cosmologique issues du Big-Bang, observées par les satellites WMAP et Planck. Ces observations sont cette fois obtenues dans une simulation qui couvre toute l'histoire de l'Univers, avec une précision jamais atteinte et sur la plus large gamme d'échelles jamais observées, de quelques millionièmes à la taille de l'Univers. Elles dévoilent avec précision les empreintes sur la matière noire des oscillations du gaz primordial ("Oscillations Baryoniques Acoustiques"). Ces calculs apparaissent déjà comme une mine prodigieuse de nouveaux résultats intéressant toute la communauté cosmologique.

La simulation effectuée a permis de suivre 550 milliards de particules.

Voir aussi Futura-Sciences. C'est assez extraordinaire et cette façon de valider un modèle par simulation devrait en révéler les faiblesses, ouvrant à une nouvelle physique qu'on attend depuis si longtemps...

 

- Pas de matière noire ?

L'étude la plus précise jamais réalisée sur les mouvements des étoiles dans la Voie Lactée n'a trouvé aucune preuve de la présence de matière noire dans une zone relativement grande autour du Soleil. Selon la théorie largement acceptée, le voisinage du Soleil était supposé être rempli de matière noire, une mystérieuse substance invisible que l'on ne peut détecter que de manière indirecte, grâce à la force gravitationnelle qu'elle exerce. Mais, une nouvelle étude menée par une équipe d'astronomes au Chili a trouvé que cette théorie ne concordait pas avec les faits observationnels.

"La quantité de masse que nous avons déduite correspond très bien à ce que nous voyons- les étoiles, la poussière et le gaz - dans la région autour du Soleil," explique le responsable de l'équipe, Christian Moni Bidin (Departamento de Astronomía, Universidad de Concepción, Chile). "Mais cela ne laisse aucune place pour la matière supplémentaire - la matière noire- que nous pensions trouver. Nos calculs montrent qu'elle aurait dû clairement ressortir dans nos mesures. Mais elle n'est pas là !"

- La Lune vient de la Terre

Le modèle standard de la formation de la Lune fait intervenir la collision d’une petite planète de la taille de Mars, Théia, avec la Terre. L’une de ses prédictions, qui implique que la Lune et la Terre ne peuvent pas avoir une composition identique en titane, vient d’être réfutée. Il faut revoir le scénario de la naissance de notre satellite.

Les chercheurs se sont en effet intéressés aux abondances des isotopes de titane dans les roches lunaires ramenées par les missions Apollo. Après avoir corrigé l’effet des rayons cosmiques sur ces abondances, ils ont trouvé à leur grande surprise que celles-ci étaient quasiment identiques à celles des roches terrestres. Une faible fraction des météorites présentant des abondances similaires, il fallait en déduire que la très grande majorité de la Lune est faite de matériaux issus du manteau de la Terre.

- L'exploitation des astéroïdes

Voir aussi Futura-Sciences. On avait déjà parlé de ce projet supposé très rentable. Une compagnie tente de repérer les astéroïdes comportant les minéraux les plus intéressants. Un autre objectif, serait de trouver de l'eau dans l'espace pour les voyages inter-planétaires.


- Un parfait générateur de nombres aléatoires grâce au vide quantique

Des chercheurs australiens ont réussi à développer un générateur de nombres aléatoires qui est fondé sur l'écoute d'une région vide de l'espace grâce à des capteurs de lumière extrêmement sensibles.

C'est que des particules subatomiques naissent et disparaissent comme par enchantement. Ces particules virtuelles génèrent un bruit aléatoire omniprésent. C'est même un effet gênant pour les communications par fibres optiques, par radio ou pour les ordinateurs.

 

- Désintégration d'un électron en quasi-particules !

Je n'ai pas vraiment compris mais dans un oxyde de cuivre (Sr2CuO3) bombardé par des rayons X les propriétés d'un électron se décomposent en autant de "quasi-particules" !

Les électrons isolés sont des particules élémentaires qui ne peuvent pas être séparées en d’autres entités. Il en va autrement des électrons au sein d’un matériau : ils interagissent avec leur environnement et adoptent des comportements différents. Ces électrons ont trois propriétés : sa charge électrique, son spin (sa rotation qui en fait un micro-aimant), et son orbite autour du noyau atomique. Ces trois propriétés forment chacune une entité qui se propage dans une direction. Il en découle trois quasiparticules : l’orbiton, le spinon et le holon. Les deux dernières avaient déjà été observées expérimentalement il y a quelques années. C’est désormais aussi le cas de l’orbiton.

Voir aussi Futura-Sciences.

- Le magnétisme à l'origine de la supraconductivité à "haute température"

Le point commun qui caractérise tous les supraconducteurs est la formation de couples d'électrons. D'ordinaire ces porteurs de charge qui convoient l'électricité ne supportent pas la promiscuité et s'éloignent autant que possible les uns des autres, ce qui explique en partie la résistance et la perte d'énergie dans les conducteurs classiques. Mais, dans l'état supraconducteur, les électrons acceptent de se mettre par paire (paire de Cooper) et d'avancer dans la même direction, éliminant la résistance.Pour autant, la force qui pousse les électrons à se donner ainsi la main diffère selon qu'il s'agit de matériaux supraconducteurs à basse ou haute température. Chez les premiers, ce sont des ondes de pression traversant le solide, comme des ondes sonores en somme, qui poussent les paires de Cooper à se former. Dans les matériaux étudiés par l'équipe du professeur Dirk van der Marel, des cuprates (composition chimique basée sur le cuivre et l'oxygène), les couples se forment autrement. Dans ces solides supraconducteurs à haute température (-113°C au maximum), c'est une autre force, se transmettant bien plus rapidement que les ondes de pression, qui permet la formation des paires d'électrons. Les physiciens de Genève privilégiaient l'hypothèse d'une force de nature magnétique. Cela restait à confirmer par l'expérience.

C'est là qu'interviennent les physiciens de l'Université de Brescia qui ont réussi à cerner cette force dans un cuprate supraconducteur. Et leurs résultats ne laissent plus guère de doute sur sa nature: il s'agit de fluctuations magnétiques, ce qui explique la vitesse élevée avec laquelle cette force "couple" les électrons dans ces supraconducteurs. Une spécificité que les cuprates doivent sans doute au fait que dans ces matériaux le magnétisme se laisse induire facilement par un champ magnétique externe.

Voir aussi Futura-Sciences.

- Le silicène pourrait supplanter le graphène ?

Depuis quelque temps, plusieurs groupes de recherche affirment avoir réussi à synthétiser un équivalent du graphène à base de silicium, le silicène. Si son existence se confirme, une nouvelle électronique devrait en naître, peut-être même plus tôt que celle envisagée avec le graphène.

- Des composants électroniques à base de nano-fils plastiques formés par laser

Ces nano-fils en triarylamines se construisent "tout seuls" sous la seule action d'un flash lumineux ! Peu coûteux à obtenir et faciles à manipuler contrairement aux nanotubes de carbone, ils allient les avantages des deux matériaux utilisés à ce jour pour conduire le courant électrique: les métaux et les polymères organiques plastiques. En effet, leurs remarquables propriétés électriques sont proches de celles des métaux. De plus, ils sont légers et souples comme les plastiques. De quoi relever l'un des plus importants défis de l'électronique du 21e siècle: miniaturiser ses composants jusqu'à l'échelle nanométrique.

Voir aussi Sciences et Avenir et Futura-Sciences.

 

- Un laser de toutes les couleurs pour un internet quantique

Grâce à un cristal de niobate de lithium qui divise les photons en paires de photons intriqués de longueur d'onde double (moitié de fréquence et d'énergie), cet émetteur de paires de photon à haut débit serait idéal pour les communications quantiques puisque la redondance est indispensable pour distinguer l'information du bruit. Le fait de pouvoir en moduler la longueur d'onde rajoute des possibilités supplémentaires ouvrant la voie à la cryptographie quantique au moins.

 

- Enregistrer des données avec des pics de chaleur plus rapide que le magnétisme

Le pic de chaleur nécessaire pour modifier l'équilibre du spin s'applique en quelques femtosecondes (10-15 seconde). Le temps nécessaire pour que l'effet s'applique et que la nouvelle polarisation soit effective est de plusieurs picosecondes (10-12 seconde, la mille milliardième part d'une seconde). Ce processus, cent fois plus rapide que la technologie actuellement utilisée dans les disques durs, permet de stocker plusieurs terabytes d'information en une seconde. De plus l'usage de la chaleur consomme bien moins d'énergie que l'usage du champ magnétique.

 

- Voir à travers les murs

Le microprocesseur serait capable de différencier les fréquences de la bande térahertz du spectre électromagnétique. Ses composants sont communs à ceux utilisés dans les ordinateurs et consoles de jeux-vidéo, ce qui en fait un dispositif léger, peu encombrant et bon marché.

« La combinaison du CMOS et du térahertz signifie qu'on peut mettre cette puce et un émetteur au dos d'un téléphone portable, et en faire un appareil de poche qui peut voir à travers les objets »

Voir aussi Futura-Sciences.

- Un papier peint antisismique !

 

Ce revêtement rend les murs plus souples et réduit les risques d’effondrement. “Notre objectif était que les gens aient plus de temps pour évacuer les bâtiments en cas de séisme. Même des tremblements de terre peu violents peuvent provoquer des dégâts considérables, surtout aux bâtiments en maçonnerie. L’ampleur des dommages ne dépend pas tant de la gravité du séisme sur l’échelle de Richter que de la durée des secousses infligées aux constructions.” La composition du papier peint, qui contient des fibres orientées dans quatre directions, permet de répartir les forces lors des secousses.

- Un papier imperméable, magnétique, antibactérien

Des scientifiques de l’Istituo Italiano di Tecnologia de Gênes ont réussi grâce aux nanotechnologies à conférer des propriétés remarquables (imperméabilité, magnétisme, antibactérien) à n’importe quel matériau non tissé (des réseaux de fibres de cellulose, pour être chimiquement exact), autrement dit, à du papier, du tissu, des membranes.

Comment cela est-il possible ? Grâce à un procédé de nanotechnologies savamment maîtrisées, l’équipe du Docteur Roberto Cingolani est parvenue à créer juste autour des fibres du-dit matériau une matrice qui, elle, possède de nouvelles propriétés.

Le véritable intérêt de ce procédé est que le papier conserve ses propriétés de papier, il reste donc tout à fait imprimable ou pliable par exemple, tout comme on pourrait coudre une étoffe de ce super-tissu. Imaginez par exemple un document très important rendu imperméable, ou ignifugé, imaginez un papier peint d’un cabinet de docteur antibactérien, imaginez un design fluorescent incrusté directement dans un billet de banque… Les possibilités sont infinies.

- Une éponge à huile en nanotubes

Un groupe international de chercheurs a synthétisé un remarquable matériau à base de nanotubes de carbone. Superhydrophobe, il se comporte néanmoins comme une éponge à huile capable d’absorber plus de 100 fois son poids. Magnétique, il peut être manipulé facilement avec des aimants et il pourrait servir à dépolluer des eaux contaminées par des fuites d’huile.

Ils sont parvenus à créer des liaisons chimiques covalentes entre ces nanotubes en leur ajoutant du bore.

Le résultat est une sorte de mousse très flexible composée à 99 % d’air capable d’absorber plus de 100 fois son poids en huile.

 

Climat


Climat, écologie, énergies

 

- Dossier très complet sur les rétroactions positives et négatives au réchauffement

Les émissions de gaz à effet de serre ne diminuent pas, au contraire : depuis 1990, les émissions annuelles ont augmenté de 37 %. De 2000 à 2008, elles ont, en moyenne, augmenté de 3 % tous les ans. La crise économique a provoqué un ralentissement en 2009 mais la croissance en 2010 est supérieure à 3 % (voir Figure 6).

Dans ces conditions, le réchauffement se poursuivra avec des hauts et des bas liés aux non-linéarités des couplages entre océan, atmosphère, cryosphère et biosphère essentiellement mais sauf à parier sur un épuisement rapide de toutes les réserves énergétiques fossiles, la tendance générale ne peut être que vers un climat globalement plus chaud. De combien de degrés ? Cela dépend essentiellement des rétroactions climatiques. On vient de voir que beaucoup des rétroactions connues (mais pas toutes) étaient positives. Il n’est pas exclu que des rétroactions complexes mettant en jeu la vapeur d’eau et la convection tropicale puissent tempérer plus ou moins fortement le réchauffement à attendre, mais la preuve de l’existence même de ces rétroactions reste à trouver.

- Avant il pleuvait des averses, maintenant ce sont des trombes d'eau

Le changement climatique a accéléré le cycle global de l'eau suggère une nouvelle étude. Sa conclusion vient soutenir l'une des deux projections concurrentes établies par les chercheurs sur la manière dont le cycle des précipitations et des évaporations de l'atmosphère va évoluer en réponse au réchauffement planétaire.

Ces prédictions théoriques, fondées sur la relation existant entre température et quantité de vapeur d'eau que l'atmosphère peut contenir, indiquent que le réchauffement de la planète devrait intensifier le cycle de l'eau atmosphérique d'un facteur deux par rapport aux modèles informatiques qui prennent en compte d'autres facteurs comme des contraintes énergétiques dans l'atmosphère.

L'un des effets sera que les régions océaniques relativement fraîches vont l'être encore plus et que les plus salées vont le devenir encore plus aussi, un changement qui est déjà en cours selon Duraxk et ses collègues.

- Le CO2, principal moteur de la fin de l’âge de glace

Il y a entre 20.000 ans et 10.000 ans environ, la Terre sortait d’un âge glaciaire pour entrer dans une période plus chaude (époque interglaciaire qui se poursuit aujourd’hui). Qu’est-ce qui a entraîné ce réchauffement ? Si les données paléoclimatiques recueillies sur 800.000 ans montrent que la hausse des températures coïncide généralement avec une hausse de la concentration de CO2 dans l’atmosphère, il n’est pas pour autant toujours évident de faire le lien de cause à effet.

80 carottes au total permettent de conclure que l’augmentation de la concentration de CO2 dans l’atmosphère a été le moteur principal du réchauffement, même si ce ne fut pas le facteur déclenchant.

Il y a 20.000 ans, un changement cyclique dans l’axe de rotation de la Terre provoque une augmentation de l’ensoleillement sur l’hémisphère nord et fait fondre les calottes de glace qui recouvraient alors une grande partie de ce qui est aujourd'hui le Canada et l’Europe du nord. Cette eau douce déversée dans l’océan Atlantique freine la circulation océanique qui réchauffe le nord et refroidit le sud (circulation océanique méridienne de retournement Atlantique, ou AMOC). Conséquence : la chaleur s’accumule au sud, les températures montent en Antarctique et l’océan austral commence à relâcher le CO2 stocké en profondeur. Ce dégazage a entraîné un réchauffement planétaire global, expliquent les chercheurs.

Voir aussi Futura-Sciences.

- Hausse des mers de 14m à la fin de la dernière glaciation

Des carottages de coraux réalisés en 2005 au large de Tahiti révèlent des résultats surprenants. La fin de la dernière période glaciaire (il y a 14.600 ans) fut marquée par une élévation de 14 mètres du niveau des mers en seulement trois cent cinquante ans. Le comportement de la calotte antarctique lors du réchauffement climatique de l'époque aurait joué un rôle important.

Ces datations mettent en évidence une remontée extrêmement rapide du niveau de la mer au cours de la dernière déglaciation qui s'est déroulée entre -21.000 et -11.000 ans environ. Au cours de cette transition entre une dernière période glaciaire et le climat chaud que connaît actuellement la Terre, le niveau marin global est remonté d'environ 120 à 130 mètres sur presque quinze mille ans. Il était déjà acquis que cette augmentation n'avait pas été constante, mais qu'elle avait été ponctuée par des élévations rapides du niveau marin associées à des débâcles massives des calottes de glace. La plus importante de ces hausses, appelée Melt-Water Pulse 1A (MWP-1A), restait cependant par bien des aspects énigmatique.

Ces nouveaux travaux ont confirmé l'existence de cet événement climatique majeur, tout en révélant pour la première fois son amplitude, sa chronologie et sa durée. Le début du MWP-1A a été daté à 14.650 ans, le faisant coïncider avec le début de la première phase chaude qui marqua la fin de la glaciation dans l'hémisphère nord. Cette période, appelée , s'est étalée sur un peu moins de deux mille ans et a vu la température de l'hémisphère nord augmenter de près de 5 °C en quelques années.

Selon les chercheurs du Cerege, la remontée du niveau global des océans au cours du MWP-1A aurait été de presque 14 mètres en seulement trois cent cinquante ans.

- Cartographie de la banquise arctique par CryoSat

Le satellite CryoSat livre sa première carte animée des variations des glaces de mer en Arctique, dont l'évolution est préoccupante.

- L'érosion des sols cause de l'explosion du Cambrien et des squelettes

La libération massive d'ions dans les océans, due à une érosion devenue intense aurait permis aux organismes marins de fabriquer des squelettes et des coquilles, une invention qui leur fut très profitable.

Au début du Cambrien, les mers seraient montées et descendues à plusieurs reprises, en érodant à chaque fois les substrats rencontrés et mettant ainsi à nu d’anciennes roches provenant directement des profondeurs de la croûte terrestre. Cette succession de transgressions marines explique donc la disparition de plusieurs couches stratigraphiques. Exposées à l’air et à l’eau, les roches crustales auraient réagi chimiquement, libérant dans les océans de grandes quantités d’ions calcium, potassium, fer et silice. La chimie de l’eau fut alors profondément modifiée.

Les animaux se seraient adaptés en synthétisant des cristaux pour se débarrasser de ces éléments potentiellement néfastes, donnant ainsi naissance à la biominéralisation.

Voilà pourquoi les trois biominéraux majoritairement présents au sein des organismes vivants seraient apparus lors de l’explosion cambrienne. Le phosphate de calcium est le constituant principal de nos os et dents. Le carbonate de calcium entre quant à lui dans la biosynthèse des coquilles d'invertébrés. Et le dioxyde de silicium est utilisé par les radiolaires, du zooplancton, pour synthétiser leur « squelette » siliceux.

Ceci dit, ce qu'on appelle l'explosion du Cambrien pourrait être dû à l'absence de fossiles intermédiaires, surtout en l'absence de squelettes justement.

- Supernovae, changements climatiques et évolution

Les supernovae auraient influencé la diversité des formes vivantes sur Terre au cours des derniers 510 millions d’années, via des changements climatiques. C’est la thèse soutenue par le physicien Henrik Svensmark dans un article récemment publié montrant ce qui semble bel et bien être une corrélation nette entre l’évolution du taux de supernovae proches du Soleil et la diversité des invertébrés marins.

En bleu, le nombre de genres d'invertébrés marins sur Terre pendant les périodes géologiques comme le Permien (P), le Trias (Tr) et le Crétacé (K). En noir le taux de supernovae dans l'environnement proche du Soleil au cours de son périple galactique. La corrélation semble forte.

Ces supernovae sont aussi responsables des rayons cosmiques galactiques arrivant sur Terre. On comprend donc bien pourquoi le physicien danois Henrik Svensmark, qui pense que les rayons cosmiques, en influençant la couverture nuageuse de la Terre, peuvent modifier son climat, s'est demandé s’il n’y avait pas une corrélation entre les supernovae ayant explosé dans l’environnement proche du Soleil et le climat sur Terre.

En provoquant une chute des températures sur Terre, une plus grande variété de conditions climatiques entre les pôles et l’équateur seraient survenues, favorisant la diversité des écosystèmes et donc des formes de vie s’y adaptant.

Voir aussi Rue89. En tout cas, on vient d'établir que la la vitesse du système solaire dans la galaxie ne suffisait pas à nous protéger des rayons cosmiques.

- Des collisions dans notre corps avec des particules invisibles

Non seulement ces neutrinos sont massifs mais, en plus du flux de ces particules engendré par le Soleil, il existe un fond diffus de neutrinos cosmologique et on sait que l’univers observable contient plusieurs milliards de neutrinos fossiles pour chacun des baryons du cosmos. Les neutrinos cosmologiques sont même plus nombreux que les photons du rayonnement fossile. Heureusement, ils sont si peu énergétiques qu’ils traversent notre corps comme si de rien n’était.

Les chercheurs estiment qu’il y aurait des milliards de Wimps qui traverseraient notre corps chaque seconde. Mieux, une dizaine de Wimps de 60 GeV entreraient en collision chaque année avec les noyaux d’oxygène d’un être humain de 70 kg. Sur ces mêmes noyaux, qui sont ceux ayant le plus haut taux de collisions possible, les astrophysiciens ont trouvé qu’avec des masses de 10 à 20 GeV et compte tenu des probabilités d’interactions estimées pour ces Wimps, le taux pourrait être de 100.000, c'est-à-dire environ une collision par minute !

De quoi redonner crédit à une influence du soleil ou autres influences occultes sur la biosphère.

- Les origines climatiques des civilisation

Vincent Boqueho démontre que l'apparition des foyers de civilisation coïncide avec une notion essentielle : l'existence d'un fort stress climatique, qui tend à développer la culture d'innovation.

À chaque endroit où les critères climatiques sont vérifiés, un centre de prospérité s’est développé ; et à l’inverse, aucune civilisation historique autonome (c’est-à-dire ayant peu hérité d’une autre civilisation) n’a jamais pris son essor là où cette condition climatique était absente.

C'est effectivement très récemment qu'on s'est rendu compte de l'importance du climat dans l'histoire. Cela a commencé avec le refroidissement du XIIIème siècle qui a servi de terreau à la peste noire, mais plus on a pu reconstituer les climats passés et plus l'importance de leur lien avec l'histoire se révèle (y compris pour le néolithique dont on avait voulu faire un événement purement culturel). De quoi montrer qu'on n'est pas autant sortis de la nature qu'on le croit, qu'on en est toujours les sujets, ballottés par les caprices du climat et soumis à une sélection darwinienne - non pas au niveau individuel mais des civilisations et des techniques (voir Michel Raymond qui plaide dans "Pourquoi je n'ai pas inventé la roue" pour la relativisation de la séparation nature-culture du fait des pressions sélectives dues à des traits culturels). La capacité de maîtriser notre avenir (l'histoire conçue) exigerait donc au préalable la maîtrise du climat au moins.

 

- Les fuites de méthane renforcent l'effet de serre

Exploiter le méthane pourrait paraître une solution écologique, façon de se débarrasser d'un gaz qui menace d'être une véritable bombe accélérant dramatiquement le réchauffement (surtout les hydrates de méthane qui commencent à se dégager en Arctique), sauf que son exploitation et sa consommation induisent des fuites qui ne font qu'aggraver le problème...

L'étude démontre comment les petites pertes de méthane, qui arrivent dans les réseaux de distribution urbains ou dans les chaudières domestiques, génèrent dans l'atmosphère un influx de gaz, qui contribue à un effet de serre additionnel.

D'après nos données, les émissions de méthane représentent 0.6% de celles de CO2, mais en raison du Gwp (Global Warming Potential), unité qui permet de quantifier la capacité d'un gaz à participer à l'effet de serre, sa contribution reprsesente jusqu'à 15% de l'effet de serre global.

Les résultats confirment qu'en période hivernale, le chauffage résidentiel est pour une grande partie responsable des gaz à effet de serre, et contribue à 80% des émissions à Florence, contre 20% seulement du à la circulation automobile.

 

- Les éoliennes réchauffent le sol la nuit

Selon les scientifiques, qui publient leurs déductions sur le site de la revue Nature Climate Change, la hausse serait de 0.72°c par décennie. « Ce résultat semble assez solide pour moi, il montre que les températures nocturnes ont augmenté d'environ un demi-degré en été autour des parcs d’éoliennes.

Voir aussi Futura-Sciences.

 

- Une éolienned'altitude

Altaeros Energies a testé avec succès son Airborne Wind Turbine aux États-Unis : un ballon dirigeable abritant une turbine. Les technologies employées pourraient faire chuter le coût de l’énergie éolienne de 65 %.

Le prototype mesure 11 mètres d’envergure. Le ballon est gonflé à l’hélium, un gaz bien plus léger que l’air et ininflammable, contrairement à l’hydrogène. Les longes le maintenant à sa station d’accueil lui permettent de transférer au sol l’électricité produite par l’éolienne Southwest Skystream. Durant le test réalisé le 27 mars 2012, l’AWT est monté à 107 mètres d'altitude, mais ses concepteurs prévoient de l'installer à 300 mètres, affirmant qu'il produira alors deux fois plus de courant qu'une éolienne classique.

Les avantages de ce dispositif sont nombreux. Le temps d’installation n’est que de quelques jours, contre plusieurs semaines pour une construction sur mât. De plus, il n’a aucun impact environnemental, ne fait pas de bruit et demande peu d’entretien.

- Le nouveau projet de la NASA d'énergie par satellite

L'idée se fonde maintenant sur une approche biomimétique (on imite la Nature). Prenez une fleur qui est la partie reproductive d'une plante (une sorte de panneau publicitaire « Venez chez Joe » pour insectes et autres animaux) ; cela dépend des plantes mais les pétales peuvent contribuer de manière importante à la photosynthèse. On va donc faire de même et construire des « pétales » faits de petits miroirs qui vont concentrer l'énergie solaire sur un capteur central. On convertit ensuite cette énergie électrique en micro-ondes et on renvoie le tout vers une centrale réceptrice (avec antenne) sur notre planète qui va reconvertir les micro-ondes en électricité.

Cette manière de construire le satellite collecteur serait bien meilleur marché et plus légère que ce qui avait été envisagé jusqu'alors. Le satellite serait sur une orbite très éloignée afin de toujours recevoir les rayons du soleil.

- Des capteurs solaires vraiment ultra-minces

Des chercheurs autrichiens et japonais viennent de dévoiler des capteurs solaires plus fins que le fil de soie d'une araignée. Ces capteurs sont assez souples pour s'enrouler autour d'un cheveu. Ce qui rend ces capteurs très intéressants est que vous ne ressentiriez pas leur poids et qu'ils sont d'une souplesse incroyable.

- Des cellules solaires liquides et imprimables

Des scientifiques de l’Université de Californie du Sud (USC) sont parvenus à produire des cellules solaires liquides stables à base de nanocristaux et pouvant être peintes ou imprimées sur certaines surfaces.

Ces cellules solaires nanoscopiques seraient donc imprimables sur du plastique plutôt que sur du verre, favorisant ainsi leur implantation ainsi qu’une baisse des coûts. Seule ombre au tableau, le séléniure de cadmium qui recouvre les cellules est toxique, donc non commercialisable. Il faudra encore quelques années avant que l’on ne puisse en profiter…

 

- Des boîtes quantiques pour étendre le spectre du photovoltaïque

Le groupe du professeur Yoshitaka Okada, du centre de recherche RCAST de l'université de Tokyo en collaboration avec l'université technique de Madrid a réussi à atteindre une efficacité de conversion de 20,3% (avec un facteur de concentration lumineuse de 100) en utilisant des puits quantiques. Ceux-ci permettent de récupérer une partie de l'énergie issue de photons peu énergétiques, c'est-à-dire de récupérer des photons issus de l'infrarouge du spectre lumineux. Ces derniers ne sont pas suffisamment énergétiques pour provoquer la transition d'un électron de la bande de valence vers la bande de conduction des cellules photovoltaïques actuelles.

En effet, les cellules photovoltaïques utilisées et commercialisées actuellement utilisent du silicium, qui ne permet d'absorber que les photons issus du spectre de la lumière visible et du proche IR, jusqu'à 110nm soit une fraction du spectre lumineux. On comprend bien alors l'intérêt de l'incorporation des puits quantiques au sein des cellules solaires.

 

- Des cellules photovoltaïque plus performantes en émettant de la lumière

Plus la cellule émet de photons et plus le voltage généré est élevé (avec un rendement de 33%).


- Des vitres teintées avec des OLED photovoltaïques

Voir Futura-Sciences.

- Intel souhaite économiser l’énergie utilisée pour l’affichage

La « Panel Self Refresh » d’Intel est destiné à n'utiliser d'énergie que pour changer l'affichage, un peu comme l'e-link des e-books (sauf qu'il faut toujours un rétro-éclairage).


- Des réseaux de chaleurs économiseraient 500 Milliards !

Les centrales électriques, les centres de traitements des déchets et, d'une manière générale, les installations industrielles, laissent s'envoler une chaleur considérable. Combien, précisément ? L'équivalent chaque année de 500 milliards d'euros en Europe, selon une étude, qui préconise de la récupérer et de la distribuer vers les habitations grâce aux réseaux de chaleur.

Les réseaux de chaleur sont encore très peu développés en France, regrette Via sèva, avec seulement 6 % de la population chauffée par ce système, alors que « la moyenne européenne se situe à plus de 30 % », avec des pays comme le Danemark, la République tchèque ou l'Islande « qui dépassent 50 % ».

- Des sacs d'air sous l'eau pour stocker l'énergie éolienne

- Des batteries liquides bon marché

Le principe de cette batterie est assez commun : des sels fondus sont pris en étau entre deux électrodes, faites le cas présent de métal liquide.

Voir aussi Gizmodo et Phys.org.

- Des nanoparticules sur des nanofils pour améliorer les électrodes

De quoi améliorer la conductivité pour les batteries, les cellules photovoltaïques, etc.


- Un catalyseur pour produire de l'hydrogène

L'équipe internationale de Antoni Llobet a produit un composé de ruthenium qui permet d'obtenir un rendement pour la réaction d'oxydation de l'eau du même niveau que celui observé dans la nature. La force d'action de ce catalyseur est 60 fois supérieure à celle des catalyseurs artificiels produits jusqu'à présent.

- De l'huile de cuisine dans le kérosène

 

- 30% des poissons ne sont pas ce qu'on croit manger

Comme les poissons s'épuisent, une bonne partie des poissons vendus (notamment en surgelé) ne sont pas ce qu'ils prétendent être (notamment du requin à la place de saumonette, etc.). Ceci dit, le pire, ce sont les nouveaux poissons des fonds marins qui apparaissent à l'étalage alors qu'ils se reproduisent très lentement...

 

- Des champignons pour remplacer le phosphore qui s'épuise

"La racine d'une plante peut absorber elle-même le phosphore mais seulement à un millimètre de distance alors que le champignon mycorhizien peut le capter sur plusieurs mètres et le transférer à la plante, explique le biologiste. Près de 90 % du phosphore présent dans le sol peut ainsi être absorbé par la plante."

Des travaux effectués dans des champs de maïs au Mexique ont montré que la mycorhization du champ permettait de réduire les fertilisants chimiques des trois quarts et d'abaisser le coût de fertilisation de 3200 à 1630 $.

 

- Un champignon mange du plastique !

Les biochimistes ont découvert que deux souches de P. microspora faisaient disparaître les petits morceaux de polyuréthane et semblaient même dépendantes de ce plastique pour leur approvisionnement en carbone ! Jonathan Russel a, lui, étudié l’arsenal enzymatique de ces champignons et a découvert l’enzyme responsable de cette prouesse, en l’occurrence une hydrolase à sérine. Cette enzyme a de plus le bon goût de fonctionner en l’absence d’oxygène, une caractéristique précieuse dans une station d’épuration. C’est la première fois que l’on découvre un organisme capable d’une telle dégradation d’un plastique.

Voir aussi Techno-Science.

 

Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

 

- La vie sur Terre pourrait avoir ensemencé le système solaire

La chute d'un astéroïde comme celui qui a provoqué la fin des dinosaures a envoyé dans l'espace de grandes quantités de matières qui auraient pu contenir des cellules vivantes ensemençant le système solaire. Ainsi 300 débris auraient pu atteindre Europa et 500 Encelade, encore beaucoup plus sur Mars. Il est plus incertain que certaines roches aient pu ensemencer des planètes comme Gliese 581 situées à 20 années lumières en 1 million d'années, la probabilité que des cellules soient encore vivantes étant quand même très peu probable.

- L'élasticité de la membrane

La membrane cellulaire se caractérise par des domaines différents, un peu comme si les briques qui la constituent possédaient certaines spécialités fonctionnelles. Les invaginations sont aussi appelés eisosomes. Quand ces derniers "sentent" qu'une contrainte exceptionnelle risque d'endommager la cellule, ils contribuent à la production d'une protéine qui va voyager jusqu'au domaine voisin et se lier à un complexe de protéines baptisé TORC2, lequel joue un rôle important dans le métabolisme cellulaire.

En recevant ce message, TORC2 est suractivé et se met à produire des lipides en masse qui vont aller se glisser dans la membrane et lui donner plus de mou; un peu comme s'il était possible d'ajouter des molécules de caoutchouc à un élastique approchant son point de rupture.

"Au fur et à mesure que ces lipides intègrent la membrane, détaille Aurélien Roux, l'un des auteurs de l'article et chercheur au PRN Chemical Biology, la tension se relâche au niveau des eisosomes. En deçà d'un certain niveau, ils cessent d'envoyer des messages au complexe TORC2 qui à son tour arrête la production de lipides supplémentaires."

- L'évolution touche tous les gènes

Le débat a lieu à propos des modifications sur les gènes dues à l'évolution. Est-ce que cela provoque juste quelques changements sur de multiples gènes ou est-ce que cela provoque de profonds changements sur un ensemble très réduit de gènes ?

Les études, jusqu'ici, privilégiaient la théorie « impact important sur peu de gènes ». Selon nos deux chercheurs, cela était dû à des méthodes d'analyse moins précises.

 

- Le regroupement fonctionnel des gènes

Les chromosomes forment une succession de "globules", des sortes de "pelotes" d'une taille de 100 000 paires de bases à 1 million de paires de bases.

"Mais la grande nouveauté, c'est que cette organisation spatiale reflète l'organisation fonctionnelle du chromosome" ajoute Edith Heard. Cette organisation permet de regrouper dans une même "pelote" jusqu'à une dizaine de gènes, voire plus. On trouve également dans ces "pelotes" des séquences dites régulatrices, qui peuvent contrôler - tels des interrupteurs - l'activité des gènes qu'elles contactent physiquement. Ainsi compactés ensemble au sein de la même pelote chromosomique, un groupe de gènes – bien que s'étalant sur plusieurs centaines de milliers de paires de bases – peuvent donc partager les mêmes séquences régulatrices, et leur activité peut ainsi s'en trouver coordonnée.

Cette découverte lève le voile sur une grande inconnue de la génétique, à savoir comment une altération à un endroit du génome peut perturber l'expression de gènes situés à plusieurs dizaines, voire milliers de paires de bases.

"Cette organisation permet de rapprocher plusieurs éléments distants pour les soumettre aux mêmes influences. Ainsi à certains moments du développement il devient possible d'orchestrer finement l'activité de gènes très éloignés sur le chromosome linéaire mais qui sont en réalité très proches dans le noyau de la cellule." explique Elphège Nora. "Une seule mutation peut donc avoir des effets sur tout un groupe de gènes si elle affecte l'organisation d'une de ces "pelotes" chromosomique".

Ainsi, au-delà de l'avancée fondamentale, ces études ouvrent de nombreuses perspectives pour la compréhension de certaines pathologies, comme les maladies génétiques. En effet, celles-ci sont dues à des mutations de la séquence d'ADN qui entraînent le dérèglement de l'activité de certains gènes. Or, il arrive que ces mutations ne se trouvent pas directement dans le gène déréglé, mais dans son voisinage chromosomique.

Jusqu'alors, trouver cette mutation dans le chromosome relevait du problème de l'aiguille dans la botte de foin. Grâce à cette découverte, les recherches pourront maintenant être canalisées vers la portion du chromosome la plus susceptible d'interagir avec le gène déréglé, c'est-à-dire à la pelote chromosomique à laquelle il appartient."

Voir aussi Futura-Sciences. Cela devrait sans doute rehausser aussi l'importance de "l'ADN poubelle" qui a sûrement un rôle dans la conformation spatiale et donc dans les repliements des chromosomes.

- La sexualité avantage les plus sains (les plus beaux)

Ils ont découvert que la recombinaison du matériel génétique fait en sorte que les éléments d'ADN qui sont capables de provoquer des dommages (maladies ou autres inconvénients) sont éliminés en quelques générations. Les individus qui héritent de gènes sains s'épanouissent et transmettent leur ADN aux autres générations ; les plus faibles tendent à mourir avant d'avoir l'occasion de se reproduire.

Cette découverte réalisée grâce aux possibilités actuelles du séquençage génétique soutient la vieille théorie qui postule que la reproduction sexuée, plutôt que le clonage d'un individu, est moins adaptée sur le court terme, mais plus efficace sur le long cours.

La sélection sexuelle avantage aussi la communication (visuelle ou chimique) entre les individus de l'espèce.

 

- Un serpent géant avalait des alligators

Il y a 58 millions d'années, un serpent préhistorique gigantesque semait la terreur sur les terres. Il pesait pas loin d'une tonne et faisait dans les 14 mètres de long. On ne connaissait pas son existence jusqu'à peu. C'est un cousin de l'anaconda et du boa constrictor.

- Les dinosaures à plume

Le plus gros animal à plumes ayant existé est un dinosaure apparenté au T.Rex.

Yutyrannus huali, un nom sino-latin signifiant tyran à belles plumes. Ils ont été mis au jour dans une carrière dans une couche sédimentaire datant du Crétacé inférieur dans la province du Liaoning. « Les plumes de Yutyrannus étaient de simples filaments » explique le professeur Xu Xing, auteur principal de l'étude. « Elles étaient plus comme le duvet d'un poussin moderne que comme celles d'un oiseau adulte. »

Un Yutyrannus atteignait à l’âge adulte environ 9 mètres de long et devait peser au moins 1400 kg, ce qui est bien plus petit que son cousin le T.Rex mais représente près de 40 fois le poids du plus gros dinosaure à plumes connu avant lui.

Voir aussi Sciences et Avenir.

- La fin des dinosaures à cause de leurs petits

Si les dinosaures se sont éteints, c'est de ne pas avoir des espèces de petite taille à cause de leurs petits sortant de l'oeuf, dont les dimensions sont limitées par des contraintes physiques et dont la taille très petite par rapport à leur taille adulte ne laissait pas de place à l'émergence d'espèces plus petites, leur niche écologique étant déjà occupée par les dinosaures nouveaux-nés (sauf pour les oiseaux qui ne volaient pas aussitôt sortis de l'oeuf ?). Après la chute de l'astéroïde, seules les petites espèces pouvaient survivre. Les mammifères étaient justement de petite taille à l'époque et de plus leurs petits se nourrissant aux mamelles de leur mère n'entraient pas en compétition immédiate avec les animaux de leur taille. Ceci dit, les dinosaures herbivores étaient déjà en déclin avant la catastrophe.

- Des oeufs de dinosaure en Tchétchènie

- Un poussin naît sans coquille

La poule n'y a pas survécu (elle n'est pas faite pour cela et a subi des blessures mortelles) mais le poussin si. On a quand même là une transition étonnante entre ovipare et vivipare.


- Pourquoi les oiseaux migrent-ils groupés ou solitairement ?

"Lorsque la distance de migration diminue, la taille du groupe a également tendance à diminuer, affirme Guy Beauchamp. Cette constatation vaut aussi dans l'autre sens: plus la distance parcourue augmente, plus l'espèce évolue vers une migration en groupe et plus ce groupe est important en nombre."

Il y aurait donc un avantage à voyager en groupe quand la distance à parcourir est grande. Le chercheur y voit en fait plusieurs avantages. Il y a d'abord l'économie d'énergie apportée par le vol en formation, qui réduit la turbulence, comme le savent les cyclistes qui profitent de la traction exercée par celui qui les précède. Ce phénomène est plus marqué chez les espèces de taille élevée comme nos oies blanches.

Un groupe bénéficie en outre d'autant de boussoles biologiques qu'il y a d'individus, ce qui est un atout appréciable sur de très longues distances. Les plus jeunes peuvent profiter de l'expérience des plus vieux pour se rendre à bon port et les haltes alimentaires en groupe réduisent les risques de prédation.

- Le possum pullule en Nouvelle-Zélande

D'apparence relativement inoffensive, ce petit marsupial arboricole a pourtant tout pour déplaire: il dévore la forêt primaire, détruit les nids et les oeufs - dont ceux du célèbre kiwi, emblème national de Nouvelle-Zélande - et transmet la tuberculose aux bovins.

 

- Meurtres chez les chimpanzés

Un des aspects qui caractérisent notre humanité est notre capacité à nous entre-tuer, surtout en groupes. On a été choqué d'apprendre que les chimpanzés commettent aussi des crimes et que cela ressemble fort à nos actes : notons que les victimes sont souvent des jeunes ou des mâles isolés du groupe principal.

Plus il y a de mâles dans une communauté donnée, plus la compétition est exacerbée. Un mâle donné a d'autant plus confiance en lui qu'il a un « soutien » de la part des mâles de son petit clan. Il peut profiter des inégalités de force ... et tue plus facilement un congénère qui ne fait pas partie du groupe (en général).

- Des babouins apprennent à reconnaître des mots écrits

Pour reconnaître les mots (sans les comprendre), il suffirait de les écrire devant eux.

Voir aussi Sciences et Avenir, Futura-Sciences, Techno-Sciences.


- Les concepts des abeilles : dessus, dessous, différent

Pour cela, ils ont pris un groupe d'abeilles qu'ils ont entraîné à pénétrer dans une enceinte, afin de récolter de la solution sucrée. Dans cette enceinte, les abeilles rencontraient deux stimuli placés chacun sur une cloison. Chaque stimulus était composé de deux images distinctes soit l'une au-dessus de l'autre (voir photo ci-dessous), soit l'une à côté de l'autre. Au milieu de ces paires d'objets était placé un orifice délivrant, soit une récompense, de l'eau sucrée, soit une punition, une goutte de quinine. Au bout d'une trentaine d'essais les abeilles reconnaissaient sans faute la relation qui les guiderait vers l'eau sucrée.

L'un des tests consistait à placer ces mêmes abeilles devant de nouvelles images. Le seul point commun avec les figures de l'entraînement était leur disposition: "l'une au-dessus de l'autre" et "l'une à côté de l'autre". Les abeilles, bien que n'ayant jamais vu ces nouvelles images, ont choisi correctement la cible en fonction de cette relation d'ordre abstrait. Mais ce n'est pas tout: lors de l'entraînement, les images au milieu desquelles se trouvait la récompense étaient toujours différentes entre elles. Pour savoir si les abeilles avaient aussi appris cette relation de différence, les chercheurs ont confronté les abeilles à des stimuli nouveaux où les images constituantes respectaient la relation récompensée (par exemple "l'une au-dessus de l'autre") mais qui étaient soit différentes, soit identiques. Les abeilles ont ignoré les stimuli faits d'images identiques, montrant qu'en plus des concepts "au-dessus / au-dessous" et "à côté", elles manipulaient simultanément le concept de "différence" pour prendre leur décision.

Voir aussi Futura-Sciences.

 

- Le développement neurologique lié à la mémoire et la finalité

C'est la mémoire à court terme permettant des comportements finalisés qui guiderait le développement neurologique. A la base de ce développement, il y aurait la duplication de neurones. Cela déboucherait sur un mécanisme de mémoire à court terme par l'intégration des perceptions et l'émergence de neurones spécialisés dans des actions alternatives, un second mécanisme plus lent permet de mémoriser le choix de comportement.

Il manque semble-t-il le nécessaire feedback, renforçant les neurones actifs ayant abouti à une réponse adaptée, la finalité (l'information) n'étant que le souvenir de la récompense ou de la réussite passée. La répétition y est certes fondamentale (le frayage de Freud comme le renforcement des traces de fourmis) mais il doit y avoir aussi un signal de récompense pour valider une réaction (avec un certain délai, un signal différé), ce que prouve d'ailleurs la brève suivante ajoutée après ce paragraphe...

- Mécanisme neuronal de l'apprentissage

"Alors que les mouvements des moustaches deviennent de plus en plus efficaces et précis pendant l'apprentissage, leur représentation neuronale reste relativement stable, autrement dit, on ne constate pas de modifications fondamentales dans l'activité de neurones concernés. Par contre, la représentation neuronale de la récompense se démarque de plus en plus nettement". D'une façon simpliste, on pourrait dire que même si la souris devient experte dans différents aspects moteur de la tâche comportementale, les traces de cette expérience s'inscrivent sélectivement dans une population de neurones précise, celle qui active le mouvement de langue pour récolter la goutte d'eau.

D'autres analyses ont relevé que les neurones individuels restaient fidèlement liés à un certain aspect du comportement, mais que la plupart gardait une grande flexibilité et pouvait rester silencieux pendant des journées entières. Cette stabilité fonctionnelle, malgré une flexibilité à participer (ou pas) dans une certaine représentation neuronale au quotidien,a été d'ailleurs prédite dans différents travaux théoriques sur le sujet de l'apprentissage.

Une autre étude insiste sur le rôle des synapses inhibitrices (représentant un cinquième des synapses) dans l'apprentissage. Voir aussi Techno-Sciences :

"Les scientifiques savaient que les cellules inhibitrices nous permettent de raffiner nos souvenirs, pour les rendre propres à un jeu précis de renseignements", a expliqué le professeur Lacaille. "Nos découvertes expliquent pour la première fois comment cela se produit aux niveaux moléculaire et cellulaire."

Les scientifiques ont découvert qu'un facteur appelé CREB joue un rôle essentiel dans l'ajustement de l'expression génétique et la force des synapses dans les neurones inhibiteurs.

 

- Bruit neuronal et apprentissage statistique

Si le cerveau est un outil d'une incroyable puissance, cela ne l'empêche pas de fonctionner de manière un peu anarchique. Il est en effet victime d'un important bruit de fonds qui caractérise l'activité des neurones.

C'est ainsi que l'on évoque le fait que les neurones, face au même stimulus, ne répondent jamais deux fois de la même façon.

Pour le spécialiste genevois, la variabilité comportementale ne serait donc pas liée au manque de fiabilité des neurones, mais à la relative ignorance de chaque individu face à son environnement et aux réponses à apporter aux stimuli qui en émanent.

Comment se fait-il dès lors que ce bruit, dans le cerveau, ait si peu d'influence sur le comportement des animaux ? "C'est sans doute parce que ce sont des dizaines de milliers, voire des millions de neurones, et non un seul, qui s'occupent de gérer une tâche, précise Alexandre Pouget. La maîtrise d'un geste précis est rendue possible par le fait que cette multitude neuronale donne, en moyenne, une réponse de moins en moins variable. Il y a donc quelque chose de profondément statistique dans l'apprentissage.

Ce caractère statistique serait fonction de l'imperfection de nos perceptions et de notre rationalité limitée mais aussi de l'incertitude du monde et du comportement aléatoire des neurones qui n'est compensé que par la loi des grands nombres.

- La mémoire perdue pourrait être retrouvée

On apprend plusieurs choses. D'abord que les mouches connaissent un vieillissement qui se manifeste aussi par la perte de mémoire. Cela tient donc sans doute à la nature des neurones mais les durées de vie des neurones sont pourtant sans commune mesure entre une mouche et nous. C'est un premier sujet de réflexions mais qui n'a rien de nouveau pour les spécialistes.

L'expérience montre ici que les pertes de mémoire liées à l'inactivation de leurs neurones peuvent être rétablies en les stimulant. Il ne faut pas trop vite extrapoler à partir de là, notamment à notre cerveau et nos souvenirs alors qu'on teste ici des réflexes plutôt. Il n'y a pas non plus à ce stade de méthode pour réactiver les bons neurones, cela n'en reste pas moins prometteur (et avait déjà été suggéré par d'autres études où des souvenirs revenaient après traitement).

De la mémoire à moyen terme a pu être restaurée chez des drosophiles âgées en réactivant spécifiquement les neurones devenus inactifs

Dans un premier temps, les chercheurs ont pu observer, grâce à l’imagerie cellulaire fonctionnelle, la mémoire se former dans des régions particulières du cerveau des drosophiles, jeunes et âgées. En couplant une odeur avec un choc électrique, les mouches ont été conditionnées, et ce processus a généré de la mémoire à court terme (quelques dizaines de minutes), à moyen terme (quelques heures) et à long terme (quelques jours). Les scientifiques ont identifié quels neurones encodaient quelles mémoires.

Les animaux âgés ont fini par manifester des troubles de la mémoire, comme prévu. Mais uniquement celle à moyen terme, le court terme étant épargné. Les cellules nerveuses défaillantes ont été stimulées, à l’aide de canaux ioniques sensibles à la chaleur disposés dans les neurones. Ceux-ci s’ouvrent spécifiquement pour laisser passer des cations en cas d’élévation ou d’abaissement de la température.

Après activation, les mouches âgées retrouvaient leurs souvenirs perdus, en l'occurrence leur conditionnement.

- Un atlas de l'intelligence dans le cerveau humain

Les structures du cerveau impliquées dans l’intelligence générale et des fonctions exécutives ont pu être cartographiées en 3D, par des chercheurs qui ont observé des vétérans américains de la guerre du Vietnam présentant des lésions cérébrales très localisées.

Dans le cortex temporal, sur le côté de l'encéphale, la couleur orange (indiquant l'intelligence générale) domine. Au niveau du cortex préfrontal, à l'avant, on voit beaucoup de vert (fonctions exécutives) et de rouge (régions communes). Les capacités intellectuelles se chevauchent donc et sont aussi interconnectées.

Les régions particulières et les connexions que nous avons découvertes (…) indiquent que l’intelligence dépend de la capacité du cerveau à intégrer l’information depuis des processus verbaux, visuels, spatiaux et exécutifs.

 

- Un seul gène affecte le QI de 1,29 points

L'effet est faible mais mesurable, ce gène (HMGA2) affectant le volume du cerveau de 0,58%. Lorsqu'il est hérité des 2 parents, l'effet sur le QI est doublé à 2,6 points de QI ! Un autre gène (TESC) affecte la taille de hippocampe de 1,2%.


- Pour être créatif, il faut se laisser aller

Ou se prendre pour un enfant, ou se raconter des histoires, en tout cas déconnecter le self-control, inhiber l'inhibition...

C'est ce qui fait dire à Jonah Lehrer que la créativité réside en chacun de nous. Si c'était si simple ! On est là dans le behaviorisme alors que la créativité dépend de conditions psychologiques et sociales bien plus rares puisque c'est son caractère exceptionnel qui fait la valeur de la créativité, le fait d'entrer en contradiction avec les préjugés de l'époque, ne pouvant donc que provoquer un rejet d'abord auquel il faut résister sans sombrer dans la folie (comme Cantor), il ne suffira jamais de faire des stages de créativité ni de faire des exercices mentaux mais on est là typiquement dans la psychologie normative anglo-saxon avec son double-bind : sois spontané !

Il faut ajouter qu'il ne suffit pas d'inhiber l'inhibition pour faire n'importe quoi et qu'il faut donc garder un certain contrôle et jugement au lieu de simplement se laisser aller. Il s'agit plutôt de laisser le cerveau travailler, ce qui est tout autre chose. Il est ainsi troublant qu'on trouve souvent au réveil des solutions cherchées vainement la veille (c'est frappant dans la programmation).

 

- La nature humaine

New Scientist liste 6 caractéristiques de notre nature humaine : nous sommes joueurs (comme les petits mammifères mais toute la vie), cuisiniers (très portés sur la bonne bouffe), rationnels ou scientifiques (faisant des hypothèses et prédictions), normatifs (interdits, règles, justice), prudes (les seuls à se cacher pour faire l'amour).


- La cuisson des aliments depuis 1 million d'années ?

Il semblerait que la cuisson des aliments remonte à 1,9 millions d'années pour permettre le développement d'un cerveau énergivore mais les traces les plus anciennes ne remontaient qu'à 790 000 ans jusqu'ici. Cependant, on vient d'en trouver datés d'1 millions d'années... A cette époque, comme dans la guerre du feu, les Homo erectus ne savaient pas faire de feu mais utilisaient des feux naturels qu'il ramenaient dans leurs abris et entretenaient précieusement.

Voir aussi The Telegraph, Sciences et Avenir et Futura-Sciences.

 

- L'ADN raconte la diffusion de l'agriculture en Europe

L’équipe de Mattias Jakobsson et Pontus Skoglund (Uppsala University, Suède) a réussi à prélever un matériau génétique ancien de très bonne qualité à partir de 4 squelettes exhumés en Suède. Trois appartiennent à un groupe de chasseurs-cueilleurs, qui vivaient il y a 4.400 à 5.300 ans, d’après les datations. L’autre, est le squelette d’une femme enterrée il y a 4.900 ans sous un mégalithe près de Gökhem, et contemporaine d’une autre culture, celle d’anciens agriculteurs.

Skoglund et ses collègues constatent que l’ADN des chasseurs-cueilleurs se rapproche de celui des habitants actuels du nord de l’Europe, notamment des Finlandais. Celui de la femme de Gökhem, en revanche, se rapproche de la signature génétique des Européens du Sud, Grecs ou Chypriotes.

Les résultats de l’étude suédoise, publiés dans la revue Science du 27 avril, accréditent l’hypothèse d’une migration de cultivateurs venus du sud de l’Europe qui ont voyagé à travers le continent, remontant vers le nord, et répandant leurs techniques agricoles. Le savoir-faire aurait donc bien voyagé avec des migrants originaires des régions méditerranéennes. Que reste-t-il de ces peuples dans l’ADN des européens d’aujourd’hui? D’après Jakobsson et ses collègues, les deux peuples auraient coexisté pendant longtemps en Suède avant de finir par se mélanger.

- Comment les précolombiens cultivaient la savane amazonienne

Les anciens habitants de ces savanes amazoniennes pratiquaient l'agriculture sur champs surélevés, qui impliquait la construction de petites buttes agricoles avec des ustensiles en bois. Cette technique permettait d'améliorer le drainage, l'aération du sol et la rétention d'eau. Une combinaison idéale pour un milieu connaissant, à différents moments de l'année, la sécheresse et l'inondation. Les champs surélevés bénéficiaient aussi de l'augmentation de la fertilité par la matière organique partiellement décomposée, retirée en permanence du bassin inondé et déposée sur les buttes. Les agriculteurs limitaient les feux pour mieux conserver la matière organique, les nutriments et la structure du sol.

- Le livre des morts enfin complet

La découverte de 100 nouveaux fragment permet de compléter le livre des morts égyptien.

- L'histoire de France rectifiée

Les hommes préhistoriques étaient des sauvages survivants péniblement en milieu hostile, les Gaulois n’étaient que des barbares que les Romains ont civilisés, les Barbares sont revenus au temps des invasions, le Moyen-Âge fut une longue nuit… L’archéologie des vingt dernières années prouve le contraire. Les hommes préhistoriques vivaient bien dans leur environnement et mangeaient mieux que nous, les Gaulois avaient des sociétés complexes, déjà urbaines avec des États et une économie monétaire, les invasions barbares n’ont jamais été cette vague destructrice, le Moyen-Âge a vu la première révolution industrielle…

La branche sud des populations néolithiques est arrivée il y a 7600 ans en France, et l’autre branche franchit le Rhin il y a 7000 ans environ. Les chasseurs cueilleurs sont submergés, leur nombre est estimé à quelques dizaines de milliers, contre environ deux millions d’agriculteurs lorsqu’ils parviennent à occuper l’Europe.

Dès qu’un village voyait sa population passer les 200 personnes, une partie s’en séparait pour aller fonder une nouvelle implantation, au détriment de la forêt, très probablement pour conserver un modèle social, assez homogène avec peu de différences de richesses et de statuts entre groupes et individus et qui aurait été menacé par une population trop dense. D’où un étonnant conservatisme social et technique, avec les mêmes plans de maison, les mêmes types de décors de Kiev à Brest, alors qu’il n’y avait pas la moindre unité politique. Ce village néolithique regroupait des maisons rectangulaires en bois et terre, qui peuvent aller jusqu’à 40 mètres de long. Une économie basée sur le blé, l’orge, les lentilles, le porc, la chèvre, le mouton, le bœuf et le chien.

On observe à plusieurs reprises, dès les débuts du néolithique au Proche Orient, que lors des premières évolutions démographiques très fortes, avec l’apparition d’agglomérations, ces premiers points de fixations s’effondrent puis les gens se dispersent dans toutes les directions. Sauf dans les régions – Mésopotamie, Égypte – où une sorte «d’effet nasse», car les populations sont cernées de déserts ou d’eau, provoque l’apparition des premières villes, des premières stratifications sociales et des États.

Auparavant, si vous n’étiez pas content de l’émergence d’une caste qui voulait vous dominer ou vous exploiter, il vous suffisait de partir coloniser des espaces nouveaux et vierges. On peut lire l’expansion néolithique en Europe comme la volonté des hommes d’échapper au piège social d’une densité démographique trop forte pour s’accommoder d’une grande égalité.

Ce n’est donc pas un hasard si les premiers sites où apparaissent des différenciations sociales fortes – avec les dolmens qui sont des tombeaux monumentaux – surgissent le long de l’Atlantique… et le long de la mer Noire, là où la densité de population est la plus forte. Ni que l’on observe des effondrements de la civilisation mégalithique au bout de quelques siècles, comme si les hommes ne supportaient plus cette stratification.

- De l'inconvénient de la richesse

On avait déjà parlé du fait que les inégalités font souffrir les riches presqu'autant que les pauvres tout comme du fait qu'être riche affecte la personnalité, fait perdre en humanité comme en intelligence. Pour les Américains, la haine des riches est incompréhensible et pourtant, elle est on ne peut plus justifiée "scientifiquement" et par des Américains eux-mêmes !

 

- Le point G découvert ?

Il a trouvé un petit sac entre le vagin et l'urètre à proximité du périnée. Le sac se situe à 16 millimètres environ de la partie supérieure de l'urètre. Faisant moins d'un centimètre de long, il est positionné à un angle de 35 degrés par rapport à l'urètre.

A l'intérieur du sac Ostrzenski a trouvé une structure en forme de ver avec trois régions distinctes qui globalement "ressemblent à un tissu érectile - tel que celui du clitoris".

Il ne s'agit que d'un seul cas, donc très fragile. Voir aussi Futura-Sciences.

- L'homophobie, une homosexualité refoulée

- Vers la congélation d'être vivants

On savait que la décongélation détruit les cellules vivantes, mais on ne savait pas pourquoi.

Les scientifiques coréens ont mis au point une technique qui permet d'observer les atomes de liquide pendant la cristallisation en les enfermant dans du graphite translucide, et donc d'envisager une méthode qui ne détruise pas la vie des cellules.

On pourrait aussi imiter les tardigrades.


Santé


génétique, traitements, nutrition, hygiène

 

- Le premier nanomédicament en test clinique

Depuis janvier 2011, 17 patients atteints de différents cancers ont reçu des injections par voies sanguines de nanoparticules (appelées BIND-014) spécialement conçues pour délivrer un médicament contre le cancer, le docétaxel, précisément au niveau des tumeurs. Toutes les trois semaines, on leur a administré des doses croissantes et les médecins ont porté leur attention sur l'apparition de nouveaux effets secondaires, différents de ceux déjà connus pour le docétaxel. Aucun ne s'est manifesté, remarquent les spécialistes, précisant même que les effets indésirables semblent être moins sévères que le traitement classique à des doses équivalentes.

Chez un homme de 51 ans atteint d’une tumeur au niveau des voies biliaires, ses métastases ont quasiment disparu après deux injections. Un sexagénaire atteint d’un cancer aux amygdales a vu sa tumeur se résorber de 25 %. Pour les 15 autres patients, leurs excroissances ont cessé de grossir.

La nanoparticule de polymères se compose de trois compartiments :

  1. le premier qui contient le docétaxel ;
  2. un deuxième qui cible un antigène connu présent à la surface des cellules tumorales, appelé PSMA (pour prostate-specific membrane antigen) ;
  3. le troisième dont le rôle consiste à éviter que le système immunitaire ne prenne la nanoparticule pour une structure à éliminer.

- Des nanoparticules d'oxyde de cuivre dégradent l'ADN

C'est peut-être ce qui fait du cuivre un métal bactéricide ?

- Un vaccin anticancer dans 6 ans ?

Un vaccin thérapeutique capable d’agir contre la grande majorité des cancers pourrait être mis sur le marché dans six ans, si les résultats de son essai clinique sont convaincants. À l’heure actuelle, aucune donnée n’a été officiellement publiée mais les scientifiques qui dirigent le travail semblent optimistes. L’injection de l’antigène MUC1 stimule la réponse immunitaire chez les dix patients, et quelques-uns pourraient même être guéris.

Baptisé ImMuccin, il se compose en fait d’un peptide antigénique de 21 acides aminés issu de MUC1. Après administration, le système immunitaire apprend à le reconnaître et à détruire les cellules qui le présentent.

On en parlait déjà en juillet 2009 pour le cancer du poumon et en janvier de cette année. Il y avait aussi, le mois dernier, un médicament miracle anti-CD47...

 

- L'effet anti-cancer de l'aspirine

L'aspirine se transforme en salicylate (salsalate) qui active la protéine AMPK une enzyme qui participe à la croissance des cellules et joue un rôle dans les cancers et diabètes (la résistance à l'insuline). Cette découverte devrait permettre de séparer cet effet anti-cancer (qui était controversé avant) des autres propriétés de l'aspirine.


- De nouvelles cellules souches autour des vaisseaux du cerveau

En analysant des tissus cérébraux issus de biopsies, des biologistes de l’université de Lund (Suède) ont découvert pour la première fois des cellules souches situées autour de petits vaisseaux sanguins dans le cerveau. La fonction de ces cellules mésenchymateuses est encore mystérieuse mais leurs propriétés plastiques suggèrent un potentiel important.

Voir aussi Futura-Sciences.

- Les gènes de l'atrophie de l'hippocampe

L'hippocampe est une structure cérébrale dont la réduction du volume avec l'âge est associée aux troubles de mémoire. L'accélération de ce phénomène est une des manifestations de la maladie d'Alzheimer.

Une fois les mutations mises en évidence, les scientifiques ont cherché ce qu'elles modifiaient. Ils ont découvert qu'elles changeaient la structure de gènes importants aux fonctions multiples impliqués entre autres dans la mort cellulaire (HRK) ou le développement embryonnaire (WIF1), le diabète (DPP) ou encore la migration neuronale (ASTN2).

"Cette étude marque un tournant majeur car elle confirme que des facteurs génétiques sont associés à une structure cérébrale, l'hippocampe, impliquée dans les démences et d'une façon beaucoup plus générale dans le vieillissement cérébral."

A noter que cette brève a été publiée 2 fois. Voir aussi Futura-Sciences.

- Un gène de l'Alzheimer précoce

Un nouveau gène impliqué dans les formes précoces de la maladie d’Alzheimer vient d’être identifié dans cinq familles de patients atteints de la neurodégénérescence. Des mutations sur le gène SORL1 entraîneraient une surproduction de la protéine bêta-amyloïde, responsable de la pathologie.

Cela montre que ces plaques sont bien une cause de la maladie, ce que certains contestaient, mais aussi qu'il y a plusieurs sortes d'Alzheimer.

- Les gènes du père âgé dans l'autisme

Trois gènes sont ciblés: CHD8, SNC2A et KATNAL2.

L’une de ces études, coordonnée par Evan Eichler (University of Washington, Etats-Unis), révèle que certaines mutations liées aux TSA sont essentiellement d’origine paternelle et que le risque augmente avec l’âge du père (ce qui avait déjà été suggéré par d’autres travaux).

Pris ensemble, ces gènes expliquent environ 1% du risque génétique.

Ce 1% paraît bien ridicule pour prétendre expliquer quoi que ce soit ! On sait pourtant que l'âge du père est un facteur prédisposant à l'autisme à cause d'un plus grand nombre de mutations de l'ADN. Un certain nombre de polluants sont aussi mis en cause mais sans preuves très solides non plus.

- La piste du glutamate dans le mongolisme

C'est juste une étude sur la souris, non transposable à l'homme mais qui confirme qu'on peut corriger la plupart des symptômes associés au "syndrome de l’X fragile" par l'inhibition du glutamate (inhibiteur de mGlu), de quoi donner de l'espoir, hélas pas dans l'immédiat...

Nous faisons la preuve que de nombreux symptôme du X fragile ne sont pas causés par une perturbation irréversible du développement du cerveau et que la correction de la voie de signalisation du glutamate peut fournir un bénéfice thérapeutique.

- Les phtalates réduisent de 30% la testostérone

Du tissu testiculaire a été prélevé chez des hommes volontaires atteints d’un cancer de la prostate. En parallèle, des cellules des glandes surrénales, productrices d’une hormone stéroïdienne proche de la testostérone (l’aldostérone) ont été cultivées. Ces différentes cellules ont été soumises à deux phtalates différents : le DEHP ou phtalate bis(2-éthylexyle), le plus fréquent, et le MEHP ou phtalate mono(2-éthylexyl). Les doses utilisées sont du même ordre de grandeur que celles répertoriées chez l’homme dans la littérature scientifique.

Ces deux polluants ont eu un effet anti-androgène fort puisqu’une chute d’environ 30 % de la production de la testostérone a été constatée. Plus troublant : le DEHP en lui-même n’est pas toxique pour le système endocrinien mâle, mais au niveau testiculaire, il est métabolisé en MEHP, qui lui va affecter la synthèse de l'hormone masculinisante.

- L'huile d'avocat pour les mitochondries

L'huile d'avocat améliore la respiration au niveau de la mitochondrie, assurant une bonne production d'énergie. L'huile d'avocat est connue pour améliorer l'équilibre du cholestérol dans le sang. Si ses propriétés antioxydantes sont confirmées chez l'homme, elle deviendra un produit miracle.


- En Hongrie, les diabétiques sanctionnés s'ils ne respectent pas leur régime

Selon un décret ministériel, publié lundi 23 avril, dans le Journal officiel, les diabétiques devront se soumettre chaque trimestre à un test sanguin spécifique visant à contrôler leur consommation d'hydrates de carbone.

S'ils sont pris en défaut à deux reprises dans l'année, en clair si leur taux de glucose a augmenté au-delà des valeurs fixées par le décret, les patients concernés se verront refuser l'accès aux médicaments les plus efficaces (insuline analogue) et devront se contenter des traitements à base d'insuline humaine, moins performants et provoquant davantage d'effets secondaires. De plus, ils devront payer plus cher pour leur traitement, dont la part subventionnée par l'Etat va se réduire.

Le gouvernement du conservateur Viktor Orban avait justifié son décret en déclarant que "les médicaments des diabétiques coûtaient 30 milliards de forints (100 millions d'euros) et qu'il était inutile de gaspiller l'argent des contribuables pour des gens qui ne coopéraient pas avec leur médecin".

- Cyberplasm, le microrobot presque vivant pour détecter les maladies

Un prototype de minirobot composé en partie de cellules vivantes et inspiré de la lamproie, un poisson primitif, pourrait être testé d’ici cinq ans. L’engin, dont le concept est inédit, détecterait les maladies en circulant dans le sang, et laisserait entrevoir des avancées dans d’autres domaines, comme dans la mise au point de prothèses musculaires.

Le principe est de combiner des éléments de microélectronique de pointe avec les dernières innovations en matière de biomimétisme, ces technologies inspirées de la nature. Le robot serait équipé de cellules de mammifères, qui joueraient le rôle de capteurs sensoriels envoyant des informations à un cerveau électronique, et prenant alors la décision de s’orienter et de nager en allant stimuler électriquement la contraction ou le relâchement de muscles artificiels qui carburent au glucose, comme dans le monde vivant.

La première étape consiste donc à mettre au point un prototype de ce Cyberplasm de moins d’un centimètre de long. Par la suite, le but est de créer des versions plus petites, de l’ordre du millimètre.

- Ce n'est pas tant le travail de nuit que l'irrégularité qui nuit

L'étude a par ailleurs fait ressortir un résultat inattendu: bien qu'il n'y ait pas eu de baisse de la production nocturne de mélatonine chez les téléphonistes exposés aux intensités lumineuses les plus vives (de 100 à 225 lux), cette production a néanmoins significativement diminué sur une période de 24 heures. "Il semble qu'une intensité lumineuse élevée enclenche le mécanisme de resynchronisation de l'horloge biologique centrale et que ce soit au cours de cette reprogrammation, alors que les horloges périphériques sont en conflit, que la production de mélatonine décroit", suggère la professeure en guise d'explication. À son avis, c'est le maintien d'une telle période d'irrégularité pendant plusieurs années qui serait dommageable à la santé.

Mais il y aurait moyen d'y remédier. La solution ne consiste pas à s'exposer à une intensité lumineuse très grande lorsqu'on travaille de nuit comme on l'a cru jusqu'à maintenant, mais plutôt à rechercher un compromis entre l'ajustement au jour et l'ajustement à la nuit afin d'assurer une stabilité à l'organisme.

En tout cas, une horloge interne perturbée favorise le diabète.

- Les aspirateurs bon marchés mauvais pour la santé

Des tests effectués en laboratoire montrent que les aspirateurs peuvent émettre, chaque minute, des dizaines de milliards de particules ultrafines et des centaines de milliers de bactéries.

Certains modèles en émettent jusqu'à cinq fois plus que d'autres. L'abondance des particules ultrafines (dont la taille est inférieure à 0,1 micromètre) va de 4 millions à 110 milliards à la minute. Ces minuscules poussières, composées essentiellement de carbone et de cuivre, proviendraient de l'usure du moteur. "La qualité des composantes semble déterminante dans la quantité de particules émises, souligne Caroline Duchaine. Les aspirateurs bon marché en émettent davantage que les modèles luxueux."

 

- Les dangers du vélo pour les femmes

Les chercheurs ont découvert que celles qui se penchent vers l'avant et mettent leur dos à plat pour poser leurs bras sur les repose-bras du vélo afin d'obtenir une position plus aérodynamique ont davantage de problèmes d'engourdissement dans la région pelvienne.

Steven M. Schrader, un scientifique du National Institute for Occupational Safety and Health, estime qu'utiliser une selle sans nez serait une bonne façon de réduire la pression sur le périnée.

- Un anneau pour surveiller son état de santé

Stanley Wissmar et son collaborateur Bo Hammarlund ont fondé l'entreprise SenseM et ont identifié trois domaines d'application pour cette technologie : le suivi médical, l'accès et l'authentification, et une unité de contrôle électronique. Stanley Wissmar ajoute : "Nous avons déjà un prototype pour le suivi des patients atteints de la maladie d'Alzheimer. Nous attendons une démonstration des applications d'authentification dans un mois."

La bague en combinaison avec d'autres outils développés par le CHU de Karolinska, pourrait par exemple fournir des informations en temps réel que les médecins utiliseraient pour évaluer l'état de santé du patient.

En fait la bague pourrait servir aussi à changer de chansons ou autre application numérique...

- Des prothèses commandées par la pensée

Des singes paralysés de la main et du poignet ont retrouvé 80 % de leur dextérité grâce à une nouvelle neuroprothèse, commandée par le cerveau lui-même.

D’abord, il a fallu placer une grille d’électrodes au niveau des neurones du cortex moteur primaire du cerveau de deux macaques rhésus (Macaca mulatta), plus précisément dans la région en charge de la mobilité de la main. Ensuite, cinq électrodes ont été placées sur trois muscles du bras utilisés dans la préhension.

 

- Un oeil bionique testé en 2014

Bionic Vision Australia a développé une une puce implantable qui utilise 98 électrodes séparées pour stimuler la rétine du patient afin qu’il puisse «percevoir la vision ». Cette puce serait en mesure d’aider les personnes souffrant d’affections oculaires et permettrait de voir les objets de grandes tailles.

Le dispositif fonctionne via une caméra intégrée dans une paire de lunettes. Celle-ci capte des images, puis les transfère à un dispositif externe filaire pour la phase d’analyse. Les données sont ensuite envoyées à l’implant, ce qui stimule la rétine, avant que l’information ne parvienne aux centres de traitement de la vision directement dans le cerveau

Appelé, « Wide-view device », ce n’est d’ailleurs pas le seul prototype de l’équipe. Les chercheurs travaillent sur un appareil capable de mesures bien plus précises. Il pourrait alors aider les patients à reconnaitre les visages et même à lire les de gros caractères. Il devrait être testé en 2014.

- L'effet de l'acupuncture sur le cerveau

On ne sait pas ce que ça prouve, sinon un effet sur le cerveau...

 

Technologie


biotechnologies, nanotechnologies, énergie, informatique, robotique

 

- La reconnaissance faciale devine votre âge

Voir aussi Techno-Sciences. On peut aussi détecter les menteurs.

- La reconnaissance d'objets remplace les code-barres

Object Recoginition Scanner pourrait très vite rayer du paysage de la grande distribution les fameux codes barres. Développé par Toshiba Tec, ce scanner à reconnaissance visuelle peut reconnaître chaque produit simplement à l’aide de sa caméra. Il est même capable par exemple de distinguer deux pommes sur leur couleur et leur forme.

Keiichi Hasegawa, de Toshiba Tec, explique que «les fruits et légumes frais n’ayant pas de codes barres, cela peut engendrer des délais à la caisse et c’est ce problème qu’on a voulu résoudre.» Voilà pour la cause.

Capable de reconnaître également cannettes et autres coupons, le dernier-né des laboratoires de Toshiba Tec dispose d’une base de données de fruits et légumes mais aussi d' autres produits courants dans les supermarchés japonais.

- Des flash pour remplacer les codes QR

Deux chercheurs du Massachusetts Institute of Technology (MIT) ont imaginé une alternative à ces codes QR, qui n'apparaîtraient pas sur un support en papier mais seulement sur un écran. Leur trouvaille s’appelle NewsFlash. Elle repose à peu près sur le même principe que les codes QR, à la différence près qu'il n’y a aucun code-barres. Le code est émis par l'écran sous forme de flashs de lumière très rapides, imperceptibles pour un œil humain.

- Un poster qui change de musique quand on envoie une boule de papier !

L’idée ? Un poster interactif connecté par USB à un ordinateur avec le compte Spotify de l’agence qui permet de passer d’un morceau à un autre simplement en jetant… n’importe quoi dessus. Même une boule de papier peut faire l’affaire.

- Un double écran Microsoft

Un écran est normal tandis que l'autre est de type e-ink à basse consommation et plus pratique pour lire au soleil notamment (technologie des eBooks). On pourrait ainsi basculer de l'un à l'autre avec plusieurs autres avantages dont celui de pouvoir se prendre en photo.


- Il n'y a pas que les lunettes Google

En réalité, il s’agit de lunettes Vuzix combinées à des webcams estampillées HD, à un micro et à une application écrite avec Adobe Air. La reconnaissance vocale est elle assurée par l’engine Dragon Naturally Speaking.


- Un exosquelette léger pour aider les personnes âgées

Les exosquelettes font des progrès, il vont finir par nous envahir.

- Une main robotisée commandée par une main d'homme

- Des combats de robots bientôt à la télé

Le réalisateur de Titanic et d’Avatar a décidé d’organiser des combats de robots à la télévision.

La règle sera simple : mettre en pièces (détachées) son adversaire.


- Un robot gardien de prison en Corée

Robo-Guard est donc le premier robot au monde employé dans une prison. Il a été développé dans un double emploi. Il est là avant tout pour surveiller les détenus et veiller à la sécurité. Il prévient de tout acte de violence et même des suicides. Son second rôle est de réduire la pression exercée sur les gardiens.

Le robot est équipé de caméras 3D et navigue dans les couloirs de la prison de façon autonome. Les gardiens humains peuvent à tout moment récupérer les contrôles du robot via un iPad afin de s’en servir comme avatar. Il est ainsi possible aux gardiens de tenter de discuter avec les détenus avant d’intervenir réellement

- Un robot cosmonaute russe

Testé à la Cité des Etoiles depuis novembre 2011, le robot SAR-400 devrait rejoindre la Station Spatiale Internationale (ISS) d’ici 2014. Avec le Robonaut 2 américain, ce seront deux robots humanoïdes qui équiperont la station.

Ces robots sont destinés à effectuer les tâches dangereuses et remplaceront et/ou assisteront les astronautes lors des sorties extra-véhiculaires. Que ce soit le modèle américain ou le modèle russe, les robots sont télé-manipulés depuis la Terre.


- Un robot dans son auto

Lorsque la voiture démarre, le robot sort de sa cachette. Il possède différentes expressions faciales, sonores et de mouvements. Il est équipé d’une caméra pour détecter la fatigue éventuelle du conducteur. Il est vraisemblable qu’il ait également la reconnaissance vocale permettant au conducteur de contrôler certaines actions comme l’autoradio ou le GPS.


- Une voiture hélicoptère

Sur la terre ferme, il se comporte comme une « voiture de course » précise le fabricant, même s’il n’est équipé que de trois roues. Mais en moins d’une minute, il peut se transformer en hélicoptère et voler à une altitude de 1200 mètres environ (il n’est pas homologué pour aller plus haut).

L’autre avantage de cet engin, c’est que malgré sa lourdeur apparente, il est capable d’atteindre une vitesse de 180 km/h aussi bien dans les airs que sur le plancher des vaches.

 

- Des balcons piscines

L’immeuble a été dessiné par James Law pour la compagnie immobilière Wadhwa Group qui se trouve à Mumbai en Inde. Le complexe intègre 200 appartements. Chaque appartement a 3 côtés, ce qui permet, selon cette société, une meilleure ventilation.

 
<- Revue des sciences précédente | Revue des sciences suivante ->
copyleftcopyleft 

19 réflexions au sujet de « Revue des sciences 05/12 »

  1. A propos du § "Pour être créatif, il faut se laisser aller" : c'est justement Picasso qui disait : "je ne cherche pas, je trouve" ! A mon avis, la créativité relève d'abord de la psychologie, alors que votre commentaire vise plutôt ses résultats puisque vous parlez de : "la valeur de la créativité, le fait d'entrer en contradiction avec les préjugés de l'époque".

    Comme le montre le cas Van Gogh, un artiste n'est pas créatif quand ou parce qu'il "entre en contradiction avec les préjugés de l'époque", mais pendant qu'il travaille, et surtout : pendant qu'il médite son travail ! Et pour avoir lu toute la correspondance de Van Gogh avec son frère Théo, je peux vous assurer qu'il n'était guidé que par sa conception de la beauté, et sous la contrainte draconienne des moyens dont il disposait. (Des "moyens" dans lesquels il faut bien sûr compter un savoir-faire laborieusement acquis.)

    A mon humble avis, la créativité est une faculté de l'esprit que l'on peut exercer à propos de tout et n'importe quoi, et dans les circonstances les plus diverses. Je ne peux pas lire l'article de référence, mais j'ai tendance à croire qu'elle exige effectivement de "se laisser aller", quoique ce soit insuffisant. Il y faut d'abord un objectif "précis", beaucoup de motivation, (ou une forte contrainte), et aussi de la confiance en soi, (inhiber l'inhibition).

    En un mot : il n'y a pas créativité parce que l'on a quitté les sentiers battus, mais parce que l'on a trouvé son propre chemin. (En le cherchant ou non.)

  2. @Crapaud Rouge :

    J'ai fini par me rendre compte que j'étais créatif quand on me l'a dit à plusieurs reprises, j'en ai même déduit que c'était un handicap, une pathologie. Je me suis rendu compte, par les résultats, que finalement je l'étais, un peu malade et productif.

    Qu'est ce qu'être créatif, suivre un et des chemins, une et des discursions induites par la méfiance de soi. C'est le travail du chat qui tombe et retombe sur ses pattes.

    Le laisser aller n'est que le résultat d'un processus de luttes, quand le potentiel s'épuise, ça va jusque là.

  3. Je ne disputerais pas de Van Gogh que ne connais pas autant que vous mais dont la peinture s'inscrit de façon on ne peut plus pertinente dans son époque, dans un mouvement collectif (Gauguin). La conception de la beauté n'a rien d'individuelle, c'est pourquoi il ne suffit pas de se laisser aller à faire n'importe quoi. Mon commentaire était certes très insuffisant [j'ai rajouté un paragraphe] à ne parler que du caractère transgressif de la création car ce n'est pas n'importe quelle transgression, il faut, pour qu'elle prenne sens, qu'elle s'insère dans une histoire collective, sa valeur étant dans sa justesse plus que dans son caractère transgressif (inventif). J'ai parlé de Cantor dont l'invention des transfinis était on ne peut plus juste et pourtant inassimilable au premier abord. Il ne suffit donc pas de se laisser aller même s'il est nécessaire de casser des codes, il faut encore savoir reconnaître ce qui porte un sens nécessaire, ce qui n'est déjà plus de la psychologie et n'est pas à la portée de n'importe qui, ce qui fait les véritables créateurs si rares.

  4. Avec l'alinéa ajouté, d'accord sur toute la ligne. D'accord aussi avec votre long commentaire sur la transgression. Il me semble qu'on en trouve l'illustration dans les récits mythologiques qui attribuent l'apparition d'une nouveauté à des héros "transgressifs", par exemple nés d'un inceste. Le plus proche de nous est celui du catholicisme avec la naissance de Jésus sans fécondation.

  5. Bonjour Monsieur Zin,

    Un très grand merci pour cette revue de presse.... et pour toutes les précédentes et pour toutes celles qui viendront.

  6. On se moque du temps que je passe à cette revue des sciences...

    C'est pas que je ne la trouve pas bien cette revue de presse, mais je vais reprendre un de vos arguments sur la meilleure façon d'approcher la philosophie (c'est quelque part dans vos commentaires): vous disiez qu'il vaut mieux limiter son champ d'étude à quelques textes et quelques auteurs, les travailler en profondeur, plutôt que de vouloir tout étudier, selon l'adage que qui trop embrasse mal étreint.
    Je suis complètement d'accord avec cette remarque et je vous la retourne en ce qui concerne cette revue des sciences, ce n'est pas une moquerie de ma part, mais je crois plutôt que cette revue des sciences est un exutoire pour vous préserver.

  7. D'abord, oui, cette revue des sciences me permet de décrocher un peu tous les mois et ce n'est pas une mauvaise chose tant on s'enferme facilement dans ses propres problèmes mais ce n'est pas comme si le contenu en était insignifiant et qu'il n'y avait pas à l'intérieur plusieurs commentaires qui feraient des billets chez d'autres. Sur le plan de l'écriture, je ne fais donc que continuer sur un autre mode en partant simplement non de mes préoccupations mais des nouvelles du mois. Il faut prendre au sérieux ce que je dis à la fois sur l'importance des sciences pour nous rappeler notre rationalité limitée (il ne faut pas croire, moi aussi je me prends facilement pour un génie et la confrontation à ma connerie n'est pas un luxe pour me ramener à la triste réalité) mais aussi que c'est ce qui constitue notre actualité et surtout notre futur, qu'il faut absolument garder un oeil sur cette évolution qui s'accélère. D'une certaine façon, je ne comprends même pas qu'on ne s'en rende pas compte, à part le temps qu'il faut pour cela (il est vrai que ma revue est trop longue et qu'on ne peut pas tout lire mais ce sont les nouvelles qui sont trop abondantes dépassant la saturation!). Je crois vraiment qu'aucune métaphysique ne tient le coup devant les surprises des sciences qui démentent nos projections pourtant si logiques, nos évidences les moins douteuses.

    Sur la spécialisation et la transversalité, il y a une totale confusion. Il est vrai que j'ai dit dans ma critique du livre d'Edgar Morin (La Voie) qu'il valait mieux approfondir un auteur que survoler l'histoire de la philosophie (ce que j'avais conseillé il y a déjà longtemps à un visiteur venu me voir) mais c'était pour tempérer son plaidoyer pour une plus grande transversalité à l'école et qui me semblait prématurée si elle ne s'appuyait pas sur des savoirs solides. En particulier cette recommandation d'approfondir un auteur me semble indispensable pour saisir le chemin d'une pensée, ses hésitations, ses déterminations biographiques, etc. Cela ne veut pas dire qu'il faudrait se spécialiser à outrance et devenir monomaniaque. Chacun sait que je suis un des rares à pratiquer la transversalité au moins depuis que j'ai intégré le GRIT-Transversales (mais mon "Prêt-à-penser" de 1994 était déjà assez éclectique) ! J'ai approfondi plusieurs auteurs (Lacan, Hegel, Marx, Debord, Aristote) et plusieurs sujets dont je suis devenu spécialiste (écologie, revenu garanti, cycles, information). Bien que fortement reliés pour moi, tout cela fait déjà un peu bric-à-brac, au point d'agacer certains comme sur wikipédia, mais n'empêche pas que je ne me limite pas à cela et m'intéresse à bien d'autres choses dont la physique et la biologie où je suis complètement incompétent (sauf sur l'énergie, l'entropie et l'information), essayant d'exercer une transversalité dont j'éprouve toute la difficulté mais qui reste indispensable notamment pour la politique. Cela demande du travail et de commencer par approfondir d'abord quelques domaines, pas se satisfaire de conceptions immédiates, de vagues analogies, d'une ignorance crasse qui se prend pour une compréhension supérieure, mais comprendre le monde (pour le transformer) reste l'objectif, auquel cette revue des sciences participe.

  8. @Jean Zin :
    OK, merci d'avoir développé et ainsi mieux fait comprendre la cohérence de votre démarche.

    Michel Serres fait aussi des incursions dans les autres sciences pour nourrir et éclairer sa philosophie. Par exemple, il a intégré les théories du chaos pour consolider le concept de liberté et sortir du débat immémorial entre déterminisme et liberté.
    Au fond, toutes les connaissances sont les bienvenues pour étayer nos choix et comprendre les évolutions des possibles.

  9. Michel Serres a fricoté lui aussi avec le GRIT pendant une période mais il n'y a pas trouvé son compte car les sciences dures n'y avaient pas de place à l'époque, plus porté vers le biologisme de Laborit. Mes propres excursions dans la physique étaient une innovation (ayant intéressé quelques physiciens) mais je trouve très contestable de faire reposer le concept de liberté sur les théories du chaos alors que, ce qui constitue notre liberté et une rupture du déterminisme, c'est d'une part la multiplicité de nos déterminismes (des choix possibles), d'autre part notre autonomie cognitive, notre ignorance (ne pas savoir quoi faire) et notre capacité de mentir. Nos décisions n'ont rien d'arbitraire et s'il y a libre-arbitre c'est de devoir faire des arbitrages mais avec le vivant qui introduit la finalité dans la chaîne des causes, il y a bien des trous dans le déterminisme mécanique. Rien à voir avec les théories du chaos même si l'indétermination du monde (et notamment de la météo) est une condition de la vie et de la liberté.

    Une des difficultés de la transversalité, c'est de ne pas confondre les niveaux.

  10. Lors d'un séjour au ski j'avais passé une nuit, avec un polytechnicien ayant dérivé vers normale sup, lors de laquelle on avait décortiqué quelques équations concernant le mouvement des planètes et leur influence sur les marées puis ensuite sur les intégrales divergentes à l'origine du chaos. Le résultat, c'est que le chaos procède d'une incomplétude de l'information prédictive. Donc pas grand chose à voir avec la liberté, juste une déficience de notre condition humaine.

  11. olaf, je ne crois pas qu'il s'agisse d'une carence d'information, mais bien de l'impossibilité essentielle de prédire au delà d'un certain horizon, sinon, on retombe dans les thèses déterministes classiques pour lesquelles ont peut espérer un jour devenir capables de tout prédire (Cf Laplace par exemple). Le simple fait qu'on ne puisse pas prédire au-delà d'un certain horizon fonde bien solidement la possibilité du concept de liberté, sinon il ne serait qu'une illusion. Comme le dit Jean, "l'indétermination du monde ... est une condition de la vie et de la liberté."
    Je ne crois pas que Serres aille plus loin dans cette brèche philosophique considérable que le concept de chaos a ouvert dans ce débat sur le déterminisme qui opposait les intuitifs proliberté et les raisonnables prodéterminisme.

  12. Oui, les théories du chaos ne tiennent pas à notre rationalité limitée mais bien au caractère intrinsèque de phénomènes sensibles aux conditions initiales ou qui divergent exponentiellement à partir de différences aussi petites que possible. Ce sont des phénomènes créateurs de diversité ou des amplificateurs de petites variations en grands bouleversements. La météo en est l'incarnation même mais on n'avait pas besoin des théories du chaos pour admettre l'indétermination dans la physique quantique. Du coup on a voulu faire de l'esprit et du libre-arbitre un phénomène quantique, ce qui est absurde alors que c'est une réflexion des savoirs.

    J'essaie de montrer dans l'improbable miracle d'exister qu'il n'y aurait pas d'existence dans un monde physique lisse, entièrement déterminé et prévisible et que la vie et l'information sont une réponse par homéostasie à l'improbabilité du monde (la vie est la nostalgie de l'unité déchirée par la contingence de l'être). On est dans un monde thermodynamique, celui de l'entropie et des probabilités mais aussi d'une improbabilité qui devient plus probable avec le temps et d'une complexité grandissante manifestée par le vivant.

    Le mécanisme de la vie (reproduction/évolution/sélection) introduit cependant une toute autre indétermination que l'indétermination physique, la liberté se pose en de tout autres termes que celui d'un choix arbitraire alors que c'est un arbitrage entre raisons, intérêts et pulsions contraires, rien qui ne soit fortement déterminé. L'indétermination est ici plus proche de celle de l'issue d'un combat ou d'une compétition sportive. S'il faut distinguer les niveaux, c'est qu'ils ne fonctionnent pas du tout pareil !

  13. @Michel MARTIN : "Le simple fait qu'on ne puisse pas prédire au-delà d'un certain horizon fonde bien solidement la possibilité du concept de liberté, sinon il ne serait qu'une illusion." : non, ce qui fonde le concept de liberté, c'est le prodigieux pouvoir d'abstraction du langage. Non seulement il permet de créer tout ce que l'on veut, (le pire comme le meilleur), mais il permet aussi de déjouer les discours qui justifient la domination des uns sur les autres, c'est-à-dire les discours qui prétendent à l'existence d'un déterminisme social. Sans le langage, les humains ne pourraient que s'échanger des signaux à l'instar des insectes sociaux ou des singes, et leur avenir serait exclusivement déterminé par leur environnement.

  14. @Crapaud Rouge :
    "non, ce qui fonde le concept de liberté, c'est le prodigieux pouvoir d'abstraction du langage."
    De mon point de vue, le réel est un et l'idée qu'on s'en fait n'est qu'une de ses composantes. Je ne vois pas en quoi le pouvoir d'abstraction pourrait contredire ce fondement physique du concept de liberté, sauf à faire appel à la magie.

  15. @Michel MARTIN : l'idée qui consiste à faire dépendre la liberté de l'information sur l'avenir était connue des Grecs. Y introduire le concept moderne de "chaos" ne change rien à cette façon de l'aborder. Le père d'Oedipe, averti de son sort, n'est ni plus ni moins libre que son fils parricide. Pour que l'idée de Michel Serres soit juste, il faudrait que l'information concernant l'avenir ait un effet déterministe sur notre comportement présent. Comme c'est loin d'être le cas, savoir ou ne pas savoir n'affecte pas la liberté. (Seulement la responsabilité.)

  16. Tout dépend de ce qu'on appelle liberté. On parle de degrés de liberté même en physique et une simple oscillation est un modèle de choix imprédictible tout comme les billes qu'on fait glisser sur une planche à clous forment une courbe de Gauss mais leur trajectoire est imprédictible et peut s'analyser comme un mécanisme de choix au hasard qu'on peut appeler une forme de liberté.

    J'ai parlé du caractère hasardeux de l'issue d'une lutte (entre prédateur et proie ou entre mâles) mais on pourrait parler aussi des générateurs de diversité en immunologie. La réfutation d'un déterminisme absolu qu'on pourrait dire compact (Laplace) n'a plus besoin d'être faite, la thermodynamique ayant introduit la probabilité dans une physique devenue statistique, ce qui n'empêche pas l'omniprésence du déterminisme dans lequel il y a seulement des trous.

    Cela ne suffit pas à faire une liberté, en tout cas pas la liberté humaine mais pour savoir si un animal est libre, il suffit de le mettre en cage et d'ouvrir la porte. Lorsque l'animal s'échappe, il est certes déterminé, cela ne l'empêche pas de se libérer de la cage où l'on voulait l'enfermer. Ce qui ne va pas, c'est l'idée d'une liberté qui ne serait pas déterminée (négation de la biologie, de l’ethnologie, de la sociologie, de la psychologie, de la psychanalyse...), ce qui supposerait notamment qu'on puisse dire vraiment n'importe quoi alors que les discours contraignent fortement ce qu'on peut dire (cf "L'ordre du discours" de Foucault ou les 4 discours de Lacan). Ce qui nous fait hommes, c'est notre parole, donc aussi pour notre liberté dont Kojève voyait l'origine dans l'arbitraire du signe (sauf qu'il n'est pas si arbitraire!) mais qui est plutôt dans la capacité de mentir (dans la non-coïncidence de l'énonciation et de l'énoncé).

    La liberté humaine est à la fois un rapport à l'autre (domination) et la libération relative des impératifs vitaux, l'opposition de la culture à la nature qui donne à l'homme la dignité de se créer lui-même (Pic de la Mirandole). Se libérer de déterminismes naturels, ne veut pas dire cependant qu'on ne tomberait pas dans des déterminismes sociaux (qui sont simplement plus diversifiés).

    Ce qui fait qu'on peut parler de liberté malgré tous ces déterminismes, c'est bien l'ignorance effectivement, quand on ne sait pas quoi faire, manifestant bien ainsi que les déterminismes ne sont pas assez forts. Le lien de la liberté à l'ignorance a été fait par Heidegger dans "L'essence de la vérité" qui me semble retourner complètement l'affirmation de Spinoza que la liberté ne tiendrait qu'à l'ignorance des causes mais, au niveau politique, John-Stuart Mill déjà fondait le libéralisme démocratique sur notre ignorance qu'atteste la diversité des opinions ("De la liberté"). La réflexion procède de l'inhibition des réflexes et la recherche de nouvelles informations pour décider en prenant en compte un plus grand nombre de paramètres, en se projetant à un peu plus long terme. Nul besoin nulle part d'un pur arbitraire dépourvu de causes, il suffit d'avoir à décider soi-même sans savoir à l'avance ce qu'on décidera. Un Dieu omniscient, en ce sens ne serait pas libre. Ce qui ne pose pas question se fait de façon automatique, pour autant qu'on nous laisse faire et la liberté se prouve, en effet, quand on résiste à ce qui nous contraint et qu'on ne se laisse pas faire mais il ne faut pas confondre ce qu'on peut appeler notre liberté privée, consistant à choisir ses dépendances, et la liberté politique nous permettant d'agir à notre guise, de vivre de notre façon.

  17. @Jean Zin :
    Oui, ce n'est pas parce que la liberté est concevable qu'elle est automatique. Mais c'est déjà ça, que la notion de choix qui est au fondement de la philo puisse se concevoir dans notre monde moderne (ce que dit Crapeau rouge des grecs est sans doute vrai, mais c'était avant Descartes, Laplace et Spinoza.

    "...il ne faut pas confondre ce qu'on peut appeler notre liberté privée, consistant à choisir ses dépendances, et la liberté politique nous permettant d'agir à notre guise, de vivre de notre façon."
    Les choix personnels et les choix collectifs, les deux grands pans de la philosophie. Mais le domaine du passage du je au nous me semble encore assez peu travaillé. On dit que la liberté de chacun commence où s'arrête celle des autres, mais en disant ça on n'a encore rien dit.

  18. Je suis toujours étonné de la capacité de certains à délirer qui semble infinie (internet est plein de ces divagations). Là on aurait une théorie de la plus petite unité de conscience, ce qui prouve une incompréhension totale de ce qu'est la conscience (et l'information). Et le gars est persuadé d'être un génie méconnu ! C'est une erreur de ces fous littéraires de croire que construire tout un système cohérent d'interprétation du monde à partir de leur délire de départ en constituerait une sorte de preuve alors qu'ils ne font qu'aggraver leur cas. Il faut au contraire se méfier des systèmes et toujours soumettre toute nouvelle idée à une critique implacable, comme font les mathématiciens, avant de sombrer dans ce genre de narcissisme obscène.

Les commentaires sont fermés.