Revue des sciences novembre 2013

Temps de lecture : 106 minutes

Physique, espace, nanos

Climat, écologie, énergie

Biologie, préhistoire, cerveau

Santé

Techno

<- Revue des sciences précédente | Revue des sciences suivante ->

Version tronquée de la revue des sciences

Cette fois, il n'y a pas de regret à avoir de ne pas publier ma revue (qui reste privée et non terminée). Rien d'extraordinaire, en tout cas dans les magazines. Pour la Science aborde pourtant la question cruciale de la mémoire du futur, mémoire éphémère en même temps qu'ineffaçable, noyée dans la masse mais inscrite dans la matière. Le traitement m'en a semblé cependant très ennuyeux bien que j'approuve l'assimilation de la théorie de l'évolution à une théorie de l'information (p103), l'évolution étant un processus cognitif, de même que l'importance du flux d'idées dans l'évolution sociale (p58). Il est amusant aussi de savoir qu'en biologie, le terme "aufhebung" désigne la dégradation de la mémoire avec le temps, les mutations affectant la conservation. Il y a tout de même, à bas bruit pour l'instant, des changements d'échelle qui se préparent avec notamment les nanotechnologies qui se focalisent sur la production de masse et leur hybridation avec les biotechnologies (de plus en plus difficile de les séparer). Il y a aussi les supercondensateurs qui commencent à remplacer les batteries. Le fait que l'ONU prenne en charge la protection de la planète d'éventuels astéroïdes semble très loin de notre réalité et pourtant renforce l'unification du monde encore plus que le climat. Le plus étonnant, c'est que plus on s'en approche, et plus il semble qu'on aurait les moyens de se sortir du défi écologique que représente le pic de population bientôt atteint malgré les prévisions catastrophistes de certains. Il n'est pas sûr cependant qu'on ait le temps et qu'on puisse tenir le rythme comme le montre le retour du peak oil non par épuisement des stocks mais par saturation des flux. On s'approche semble-t-il de la fusion laser enfin, mais est-ce que ce sera suffisant ? Du côté de la biologie de synthèse, c'est la machine à télécopier l'ADN de Craig Venter qui tient la vedette mais le fait de se ménager une fenêtre dans le cerveau pour intervenir sans réouvrir le crâne semble assez effrayant (bien que très utile sans doute dans certains cas). Il est assez important de savoir que la lumière booste les mitochondries et le cerveau, de même que jeûne, diurétiques et sommeil constitueraient les meilleurs remèdes contre l'Alzheimer. Enfin, pour le fun, il faut signaler l'Aeromobil, une superbe voiture volante qui vaut le coup d'oeil.

SH-158_1-BIG212 milliards d’objets connectés en 2020 (ou 80 ou 30 milliards seulement) ? Ce serait encore "une véritable révolution économique, cognitive et culturelle", celle de la "productivité augmentée". Aussi, General Electric propose un protocole industriel pour mettre en réseau l'internet des choses, interpréter les différents capteurs et les Big Data, afin de pouvoir optimiser les processus. Pour la domotique et pour qu'une maison soit intelligente, il faut qu'elle puisse détecter notre présence, grâce à notre smartphone ou les futures smartwatchs. (qui pourraient intégrer la reconnaissance de gestes). Ce sont peut-être cependant les bodyhackers notre avenir (avec des puces implantées pour l'identification, la santé, les interfaces gestuelles, etc.). Déjà on a l'étonnant exemple (médical) d'un soutien-gorge qui poste un tweet chaque fois qu’il est dégrafé ! Dans le même genre il y a un patch servant de thermomètre à même la peau. L'importance des imprimantes 3D se confirme allant bien au-delà de ce que je pensais, notamment avec l'entrée de l'imprimante 3D dans "l'âge de fer", donnant raison à l'enthousiasme de Gorz bien avant leur multiplication. On se demande ce qu'elles ne pourront pas faire (de l'ADN à la construction), se révélant également beaucoup plus écologiques qu'on ne pouvait le croire. La principale limitation restant les compétences à mettre en oeuvre, un logiciel d'intelligence artificielle du bien connu Xerox-PARC tente de rendre accessible à n'importe qui l'impression 3D. Signe que le marché est mûr, HP s'y met (mais pas des imprimantes personnelles, plutôt des imprimantes professionnelles) bien que l'explosion technologique ne devrait pas se produire avant 5 ans. A part ça, non seulement on a montré que des communications haut débit par laser avec un satellite de la Lune étaient possibles mais que cela pourrait être une façon d'améliorer le débit d'Internet ! Plusieurs soulignent que Wikipédia a perdu 20% de contributeurs (ce que j'attribue au "contrôle qualité" qui a fabriqué des petits contrôleurs très ignorants qui découragent toute contribution avec des injonctions contradictoires). C'est peut-être inévitable. A partir d'un certain niveau atteint en terme de quantité et de complexité la maintenance de l'existant prend le pas sur le reste. Des robots tentent de prendre en charge ce contrôle qualité. On peut supposer une scission avec une version stabilisée et vérifiée d'un côté et une version ouverte mais moins fiable de l'autre. D'un côté, on n'en est qu'aux balbutiements, de l'autre on quitte le temps des pionniers.



Brèves et liens


Physique


cosmologie, physique quantique, nanotechnologies

- Plus besoin d'inflation en cas de rebond

On the bounce <i>(Image: Richard Megna/Fundamental Photographs)</i>L'inflation est rendue nécessaire par l'homogénéité du rayonnement cosmique mais le champ supposé responsable de cet extraordinaire événement est parfaitement hypothétique (certains ont voulu l'identifier au champ de Higgs). Dans la gravitation quantique à boucle, notamment, le Big Bang est un Big Bounce, un rebond à partir d'une certaine densité d'énergie d'un trou noir ou d'un univers s'effondrant sur lui-même. Dans ce cas, plus besoin d'inflation, certaines propriétés de l'univers précédant étant conservées dans le suivant, ce qui expliquerait son homogénéité. Pour le démontrer, un champ d'anti-gravité très faible a été supposé de façon purement arbitraire (champ fantôme), juste pour montrer que, dans ce cas, on peut se passer d'inflation.

- On ne voit pas les changements de photons intriqués pris ensemble

How can so many clocks be wrong? <i>(Image: Peter Dazely/Getty)</i>

De là à prétendre que le temps serait une illusion...

Futura-Sciences fait un article intéressant sur le sujet :

Pour faire émerger le temps pour des observateurs en cosmologie quantique, le mécanisme de Page-Wootters suppose que les appareils utilisés par ces observateurs pour mesurer l’écoulement du temps sont intriqués avec le reste de l’univers observable. Par définition, il n’y a pas d’observateurs en dehors de l’espace-temps de l’univers. Ce n’est donc pas étonnant que pour celui-ci, considéré comme un tout, il n’y ait pas d’évolution temporelle. Mais rien ne s’oppose à ce que relativement à une horloge qui fait partie de cet univers comme sous-système, le reste apparaisse comme évoluant dans le temps.

Pour un observateur extérieur cherchant à mesurer globalement l’évolution des deux photons, aucune évolution temporelle n’apparaît. Mais si l’observateur veut mesurer l’état de polarisation d’un des photons dans un des canaux, il constate que, plus un photon a voyagé loin et donc longtemps, plus son état de polarisation a été affecté. Du fait de l’intrication quantique, l’état de l’autre photon a aussi changé. Le premier photon se comporte donc comme une horloge permettant de mesurer l’évolution du second photon qui constitue en quelque sorte la partie observable d’un univers statique, la paire de photons intriqués. L’intrication quantique fait donc entrer l’observateur et son « photon-horloge » en tant que partie de cet univers et lui faire percevoir l’autre partie en évolution.

- Voir l'effet d'un électron sur un condensat de Bose-Einstein

Un seul électron a des effets visibles sur 100 000 atomes en excitant des phonons qui les font osciller permettant de situer l'électron visuellement.



- Des levitons ou électrons "invisibles"

Des physiciens du CEA et du CNRS ont réussi à injecter quelques électrons dans un conducteur sans que ceux-ci y apportent de perturbation. Ce résultat a été possible grâce à la génération d'impulsions électriques à profil temporel "lorentzien" ultra-court. L'onde quantique électronique obtenue, baptisée par les chercheurs "leviton", se propage sans bruit et sans déformation comme le font certaines ondes solitaires optiques ou hydrodynamiques connues (solitons). Ces travaux ouvrent la voie à l'utilisation de sources d'électrons "à la demande", simples et fiables, utiles à terme pour des applications en physique et en information quantique.



- Tester le transition quantique/classique avec 100 photons

The metamaterial devised by Wilhelm-Mauch’s team is a so-called “left-handed artificial transmission line” that comprises a number of minute capacitors and inductors connected in series. The resulting waveguide allows a large number of photons to be packed into a tiny spatial volume, enabling them to be transmitted within a cable. The research team wants to use this system for quantum optic measurements.

Le nouveau système de test va permettre l'étude simultanée de cent quanta de lumière (photons) et leurs relations mécaniques quantiques complexes ("l'intrication quantique")-un nombre beaucoup plus élevé que ce qui était possible auparavant. Les chercheurs espèrent acquérir de nouvelles connaissances qui seront d'intérêt pour le développement des ordinateurs quantiques. Ils sont le premier groupe au monde à entreprendre de telles études utilisant un soi-disant «métamatériaux», un réseau spécialement conçu à des nanostructures qui est capable de réfracter la lumière plus fortement que les matériaux naturels existants.

"Nous nous attendons à ce que les propriétés quantiques deviennent plus faibles ou même disparaître entièrement au-dessus d'une certaine taille du système. Afin d'être en mesure d'étudier cette transition et l'état quantique associée, nous avons développé un concept novateur composé d'un très grand système de test de 100 photons distinctes qui formera la base de mesures et qui permettra à ces mesures à mettre en œuvre sans perdre un seul photon. Le câble lui-même sera faite d'un matériau supraconducteur et les expériences sera réalisée à basse température".

- Accélérer la lumière avec des boucles de fibre optique

Lorsqu'un matériau ralentit la vitesse de l'impulsion lumineuse proportionnellement à son énergie, il se comporte comme si la lumière avait une masse - dite masse efficace. En fonction de la forme des ondes lumineuses et de la structure du cristal, des impulsions lumineuses peuvent avoir une masse effective négative. Mais pour obtenir qu'un tel type d'impulsion interagisse avec une masse effective positive il faudrait un cristal si long qu'il absorberait la lumière avant que les deux impulsions aient pu montrer un effet d'entraînement.

Pour contourner ce problème, Peschel a créé une série d'impulsions laser dans deux boucles de fibre optique. Les impulsions se répartissent entre les deux boucles. L'essentiel est qu'une boucle est légèrement plus longue que l'autre, de sorte que la lumière qui passe dans la boucle la plus longue plus est relativement retardée (voir schéma). Lorsque cette impulsion revient au point de contact, elle partage certains de ses photons avec ceux de l'autre boucle. Après quelques allers-retours, leurs interférences leur donne une masse effective.

Lorsque les impulsions opposées interagissent dans les boucles, elles sont accélérées dans la même direction, passant devant les détecteurs un peu plus tôt à chaque aller-retour.

- Communications haut débit par laser avec un satellite de la Lune

Et cela signifie que les systèmes optiques ont une chance plus élevée de non seulement dominer les transmissions de données spatiales futures (avec les systèmes radio servant de backup) mais de permettre à de nouveaux réseaux de satellites de renforcer les performances de l'Internet terrestre.

Le plus difficile a été l'alignement des télescopes terrestres pour recevoir en continu le faisceau laser infrarouge émis par une sonde gravitant autour de la lune. Cette "acquisition du signal" a été ensuite "rapide et fiable". Son équipe a même pu transmettre des vidéos haute définition.

Le point névralgique pour envoyer des signaux optiques à travers l'atmosphère, c'est qu'ils peuvent être bloqués par les nuages. Pourtant, à l'avenir, des réseaux de satellites pourraient se transmettre des données entre eux avant de les envoyer aux stations terrestres accessibles, en divers lieux, donnant un bon coup de pouce à la bande passante du réseau au sol.

- 100 gigabits/s sans fil

La transmission s'est faite à 237.5 GHz sur 20 mètres. Le signal radio a été fait avec la photonique en envoyant plusieurs bits à la fois.

On avait déjà parlé d'un système semblable destiné à éviter de câbler en fibre optique les bâtiments.

Voir aussi Gizmodo. Un autre système plus conventionnel promet de doubler la bande passante du wifi (ou d'autres ondes radio) en détectant les interférences en temps réel. Sinon, le Li-Fi peut atteindre désormais 10 Bbits/s.



- Des ondes sonores pour servir de WiFi sous la mer

Underwater Wi Fi Could Be A Reality

Voir aussi Futura-Sciences.

- Des générateurs triboélectriques qui marchent dans l'eau

Pour le prototype, les chercheurs ont fait un réservoir en plastique isolée, dont le couvercle et le fond contenir feuille de cuivre électrodes. Leur système est couronnée de succès, car l'intérieur du couvercle est revêtue d'une couche d'un polydiméthylsiloxane (PDMS) avec des motifs de minuscules pyramides nanométriques. Le réservoir est rempli avec de l'eau désionisée. Lorsque le couvercle est abaissé de sorte que les PDMS nanopyramids entrent en contact avec l'eau, de groupes d'atomes dans le PDMS deviennent ionisé et chargées négativement. Une couche chargée positivement correspondant se forme à la surface de l'eau. Les charges électriques sont conservées lorsque la couche de PDMS est soulevé hors de l'eau. Cela produit une différence de potentiel entre le PDMS et l'eau. Hydrophobe PDMS a été choisie afin de minimiser la quantité d'eau accroché à la surface, les formes pyramidales permettent à l'eau pour y déposer facilement. Périodique de montée et de descente du couvercle, tandis que les électrodes sont reliées à un redresseur et un condensateur produit un courant continu qui peut être utilisé pour éclairer un tableau de 60 LED. Dans les essais avec de l'eau salée, le générateur produit une baisse de la production, mais il pourrait en principe fonctionner avec l'eau de mer.

As a prototype, the researchers made an insulated plastic tank, whose lid and bottom contain copper foil electrodes. Their system is successful because the inside of the lid is coated with a layer of polydimethylsiloxane (PDMS) patterned with tiny nanoscale pyramids. The tank is filled with deionized water. When the lid is lowered so that the PDMS nanopyramids come into contact with the water, groups of atoms in the PDMS become ionized and negatively charged. A corresponding positively charged layer forms on the surface of the water. The electric charges are maintained when the PDMS layer is lifted out of the water. This produces a potential difference between the PDMS and the water. Hydrophobic PDMS was chosen in order to minimize the amount of water clinging to the surface; the pyramid shapes allow the water to drop off readily. Periodic raising and lowering of the lid while the electrodes are connected to a rectifier and capacitor produces a direct current that can be used to light an array of 60 LEDs. In tests with salt water, the generator produced a lower output, but it could in principle operate with seawater.

- Un nouveau micromoteur efficace

This image shows a possible application of chemical micromotors. Image: Daigo Yamamoto/DoshishaLes chercheurs ont placé des petites sphères faites uniquement de platine en peroxyde d'hydrogène et observer le mouvement des particules à travers un microscope. Bien que les différentes sphères rebondi sur hasard, les chercheurs ont remarqué que des amas de particules ont commencé à montrer des mouvements réguliers. Les massifs en forme de larmes déplacés vers l'avant, ceux qui ressemblait moulins à vent a commencé à tourner, et les touffes en forme de boomerang sont rendus dans un cercle. Après avoir créé un modèle théorique des forces à l'œuvre, les chercheurs ont réalisé qu'ils pouvaient expliquer les mouvements réguliers par la traînée asymétrique généré par les différentes formes.

Les chercheurs envisagent de combiner leur nouveau type de moteurs avec des moteurs existants pour créer des machines facilement contrôlables avec une gamme variée de mouvements.

The researchers placed tiny spheres made only of platinum in hydrogen peroxide and observed the particles' movement through a microscope. Although the individual spheres bounced about randomly, the researchers noticed that clumps of particles began to exhibit regular motions. The clumps shaped like teardrops moved forward, those that resembled windmills started to spin, and the boomerang shaped clumps traveled in a circle. After creating a theoretical model of the forces at work, the researchers realized they could explain the regular motions by the asymmetrical drag generated by the different shapes.

The researchers envision combining their new type of motors with existing motors to create easily controllable machines with a versatile range of motions.

- La production en masse (10m²/h) de nanopétales de graphène

Les nanopétales sont créés dans le vide par exposition d'un tissu de fibres de carbone à un plasma à haute énergie contenant notamment des ions d'hydrogène, un processus connu sous le nom de dépôt chimique en phase vapeur assisté par plasma (PECVD).

Pour être fonctionnels, ces nanopétales peuvent être combinés avec des nanoparticules métalliques et des enzymes qui reconnaissent le glucose ou d'autres molécules cibles de biocapteurs.

Ces nanopétales pourraient servir aussi de supercondensateurs mais du simple charbon de bois serait aussi efficient...

- Combiner des nanoparticules grâce à l'ADN

En dotant des nanoparticules de séquences ADN puis en les appariant, on obtient des nanocomposites 3D de la conformation voulue à grande échelle. Les applications envisagées pour l'instant n'ont pas grand intérêt alors que c'est le potentiel de l'ADN en nanotechnologies qui se confirme, s'unifiant avec les biotechnologies (dans l'autre sens des protéines seront utilisées comme nanomachines).

- Un fil électrique d'épaisseur atomique

Il s'agit de capturer la molécule organique entre deux électrodes de platine, puis de déplacer délicatement ces électrodes pour tirer, un par un, les atomes de platine. Le résultat: une belle chaîne d'atomes de platine, constituant le Graal tant recherché: un fil électrique atomique !

Les chercheurs israéliens ont montré que ce procédé pouvait s'appliquer à différentes molécules organiques telles que le benzène, le naphtalène ou encore l'anthracène. Dans toutes ces configurations, la conductance électrique du système molécule organique / chaîne d'atomes de platine restait inchangée après l'ajout de nouveaux atomes de platine. Cela indique que ces fils électriques microscopique peuvent être utilisés pour conduire le courant sur de longues distances.

Un autre point intéressant à signaler est que l'utilisation de différentes molécules organiques permet une modulation du courant électrique non possible à l'échelle macroscopique. Il ne s'agit donc pas seulement de circuits électriques miniaturisés, mais de composants offrant de nouvelles possibilités de contrôle du courant.

- Un velcro moléculaire pour servir d'anticorps

S'inspirant du système immunitaire humain, les chercheurs du Berkeley Lab ont créé un nouveau matériau qui peut être programmé pour identifier une variété infinie de molécules. Le nouveau matériau ressemble à de minuscules feuilles de Velcro, chacune de seulement une centaine de nanomètres de diamètre. Mais au lieu d'attacher vos baskets, cette velcro moléculaire imite la façon dont les anticorps naturels reconnaissent les virus et les toxines, et pourrait donc conduire à une nouvelle classe de biocapteurs.

Pour créer des boucles fonctionnelles sur ces nanofeuillets en polymères peptoïdes, les chercheurs y insèrent de courts segments moléculairesqui forment des boucles à la surface des nanofeuilles. Ces boucles peuvent être programmées pour se lier sélectivement à certaines enzymes ou matériaux inorganiques, ce qui rend le nouveau matériau prometteur pour servir de capteurs chimiques ou de catalyseurs.

- Des nanoparticules de fer peuvent transporter des molécules plus grosses qu'elles

Abstract Image

De minuscules particules de minerai de fer ont été utilisées pour ramasser et transporter des cargaisons plus de 10 fois leur taille. L'exploit pourrait être utilisé pour ladministration ciblée de médicaments ou pour construire des muscles artificiels.

Des nanoparticules à base de fer sont d'idéaux transporteurs de charge, car ils peuvent être dirigés par des champs magnétiques ou bien en suivant une piste finement gravée.

Le problème était de pouvoir attacher et détacher facilement la charge, ce qui se fait ici avec la lumière qui charge électriquement les molécules d'hématite, ce qui casse leurs liens et provoque leur liaison aux grosses molécules. Pour casser ces nouvelles liaisons entre nanoparticule de fer et grosses molécules, il suffit d'éteindre la lumière...

- Des nanotubes défectueux font de meilleurs émetteurs d'UV



Climat


climat, énergies, écologie

- Les fluctuations de l'oxygène au Précambrien

Ce fossile d'un organisme pluricellulaire, ici reconstitué en 3D par microtomographie X, a été découvert au Gabon, dans des roches vieilles de deux milliards d'années !Les chercheurs sont parvenus à retracer l’évolution du taux d’O2 dans l’air durant une période qui s’étend de -2,150 à -2,080 milliards d’années, donc un peu plus de 200 millions d’années après la Grande Oxygénation. Voici deux milliards d'années, la concentration atmosphérique en oxygène aurait été au plus bas !

Durant la Grande Oxygénation et les 200 millions d’années qui ont suivi, les organismes photosynthétiques ont produit de l’oxygène tout en intégrant du carbone. Une fois morts, ils ont précipité vers les fonds marins, provoquant ainsi un stockage du carbone dans les sédiments marins. Ayant moins de possibilités d’interagir, l’oxygène se serait alors accumulé dans l’atmosphère.

L’astuce, c’est qu’il réagissait également avec des roches terrestres, les érodant progressivement. Les précipitations ont alors emporté des nutriments (phosphore et fer, par exemple) vers les océans, où ils ont favorisé le développement des micro-organismes, et donc la capture d’encore plus de carbone. Ce cycle aurait pu se poursuivre sans fin mais… des sédiments marins ont fini par remonter en surface, probablement par le jeu de la tectonique des plaques. La matière organique accumulée au fil du temps se serait alors massivement oxydée, ce qui aurait consommé une grande fraction de l’oxygène présent dans l’atmosphère, en produisant du CO2 en retour.

Grâce à d’autres travaux réalisés par la même équipe, nous savons également que le taux d’oxygène a à nouveau augmenté voici 1,9 à 1,8 milliard d’années, avant de finalement baisser à un niveau qui a limité le développement de formes de vie complexes durant un milliard d’années. La suite… nous la connaissons. Il y a 542 millions d’années environ, l’oxygène a atteint une concentration qui a permis à la vie de se développer rapidement : il s'agit de l’explosion cambrienne.

Ces analyses ont été réalisées sur des roches qui entourent des fossiles d’êtres pluricellulaires présentés en 2010. Or, plus aucun organisme complexe n’a été observé dans les roches du Paléoprotérozoïque après la chute drastique de la concentration en oxygène. Selon Abderrazak El Albani, nous pouvons dès lors imaginer la théorie suivante : des formes de vie complexes n’auraient-elles pas essayé de se développer voici deux milliards d’années, avant que les conditions environnementales ne mettent fin à cet essai évolutif ?

- Un doublement instantané du CO2 par une comète à l'origine du PETM ?

File:65 Myr Climate Change.png

L'élévation de la température, il y a 55,8 millions d'années, aurait été de 5°C, à l'origine du maximum thermique du Paléocène-Éocène et d'une extinction touchant de 35% à 50% des organismes, surtout marins mais qui verra l'apparition des principaux groupes de mammifères actuels.

- L'activité du soleil au plus bas depuis 400 ans

Minimum de Maunder

L'activité solaire décline rapidement rendant plus probable (à 70%) qu'on se dirige vers un Minimum de Maunder ce qui pourrait réduire un tout petit peu le réchauffement (par modification des courants de haute altitude à cause des ultraviolets) mais pas jusqu'à provoquer un nouvel petit âge glaciaire qui était d'ailleurs aggravé par des éruptions volcaniques. Combiné avec l'absorption actuelle de la chaleur par les océans (et pourquoi pas d'autres éruptions volcaniques), cela pourrait quand même nous donner un petit répit et un peu plus de temps pour agir. Sauf que le plus probable, c'est que cela retarde au contraire l'action comme on le voit aujourd'hui, et qu'on se retrouve avec un réchauffement brutal quand l'activité solaire reprendra et que l'océan relâchera la chaleur accumulée...

- Une comparaison graphique des différents rapports du GIEC

http://www.nature.com/polopoly_fs/7.12550.1379497447!/image/IPCC-Graphic.jpg

- Pas de pause dans le réchauffement

Du fait que les océans continuent de se réchauffer, on ne peut parler de pause dans le réchauffement, seulement dans la partie basse de l'atmosphère qui ne représente que 1% de la masse affectée et dépend des oscillations océaniques.

En conclusion de ce dernier point (et des autres), nous pouvons donc dire que le réchauffement ne s’est pas arrêté depuis quinze ans. La fonte des glaces est plus rapide que jamais, les océans continuent à monter, de plus en plus de chaleur est stockée dans les océans. Ainsi, en l’état des connaissances, il faut plutôt s’attendre, dans les prochaines années, à une reprise à la hausse des températures de l’atmosphère, lorsque la variabilité naturelle du climat aura cessé d’amortir le phénomène.

"La raison pour laquelle il y a autant de climato-sceptiques, c’est qu’en matière de changement climatique, il faut dix secondes pour sortir une ânerie, et dix minutes pour expliquer pourquoi c’est une ânerie."

Les objections d'un climato-sceptique mais il y a bien confirmation que les eaux se réchauffement depuis 60 ans 15 fois plus vite que jamais depuis 10 000 ans dans les profondeurs du Pacifique sud.

- Le changement climatique est pour 2047

A global map of when cities can expect climate change to affect local climates drastically Image: Mora et al, University of Hawaii

Je ne sais pas trop ce que valent ces prévisions tant de choses pouvant se produire entre temps (éruptions volcaniques, etc.) mais ans l'état actuel des données le changement climatique devrait être sensible localement à partir de 2038 pour les tropiques et 2047 en moyenne.

- Pas d'augmentation de l'upwelling ni du vent à cause du réchauffement

Jusqu’à récemment, on pensait que le changement climatique intensifiait les alizés, et donc favorisait les remontées océaniques d’eau froide de certaines régions côtières. Pourtant, une nouvelle étude semble le démentir.

Ces résultats ne montrent pas d’accélération éolienne à l’échelle régionale susceptible de refroidir significativement les eaux côtières. Bien au contraire, les images satellitaires et les mesures in situ de la température des eaux de surface montrent une tendance nette à la hausse dans l’ensemble de la zone, au rythme de 1°C par siècle. Ce nouveau jeu de données infirme donc l’hypothèse d’un renforcement de l’upwelling du courant des îles Canaries.

D’autres systèmes d’upwelling, comme celui du courant de Californie, montrent bien une tendance à l’intensification et au refroidissement des eaux au cours des dernières décennies.

- La toundra pourrait devenir une source d'émission de carbone

La toundra est un puits phénoménal de carbone… Du moins elle l’était. Aujourd’hui, sa capacité de stockage est sérieusement endommagée, en raison de l’augmentation de la température : les organismes vivants larguent de plus en plus de CO2 dans l’atmosphère alors que le mécanisme de capture par photosynthèse est mis à mal à un certain seuil.

La toundra renferme au moins deux fois plus de carbone que la totalité de l’atmosphère. Elle caractérise l’immense surface végétale entourant les pôles, et représente plus de 8 % des terres émergées de notre planète. Aujourd’hui, la toundra est l’un des principaux puits de carbone, sa végétation stockant en effet une grande quantité du composé par la photosynthèse. Il se pourrait bien qu’à l’avenir ce puits devienne une source d’émission.

Dans une étude publiée dans les Journal of Geophysical Research, l’équipe menée par Magnus Lund met en évidence que le largage de CO2 issus des organismes vivants augmente à mesure que la température croît. Il apparaît que ce stockage cesse lorsque la température dépasse 7 °C.

La toundra repose sur le pergélisol, dont la quantité de glace diminue avec l’augmentation de la température. L’équipe montre que le rejet de méthane est étroitement lié à la quantité d’eau présente dans le milieu. Plus il y a d’eau, plus il y a de méthane émis. A contrario, moins il y a d’eau, plus l’oxygène présent sert à la formation du dioxyde de carbone.


- Le retour du Peak Oil

http://www.rdmag.com/sites/rdmag.com/files/styles/large/public/PeakOil-large.jpg

Ce n'est pas le stock qui serait revu à la baisse mais la capacité d'extraction, le flux, ce qui devrait amener à un pic de production et une hausse des prix dans les 10 ans au rythme de développement actuel. L'étude se focalise sur les secteurs les plus touchés, notamment l'agriculture qui pourrait se recycler dans les engrais biologiques.

- La transition énergétique facteur de croissance

decarbonisation

Les analyses économiques classiques des politiques d'atténuation du changement climatique ont généralement conclu que l'austérité économique résulterait de l'austérité carbone. Ces analyses s'appuient cependant essentiellement sur l'hypothèse d'un équilibre économique faisant l'impasse sur les notions pourtant bien établies d'hétérogénéité des comportements, de dépendance du chemin emprunté et de transition technologique. Ici, nous montrons que, tout au contraire, la décarbonisation du secteur de l'électricité au niveau mondial peut conduire à une amélioration des performances économiques. En modélisant le processus d'innovation-diffusion et de déséquilibre dynamique, nous avons déterminé comment les instruments de politique climatique destinés à la réduction des émissions modifient l'activité économique par le biais des prix de l'énergie, des dépenses publiques, de l'augmentation des investissements et des recettes fiscales. Même si la hausse des prix de l'électricité réduit revenus et production, cela serait plus que compensé par les emplois supplémentaires générés par les investissements dans les nouvelles technologies. Nous insistons sur le fait que les débats en cours sur les effets des politiques climatiques doivent être complètement revus afin de refléter la réalité des dynamiques complexes de l'économie mondiale qui ne sont pas pris en compte par les modèles conventionnels.

La part du solaire me semble très sous-estimée mais l'approche systémique est intéressante et confirme que la transition énergétique devrait être un facteur de croissance (un peu comme une guerre) - à condition toutefois que cela ne se traduise pas par des importations massives et que la transition soit réellement mondiale.

Cela contredit complètement tous ceux (Jancovici, Cochet, etc.) qui prétendent que l'augmentation du prix du pétrole devrait conduire à une sévère récession sous prétexte que l'économie est dépendante de l'énergie. Reste une question de rythme entre la raréfaction des ressources fossiles et leur substitution par les renouvelables.

energy

- Des nanoparticules d'or pour recycler le CO2

Ces nanoparticules d'or de 8nm servent de catalyseur transformant le CO2 en CO, monoxyde de carbone pouvant servir de carburant.



- La fracturation hydraulique pour la géothermie


- Nouvelle technique prometteuse de fusion par laser

Pour produire la fusion de noyaux d'hydrogène et de bore conduisant à la formation de noyaux d'hélium 4, l'idée repose sur l'interaction de protons accélérés par des impulsions laser très intenses avec un plasma de bore. L'énergie des protons est utilisée pour accéder aux résonances de la section efficace des réactions, ce qui élimine la question de la température excessivement élevée nécessaire dans les schémas "classiques" et relance la possibilité d'utiliser la réaction hydrogène-bore en fusion laser.

- L'énergie à prix négatif...
grafIl faisait beau ce dimanche 16 juin 2013. Trop beau. Tellement beau que la consommation d'électricité en Europe a chuté, alors que la production d'énergie solaire et éolienne atteignait un pic. Ce jour-là, le kilowattheure s'est échangé à prix négatif en France, à -20,29 euros. Il est même tombé à -200 euros pendant quelques heures.

Une aberration économique, qui s'était déjà produite durant 70 heures de cotation en 2012 en Europe. L'explication ? Arrêter une centrale électrique, qu'elle soit thermique, nucléaire ou hydraulique, coûte de l'argent. Les producteurs sont donc prêts à payer pour continuer à écouler leur électricité superflue, même lorsque la demande n'est pas là.

Le prix auquel l'électricité est échangée sur les marchés allemands a chuté de 65,8 euros par MW en 2008 à 37,9 euros par MW en 2013. Dans le même temps, le consommateur allemand paye lui son électricité de plus en plus chère.

Les producteurs seraient donc incapables de réguler le marché ? En fait, ce dernier est déstabilisé depuis quelques années par la montée en charge de la production d'électricité d'origine renouvelable en Allemagne. Sa part dans le mix électrique allemand est passée de 6,6% en 2000 à  23,5% en 2012.

L'Allemagne contamine tout le reste de l'Europe. Avec ses prix tirés vers le bas, il devient plus intéressant pour ses voisins d'importer l'électricité que de la produire eux-mêmes.

En attendant, les ménages allemands voient eux leur facture d'électricité augmenter à vue d'œil, en raison des taxes supportant les énergies renouvelables. Entre 2000 et 2013, elle est passée de 488 à 1006 euros.

- Energie 3.0 : rendre le consommateur maître de son énergie

Pour réussir cette transition énergétique, il convient aujourd’hui de changer radicalement de façon de penser : en dernier ressort, ce ne sont pas les bâtiments ou les villes qui consomment de l’énergie, mais les individus. Ce sont les clients finals qui font fonctionner le système énergétique. Ils deviennent producteurs d’énergie (bâtiment à énergie positive, énergies renouvelables…) et pas seulement utilisateurs d’énergie produite par des centrales. C’est donc à cette échelle qu’il faut aujourd’hui travailler et se concentrer sur la question du comportement et de l’expérience du client final. Par la notion d’« Énergie 3.0 », j’ai souhaité insister sur cette dimension qui me paraît aujourd’hui insuffisamment prise en compte, qui peut se résumer en une phrase : le consommateur devient maître de son énergie.

Il convient aujourd’hui de créer les mécanismes permettant de réduire la complexité à tous les niveaux, production, distribution, consommation, afin de créer un environnement favorable à la transition énergétique. Afin d’insister sur cette dimension de simplicité, cette révolution peut être appellée « Energ-eas-y ». Elle concerne tous les acteurs de la chaîne de valeur de l’énergie.

- Du soleil et des eaux usées pour produire de l'hydrogène

Le dispositif hybride combine une pile à combustible microbienne (MFC) et un type de cellule solaire appelé une cellule photo-électrochimique (PEC). Dans le composant MFC, bactéries dégradent la matière organique dans les eaux usées, la production d'électricité dans le processus. L'électricité ainsi produite biologiquement est délivré à l'élément PEC pour aider le fractionnement à l'énergie solaire de l'eau (électrolyse) qui génère de l'hydrogène et de l'oxygène.

Les eaux usées devraient à l'avenir servir de générateurs bioélectrochimiques.

- Un catalyseur pour produire de l'hydrogène à partir de l'éthanol

Cette molécule, un complexe de ruthénium, agit comme un catalyseur: ajouté à un mélange d'éthanol et d'eau, elle entraîne la production de dihydrogène et de dioxyde de carbone à pression atmosphérique, pour des températures inférieures à 100°C. Cette découverte ouvre de nouvelles possibilités pour la mise au point des piles à combustibles.

- Les catalyseurs utilisés par les bactéries pour produire de l'hydrogène

Les catalyseurs bactériennes sont basés sur des clusters précisément organisés d'atomes de fer et de soufre, par des groupes latéraux de monoxyde de carbone et du cyanure. Ces molécules sont très toxiques à moins contrôlé correctement.

The bacterial catalysts are based on precisely organized clusters of iron and sulfur atoms, with side groups of cyanide and carbon monoxide. Those molecules are highly toxic unless properly controlled, Britt noted.

Ils ont trouvé une série de réactions chimiques impliquant un type d'enzyme très réactif appelé une enzyme SAM radicale. La tyrosine est attaché à un groupe de quatre atomes de fer et de quatre atomes de soufre, puis coupé en vrac sortant du cyanure et des groupes de monoxyde de carbone derrière.

They found a series of chemical reactions involving a type of highly reactive enzyme called a radical SAM enzyme. The tyrosine is attached to a cluster of four iron atoms and four sulfur atoms, then cut loose leaving the cyanide and carbon monoxide groups behind.

- Des piles à combustibles moins chères

On en avait déjà parlé mais trop brièvement en septembre.

Il s'agit d'une pile à combustible qui fonctionne au gaz naturel : la production d'électricité au même coût que pour une grande usine à gaz.

Le boîtier est conçu pour des piles à combustible à oxyde solide qui diffèrent complètement de leurs homologues conventionnels: ils devraient produire de l'électricité pour 1$ par watt, soit une baisse de 8$ par rapport aux versions commerciales d'aujourd'hui, grâce à des améliorations dans les matériaux céramiques qui en constituent le cœur (à base d'oxyde de cérium et d'oxyde de bismuth).

- Des nanoparticules d'aluminium améliorent le rendement photovoltaïque de 20%

Les scientifiques ont démontré que l'efficacité de tous les modèles de panneaux solaires pourrait être améliorée jusqu'à 22% en couvrant leur surface avec crampons en aluminium qui se plient et piège à lumière à l'intérieur de la couche absorbante.

scientists have demonstrated that the efficiency of all solar panel designs could be improved by up to 22% by covering their surface with aluminium studs that bend and trap light inside the absorbing layer.

- Quand l'efficacité théorique de la cellule solaire passe à 80%

Des scientifiques ont conçu un émetteur thermique ultra-résistant à la chaleur qui pourrait améliorer considérablement l'efficacité des cellules solaires.

Ce composant inédit va dans un premier temps convertir la chaleur du soleil en lumière infrarouge qui sera ensuite absorbée par les cellules solaires afin de produire de l'électricité - une technologie connue sous le nom de thermophotovoltaïque.

"Fondamentalement, nous adaptons la lumière à des longueurs d'onde plus courtes, un moyen idéal pour la transporter vers une cellule solaire", a déclaré le Pr. Fan. "Cela fait augmenter l'efficacité théorique de la cellule à 80%, ce qui est tout à fait remarquable."

"Nos émetteurs thermiques ont une nanostructure complexe, en trois dimensions, qui doit résister à des températures supérieures à 1.000°C pour être viable".

- Une fenêtre "intelligente" qui génère de l'énergie

Le nouveau concept repose sur l'utilisation pour le vitrage d'un film incluant des particules d'oxyde de vanadium (VO2), pris en sandwich entre deux plaques de polycarbonate. Le VO2 est un composé chimique dont les propriétés se modifient en fonction de la température.

En-dessous de 68°C, le matériau est isolant et transparent à la lumière infrarouge, mais au-dessus de 68°C, il devient conducteur et réfléchit la lumière infrarouge.

Ce dispositif peut réguler la chaleur solaire et générer de l'électricité à l'aide de cellules solaires positionnées autour de la vitre. Il pourrait ainsi contribuer à réduire les coûts d'énergie pour le chauffage, la climatisation et l'éclairage des bâtiments.

- Automobile électrique : la carrosserie en guise de batterie

En remplaçant le toit, le capot et les portières d’une voiture par des éléments en fibre de carbone constituant la batterie, Vovlo estime qu’un véhicule pourrait être allégé de 15 % tout en disposant de 130 km d’autonomie supplémentaire. L’illustration ci-dessus montre également que ces batteries, en réalité plus proches de supercondensateurs, peuvent se recharger via le secteur sur une borne de charge, ou encore se régénérer lors des freinages et décélérations du véhicule.


- Des supercondensateurs au graphène sur une puce

Des chercheurs de l'université Vanderbilt dans le Tennessee sont parvenus à fabriquer une puce en silicium et graphène capable d'alimenter téléphone ou ordinateur portable en énergie bien plus longtemps que les batteries classiques.

Celle-ci consiste à remplacer le stockage chimique de l'électricité par une puce en silicium capable d'assembler des ions à la surface d'un matériau poreux. Jusqu'à présent, des tentatives similaires avaient échoué. Mais grâce à l'usage du graphène, étalé en couche à la surface du silicium, cette équipe de chercheurs serait parvenue à stabiliser le processus et à accroître la densité d'énergie stockée.


- Des surpercondensateurs en charbon de bois (biochar)

On s'est aperçu que le charbon de bois activé avec de l'acide nitrique était aussi efficace comme supercondensateurs que le charbon actif nanostructuré ou les nanotubes de carbone, à un coût bien moindre et avec des pores désordonnés très bien adaptées au transport de charges. Cela est conforme à une étude primée par La Recherche qui établit la supériorité d'une structure désordonnée pour le stockage de l'électricité.

- Filtrer l'eau avec du bois

Le filtre de 100 nanomètres arrête les bactéries mais pas les virus. Il faut que la pulpe de bois (xylème) soit fraîche et n'ait pas séché.

- Google construit un datacenter flottant

Les avantages d'un data center flottant sont multiples. Un tel centre de données aurait accès en permanence à de l'eau pour refroidir ses serveurs, voire pourrait tirer parti des mouvements de la mer pour puiser de l'énergie électrique. En mer, l'indice de luminosité offre aussi d'excellentes conditions pour l'usage de panneaux solaires. Sans compter que la structure pourrait se déplacer au gré des alertes maritimes, et ainsi se prémunir de toute catastrophe naturelle majeure.

Ce serait aussi un moyen d'indépendance politique, juridique et fiscale par rapport aux pouvoirs nationaux.

- Les imprimantes 3D écologiquement efficientes

Une étude de l'Université du Michigan Technology montre les produits imprimés 3D exigent 41% à 74% moins d'énergie que les produits fabriqués à grande échelle.

En termes de consommation d'énergie, l'impression 3D à domicile a l'avantage évident d'éviter les coûts de transport internationaux. Un autre facteur important est l'amélioration de l'efficacité des matériaux (sans gâchis de matière).

La plupart 3D affiche un pourcentage de remplissage de 25% ou moins était suffisant pour maintenir l'intégrité structurale du produit. En outre, l'impression 3D permet de créer des formes complexes en une seule séance, comme les pièces et les structures creuses en mouvement, les économies d'énergie sur le forage et les machines d'assemblage.

 

Biologie


évolution, génétique, éthologie, anthropologie, neurologie

- L'évolution guidée par les comportements ?

Cover image for Vol. 110 Issue 2Il y a quantité de recherches sur la façon dont les influences comportementales contribuent au processus d'évolution continue, de la recherche sur la plasticité phénotypique à la théorie de la construction de niche et la théorie de la co-évolution gène-culture. Les organismes sont des participants actifs dans le processus évolutif (systèmes cybernétiques) et ont joué un rôle causal majeur dans la détermination de sa direction. Il pourrait être appelé «finalité contrainte», et l'un des thèmes importants dans l'évolution, aboutissant à l'humanité, a été l'évolution «progressive» de l'autodétermination (intelligence) et sa puissance en constante expansion. C'est ce que j'appelle l'agence «Sélection téléonomiques». Dans un sens très réel, notre espèce elle-même inventé. Pour le meilleur et pour le pire, le cours de l'évolution est de plus en plus façonnée par le «apprenti sorcier». Le mantra de Monod doit être mis à jour. L'évolution est un processus qui combine 'occasion, la nécessité, téléonomie et de sélection ».

Organisms are active participants in the evolutionary process (cybernetic systems) and have played a major causal role in determining its direction. It could be called ‘constrained purposiveness’, and one of the important themes in evolution, culminating in humankind, has been the ‘progressive’ evolution of self-determination (intelligence) and its ever-expanding potency. I call this agency ‘Teleonomic Selection’. In a very real sense, our species invented itself. For better and worse, the course of evolution is increasingly being shaped by the ‘Sorcerer's Apprentice’. Monod's mantra needs to be updated. Evolution is a process that combines ‘chance, necessity, teleonomy and selection’.

Peter A. Corning est partisan d'un Holistic Darwinism, conception systémique d'une sélection multicausale faisant une grande place à la synergie.

- La course aux armements prédateur-proie facteur de complexification et d'intelligence

Nous démontrons que la dynamique prédateur-proie crée une course aux armements conduisant à une augmentation de la complexité des informations et des comportements, ainsi que de l'intelligence. Les proies ayant évolué avec leurs prédateurs ont bénéficié d'un meilleur traitement de l'information sensorielle sur leur environnement et ont utilisé plus d'information dans leur prise de décision que ceux ayant évolué en l'absence de prédateurs. En outre, les proies qui ont évolué avec leurs prédateurs on fait preuve de réponses plus adaptées pour leur alimentation. Bien que les stratégies de chasse et d'évitement aient continué de s'améliorer au fil du temps, la complexité observée atteint un plateau. Ainsi, nous montrons que, même si l'escalade inhérente à la course aux armements peut produire des traits complexes, y compris une intelligence basique, d'autres améliorations évolutives importantes découlant de cette course aux armements ne produisent pas d'escalade dans les options laissées à l'espace comportemental.

- Les ARN autorépliquants ont besoin du froid

En établissant et testant par ordinateur une bibliothèque d'ARN, il apparaît que les ARN autocatalytiques supposés à l'origine de la vie et capables de se reproduire (jusqu'à plus de 200 nucléotides) auraient besoin du froid (jusqu'à -17°C) pour cela, suggérant que la vie serait née dans la glace.

Lorsqu'un mélange d'ARN et d'ions métallique gèlent, la croissance des cristaux de glace aspire de l'eau, laissant de minuscules poches d'ARN et de sels concentrés. La réplication de l'ARN pourrait se produire dans ces poches. "Elles sont un peu comme des cellules artificielles".

Pour l'instant, l'ARN ne se réplique pas à cause de sa conformation et la vie a besoin de chaleur (de liquide) alors que le froid agglutine les ARN mais il faudrait y voir plutôt une fabrique d'ARN relâchés ensuite par la fonte dans un milieu plus chaud.

- Les gènes se protègent de la méthylation par des ARN


La méthylation ne se produit pas au hasard mais les gènes devant rester actifs produisent un ARN qui empêche leur réduction au silence par méthylation.



- Mécanisme de protection contre les transposons

Toutes nos cellules contiennent, un complexe de protéines dont la fonction connue jusqu'à cette date est de générer de petites molécules d'acide ribonucléique (RNA) régulatrices, connues comme microRNAs. "Notre travail a démontré que ce complexe agit aussi comme vigilant et défenseur de l'intégrité du génome humain. Ces protéines sont ainsi capables de reconnaître et de fragmenter les séquences d'ADN répétées qui échappent à des mécanismes de contrôle précédents, empêchant de la sorte qu'elles se répètent et s'introduisent dans le génome".

- Chez les mammifères, des ARN interférents protègent des virus

Les ARN mécanisme de défense repose sur le fait que la plupart des virus copient leurs ARN quand ils répliquent. Cellules envahies reconnaissent l'ARN viral et de lancer automatiquement l'ARN interférence, ou RNAi, pour empêcher le virus de se multiplier et de se propager à d'autres cellules hôtes.

Le processus RNAi commence quand une enzyme connue sous le nom côtelettes de DICER un long brin d'ARN du virus en morceaux qui sont environ 22 lettres génétiques longtemps. Ensuite, un autre des molécules les navires de la cellule hôte Les fragments de congé pour le virus envahisseur où ils s'accrochent à l'ARN viral, empêchant sa réplication.

- Le rôle de l'ADN non codant dans le maintien des télomères

Les molécules de télomérase sont recrutées par TERRA, une molécule d'ARN non codant qui n'avait jusqu'à présent aucune fonction connue dans la cellule. Les scientifiques ont utilisé des techniques de microscopie de pointe pour visualiser et suivre les molécules de télomérase alors qu'elles étaient acheminées vers les télomères par TERRA.

Ils ont découvert que la production de TERRA est déclenchée quand le télomère portant son gène est tronqué. Ils ont ensuite observé que les molécules de TERRA s'accumulent en un point précis et, au même moment, recrutent des molécules de télomérase qui sont ensuite acheminées vers le télomère tronqué ayant déclenché la production de TERRA.

- Visualiser les mouvements de séquences du génome

Dans le noyau cellulaire, l’ADN est très dynamique et change de configuration spatiale, comme c’est le cas lors du processus de division cellulaire. Il est déjà connu que la configuration spatiale de l’ADN détermine si les gènes sont actifs ou non, c’est-à-dire accessibles ou non pour être exprimés.

Les chercheurs sont parvenus à fusionner une protéine TALE à la mCLOVER, une protéine fluorescente verte (ou GFP, qui valut le prix Nobel de chimie 2008 à ses découvreurs). La technique a permis d’observer la localisation de séquences d’ADN spécifiques au sein même du noyau de cellules vivantes. Cette méthode appelée TGV (Tale‐mediated Genome Visualization) a montré les résultats espérés et a permis de suivre l’ADN cible marqué en temps réel.

- L'ADN est actif et pas seulement mémoire

Une autre technique d'observation de l'ADN combinant des hybrides de nanocristaux d'or et d'ADN avec la technique dite "small angle x-ray scattering" (SAXS) a permis de comprendre l'action de la protéine MutS (“Mutator S”) dans l'élimination des erreurs génétiques. Le plus intéressant cependant, c'est d'avoir pu mettre en évidence la participation active de l'ADN lui-même aux processus biologiques.

“It is a common belief that DNA is a passive component in protein interactions that involve DNA metabolism, but many proteins actually make use of DNA structural features, such as rigidity and conformation for important biological processes,” Tainer says. “The view of DNA as a passive element is at least in part due to a paucity of robust tools for examining dynamic DNA conformational states during multistep reactions.”

- La machinerie de la mitose

The machinery of mitosis: Kinetechores, centrioles and chromosome pumps

Au niveau cellulaire, l'appareil du fuseau mitotique est sans doute la pièce la plus complexe des machines dans l'existence. Sa fonction essentielle est d'isoler et de séparer les chromosomes pendant la division cellulaire. Un groupe de chercheurs de l'Université de Caroline du Nord ont été assemblant un modèle de la broche et des protéines associées qui fournit un moyen de visualiser en détail exactement ce qui pourrait se passer. Le groupe a choisi de simuler des cellules de levure en herbe, car la totalité de leur axe est composé de seulement environ 40 microtubules (MT), comparativement à 100 fois ce montant dans les cellules de mammifères. Au fil des ans, le groupe a contribué à une image mécanique émergent de l'axe dans lequel la MT fournir les éléments de compression, la chromatine péricentrique les éléments élastiques de tension, et un protéiques ponts kinétochoriens les deux polymères ensemble. Leur plus récent article, publié dans la revue Current Biology, fournit une nouvelle carte détaillée 3d de la région kinetochore du chromosome, et cherche à fournit des réponses aux origines de la force apparemment mystérieux qui organise la division cellulaire.

D'une force locale à travers l'action de protéines motrices, comme la kinésine et la dynéine , fournit un instructeur directionnel important de la broche. Mais comme ces composants sont susceptibles de ne pas leur principale source de mobilité pour les grands organites comme les mitochondries, une vision plus globale du comportement de la broche suggère qu'une plus diffus, l'influence entropique constitue la main invisible qui guide sa dynamique d'ensemble. Une source potentielle de génération de force est fournie par les pompes de chromosomes, si vous voulez, qui agissent comme un gel contractile osmotique, l'expansion et la constriction tout au long de la mitose peut-être pas tout à fait à la différence du mécanisme révélé récemment utilisé dans l'infection par le virus de l'herpès. Ici, l'ADN de l'herpès et matrice associée, sous la pression extrême, s'est littéralement explosions dans la cellule hôte.

At the cellular level, the mitotic spindle apparatus is arguably the most complicated piece of machinery in existence. Its basic function is to isolate and separate the chromosomes during cell division. A group of researchers at the University of North Carolina have been piecing together a model of the spindle and associated proteins which provides a way to visualize in detail exactly what might be going on. The group chose to simulate budding yeast cells because their entire spindle is comprised of only around 40 microtubules (MTs), compared to 100 times that amount in mammalian cells. Over the years the group has contributed to an emerging mechanical picture of the spindle wherein the MTs provide the compression elements, pericentric chromatin the elastic tension elements, and a proteinaceous kinetochore bridges the two polymers together. Their most recent paper, published in Current Biology, provides a new and detailed 3d map of the kinetochore region of the chromosome, and seeks to provides answers to the origins of the seemingly mysterious force that organizes the dividing cell.

Local force generation through the action of motor proteins, like kinesin and dynein, provides an important directional instructor to the spindle. However just as these components are likely not them main source of motility for large organelles like mitochondria, a more holistic view of spindle behavior suggests that a more diffuse, entropic influence constitutes the invisible hand that guides its overall dynamics. One potential source of force generation is provided by the chromosome pumps, if you will, that act like an osmotic contractile gel, expanding and constricting throughout mitosis—perhaps not completely unlike the recently revealed mechanism used in Herpes virus infection. Here the herpes DNA and associated matrix, under extreme pressure, literally blasts itself into the host cell.

- L'ADN hors du noyau plus important que celui-ci

Une étude sur la plante Arabidopsis montre que l'ADN en dehors du noyau, dédié comme celui des mitochondries à la production d'énergie, a un effet disproportionné sur le métabolisme de la cellule et ne peut donc être négligé.




- Une machine à télécopie d'ADN

Craig_Venter

Craig Venter a construit un prototype de “Digital Biological Converter” (DBC) qui permettrait ce qu'il appelle "téléportation biologique" : recevant par Internet des séquences d'ADN pour synthétiser des virus, des protéines et même, à terme, des cellules vivantes.

Cela pourrait aider de futurs colons martiens en leur donnant accès à des vaccins, des antibiotiques ou les médicaments personnalisés dont ils ont besoin. Et si une vie à base d'ADN était trouvée là-bas, une version numérique pourrait en être transmise à la Terre, où les scientifiques pourraient recréer l'organisme extraterrestre à partir de leur propre imprimante biologique.

Le prototype actuel peut produire que de l'ADN, et non des protéines ou des cellules vivantes, mais même cela pourrait être suffisant pour rendre le dispositif pratique. Ses chercheurs croient que leur prototype actuel est déjà capable de produire l'ADN de manière suffisamment précise qu'il pourrait être utilisé comme vaccin.

La prétention d'imprimer des cellules entières reste plus qu'hypothétique. Craig Venter essaie de mettre au point une "cellule receveuse universelle" pour y intégrer l'ADN reproduit mais les cellules comportent bien d'autres spécificités que leur ADN ce qui fait douter de leur universalité.

- Reprogrammer des codons stop pour des acides aminés non naturels

Bien qu'il existe 64 façons de combiner les quatre lettres, seulement 61 codons sont utilisés pour coder les 20 acides aminés présents dans la nature. Cela signifie que certains des codons codent le même acide aminé - un phénomène appelé redondance. Les trois combinaisons gauche au-dessus, UAG, UAA et UGA, agissent comme un arrêt complet ou période - dire le ribosome pour terminer le processus à ce stade. Dans ce cas, plutôt que d'un acide aminé se ajouté à la chaîne, un facteur de libération lie et déclenche la libération du peptide, de sorte qu'il peut être plié ou mis en oeuvre dans une protéine.

Une équipe de biologistes synthétiques conduits par Farren Isaacs à l'Université de Yale ont maintenant fondamentalement remanié ces règles. Ils ont prélevé des cellules d'Escherichia coli et remplacés tous leurs codons stop UAG avec SAU. Ils ont également supprimé les instructions pour la fabrication du facteur de libération qui se lie généralement à UAG, rendant UAG sens.

Ensuite, ils se mirent à l'attribution UAG un sens nouveau, en concevant des molécules appelées ARNt et des enzymes d'accompagnement qui permettraient de fixer un acide aminé non naturel - nourris à la cellule - quand ils ont repéré ce codon. Beaucoup de ces acides aminés ont été conçus, mais ils ne peuvent généralement être traitées par les organismes vivants et intégrés dans leurs protéines. Par Uags réintroduire à des endroits spécifiques dans les gènes, l'équipe était en mesure d'ajouter des acides aminés non naturels dans des protéines à volonté.

Voir aussi Futura-Sciences et Sur la toile.

- Des membranes artificielles sur du graphène

Lipid membranes can be directly "written" on graphene with a nano-scale dip-pen. Image: The Univ. of Manchester



- La fluorescence proche infrarouge dévoile davantage les cellules

Pour améliorer les observations réalisées grâce à la fluorescence, des chercheurs français sont parvenus à développer un marqueur émettant dans le proche infrarouge, sans être toxique pour les cellules observées.

La limite à ces observations provient de la fluorescence naturelle des composants biologiques, qui vient parasiter le signal émis par les agents d'imagerie. Utiliser la lumière proche infrarouge permet de s'affranchir de ce phénomène. En effet, ce type de lumière interagit moins avec les composants des tissus, ce qui permet d'améliorer la qualité des images et d'augmenter la sensibilité de détection.

- La multiplication des bactéries dans une boîte

Dans cette animation, on peut observer en accéléré des bactéries qui se multiplient dans une cage microscopique. En fonction de sa taille, les chercheurs peuvent connaître assez précisément le nombre de cellules présentes à la fin de l'expérience. Il est ensuite possible de récupérer ces bactéries et d’étudier l'expression des gènes dans différentes conditions.



- Arpin, une protéine qui freine et dirige les cellules mobiles

Pour se déplacer, les cellules utilisent des filaments d’actine qui émergent de leur membrane. Des chercheurs viennent de montrer que c’est à ce moment précis qu’une autre protéine, Arpin, intervient et permet à la cellule de migrer dans la bonne direction.

Les auteurs se sont aperçus qu’Arpin empêchait la progression de la membrane lors de la formation des filaments d’actine. Elle agit de manière assez inattendue, car elle s’active au moment même où la cellule décide de se déplacer. « C’est un peu comme si un conducteur appuyait en même temps sur l’accélérateur et sur la pédale de frein », indique le communiqué du CNRS.

Ainsi, la protéine Arpin jouerait le rôle de frein, mais permettrait aussi à la cellule de tourner. Selon les auteurs, lorsqu’Arpin freine la progression d’un filament d’actine, d’autres lamellipodes situés ailleurs dans la membrane peuvent prendre le relais, ce qui modifie la trajectoire de la cellule. Arpin servirait donc à la fois de frein et de volant au cours de la circulation cellulaire.

Voir aussi Pour la Science.

- Des vers carnivores tuent les vers de terre

Même si leur symétrie est bilatérale comme la plupart des animaux que nous côtoyons ordinairement, la morphologie de ces plathelminthes a de quoi étonner. « La bouche est sous le ventre, précise le professeur. Et des centaines d'yeux sont répartis le long du corps. » Carnivore, l’animal s’attaque aux vers de terre, s’enroule autour de sa proie, produit un abondant mucus (« peut-être toxique »), déchire le tégument du ver et « le digère par l’extérieur » (le petit mange le gros).


- Les premiers insectes au Carbonifère (-350 MA)

Les nouveaux fossiles découverts bouleversent la vision des écosystèmes de cette période ancienne ; ils comprennent les plus anciens représentant des Hémiptères (punaises et cigales), des Coléoptères (scarabées etc.) et des Hyménoptères (guêpes et fourmis), groupes qui constituent une part très importante des espèces connues actuellement sur Terre.

Au sein de cette faune fossile, se trouvent des Holométaboles qui n'étaient, pour la plupart, signalés à ce jour que de la période permienne (période qui a suivi le Carbonifère). Ces insectes qui effectuent des métamorphoses complètes et possèdent, comme les chenilles, des stades immatures très différents du stade adulte, ont connu un succès sans comparaison dans la biodiversité continentale. Ils dominent actuellement le fonctionnement des écosystèmes terrestres (pollinisation, recyclage de la matière organique dans les sols, etc.).

Ces insectes carbonifères nouvellement découverts ont aussi la particularité d'être les plus petits jamais trouvés à cette période, ce qui va à l'encontre des idées reçues sur la taille des organismes à cette époque. Les explications les plus fréquemment admises pour le gigantisme de certains insectes du Carbonifère, et du Permien qui a suivi, étaient basées sur l'augmentation significative du taux d'oxygène dans l'atmosphère lors de ces périodes. Ces nouvelles découvertes permettent de moduler cette théorie, maintenant de plus en plus discutée, en attribuant une explication écologique et non plus simplement physiologique à ce gigantisme (absence de vertébrés prédateurs aériens et d'autres compétiteurs avant le Permien moyen).

- Des marsupiaux mâles meurent après l’amour

Certains d’entre eux se reproduisent avec différentes femelles pendant de longues heures et finissent par mourir d’épuisement. Selon des chercheurs australiens, ce comportement sexuel particulier leur permettrait de fertiliser le plus grand nombre de femelles possible et d’assurer ainsi leur descendance.

« Les mâles peuvent se reproduire pendant 14 heures d’affilée et dépensent toute leur énergie », explique la chercheuse Diana Fisher, directrice de l’équipe. Chez les marsupiaux sémelpares, la saison de reproduction est en général assez courte. « Les géniteurs doivent agir vite pour utiliser au maximum leur semence. » Une fois leur performance sexuelle réussie, ils sont à plat et meurent en général d’infections ou d’hémorragies internes. « Ils s’accouplent jusqu’à la mort », ajoute la chercheuse.

Ainsi, au lieu de se battre pour leurs bien-aimées comme le font de nombreux animaux, les souris marsupiales mâles rivalisent avec leur sperme. Les femelles s’accouplent plusieurs fois, et au final c’est le meilleur sperme qui l’emporte. Et pour optimiser sa qualité, les mâles sont prêts à tout, même à donner leur propre vie. « Dans ce type de sélection sexuelle, les mâles se battent à l’intérieur de la femelle plutôt qu’à l’extérieur. »


- Les dendrites des neurones ne transmettent pas passivement l'information

Il s'agit d'une dendrites dans un seul neurone dans le cerveau. L'objet lumineux à partir de la partie supérieure d'une pipette est fixée à une dendrite dans le cerveau de souris. La pipette permet aux chercheurs de mesurer l'activité électrique, comme une pointe dendritique."Ce que vous pensiez être un simple câblage s'avère être un transistor".

L'équipe de Smith a constaté que les pointes d'activité dendritiques étaient produites de manière sélective, en fonction du stimulus visuel, indiquant que les dendrites procédaient des informations sur ce que l'animal voyait.

Pour fournir la preuve visuelle de leur conclusion, ils ont ajouté aux neurones de la teinture de calcium, ce qui a permis une lecture optique de leur excitation. Cette étude a révélé que des dendrites avaient un pic d'activité alors qu'il n'y en avait pas dans d'autres parties du neurone, signifiant que cette activité procédait de causes locales, internes aux dendrites.

Voir aussi Futura-Sciences. Ce n'est pas forcément une découverte car l'article de Pour la Science sur la mémoire biologique y fait référence :

On a longtemps admis que les dendrites étaient des éléments passifs qui servaient seulement à faire la somme des entrées excitatrices et inhibitrices, et à déclencher un potentiel d'action au niveau du segment initial de l'axone quand la somme était adéquate. Mais la surface des dendrites porte aussi des canaux sodium, potassium et calcium voltage-dépendants et des récepteurs nmda qui en font des éléments actifs, capables de produire des potentiels d'action localisés dans les dendrites.

De plus, l'intégration d'une information (sommation des excitations et des inhibitions) ne se fait pas de la même façon tout le long d'une même branche dendritique, ce qui suggère l'existence de sous-unités dendritiques pouvant intégrer les entrées indépendamment (ou presque) les unes des autres. Chaque branche dendritique peut faciliter la plasticité des synapses activées par une information, la création de nouvelles synapses et leur renforcement à long terme. Les dendrites, par les milliers de synapses qu'elles portent, représentent un niveau de codage de l'information plus riche que le codage moléculaire.

Franchissons un niveau supplémentaire : des informations quasi simultanées pourraient être codées par des groupes (ou clusters) particuliers de synapses portés par des dendrites communes. Inversement, les informations mémorisées qui sont séparées par de longs intervalles de temps seraient plutôt codées par des clusters de synapses portés par des branches dendritiques différentes, voire des neurones différents.

- La pompe à ions sodium change de forme pour les ions potassium

- Formation rapide des souvenirs

La formation d'un souvenir nécessite la production de protéines aux synapses. Ces protéines changent ensuite la force des connexions ou voies. Dans les cellules nerveuses, le processus de production de protéines de mémoire est déjà assemblé à la synapse, mais il est suspendu juste avant d'être complété et attend de recevoir les signaux adéquats pour s'achever, d'où l'accélération du processus entier. Au moment de la formation d'un souvenir, le processus est activé et la protéine est fabriquée en peu de temps. Le mécanisme rappelle une maison préfabriquée ou un mélange pour pâte à crêpes: l'assemblage est prêt à l'avance et n'a qu'à être terminé rapidement au bon endroit et au bon moment.

Le groupe du professeur Sossin au Neuro a découvert que l'ARNm voyage vers la synapse déjà attachée au ribosome, avec le processus de production de protéines suspendu juste avant l'achèvement du produit (à l'étape d'élongation ou de terminaison de la traduction, où les aminoacides sont assemblés en protéines). Le processus de "pré-assemblage" attend alors les signaux synaptiques avant de se réactiver pour produire rapidement un grand nombre de protéines en vue de former un souvenir.


- Les éléphants montrent du doigt (de la trompe)

Is this elephant pointing to indicate its desire for some coffee?

C'est important car le fait de montrer du doigt constitue une caractéristique humaine, dès le plus jeune âge, qui nous distingue des autres animaux, y compris les chimpanzés (à part les chiens qui le doivent à leur domestication). Non seulement les éléphants comprennent quand les hommes montrent du doigt mais eux-même ont l'habitude de montrer les objets avec leur trompe.

Voir aussi New Scientist et Pour la Science.

- La vision des singes améliorée pour voir les serpents venimeux

Les lémuriens, isolés à Madagascar et aux Comores, et qui n’ont pas affaire aux reptiles rampants, disposent d’une mauvaise vue. Pourtant, eux aussi grimpent aux arbres, sautent de branche en branche, performance qui exige une précision dans l’évaluation des distances et donc de bonnes facultés visuelles. Alors que tous les autres primates en contact avec des serpents voient bien.

Les mammifères modernes et ces reptiles capables de les dévorer ont commencé à évoluer à la même époque, il y a environ 100 millions d’années. Plus tard, il y a 60 millions d’années, seraient apparus les premiers serpents venimeux. À cette époque venaient de naître les premiers primates, qui devaient se méfier de ces carnassiers capables de se faufiler dans les arbres.

Deux macaques rhésus, nés en captivité dans une réserve japonaise, ont fait office de cobayes. Leur passé suggère qu’ils n’ont jamais été confrontés à un serpent. Des électrodes ont été branchées dans une structure profondément enfouie dans leur cerveau : le thalamus. Plus précisément dans le pulvinar, une région associée à l’attention visuelle et au traitement rapide d’images menaçantes. Il faut signaler que cette zone, retrouvée chez bon nombre d’espèces animales, est particulièrement développée chez les primates et qu’elle présente même des régions uniques. En tout, l’activité de 91 neurones a été étudiée.

De manière surprenante, la vue d’un serpent activait 40 % des neurones observés, un nombre plus important que dans la situation où on les confronte à un macaque agressif. D’autre part, le temps de réaction était raccourci de 15 ms. Les singes semblent donc plus réactifs à un prédateur potentiel qu’ils n’ont jamais rencontré qu’à leurs congénères énervés.

- L'empathie des Bonobos qui se consolent

Après visionnage de 373 interactions suivant une situation anxiogène (318 bagarres et 55 crises de colère), les auteurs ont constaté que les plus aptes à gérer leur ressenti sont également les plus prompts à venir épauler un camarade en détresse. Des baisers, des embrassades et des caresses constituent les solutions mises en œuvre pour consoler. Exactement comme le font les petits humains.

Les jeunes singes privés de leur mère biologique jouent deux fois moins que leurs congénères vivant dans les bras de leur génitrice, et ont trois fois moins d’amis. Directement confrontés à une situation de détresse, leurs cris s’éternisent : ils durent plusieurs minutes, alors que leurs homologues ne se plaignent que quelques secondes. Enfin, ils sont moins enclins à venir soutenir un camarade triste, car ils observent trop les émotions des autres et se plongent alors dans un état d’anxiété.


- Le langage vient des vocalises ou des gestes ?

"Jusqu'à présent, on a supposé que les appels primates n'étaient pas intentionnelles et plus read-out de l'émotion", dit-elle. "Nous avons contesté ce point de vue et montré une similitude importante entre la communication vocale humain et le chimpanzé."

Voir aussi Futura-Sciences. Les cris d'alarme ne sont pas un réflexe émotif mais avertissent les autres jusqu'à ce qu'ils soient hors de danger, ce qui en fait bien une communication mais pas un langage. Les gestes en permettant de mimer une action avaient certainement un rôle précurseur d'un langage narratif.

Une autre étude sur les ouistitis voit l'origine du langage dans la politesse :

Les ouistitis comptent parmi les singes les mieux élevés. Lorsqu’un congénère s’exprime vocalement, ils attendent qu’il ait fini de parler pour répondre à leur tour, politesse que l’on constate rarement dans le monde animal, mais qui caractérise le langage humain. Cette bonne éducation pourrait-elle constituer l’une des fondations de l’émergence d’une communication orale si complexe, telle que pratiquée par l’Homme ?

Les chimpanzés seraient moins portés sur la coopération que les ouistitis ou que nos ancêtres, expliquent les auteurs. L’attention portée aux autres membres et le besoin d’échanger en toute compréhension pourraient caractériser l’émergence de notre langage humain.


- La main aurait précédé le pied

Les Hommes (H. sapiens) comme les macaques japonais (M. fuscata) ont cinq doigts et cinq orteils physiquement indépendants les uns des autres. Chaque doigt de la main a sa propre représentation dans le cortex sensorimoteur primaire des deux primates. Elles sont identiques entre les deux espèces selon l’appendice considéré (voir le code couleur). Au niveau des orteils, les couleurs sont mélangées chez le macaque, car il n’existe qu’une seule représentation somatotopique des doigts de pieds. Chez l’Homme, le gros orteil est indépendant des quatre autres orteils.

Ainsi, chaque doigt de la main possède une représentation différente dans le cortex sensorimoteur primaire, mais qui est comparable entre Hommes et singes. Cela montre que ces appendices peuvent être utilisés indépendamment l’un de l’autre, par exemple pour réaliser les actions complexes requises pour manipuler des outils. En revanche, les cartes neurales obtenues en étudiant les orteils des deux primates ont différé. Chez les macaques, une seule carte est liée à leur utilisation, ce qui signifie que les doigts de pieds fonctionnent de manière groupée, par exemple pour se saisir d’un objet. Chez l’Homme, une représentation différente des autres a été dressée pour le gros orteil.

Comment interpréter ces résultats ? Vraisemblablement, les ancêtres communs aux macaques et aux Hommes possédaient déjà des mains agiles, puisque les représentations somatotopiques liées à chacun de leurs doigts sont identiques. Or, ces aïeux étaient des quadrupèdes arboricoles. Cette première adaptation apparue avant la séparation Homme-singe aurait donc été conservée, et même améliorée, chez les hominidés. Le gros orteil aurait acquis son indépendance bien plus tard, probablement en lien avec le développement de la bipédie. En effet, l’hallux joue un rôle déterminant dans le maintien de notre équilibre et dans la réalisation de nos mouvements locomoteurs. Ainsi, l’Homme savait utiliser des outils avant de marcher. CQFD !

- Le cerveau d'Homo fait pour gérer les changements climatiques des lacs du Rift

En particulier, le pic de diversité jusqu'à 6 espèces d'hominidés, il y a environ 1.900.000 années, au moment où les lacs de la vallée du Rift étaient au sommet de leur étendue. Cette période marque également la première apparition du genre Homo, et le plus grand bond dans la taille du cerveau à l'origine de l'Homo erectus.

Les changements rapides de la taille du lac, qui amplifient les changements correspondants dans les précipitations, auraient plongé les hominidés de l'époque dans un défi écologique particulièrement désastreux, avec des périodes d'abondance en alternance avec des sècheresses, parfois sévères.


- Une seule espèce humaine, une pluralité de visages

Ce fossile vieux de 1,8 millions d'années et découvert en Géorgie simplifie considérablement l'arbre généalogique des hominidés.

Jusqu'à présent, les membres les plus anciens du genre Homo qui vivaient il y a un peu plus de 2 millions d'années étaient séparés en plusieurs espèces distinctes, telles que Homo rudolfensis, Homo habilis, Homo ergaster, Homo georgicus...

Les différences morphologiques que l'on peut observer entre ces fossiles sont grosso modo les mêmes que celles que l'on pourrait observer au sein d'un groupe d'humains ou d'un groupe de chimpanzés aujourd'hui.

Voir aussi Michel de Pracontal.

- Le virus de l'herpès confirme la théorie de l’Out-of-Africa

La trajectoire du virus de l'herpès suit celle de l'humanité. PLoS ONE

Selon cette théorie de l’out-of-Africa, l’humanité a émergé en Afrique, il y a environ 150.000 à 200.000 ans et s'est ensuite propagée à l'est vers l'Asie et à l'ouest vers l'Europe. « Le virus de l’herpès suit exactement la trajectoire de l’humanité telle qu’elle est racontée par les anthropologues et les généticiens moléculaires ».

L’analyse révèle ainsi que seul un petit groupe d’humains est parti d’Afrique vers le Moyen-Orient. «Il y a un goulot d'étranglement de la population entre l'Afrique et le reste du monde, très peu de personnes ont participé à la migration initiale ».

Voir aussi ScienceDaily.

- L'art rupestre peint par des femmes ?

Les peintures pariétales du Paléolithique supérieur auraient principalement été faites par des femmes. Dans un nouvel article, Dean Snow donne encore plus de poids aux résultats préliminaires qu’il a présentés en 2009, puisque 32 empreintes négatives de mains ont été incluses dans les analyses. Seules trois d’entre elles ont été attribuées à des hommes adultes.

C'est une hypothèse intéressante mais que semble contredire les pratiques récentes d'art rupestre et qui suppose que les mains négatives seraient celles des peintres alors qu'on peut y voir une initiation, un contact avec l'autre monde, les peintures faisant partie du décor, de la magie de ces sortes de temples destinés à d'autres que ceux qui ornent ces grottes.

- Chasseurs-cueilleurs et agriculteurs se sont côtoyés pendant 2000 ans

Alors que l’on pensait que les populations nomades européennes avaient disparu très vite après l’arrivée, il y a environ 7.500 ans, des premiers agriculteurs au niveau de l’Europe centrale, une étude montre que les deux modes de vie ont cohabité durant deux millénaires. Ce qui repousse d’autant la disparition des chasseurs-cueilleurs du Vieux continent.

Voir aussi Futura-Sciences. En fait, il semblerait que ce soient des pêcheurs, c'est-à-dire des chasseurs-cueilleurs sédentaires et "civilisés" qui ont cohabité le plus longtemps avec leurs presque semblables agriculteurs-éleveurs.

- La diversité génétique des européens

Ce travail montre que la diversité génétique actuelle ne peut s’expliquer par le seul mélange d’un agriculteur avec une chasseuse-cueilleuse (les mariages ne s’effectuant pas dans l’autre sens). Au cours du temps, de nouvelles vagues migratoires sont venues mélanger encore le patrimoine génétique des populations locales.

Il est intéressant de constater que les changements brusques de l’ADNmt, signes de l’arrivée d’une nouvelle culture, coïncident avec l’émergence de nouveaux objets, révélés par les fouilles archéologiques. Des peuples nouveaux propageaient leurs savoir-faire aussi bien que leurs gènes. Deux d’entre eux, amenant les cultures campaniformes venant d’Europe de l’Ouest il y a environ 4.200 ans, et de la céramique cordée, plus récente et issue de Russie, ont fortement compté. De façon inattendue également, alors que les traces génétiques des premiers fermiers se diluaient au cours du temps, les marqueurs associés aux chasseurs-cueilleurs sont soudainement réapparus. En tout, les individus étudiés par les chercheurs appartenaient à neuf cultures distinctes.

Ces résultats rendent compte de nombreux mouvements migratoires engendrant une multitude de mélanges, à l’origine d’une partie de la diversité actuelle. Car, on le sait plus précisément, l’histoire a une suite, avec de nouvelles migrations, de multiples invasions, conquêtes et reconquêtes, qui ont également modifié le panorama génétique de ces derniers millénaires.

- Les origines des Juifs européen

Ils ont trouvé que plus de 80 pour cent des ADN mitochondriaux modernes des juifs ashkénazes ont une origine européenne, qu’une petite proportion de ces ADN proviennent du Proche-Orient, et que pratiquement aucun ne semble provenir du Caucase Nord.

Quant à la lignée paternelle, des études précédentes portant sur le chromosome Y avaient montré une origine très majoritairement proche-orientale, avec cependant une forte proportion européenne chez les ashkénazes Lévites, pour lesquels une ascendance Khazar serait donc possible.

Il y a donc bien des Khazars mais surtout dans la lignée masculine et dans une moindre proportion qu'on croyait (de nombreux massacres ont pu en diminuer l'incidence), le lien avec la population juive originaire étant lui bien plus fort pour les hommes mais quasi inexistante pour les femmes alors que la transmission est supposée se faire par la mère...

Santé


traitements, nutrition, hygiène

- Une fenêtre dans le cerveau pour intervenir sans réouvrir le crâne

À terme, il s’agira de réaliser aussi des traitements laser, notamment de cancers ou de l’épilepsie, sans avoir à ouvrir le boite crânienne.

- Le seuil de l'anesthésie diminue avec l'âge (le nombre de neurones)

Une anesthésie ralentie a montré qu'il y avait un seuil à partir duquel il ne servait à rien d'augmenter les doses et que cela dépendait du nombre de neurones. Les communications entre le thalamus et le cortex ne sont pas supprimées mais ne se propageraient pas au-delà.



- Le syndrome de Cotard : une protéine transforme en mort vivant

Un médicament contre l'herpès, l'Acyclovir, se dégrade en CMMG normalement éliminé par les reins mais en cas de dysfonctionnement des reins persuade les patients d'être morts ou que leur bras n'est pas le leur jusqu'à ce que la dialyse les en débarrasse.

- L’irisine, la protéine de l’exercice physique qui dope le cerveau

Des chercheurs états-uniens ont identifié la molécule qui améliore les capacités cérébrales lors d’un exercice physique. Produite dans le sang, elle circulerait jusqu’au cerveau et favoriserait la mémoire et l’apprentissage chez la souris.

- Des métamatériaux pour une stimulation magnétique transcrânienne plus précise

Les chercheurs savaient que pour envoyer un signal plus préis, ils seraient obligés de changer la forme du champ magnétique fluctuant que produisent les bobines. Pour cela ils on utilisé des métamatériaux conçus pour avoir des propriétés électromagnétiques spécifiques pouvant, par exemple, concentrer la lumière en un point plus petit que la longueur d'onde.

La stimulation cérébrale pourrait être utilisée aussi dans l'autisme.

- Deux formes différentes de Parkinson caractérisées

La maladie de Parkinson est causée par une protéine nommée alpha-synucléine dont les agrégats formés à l'intérieur des neurones finissent par tuer les neurones. Les chercheurs sont parvenus à caractériser et produire deux types d'agrégats d'alpha-synucléine différents entre eux. Mieux, ils ont montré que l'une de ces deux formes est beaucoup plus toxique et a une plus grande capacité à envahir les neurones. Cette découverte rend compte, à l'échelle moléculaire, de l'existence de profils d'accumulation d'alpha-synucléine différents d'un patient à l'autre.

La première forme d'agrégat ressemble, à l'échelle du millionième du millimètre, à un spaghetti tandis que la deuxième est longue et aplatie, rappelant la forme d'une pâte plus large comme la linguine. Les scientifiques se sont ensuite demandés si ces différences de structure se traduisaient par des différences fonctionnelles. Pour cela, ils ont mis en contact ces deux types d'agrégat avec des cellules neuronales en culture. Résultat: la capacité de la forme "spaghetti" à se lier aux cellules et à les pénétrer était notablement supérieure à celle de la forme "linguine". La forme "spaghetti" est aussi nettement plus toxique et tue rapidement les cellules infectées. Cette forme s'est révélée capable de résister aux mécanismes de la cellule chargés de l'éliminer, tandis que la forme "linguine" est, jusqu'à un certain degré, maîtrisée par la cellule.

Voir aussi Futura-Sciences.

- La dépression, un risque accru de développer Parkinson ?

Ils ont analysé les informations médicales de 4.634 personnes dépressives et de 18.544 individus sains pendant 10 années. Au cours de cette période, 66 malades atteints de dépression (soit 1,42 %) et 97 patients non touchés par ce trouble (soit 0,52 %) ont été diagnostiqués avec Parkinson. En d’autres termes, les individus dépressifs ont développé environ trois fois plus la maladie que les autres.

- Vers un analogue de la kétamine sans effets secondaires contre la dépression

Des tests avec la lanicemine, un médicament contre l'épilepsie ciblant les mêmes récepteurs que la kétamine a montré un effet anti-dépresseur sans les effets psychédéliques associés de la kétamine. Bien que moins efficace que la kétamine et n'ayant pas son effet immédiat sur l'humeur qui en fait tout l'intérêt, cela laisse espérer de pouvoir trouver une molécule plus efficace que la lanicemine sans les effets secondaires de la kétamine.

- Alzheimer : la piste épigénétique

Avec l’âge, les rongeurs présentent une augmentation de la concentration en une enzyme : l’ADN méthyltransférase 3a, qui ajoute des groupements méthyles sur l’ADN et que l’on associe à la prolifération et la différenciation cellulaire. Les auteurs ont également remarqué une hausse de 5-méthylcytosine (5-mC) et de 5-hydroxyméthylcytosine (5-hmC), deux molécules utilisées comme marqueurs de méthylation de l’ADN global. Autre observation associée au vieillissement : une augmentation de la concentration en une autre enzyme, l’histone déacétylase 2 (HDAC2), impliquée dans la formation de la mémoire mais aussi dans les troubles cognitifs liés à la neurodégénérescence.

Fait intéressant : il semble que la restriction calorique prévienne ces changements épigénétiques, ce qui expliquerait pourquoi manger peu limite les risques et la progression de la maladie.

Les auteurs ont ensuite étudié des tissus cérébraux humains issus de patients décédés. Les profils de méthylation et d’hydroxyméthylation de l’ADN différaient entre les anciens Alzheimer et les individus témoins. Dans ce premier cas, les scientifiques ont constaté une forte chute de 5-mC et de 5-hmC. Et plus la baisse était importante, plus on retrouvait en fortes concentrations les plaques amyloïdes dans l’hippocampe, caractéristiques de la démence. Là encore, l’épigénome pourrait apporter les éléments expliquant les aberrations constatées avec l’accumulation des bêta-amyloïdes.

Pour les souris atteintes d’une maladie semblable à Alzheimer, on observe un déséquilibre dans les balances de méthylation et d’hydroxyméthylation par rapport aux rongeurs témoins âgés. Une partie des explications de la démence pourraient donc se trouver à ce niveau-là.

On a isolé aussi 19 gènes (voir aussi Futura-Sciences) prédisposant à la maladie, le plus déterminant étant le gène, déjà connu, de l'apolipoprotéine E (ApoE) dont l'incidence est de 20% et ceux impliquant le système immunitaire. Plus important sans doute mais très étonnant, il semblerait qu'on puisse utiliser diurétiques et antihypertenseurs en prévention d’Alzheimer (faisant baisser de 50% les risque de contracter la maladie). Son effet diurétique pourrait être une des raisons de ses bienfaits ? De quoi aussi justifier le conseil de beaucoup s'hydrater. Rappelons que le manque de sommeil serait relié à l'Alzheimer qui semble donc bien lié à un encrassement par difficulté d'élimination des déchets (plaques).

- Des prions de la vache folle chez 30 000 Britanniques

Pour réaliser cette étude, les scientifiques ont examiné les appendices de 32.000 personnes de tous âges et ayant été opérées d’une appendicite entre les années 2000 et 2012, dans 41 hôpitaux à travers tout le pays. Selon une étude parue dans The lancet en 1998, il est en effet possible de détecter des prions dans l'appendice grâce à des anticorps spécifiques. Parmi les échantillons, 16 se sont révélés positifs au prion. En extrapolant, un Britannique sur 2.000 serait contaminé par le prion, soit environ 30.000 individus !

- Un traitement anti-prions (voir aussi Futura-Sciences)

- Une bactérie à l’origine de la sclérose en plaques ?

Chez les personnes souffrant de sclérose en plaques, la myéline entourant le nerf est détruite à certains endroits. L'influx nerveux est donc beaucoup moins bien transmis.

L’étude a débuté de manière inattendue, lorsque les auteurs ont identifié une souche de C. perfringens de type B dans le tube digestif d’une femme de 21 ans atteinte de sclérose en plaques. C. perfringens est une espèce bactérienne courante, souvent retrouvée dans les sols. Il en existe cinq types différents. Le type A est fréquemment présent dans le tube digestif et est inoffensif. En revanche, les types B et D portent un gène codant pour une protoxine qui, une fois modifiée dans le tube digestif, peut circuler dans le sang jusqu’au cerveau. Chez les animaux, la toxine mature, appelée toxine epsilon, induit des symptômes ressemblant à ceux de la sclérose en plaques.

Ils ont montré que les malades avaient dix fois plus de chances de contenir la toxine epsilon que les individus sains.

- La lumière booste les mitochondrie et guérit la sclérose en plaque

Jeri-Anne Lyons (à droite) irradie ses cellules touchées par la sclérose en plaques à l'aide d'une lumière proche infrarouge d'une longueur de 670 nm. Et leur santé semble s'améliorer.Les scientifiques suggèrent que les mitochondries, organites cellulaires chargés de fournir de l’énergie, font face à une situation de stress et se dégradent, ce qui se répercute sur l’intégrité cellulaire.

Il a précédemment été montré que les symptômes pouvaient être atténués chez des souris par l’exposition à une lumière particulière et à une dose précise. Dans Plos One, ces scientifiques réitèrent la performance et se risquent à une explication : la longueur d’onde utilisée serait bénéfique pour la santé des mitochondries, en limitant les molécules qui les agressent, et en évitant ainsi la mort de la cellule cérébrale.

Sceptique au début, elle s’est rendu compte que les souris utilisées pour modéliser la pathologie se portaient mieux après une exposition à une lumière d’une longueur d’onde de 670 nm, que l’on qualifie de proche infrarouge.

Selon leur hypothèse, la lumière proche infrarouge stimulerait la liaison entre une enzyme des organites (le cytochrome C oxydase) avec les composés oxygénés réactifs, préservant ainsi le métabolisme cellulaire.

D’autre part, elle révèle également que pour une exposition à une longueur d’onde de 670 nm, les gènes impliqués dans le blocage de l’apoptose (le suicide cellulaire), sont surexprimés, ce qui se traduit inexorablement par une diminution de la perte cellulaire.

Cela pourrait expliquer aussi pourquoi la lumière améliore les performances cognitives même des aveugles. Il ne faudrait pas seulement un bon sommeil mais aussi un grand soleil (ou seulement un coucher de soleil?) pour la santé de notre cerveau, et donc ne pas vivre la nuit...

- Employer des cellules immunitaires pour délivrer des médicaments dans le cerveau

Les chercheurs ont utilisé une enzyme antioxydante commune, appelée catalase, afin de prévenir la mort des cellules dans le cerveau. Et ils ingénierie des cellules immunitaires appelées macrophages pour mener à bien les plans génétiques pour la catalase dans le cerveau. Ensemble, ils pouvaient voyager à travers la barrière hémato-encéphalique de protection. Les macrophages sont attirés par les neurones meurent, qui libèrent des signaux dans la vocation de sang à l'aide.

- Le déficit de la protéine KCC2 à l'origine des douleurs chroniques ?

Le chercheur attribue ce dérèglement à la perte d'une protéine (KCC2) de la membrane de certaines cellules nerveuses de la moelle épinière. Cette protéine est responsable du pompage des ions chlorures vers l'extérieur des cellules nerveuses. "En maintenant une faible concentration de chlorure, elle permet l'inhibition du signal nerveux, précise-t-il. Chez les personnes souffrant de douleurs chroniques, cette pompe inverse le flux normal des ions ce qui rend les neurones de la moelle plus excitables."

Le même dérèglement serait en cause dans le stress chronique, l'anxiété, l'autisme, l'épilepsie, voire même l'autisme et la schizophrénie, souligne le chercheur. "Cette protéine joue un rôle central dans l'homéostasie des ions chlorures et dans la stabilité des réseaux nerveux."

- L'acide alpha-aminoadipique (2-AAA) marqueur d'un pré-diabète

Ainsi, le 2-AAA influencerait le fonctionnement du pancréas et contrôlerait l’hyperglycémie. Chez les personnes en passe de devenir diabétiques, cette molécule serait produite très tôt pour résister au développement de la maladie, avant même que l’on ne puisse observer ses effets néfastes sur la santé. Elle pourrait donc servir de biomarqueur efficace pour le dépistage précoce du diabète.

- Le mécanisme qui provoque des métastases

Ils ont modélisé le comportement d'un circuit génétique décisionnel que les cellules utilisent pour réguler les passages vers ou à partir de deux états différents des cellules : épithéliales ou mésenchymateuses. Dénommées respectivement la transition EM (EMT) et la transition ME (MET), ces changements d'état de la cellule sont vitaux pour le développement embryonnaire, la différenciation des tissus et la cicatrisation des plaies. Au cours de l'EMT, certaines cellules forment également un troisième état, un hybride qui est doté d'un mélange spécial de capacités à la fois épithéliales et mésenchymateuses, y compris la migration en groupe.

La transition EMT est également caractéristique des métastases du cancer. Ce sont les cellules cancéreuses qui co-pilotent le processus permettant aux cellules tumorales de se détacher et migrer vers d'autres parties du corps pour y établir de nouvelles tumeurs.

Le commutateur comporte deux paires de protéines spécialisées. L'une des paires associe SNAIL et le microARN34 (SNAIL/miR34), l'autre associe ZEB et le microARN200 (ZEB/miR200).

Chaque paire est "mutuellement inhibitrice", ce qui signifie que la présence de l'un des partenaires inhibe la production de l'autre.

Les deux peuvent être présents en même temps, en quantités variables en fonction d'un certain nombre d'autres protéines, y compris plusieurs autres gènes du cancer.

En modélisant le circuit de décision ZEB/miR200, l'équipe a constaté qu'il fonctionne comme un switch «ternaire» ou à trois voies. La raison en est que ZEB a la capacité de se renforcer lui-même dans une boucle de rétroaction positive qui permet à la cellule de maintenir des niveaux intermédiaires des quatre protéines sous certaines conditions.

Cet état hybride peut aussi déclencher des métastases du cancer en favorisant la migration collective des cellules et en leur conférant des propriétés de cellules souches qui permettent aux cellules cancéreuses migrantes d'échapper au système immunitaire et aux thérapies anticancéreuses.

- Un virus contre les cellules cancéreuses

Les modifications génétiques apportées au virus sont de deux types: tout d'abord la suppression d'une partie précise de l'ADN du virus empêche la synthèse d'une protéine essentielle à l'infection des cellules cérébrales non tumorales par le virus. D'autre part, les "fibres" qui permettent au virus d'adhérer aux parois des cellules hôtes pour les pénétrer, ont étés modifiées: un segment appelé RGD-4C y a été ajouté, ce qui augmente le pouvoir d'adhérence du virus spécifiquement aux parois des cellules tumorales. Cela facilite donc son entrée dans ces mêmes cellules. Il s'agit donc d'utiliser la capacité de pénétration propre aux virus, après les avoir rendu inoffensifs (pour les cellules saines).

Du fait de ces deux modifications, le virus injecté dans les tissus cérébraux affectés par la tumeur, pénètre les cellules tumorales, et s'y multiplie jusqu'à provoquer leur destruction (mort cellulaire programmée, ou lyse cellulaire), liée au détournement de la machinerie cellulaire pour le développement du virus. Les nouvelles copies du virus qui sortent de ces cellules tumorales détruites infectent alors d'autres cellules cancéreuses. Si le virus vient à bout de la totalité des cellules tumorales, il est condamné à mourir, étant incapable d'utiliser les cellules cérébrales saines pour sa survie.

- Booster le système immunitaire contre les cellules cancéreuses

- Des cellules souches encapsulées pour soigner le coeur

Les cellules souches injectées dans un coeur endommagés meurent rapidement. Pour l'empêcher elles sont encapsulées dans un gel qui les maintien ensemble et les aide à survivre même si elles ne peuvent du coup d'intégrer au tissus cardiaque mais leur bienfait viendrait des hormones de croissance qu'elles produisent, aidant à réparer le coeur et à reconstituer les vaisseaux sanguins.

- Modifier des cellules souches pour fabriquer et délivrer les médicaments

Ce schéma explique les mécanismes en jeu dans cette expérience. Les CSM génétiquement modifiées (engineered Cells) se fixent au niveau des récepteurs des vaisseaux sanguins, à proximité des régions en situation d'inflammation. Les CSM traversent la paroi et sécrètent l'IL-10 (en jaune) qui contrecarre les effets des facteurs inflammatoires sécrétés (inflammatory cell secreted factors).

La première phase de l’expérience a consisté à insérer des brins d’ARN messagers (ARNm) dans des CSM en culture. Ceux-ci codaient pour deux protéines d’adhésion à la surface (PSGL-1 et SLeX), ainsi que pour l’interleukine-10 (IL-10), une molécule connue pour ses propriétés inflammatoires.

Une fois cette première étape effectuée, ces cellules triplement transfectées ont été injectées dans la circulation sanguine de souris avec une inflammation au niveau de l’oreille. Très vite, les CSM se sont agglutinées au niveau de la région abîmée grâce à PSGL-1 et SLeX, et les sécrétions d’IL-10 ont bel et bien augmenté, réduisant donc les symptômes chez les rongeurs.

- Des contraintes physiques déterminent le division ou la spécialisation des cellules souches

- Un pansement avec de la peau

Il est possible de soigner des ulcères réfractaires aux traitements courants en ayant recours à des pansements faits de feuillets de peau cultivée in vitro.

La recette paraît simple, mais elle a exigé des années de peaufinage: prélever 1 cm2 de peau du patient, séparer les cellules, les cultiver in vitro et fabriquer un substitut cutané comprenant un derme et un épiderme. Après huit semaines de culture, les feuillets cutanés sont placés sur les ulcères comme un pansement. Au besoin, ils sont remplacés chaque semaine. "Ce pansement biologique est plus qu'une barrière physique, assure François Auger. Ses cellules sécrètent des molécules qui accélèrent la guérison. Il favorise la mise en marche des mécanismes naturels de guérison. C'est le modèle le plus physiologique qu'on puisse imaginer."

- Les nanoparticules plus dangereuses qu'on ne croyait

Un type de bactéries, appelé Azotobacter vinelandii, réagit à la présence du tungstène en sécrétant des substances dont la structure évoque une toile d'araignée. Ces "filets", qu'on nomme sidérophores, capturent les nanoparticules de tungstène afin de les solubiliser.

Or, une fois que le tungstène nage dans la solution, les cellules de la bactérie ne différencient plus celui-ci des autres nutriments indispensables à sa survie. La bactérie tente donc de l'utiliser à tort, tel un être humain qui chercherait à se nourrir de raisins en plastique. Cette assimilation d'un "faux" nutriment finit par nuire au bon fonctionnement de la bactérie et cause sa mort à des concentrations bien plus faibles que celle nécessaire pour directement toucher sa membrane.

- Supprimer le plaisir pour lutter contre la dépendance au cannabis

Le principe actif du cannabis, le THC (delta-9-tétrahydrocannabinol), se fixe et agit sur les récepteurs cannabinoïdes situés dans les zones cérébrales associées à l’apprentissage, la recherche de récompenses, la motivation, la prise de décision, l’acquisition d’habitudes et les fonctions motrices. Cela entraîne la libération de dopamine, un neuromédiateur du plaisir et de la récompense, et peut induire le phénomène de dépendance. Pour trouver une parade, les scientifiques ont recherché un moyen de limiter la production de dopamine dans le cerveau.

- Le cannabis thérapeutique en France

D'après le laboratoire, l'AMM pourrait être obtenue au premier trimestre 2014, pour un lancement un an plus tard. AP/SIPA

L'Europe a émit une recommandation favorable à l'homologation en France du Sativex, traitement à base de cannabinoïde.

- Des prothèses par imprimantes 3D

- De la vitamine B3 dans le plastique pour le rendre non-toxique (prothèses, etc.)

- Une table de chevet interactive pour personnes âgées

Nous présentons une table de chevet intelligente et interactive montée sur un robot mobile et destinée à aider les personnes âgées à leur domicile en utilisant des données physiques, tactiles et visuelles. Nous montrons comment l'intégration de ces trois modalités différentes de détection permettent de contrôler le déplacement de cette table de chevet montée sur robot dans l'environnement d'un salon ordinaire avec une personne seule ayant besoin d'assistance et de surveillance. Une caméra au plafond de la salle, donne une vision de haut en bas des obstacles, de la personne et de la table de chevet. Des capteurs de pression sous le lit fournissent une perception physique de l'état de la personne. Un capteur de proximité sur la table de nuit agit comme une interface tactile avec une Wii (Nintendo) permettant de contrôler la table de chevet. Ces trois modalités sont combinées pour planifier le mouvement de la table de chevet afin d'approcher l'individu. Avec un accent croissant sur ​​les aides techniques pour les personnes vieillissantes qui de plus en plus choisissent de rester dans leurs maisons, nous montrons comment l'intelligence peut être amenée à l'intérieur des maisons pour aider à surveiller et fournir des soins à un individu. Notre approche est une étape vers la réalisation de l'intelligence pervasive en intégrant de façon transparente différents capteurs intégrés dans l'environnement.


Technologie


biotechnologies, informatique, robotique

- La soudure à l'eau

L'eau est décomposée en hydrogène et oxygène avant de se recomposer en faisant une flamme pour soudure sans les risques des gaz actuels.

- Une lentille souple adaptable baignant dans un liquide imitant l’iris

En s’inspirant de ces propriétés biologiques, les auteurs ont développé un dispositif composé d’une lentille en silicone, équipée de petits moteurs capables d’ajuster le foyer, exactement comme l’œil. Disposé devant, une chambre remplie de deux liquides. L’un d’eux est translucide, et entouré du second, huileux, opaque et de même densité, de telle sorte qu’ils gardent toujours la même position l’un par rapport à l’autre.

Ils appliquent un courant électrique et pratiquent ce qu’on appelle un électromouillage, de manière à changer les propriétés physiques des liquides. Ainsi, ils peuvent jouer sur la surface occupée par le fluide sombre et mimer l’ouverture ou la fermeture de l’iris.


- Microsoft aussi se met aux lunettes connectées

- Split : des écouteurs intra-auriculaires autonomes

Il s’agit d’écouteurs intra-auriculaires dénués de fils. Jusque-là rien d’exceptionnel donc. Sauf que ces écouteurs ne sont pas reliés grâce à un système sans fil à un baladeur : ils sont totalement autonomes et incluent le baladeur en question. Chaque écouteur comporte, en effet, un minuscule circuit électronique hébergeant à la fois une mini batterie, une mémoire de stockage, et même un processeur ARM Cortex M3 de 32 bits et un accéléromètre 3 axes. Lorsqu’ils ne sont pas utilisés, les deux écouteurs se collent entre eux grâce aux petites parties magnétiques dont ils sont équipés.

Pour piloter le baladeur interne des écouteurs, il suffit de fermer la mâchoire, ou plutôt de claquer des dents... Un claquement pour passer à la piste audio suivante, deux pour augmenter le volume. Pour pouvoir mâcher un chewing-gum sans faire défiler la liste de lecture, il suffit de tapoter du bout du doigt sur l’oreillette afin de la verrouiller.

Pour stocker de la musique et recharger ces écouteurs, dont l’autonomie est d’environ quatre heures, il est nécessaire de les poser sur un support aimanté raccordé à l’ordinateur via une prise USB. Compte tenu de la miniaturisation du système, la capacité de stockage est limitée à 256 Mo pour le moment.

- La Facet, la smartwatch multi-écrans de Nokia ?

Voir aussi Futura-Sciences.

- UltraHaptics, le retour d’effet sans contact par ultrasons

En utilisant des transducteurs à ultrason, des chercheurs de l’université de Bristol sont parvenus à produire un retour d’effet à la surface d’un écran par modulation de la pression d’air. Le système permet de ressentir les reliefs d’une interface et de la contrôler sans être en contact avec l’écran.Ce schéma illustre la configuration du système UltraHaptics. Un vidéoprojecteur (projector) diffuse l’image sur un écran microperforé (screen), sous lequel sont disposés 320 transducteurs à ultrasons. Les gestes sont détectés par un capteur (hand tracker) Leap Motion. Les informations des transducteurs sont traitées par une carte contrôleur (driver circuit) reliée à un PC. Une application, basée sur l’algorithme développé par l’université de Bristol, se charge de synchroniser l’image et le retour d’effet, en modulant la radiation acoustique qui traverse l’écran pour former un champ invisible dans lequel chaque doigt peut percevoir une sensation distincte.

Ce schéma illustre la configuration du système UltraHaptics. Un vidéoprojecteur (projector) diffuse l’image sur un écran microperforé (screen), sous lequel sont disposés 320 transducteurs à ultrasons. Les gestes sont détectés par un capteur (hand tracker) Leap Motion. Les informations des transducteurs sont traitées par une carte contrôleur (driver circuit) reliée à un PC. Une application, basée sur l’algorithme développé par l’université de Bristol, se charge de synchroniser l’image et le retour d’effet, en modulant la radiation acoustique qui traverse l’écran pour former un champ invisible dans lequel chaque doigt peut percevoir une sensation distincte.

Ce procédé utilise le principe de la pression de radiation acoustique produite par des ultrasons, capables de stimuler les mécanorécepteurs cutanés. Le dispositif crée plusieurs ondes qui se combinent pour donner une sensation de vibration. Ces mécanorécepteurs répondent à des vibrations comprises entre 0,4 Hz et 500 Hz. Les chercheurs ont donc développé un algorithme qui commande chaque transducteur en lui demandant d’augmenter ou de diminuer l’intensité en se concentrant sur un point de focalisation virtuel.

C’est en modulant ces points de focalisation et en jouant sur la fréquence des ultrasons qu’UltraHaptics parvient à créer un retour d’effet perceptible au toucher. Le système est suffisamment précis pour permettre de distinguer des textures. « Le retour d’effet est perçu de façon optimale à une distance comprise entre 5 et 35 cm de l’écran.

- Des post-it électroniques en graphène


Du graphène sur une feuille plastique se colle par électrostatique à n'importe quelle surface et peut contenir une information lue par un périphérique.

"Notre mémoire n'est pas seulement flexible, mais aussi transférable". Avec l'ajout de quelques fonctions, comme le Wi-Fi, l'appareil pourrait même être utilisée comme lecteur de mémoire flash flexible.

 

- Les imprimantes 3D en métal

L'impression 3D emploie la technique de fabrication par couches additives, autrement appelée fabrication additive. Tout comme pour l'impression de pièces en plastique, de minuscules couches de métal sont superposées, afin de créer un objet par empilement. Pour cela, deux technologies sont employées. Un rayon laser puissant permet de créer une forme en soudant une poudre métallique par fusion. L’autre technique est la fabrication additive à technologie EBM (Electron Beam Melting) : au lieu d’un laser, c’est un faisceau d’électrons qui va chauffer la poudre métallique de façon à ce qu’elle se solidifie pour réaliser les couches. Cette méthode est bien plus rapide, mais moins répandue.

La démonstration de l’Esa s’inscrivait dans le cadre d'un projet plus global baptisé Amaze (pour Additive Manufacturing Aiming Towards Zero Waste & Efficient Production of High-Tech Metal Products). Il s’agit d’utiliser les atouts des imprimantes 3D pour produire de façon efficace des pièces métalliques, avec le souci du « zéro déchet ». En tout, avec l’agence spatiale, ce sont 28 institutions et industriels (universités, Airbus, Astrium, EADS, etc.) qui participent à ce projet. Des unités de production sont même en cours de déploiement dans différents pays du continent européen (Allemagne, France, Italie, Norvège, Royaume-Uni).

Un article sur cette entrée dans l'âge du fer en montre toute l'importance.

- Des imprimantes 3D pliables

La FoldaRap est une imprimante 3D pliable conçue par Emmanuel Gilloz, un jeune créateur français. Ses kits d’imprimantes 3D à assembler sont vendus 600 euros. Pour lui, l’univers de l’open hardware est extrêmement stimulant en termes d’innovations. « Après la conception collaborative et le financement participatif, il a fallu inventer la “production distribuée” pour fabriquer un volume d'imprimantes 3D suffisant », confie-t-il.

Le jeune créateur de cette imprimante a débuté son activité en 2010 en reproduisant une RepRap. « Comme c’était très nouveau, je l’emmenais partout avec moi pour la montrer. Le souci, c’est qu’elle pesait alors sept kilos et qu’elle était encombrante. J’ai donc décidé d’en faire un modèle simplifié, rigide et facilement démontable, pour être transporté. Cette imprimante pliable ne pèse plus que trois kilos », explique-t-il. Après cette expérience de conception collaborative, le jeune homme a décidé de se lancer dans la production d’imprimantes pour les vendre. Pour recueillir des fonds, il a fait appel à un financement participatif. « J’ai commencé par construire 10 imprimantes, puis 30... Depuis, j’en ai vendu 130 ! »

- Constructions délirantes par imprimantes 3D

- M-Blocks, le robot qui s'assemble tout seul

Des chercheurs du MIT viennent de mettre au point des robots modulaires capables de se reconfigurer eux-mêmes.

Ces petits cubes, appelés M-Blocks, sont capables de se propulser en avant, de sauter les uns par-dessus les autres et de s'emboîter pour constituer des formes aléatoires. Comment ? Grâce à l'élan d'un volant d'inertie – sorte de roue fixée à l'intérieur du cube – pouvant atteindre 20 000 tours par minute. Lorsque ce volant freine, le cube acquiert l'énergie nécessaire pour effectuer lui-même une rotation. Des aimants sont disposés sur chacun des bords et sur chacune des faces des cubes pour leur permettre de s'arrimer les uns aux autres.

- ZENO R25, un robot jouet expressif pour 2000€

RoboKind team of designers and engineers have spent the past 2 years testing and refining ZENO R25 prototypes, but this is only the beginning of what ZENO will be able to do.
Ce robot-jouet expressif coûtait jusque là 12 000€.

 

- Un robot mobile à une seule main pour 35 000$

On avait déjà vu un robot abordable pour les petites entreprises avec 2 bras mais sans mobilité. Celui-ci est haut d'un mètre et constitue une version simplifiée d'un robot coûtant 400 000$.




- L'Aeromobil, une superbe voiture volante

Le principal intérêt de l'Aeromobil Roadable Aircraft réside dans le fait qu’elle peut utiliser toutes nos routes et parkings actuels et faire son plein à n’importe quelle station service.

Son moteur Rotax 912 de 100 chevaux refroidi à l’eau alimente aussi bien le propulseur arrière que les roues avant. Son châssis acier/carbone lui permet de ne peser que 450kg, de quoi atteindre sur terre les 160km/h et les 200km/h dans les airs. Avec sa batterie, vous pourrez parcourir 700km en volant ou 500 en roulant.

Finally, a functional flying car that actually looks pretty coolFinally, a functional flying car that actually looks pretty cool


<- Revue des sciences précédente | Revue des sciences suivante ->

1 723 vues

Laisser un commentaire