Revue des sciences septembre 2015

Temps de lecture : 125 minutes

Pour la Science

La Recherche

Physique, espace, nanos

Climat, écologie, énergie

Biologie, préhistoire, cerveau

Santé

Techno

<- Revue des sciences précédente | Revue des sciences suivante ->

- Economie et social

Crédit : Banksy

De la Grèce à la Chine, on va de crises en crises avec, à chaque fois, la crainte que le système s'écroule, tant ses fondements sont devenus fragiles avec l'injection de liquidités en masse et des intérêts presque à zéro, sinon négatifs. A cette instabilité financière (bien maîtrisée jusqu'ici) s'ajoute l'insécurité des transformations apportées par l'économie numérique et qui pour être bien plus durables restent mal perçues encore. Il faut abandonner le rêve de revenir en arrière et sauvegarder le pays de son enfance quand on ne peut espérer qu'éviter le pire, limiter les dégâts, ce qu'on n'arrive même pas à faire pour le climat. Les engagements des Etats sont très insuffisants pour l'instant alors que, même un réchauffement qui serait limité à 2°C aurait des conséquences dramatiques, notamment avec l'acidification des océans et la montée des eaux. Heureusement les énergies renouvelables ont un développement exponentiel même si contrairement à ce qu'on a pu croire, la baisse des émissions aux USA ne serait pas due aux énergies renouvelables mais à la récession ou au report sur la production chinoise. Google apporte sa participation avec le Sunroof Project qui permet de calculer ce qu'on gagnerait à s'équiper de panneaux solaires sur son toit (et il suffit de cliquer pour qu'on vienne les installer). Si le coût du solaire reste trop élevé, malgré tout, c'est uniquement à cause du coût d'installation. Il faudrait donc privilégier les systèmes en kit ou des vitres photovoltaïques, par exemple.

On met l'accent sur les transports mais leur impact est surévalué par rapport à l'alimentation responsable de 50% des gaz à effets de serre. Impossible de ne pas donner la priorité à un changement d'agriculture et d'habitudes alimentaires (notamment réduire la viande de boeuf et le lait) bien que cela semble presque impossible car même si on arrivait à diminuer la consommation des pays riches, la consommation mondiale de viande va continuer à progresser. Il y a plus de raisons de s'inquiéter que d'espérer, sauf à se dire qu'à mesure que le problème s'aggravera, on le prendra de plus en plus au sérieux. Je mets peut-être trop d'espoirs dans la capture du CO2, qu'on pourrait transformer en précieuses nanofibres de carbone ou en carburant avec toutes sortes de catalyseurs, mais les quantités en jeu sont décourageantes. Pour l'instant, on continue d'exploiter de nouvelles sources d'hydrocarbures, avec cette fois la découverte du "plus grand" gisement de gaz en Méditerranée dans les eaux territoriales de l'Egypte. Il faut ajouter que les forêts sont en très mauvais état, pas tant à cause du réchauffement climatique que des hommes, mais cela ne fera que l'aggraver un peu plus...

Depuis le temps qu'on en parle, on a fait encore quelques pas de plus vers la fusion. mais il ne faut pas compter dessus avant des décennies (on n'en a d'ailleurs pas besoin). Par contre, on a du mal à croire, comme le prépare Elon Musk, qu'on enverra des hommes sur Mars dans 10 ans quand Mars sera au plus près de la Terre ! En attendant, les véritables bouleversements se trouvent sur notre planète, notamment avec l'irruption de l'économie on-demand, hors salariat, simple conséquence d'internet et du smartphone mais qui déstructure les anciens rapports de production:

Le marché de l'économie à la demande (Uber, etc.) était de 26 milliards de dollars de revenus en 2013 et il atteindrait les 100 milliards dans deux ou trois ans seulement. Pourquoi une progression aussi rapide ? Parce que l'essor de ce marché est amplifié par trois dynamiques : sociétale, économique et technologique.

L'économie on-demand semble créer plus de valeur qu'elle n'en détruit, en particulier dans les secteurs de l'hébergement, du transport, de la finance et de la distribution. Ainsi, Airbnb permet aux voyageurs d'allonger leurs séjours et par conséquent de multiplier leurs dépenses localement. La destruction de valeur, mesurée en baisse du chiffre d'affaires des hôtels, serait donc plus que compensée, comme le montre cet exemple pris à San Francisco :

On a une nouvelle démonstration qu'en économie, une baisse d'un côté crée normalement un gain de l'autre (ce qui condamne les résistances d'arrière-garde) mais, surtout, cette économie de l'usage immédiat sort de la possession marchande et favorise les produits de meilleure qualité et plus durables. Le gain écologique serait considérable aussi avec la généralisation des taxis autonomes. Selon un rapport de Lux Research, d'ici 2030, c'est-à-dire dans seulement 15 ans, le marché de la voiture autonome représenterait 87 milliards de dollars. Ces voitures autonomes couplées aux systèmes de transport tels qu'Uber pourraient faire disparaître le besoin en voitures personnelles d'ici 25 à 30 ans. Pour l'instant, comme d'autres pays, la France s'apprête à autoriser les voitures et camions autonomes (à noter cependant que les voitures autonomes ont des difficultés avec les voitures avec conducteurs et peuvent rester bloquées à un stop si personne ne les laisse passer!). A noter, enfin, que les appareils numériques entretiennent les capacités des personnes âgées et leur font gagner presque 10 ans dès la cinquantaine.
 

- Sciences

Une des nouvelles les plus importantes, c'est que Monsanto met au point de nouveaux OGM par pulvérisation d'ARN interférents absorbés par les feuilles et qui bloquent temporairement (2 jours maxi) des gènes soit pour tuer des insectes soit pour améliorer la plante en fonction des conditions (résistance à la sécheresse, etc.), solution plus souple que la modification du génome, permettant de moduler l'expression des gènes en temps réel, ce qui constitue une véritable révolution pour les biotechnologies, donnant, par exemple, la possibilité de changer momentanément la couleur des fleurs. L'innocuité semble douteuse, surtout pulvérisé dans l'air par avion, mais du moins la dégradation de l'ARN est assez rapide. La technique est certainement puissante même si elle n'est pas encore opérationnelle, pour l'agriculture du moins. Des "riborégulateurs" peuvent effectivement contrôler finement l'expression des gènes, notamment dans des applications médicales. On passe ainsi des manipulations génétiques à la régulation épigénétique et de l'ADN à l'ARN. De façon assez proche, et pouvant constituer un grand pas dans la lutte contre le cancer (il faut rester prudent sur les perspectives thérapeutiques), il serait possible d'arrêter le cancer avec des microARN qui rendent les tumeurs bénignes. La génétique n'est pas abandonnée pour autant puisqu'on a enfin réussi à produire des cellules souches totipotentes (je croyais que c'était fait depuis longtemps!) et qu'on produit avec la méthode CRISPR des antibiotiques ciblés (en utilisant des ARN pour modifier l'ADN).

Une innovation qui pourrait être de grandes conséquences, c'est l'intégration d'une boucle de rétroaction dans l'optogénétique, permettant d'intervenir plus efficacement sur les circuits neuronaux. Bien sûr, les expériences sur le cerveau peuvent effrayer. On pourrait ainsi provoquer une apnée inconsciente par stimulation de l’amygdale gauche, ce qui signifie qu'on peut arrêter la respiration de quelqu'un sans qu'il s'en rende compte ! Une autre trouvaille troublante, c'est un médicament qui efface les souvenirs de l'addiction à la méthamphétamine, ciblant spécifiquement les souvenirs sous amphétamine ! Il est amusant par contre qu'on trouve enfin une différence entre hommes et femmes dans la réaction au cannabis sous oestrogène ! Preuve qu'il n'y a pas tant de preuves que ça de cette différence qui saute aux yeux pourtant. Ce qu'on prétend savoir là dessus reste très fragile (idéologique). De toutes façons, près des deux tiers des études en psychologie ne peuvent pas être reproduites, preuve cette fois de l'incertitude de la recherche en acte même si les résultats scientifiques résistent ensuite à tout. Le langage reste le trou noir de la connaissance, malgré la linguistique, restant la barrière essentielle à l'utilisation de robots comme à la traduction automatique. On va chercher des bribes de langage des bonobos pour ne pas voir tout ce qui différencie ces signaux du langage narratif. Il est bien possible que le langage ait commencé avec des signes gestuels puis sous forme de sons signifiants imitant les bruits de la nature ou par analogie (court ou long, fort ou faible). Cela n'empêche pas que les langues sont toutes différentes et on en reste ainsi au langage phonétique, qu'on trouve effectivement chez les singes à l'état d'ébauche, et qu'il faut opposer au langage narratif où le son n'a plus de sens en soi mais seulement comme mot arbitraire (ou plutôt construit à partir d'unités de sens). Plutôt qu'étudier les langages animaux, ce qui est intéressant, c'est de voir les limites de ce que peut maîtriser un gorille à qui on a appris le langage des gestes. Sinon, l'idée d'une langue universelle n'est pas nouvelle mais ce sera peut-être par la traduction automatique qu'on pourrait y arriver, générant une langue type comme forme intermédiaire pour interpréter les différentes langues ou convertir d'une langue à une autre. Sinon, le langage sifflé (voir aussi sciences et avenir) ferait appel à l'hémisphère droit (pas seulement à l'hémisphère gauche) et on prétend avoir réussi à apprendre à des oiseaux la langue d'une autre espèce alors que cela ne va pas plus loin que le réflexe conditionné...

Les nouvelles découvertes sur l'émergence des hominidés, caractérisée par une évolution buissonnante en multiples espèces, soulignent les convergences d'évolution (ou homoplasie) témoignant à quel point c'est l'environnement et nos outils qui nous façonnent, non pas une essence humaine. Ainsi, la main précède l'intelligence (peut-on dire aussi que les tentacules précèdent l'intelligence des pieuvres ?).  Sinon, l'archéologie marine commence à découvrir les traces de notre passé submergées par la montée des mers, et l'analyse de l'ADN ancien clôt le débat sur l'existence de migrations indo-européennes, qui sont donc confirmées.

En physique, il vaut de creuser l'énigme des gluons qui posent de nombreuses questions et témoignent de l'étendue de notre ignorance sur les constituants de la matière malgré tous les succès du modèle standard. Les spéculations sur l'origine de l'univers sont aussi hasardeuses, notamment une supposée inflation bien difficile à croire. Justement, il se pourrait que l'inflation soit due à un noeud de gluons (de tubes de flux magnétiques) bourré d'énergie, qui se déferait rapidement en s'étirant (en 3 dimensions seulement). D'autres théories font intervenir le champ de Higgs, de façon très hypothétique avec une conséquence fâcheuse d'instabilité de l'univers, ce qui pourrait mener à la fin de l'univers à cause des petits trous noirs au LHC ! En fait, si le risque existait, on ne devrait pas être là. Moins spéculatif (quoique) on apprend que l'univers aurait subi 7 contractions momentanées.

Parmi les projets les plus audacieux, on peut citer celui d'un ascenseur spatial gonflable, servant de base aux futurs astronautes, il y a aussi plusieurs avions hypersoniques à l'étude et le plus incroyable sans doute, c'est que l'Hyperloop se concrétiserait bientôt, poussé là encore par Elon Musk (qui finira bien par tomber sur un os à prendre tant de risques sur tous les fronts).
 

- Numérique

Le numérique était en vacances mais on a tout de même appris que le Bitcoin risque d'être paralysé début 2016 car le protocole ne peut pas traiter plus de sept transactions à la seconde. Première limite technologique des monnaies électroniques. Une version alternative a été produite mais la migration n'est pas acquise et cela fait tomber le mythe d'une monnaie sans maître ni régulation. Cela n'empêche pas la BNP de prédire qu'avec la technologie bitcoin les organismes financiers actuels vont devenir en grande partie "superflus". Une nouvelle application, Marionette, prétend contourner la censure en prenant l'apparence de communications Skype ou de jeux en ligne mais il est difficile de croire que les censeurs ne trouveront pas la parade. A signaler que, Pour les communications proches, il serait plus sûr d'utiliser des champs magnétiques transmis par le corps au lieu de liaisons bluetooth. Dans un tout autre domaine, le logiciel ACAT qui lit les mouvements de contraction des muscles de l’une des joues de Stephen Hawking pour lui permettre de communiquer via un ordinateur est désormais open source et disponible gratuitement. Un autre système a été mis au point qui permet de parler avec le souffle.

On peut s'inquiéter, sinon, du brevet que Facebook vient de déposer et qui pourrait influer directement sur nos vies, puisqu'il concernerait la capacité à contracter un crédit. Intitulé "Autorisation et authentification basée sur le réseau social de l’individu", il s’agirait d’utiliser le réseau social, et plus particulièrement vos amis, pour évaluer la capacité d’un client/utilisateur à contracter un crédit.

Enfin, il est intéressant qu'on soit obligé, pour que les robots soient moins dangereux, de les faire se projeter en avant, en 3D, afin de prévoir les obstacles et autres risques. Il faut donc qu'ils perçoivent vraiment le monde devant eux, identifiant les objets, leur fonction et mouvements, perception liée au déplacement et à l'intentionnalité (projection de l'intention). Ces robots pourraient servir à l'avenir de guides d'aveugles mais on verra ici de nouveaux robots agiles sur tout terrain ou capables d'apprendre des recettes par internet, etc.



Pour la Science no 455, gluons


Pour la Science

- L'énigme des gluons, p26

A priori, on ne trouve pas forcément nécessaire de s'intéresser aux gluons qui sont les bosons intermédiaires de l'interaction forte assurant la cohésion des noyaux, même si leur particularité est de peser très lourd, ce qui est étonnant pour des bosons (et justifiait l'hypothèse du champ de Higgs, ce qui montre déjà toute l'importance de ces particules). Ce qui me semble passionnant dans l'histoire, c'est (comme toujours) de montrer tout ce qu'on ignore et que, plus notre connaissance s'approfondit, plus on prend conscience de l'étendue de notre ignorance...

En liant les quarks, les gluons assurent la cohésion du proton ou du neutron, ainsi que celle des noyaux atomiques. Par quels mécanismes ? Les physiciens n'ont pas encore toutes les réponses.

Une multitude d'autres particules, collectivement nommées hadrons, sont des assemblages de trois quarks ou des combinaisons d'un quark et d'un antiquark.

Depuis l'hypothèse de l'existence des quarks, émise il y a près de cinquante ans, les physiciens ont développé une théorie pour décrire les interactions des quarks et des gluons. Cette théorie a été confirmée auprès des accélérateurs de particules, mais, malgré une bonne compréhension de la façon dont les quarks et les gluons interagissent, certaines propriétés de ces particules échappent encore aux chercheurs. Par exemple, les physiciens ont tenté d'expliquer les caractéristiques des protons, des neutrons et des autres hadrons à partir de celles des quarks et des gluons, mais ils se heurtent à des difficultés. Ainsi, la somme des masses des quarks et des gluons contenus dans un proton est très loin de rendre compte de la masse totale du proton, ce qui nous laisse face à une première question : d'où provient le reste ? Nous ne comprenons pas non plus comment une grandeur quantique, le spin (le moment cinétique intrinsèque) du proton, découle des spins des quarks et des gluons qu'il contient : la somme de ces spins ne correspond pas à celui du proton.

Si les physiciens parvenaient à répondre à ces questions, nous pourrions comprendre comment la matière fonctionne à son niveau le plus fondamental, mais aussi comment se comportait l'Univers à ses premiers instants. L'étude des quarks et des gluons conduit en effet à étudier des états exotiques de la matière qui ont été ceux de l'Univers primordial.

La matière est constituée d'atomes, donc principalement de protons et de neutrons. Or la masse des quarks qui les composent ne représente que 2 % de leur masse. Les 98 % restant seraient le fait des gluons, qui sont pourtant dépourvus de masse (ils n'interagissent pas avec le champ de Higgs).

Quand une particule est libre, c'est-à-dire non liée à d'autres, son énergie est celle de son mouvement (l'énergie cinétique) ; mais les quarks et les gluons ne sont pratiquement jamais libres. Ils ne subsistent en tant que particules libres que très brièvement avant de se retrouver liés au cœur des hadrons. L'énergie d'un gluon ne provient donc pas seulement de son mouvement ; elle résulte aussi de l'énergie dépensée dans sa liaison avec les autres particules, les quarks.

L'interaction forte maintient les quarks au sein des hadrons et assure la cohésion de l'assemblage de protons et neutrons qu'est le noyau atomique. Elle est la plus puissante des quatre forces fondamentales de la nature (les autres sont la force gravitationnelle, la force électromagnétique et l'interaction faible). De la même façon que le photon véhicule l'interaction électromagnétique, le gluon véhicule l'interaction forte : cette force agit entre deux quarks par des échanges de gluons.

L'interaction forte a une autre particularité : la force s'exerçant entre deux quarks est d'autant plus intense qu'ils sont distants l'un de l'autre. C'est le contraire de l'interaction électromagnétique entre deux charges ou deux aimants.

Les physiciens ont montré que l'auto-interaction des gluons joue un rôle central dans la « liberté asymptotique », le fait que l'interaction de deux quarks devienne très faible à très courte distance. Voyons comment.

Autour d'un quark A, des paires quark-antiquark éphémères peuvent, selon les principes de la mécanique quantique, se former spontanément. Ces paires de quarks virtuels tendent à masquer un peu la charge de couleur du quark A aux « yeux » d'un quark B situé à proximité : il y a « écrantage » de la charge de couleur.

Si le quark B se rapproche du quark A, il y aura moins de paires de quarks virtuels pour écranter la charge de A. Ainsi, la force s'exerçant entre les quarks A et B, qui dépend de la charge de couleur visible, augmenterait quand la distance AB diminue, comme dans l'interaction électromagnétique. Cependant, en QCD, il faut aussi considérer les paires de gluons virtuels qui apparaissent autour du quark A. En 1973, les physiciens américains David Gross, Frank Wilczek et David Politzer ont calculé qu'une paire de gluons virtuels a un effet opposé et supérieur à celui d'une paire de quarks virtuels. Ainsi, quand la distance entre les quarks A et B diminue, la force décroît et devient quasi nulle : c'est la liberté asymptotique. Les trois physiciens ont été récompensés par le prix Nobel en 2004 pour ces travaux.

L'une des conséquences remarquables de la QCD est que le nombre de gluons et de quarks présents à l'intérieur du proton peut varier considérablement. Outre les trois quarks principaux, un nombre variable de gluons et de paires quark-antiquark naissent et disparaissent en permanence ; le résultat est une « mousse quantique » fluctuante de particules. D'après les physiciens, quand les protons et les neutrons sont accélérés et atteignent des énergies extrêmes, les gluons présents à l'intérieur des protons se scindent en paires de nouveaux gluons, dont chacun a moins d'énergie que son parent. Ces gluons produisent à leur tour d'autres gluons d'énergie encore inférieure.

Cette multiplication en cascade des gluons évoque une machine à pop-corn qui s'emballe. La théorie suggère qu'elle pourrait se poursuivre sans fin – mais nous savons que ce n'est pas le cas. Si les gluons continuaient de se multiplier, le couvercle de la machine à pop-corn finirait par sauter ; en d'autres termes, le proton deviendrait instable.

La matière étant à l'évidence stable, l'emballement doit être maîtrisé d'une façon ou d'une autre. Une hypothèse est qu'un effet de saturation interviendrait quand les gluons sont si nombreux qu'ils commencent à se chevaucher au sein du proton. Les gluons les moins énergétiques se recombineraient pour former des gluons plus énergétiques. Le proton atteindrait un état d'équilibre, entre les divisions et les recombinaisons des gluons, qui ramènerait la machine à pop-corn sous contrôle.

Les physiciens étudient également un autre état extrême de la matière connu sous le nom de plasma de quarks et de gluons. Il se forme quand des noyaux atomiques entrent en collision à des vitesses proches de celle de la lumière. Les théoriciens soupçonnent que, dans ces conditions, les neutrons et les protons des deux noyaux voient leurs condensats de verre de couleur voler en éclats, cassant le confinement des quarks et des gluons et libérant l'énergie du condensat pour créer une « soupe » de quarks et de gluons. Ce plasma est la matière la plus chaude jamais créée sur Terre, avec une température de plus de 4 000 milliards de degrés Celsius.

Le plasma de quarks et de gluons présente une forte ressemblance avec les conditions de l'Univers primordial.

- Les plantes sélectionnent leurs bactéries, p12

Un fait étonnant est que, bien que le sol soit riche d’une immense variété de communautés bactériennes, les quelque 10 milliards de cellules par gramme de sol qui colonisent la rhizosphère d’une plante ne représentent qu’une infime portion de cette diversité. Comment la plante « choisit-elle » ses bactéries? Une équipe américaine vient de découvrir un mécanisme en jeu. La plante enverrait un signal depuis ses feuilles via une molécule, l’acide salicylique (le principe actif de l’aspirine).

L’acide salicylique est une hormone des plantes impliquée dans leur développement et leur défense contre des agents pathogènes. Il constitue un acteur clef de leur système immunitaire: synthétisé dans les feuilles en cas d’attaque par un agent pathogène biotrophique (qui se nourrit de la plante), il sert de messager et déclenche des mécanismes de résistance. Il n’est pas la seule phytohormone à remplir ce rôle. D’autres, telles que l’acide jasmonique et l’éthylène, présents dans les racines, sont activées par des bactéries nécrotrophiques (destructrices) ou des insectes mâcheurs.

- Mesmer et le magnétisme animal, p68

Article intéressant sur la vogue du mesmérisme (précurseur de l'inconscient et de l'hypnose, qui prétend guérir avec des aimants) et sa condamnation en 1784.

Alors même que les commissions prononcent leur verdict, un disciple de Mesmer, le marquis de Puységur, annonce avoir découvert un phénomène extraordinaire, le somnambulisme magnétique, autrement dit l'hypnose. En magnétisant des patients, il les plongerait dans un état de conscience modifié, voisin du sommeil, où ils seraient capables de diagnostiquer leur propre pathologie, voire de prédire le jour de leur guérison.

Le point important, pour Puységur et ses partisans, est que le somnambulisme magnétique pouvait être interprété comme un phénomène purement psychique, fondé sur la suggestion, et qu'il n'avait donc aucun rapport nécessaire avec l'existence physique du magnétisme animal, dont les commissaires venaient justement d'affirmer l'inanité.


La Recherche no 503, Parkinson


On n'a plus accès en ligne aux articles, on peut seulement feuilleter le numéro ce qui ne m'a jamais paru très pratique. Il est vrai que le système précédent d'accès aux articles était lourd mais il permettait au moins de donner des liens. Mes références à La Recherche seront donc plus limitées qu'avant.

De toutes façons, les articles sont souvent des synthèses, intéressantes mais qui font doublons avec les nouvelles déjà données les mois précédents, comme l'article sur le Parkinson (p26) qui parle de la stimulation profonde, de la protéine alpha-synucléine à l'origine de la maladie, et de la thérapie génique. On retiendra cependant qu'il est peu probable que le Parkinson soit une maladie à prion car "très peu infectieuse, très lente et peu virulente", les causes semblant plutôt soit inflammatoire, soit la duplication du gène de la protéine ou encore l'exposition aux pesticides. Sinon, on notera que la stimulation par infrarouge est très différente de la stimulation électrique qui agit en brouillant les signaux alors que le proche infrarouge améliore le métabolisme des neurones, stoppant la perte neuronale. On avait vu que l'effet du proche infrarouge était surtout physique, fluidifiant les liquides mais, une autre explication est donnée ici :

Les mitochondries contiennent des enzymes comme la cytochrome C oxydase, qui sont photosensibles. C'est un peu comme la chlorophylle chez les plantes, qui absorbe la lumière let fabrique de l'énergie. Dans le cas des mitochondries, la cytochrome C oxydase absorbe la lumière dans la bande du proche infrarouge. Ce phénomène stimule la chaîne de transport des électrons. Et cela augmente la production d'ATP, molécule qui fournit l'énergie nécessaire aux réactions chimiques du métabolisme des cellules. Autrement dit, le rayonnement infrarouge redonne de l'énergie aux neurones producteurs de dopamine de la substance noire, attaqués par la maladie. Cela les empêche de mourir. On a donc en effet neuroprotecteur.

Si la nouvelle hypothèse se vérifie, faisant de la surchauffe des mitochondries la cause de l'épuisement des neurones dans le Parkinson, la stimulation des mitochondries pourrait aussi bien aggraver les choses que régler le problème à la source ? En tout cas, ce sont les mitochondries qui sont au centre de plusieurs études ou thérapies et pas du tout les plaques d'alpha-synucléine...

L'article sur l'émergence des hominidés (p64) est lui aussi une simple récapitulation de nombreux bouleversements récents, ce qui est bien utile car je répète toujours que rien ne change tant que notre passé! Ce que je retiendrais de cette évolution buissonnante, voyant plusieurs espèces se former dans la période pré-humaine (dès les australopithèques), c'est à la fois qu'il y a divergence entre plusieurs stratégies d'adaptation et que c'est la technique qui prendra finalement le dessus, mais aussi que plusieurs espèces peuvent évoluer de la même façon indépendamment. C'est ce qu'on appelle l'homoplasie (phénomènes de convergence) mais qui est surtout frappante dans l'évolution technique qui semble prendre le même chemin à chaque fois (des pierres grossièrement taillées aux bifaces), renforçant la conviction qu'on est bien sujets de la technique (effet du milieu) plus que ses inventeurs. C'est assez clair sur le long terme au moins, tout-à-fait comme les avancées de la science qui ne dépendent pas du tout des scientifiques (Newton ou Einstein n'auraient pas existé, cela n'aurait rien changé à notre physique). On voit bien se dissoudre la figure de l'homme, de son exceptionnalité, au profit d'une logique adaptative qui le dépasse. Il n'y a pas apparition de l'homme soudain mais sa lente sculpture par son milieu (la main forgée par l'outil, l'apprentissage prenant le relais de la variation génétique).

Les caractères morphologiques et comportementaux considérés comme "humains" ont donc pu se développer de manière transversale à travers plusieurs genres. Au lieu de discuter de l'absence ou de la présence de tel ou tel comportement, il est donc plus pertinent de discuter de sa fréquence, de son intensité et de son importance adaptative.

- Les migrations indo-européennes confirmées par l'ADN ancien, p12

2015_Anthony_Figure2.jpeg

Les études de l'ADN ancien (surtout de dents) semblent confirmer qu'il y a bien eu migration des populations Yamma, cavaliers-bergers venant de la steppe au nord de la mer Noire, entre 3000 et 2400 avant J.C, et qui nous auraient transmis notamment la tolérance au lactose. Alors que la tendance était plutôt, notamment chez Jean-Paul Demoule, à nier l'existence d'un peuple indo-européen, la génétique le contredit, rejoignant d'autres approches archéologiques ou linguistiques. On en parlait aussi en mai et dès 2011 le nom des fleuves plaidant pour une origine Yamma de l'indo-européen.

- Des nanostructures de silicium pour batteries à partir de roseaux, p14

Les chimistes sont partis du constat que les nano-structures recherchées pour des anodes en silicium sont déjà présentes dans les réseaux de silice contenus dans certains végétaux, tels les roseaux. Des feuilles de roseaux ont donc été séchées, puis calcinées à 500°C, permettant ainsi d'obtenir un réseau très poreux de silice, débarrassé du carbone et de l'hydrogène qui composaient principalement la plante. Lavée, cette silice (SiO2) a ensuite été réduite en silicium (Si) par l'action du magnésium à haute température tout en conservant les nano-structures initiales du végétal. Enfin pour améliorer ses qualités électrochimiques, ce matériau en silicium pur a été recouvert d'une très fine couche de carbone, par l'action du glucose à 600°C.

- Produire un sang universel débarrassé de ses antigènes, p22

Une équipe canadienne a mis au point une enzyme capable de retirer partiellement les antigènes qui, à la surface des cellules sanguines, déterminent le groupe sanguin. Or la non compatibilité des groupes sanguins lors des transfusions sanguines est causée particulièrement à la présence d'antigènes "A" et "B" à la surface des cellules du sang.

L'enzyme créée, permet de retirer la majorité des antigènes des cellules, en coupant sélectivement les deux principaux types de liens.

Si c'est travaux sont une étape significative vers la fabrication de sang universel, des améliorations notables sont encore attendues. En particulier, la glycosidase artificielle doit aussi reconnaître, et sectionner, les deux autres types de liens qui existent pour laisser les cellules totalement exemptes d'antigènes sanguins.

- Quand la chaleur devient quantique, p58

Ce qui m'a intéressé dans cet article, c'est moins le fait qu'il y ait une limite quantique aux flux de chaleur comme à tout échange d'énergie, mais qu'on a une définition plus large de la chaleur que la vitesse des molécules.

Les particules chargées ne sont pas les seuls vecteurs de chaleur. Ainsi, le rayonnement électromagnétique qui est constitué de photons électriquement neutres en est un autre. De même, les vibrations mécaniques des atomes qui forment le réseau cristallin d'un solide - les phonons - sont quantifiées et transportent aussi la chaleur.

- La menace de l'acidification des océans, p73

Dans ces extraits du livre d'Elizabeth Kolbert sur la "6ème extinction" on apprend que le point de basculement de l'écosystème marin, qui a provoqué dans le passé des extinctions massives, serait autour d'un pH de 7,8 et qu'il serait atteint en 2100... C'est assez désespérant et les quantités en jeu font effectivement penser que la capture du CO2 ne pourra pas être à la hauteur.

Sur la totalité du gaz carbonique que l'on a rejeté dans l'air jusqu'ici, un tiers environ a été absorbé par les océans. Cela correspond à 150 milliards de tonnes, un chiffre stupéfiant. Cependant, comme c'est le cas pour la plupart des caractéristiques de l'Anthropocène, ce n'est pas seulement l'ampleur du phénomène qui importe, mais également sa rapidité.

Si nous rejetions le CO2 dans l'air beaucoup plus lentement, des processus géophysiques tels que l'érosion des roches serait capable de contrer l'acidification. Dans les conditions actuelles, les rejets de gaz carbonique se produisent à rythme beaucoup trop rapide pour que les phénomènes de ce genre se déroulant très lentement puis y faire face.

- Tout le mal vient de la conscience de la mort, p92

On ne peut pas dire que la thèse du livre soit originale mais elle est poussée à l'extrême, expliquant par la peur de la mort toutes les créations humaines, en premier lieu la religion mais aussi l'art, la culture, la science. Il y a incontestablement une pertinence de cette hypothèse comme faute originelle de notre conscience de soi mais qui fait fi de l'histoire. Il n'est pas tout-à-fait certain, par exemple, que la peur de la mort soit aussi forte dans les populations animistes pratiquant le culte des ancêtres et pour lesquelles la mort était plus familière. Surtout le développement de la culture ou de la science répond à d'autres exigences sociales ou matérielles, évolution qui ne dépend pas tellement de nous, mais bien sûr la conscience de la mort y joue son rôle. On ne peut non plus vouloir tout expliquer par la mort de notre humanité, le désir de désir ne s'y réduisant pas du tout (la mort ici serait de ne pas être désiré).

La seule chose un peu originale qui vaut qu'on en parle, c'est que leur enquête menée auprès de juges met sur le compte de cette peur de la mort le fait de défendre nos valeurs et un ordre établi, constatant notamment que des juges confrontés à leur mort deviennent plus sévères et intolérants.

Nous nous accrochons aux symboles, aux institutions et aux valeurs de notre société pour nous distraire de cette fatalité, car ceux-ci nous offrent une illusion d'ordre, de sens et de permanence, alors que nous sommes en tout temps "sur le point de réaliser que notre existence précaire". Aussi, nous contribuons à cette société est fortifions notre estime de soi pour nous forger une part d'immortalité.

Le rappel de la mort nous pousserait à punir ceux qui remettent en question les valeurs de notre culture, et à encourager ceux qui la renforcent.

Sinon, ce n'est pas seulement la "peur" de la mort qui est structurante car la conscience de la mort pose immédiatement la question du suicide (désir de mort) et donc l'exigence d'une vie qui vaille la peine d'être vécue. Pour Hegel, la confrontation au Maître absolu est nécessaire pour nous sortir du service des biens, affirmer notre liberté par rapport au corps ou nos déterminations matérielles et assurer notre reconnaissance comme esprit, raison, parole, acteur (homme et non plus animal). On sait que pour Heidegger, l'angoisse de la mort nous révèle l'Être comme totalité dans laquelle on cherche un sens en la révélant par le langage. C'est ce qui l'a fait retourner à la religion dans l'attente d'un dieu à venir mais il semble difficile effectivement de ne pas s'inscrire dans une cosmologie qui intègre et donne sens à notre existence au-delà de notre mort, ce que beaucoup identifient à la philosophie, depuis les présocratiques, grand récit mis en cause par les post-modernes mais dont il ne semble pas qu'on puisse se passer.

- Les primates se saoulent à l’alcool de palmier, p98

Ils se servent de feuilles mâchées comme éponge qu'ils trempent dans les récipients servant à faire du vin de palmier et se saoulent jusqu'à tomber par terre...

 



Brèves et liens


Physique


cosmologie, physique quantique, nanotechnologies

- L'inflation serait due à un noeud de gluons ?

L'univers primitif aurait été rempli de particules semblables à des gluons - transportant la force responsable de la liaison forte des quarks dans les protons et neutrons. Lorsque l'univers s'est refroidi, cet afflux de gluons aurait formé des structures filiformes appelées tubes de flux magnétiques (comme à la surface du soleil).

Ces tubes sont un peu comme les lignes de champ que vous voyez en mettant de la limaille de fer autour d'un aimant, mais ils seraient si densément entassés qu'ils seraient enchevêtrés et feraient des noeuds - comme n'importe quel fil. "Si vous prenez vos écouteurs et les mettez dans votre sac à dos, ils ont tendance à s'emmêler. Voilà exactement l'image de ce que nous avons décrit".

Ce réseau étroitement enchevêtré de tubes de flux possède beaucoup d'énergie - assez pour conduire à l'inflation. A mesure que l'univers entre en expansion, le réseau s'étend jusqu'à ce qu'il finisse par se défaire, mettant ainsi un terme à l'inflation.

Qu'est-ce que cela a à voir avec des dimensions de l'espace ? C'est un fait peu connu que les nœuds ne peuvent se former qu'en trois dimensions [??]. Ajoutez-en plus et les boucles peuvent passer à travers les dimensions supplémentaires et se dissocier.

Cela expliquerait qu'il ne nous resterait que les trois dimensions que nous voyons aujourd'hui: c'était nécessaires pour que des réseaux de tubes de flux puissent se former. "c'est seulement en trois dimensions qu'il y a ce mécanisme de sélection".

Comme le réseau ne peut être topologiquement stable que dans les trois dimensions de l'espace, ce scénario donne une explication dynamique à l'existence d'exactement trois grandes dimensions spatiales dans notre univers.

- L'univers aurait subi 7 contractions momentanées

Les 7 contractions de l'Univers ©University of southern Mississipi

Comme un coeur qui bat, l’Univers se serait contracté puis relâché pas moins de sept fois au cours des 13,8 milliards d’années de son existence. Et cette oscillation continuerait aujourd’hui, avec des amplitudes beaucoup plus faibles. Comme lorsque l’on frappe un objet qui vibre en émettant un son qui s’atténue au cours du temps, à mesure que l’amplitude des vibrations se réduit.

- L'Univers a perdu la moitié de son énergie depuis 2 milliards d'années

La quantité d'énergie produite à l'heure actuelle dans une portion de l'Univers représente la moitié environ de ce qu'elle était voici deux milliards d'années, et révèle que cette chute de production affecte l'ensemble des longueurs d'onde comprises entre l'ultraviolet et l'infrarouge lointain.

"La plupart de l'énergie qui emplit l'Univers résulte du Big Bang. Mais de l'énergie supplémentaire est constamment libérée par les étoiles, lors de la fusion d'éléments tels l'hydrogène et l'hélium. Une fraction de cette énergie est absorbée par la poussière lors de sa traversée de la galaxie hôte. L'autre partie s'échappe dans l'espace intergalactique et voyage jusqu'à ce qu'elle rencontre un objet telle qu'une étoile".

Est-ce dû aux trous noirs, à la perte du rayonnement ou à l'expansion de l'univers ?

- Des planètes habitables doivent être protégées des rayons cosmiques

Au lieu de juste s'intéresser à la présence d'eau et de roches, il faut aussi que les planètes soient abritées des rayons cosmiques par le champ magnétique de leur étoile et leur propre champ magnétique. Cette propriété devant être cherchée pour déterminer si des planètes peuvent abriter la vie.

Il faut ajouter qu'il faut être situé en banlieue cosmique, loin de la création ou destruction d'étoiles produisant des sursauts gamma grillant tout sur leur passage.

- Optical Seti : des idées originales pour détecter des E.T.

La Nasa et l'agence spatiale japonaise (Jaxa) ont testé au début des années 2010 des voiles solaires avec les missions NanoSail-D2 et Ikaros. Le concept et son prolongement, celui de photovoiles exploitant des faisceaux artificiels de photons, est prometteur pour des voyages interplanétaires et même interstellaires. C'est pourquoi la Planetary Society a décidé de lancer sa propre photovoile avec l'aide du public. Il s'agit du projet LightSail-1 que l'on voit illustré sur cette image d'artiste. © Josh Spradling, The Planetary Society

Je trouve cela assez débile (sphères de Dyson, l'idée qu'on devrait toujours consommer plus d'énergie, etc.) mais ça peut amuser...

- La Terre serait unique par sa diversité de métaux

ImageLes minéraux se forment par nouvelles combinaisons d'éléments. Ces combinaisons peuvent être facilitées par l'activité à la fois géologique, y compris les volcans, celle de la tectonique des plaques avec les interactions eau-roche, enfin l'activité biologique, produisant des réactions chimiques avec l'oxygène ou de la matière organique.

Plus des deux tiers des minéraux connus peuvent être liés directement ou indirectement à l'activité biologique. Une grande partie est due à la photosynthèse bactérienne, qui a augmenté de façon spectaculaire, il y a environ 2,4 milliards années, la concentration d'oxygène.

Une analyse statistique plus approfondie de la distribution et de la diversité minérale suggère que des milliers de minéraux rares attendent toujours leur découverte (s'ils n'ont pas disparus par enfouissement ou érosion). Il y aurait 1.563 minéraux présent sur Terre et qui n'ont été encore ni découverts ni décrits.

Cette diversité minéralogique aurait pu être tout autre. "Cela signifie que, malgré tous les facteurs physiques, biologiques, chimiques, qui déterminent la plus grande part de la diversité minérale de notre planète, la minéralogie de la Terre serait unique dans le cosmos".

- Le mystère de neutrinos cosmiques extrêmement énergétiques

An IceCube event display showing the latest ‘most energetic event.’   Each open circle is an un-hit optical module; the filled spheres show hit modules, with the radius indicating the number of detected photons.  The colors indicate the relative time (red is first, then orange, yellow, green, and blue), but with the chosen scale, the timing isn't that useful. Credit: Leif Radel

On ne comprend ni d'où ils viennent ni comment ils peuvent être si énergétiques, un mystère de plus pour la physique...

- La fin de l'univers à cause des petits trous noirs au LHC ?

Un champ scalaire Φ, comme celui décrivant le boson de Brout-Englert-Higgs, peut donner lieu à une densité d'énergie dans le vide variable V(Φ). Dans le cadre de la théorie de l'inflation, avec un équivalent du champ de Higgs, V(Φ) avait au début de l'histoire de l'univers une valeur non nulle très importante entraînant une expansion très rapide de l'espace. L'univers était alors dans un état de faux vide (false vacuum). Le champ Φ pouvait être nul à ce moment-là, puis avoir évolué rapidement de sorte que V(Φ) se soit annulé. L'univers serait passé à la fin de l'inflation dans un état de vrai vide (true vacuum). Des variantes existent avec une fonction V(Φ) présentant plusieurs vallées séparées par des collines. L'univers pourrait n'avoir fait que transiter entre deux vallées représentants des faux vides, par exemple par effet tunnel quantique. Notre propre univers observable pourrait bien ne pas être encore dans un état d'énergie minimale. Il pourrait alors être instable et son régime d'expansion pourrait varier radicalement. Ceci n'est qu'un exemple des théories pouvant rendre compte de l'énergie noire avec un champ scalaire. Si l'énergie noire peut varier dans le temps, l'univers pourrait finir dans un Big Crunch ou un Big Rip.La mise en évidence du boson de Brout-Englert-Higgs leur permet de revisiter le problème de l’instabilité du vide quantique. Celui-ci peut faire craindre que le redémarrage du LHC, et surtout la création de minitrous noirs dans les collisions de faisceaux de protons à 13 TeV qu’il accélère, n’entraînent rien de moins que la destruction de l’univers observable tel que nous le connaissons...

Rappelons que le vide quantique est par définition l’état d’énergie minimale des champs quantiques dans le cosmos observable. Il n’y a aucune raison qu’il soit de valeur nulle et de fait, l’existence de l’énergie noire est selon toute probabilité une manifestation de cette énergie du vide. L’une des composantes de cette énergie doit provenir du champ de Brout-Englert-Higgs ou plus exactement d’un terme dans les équations qui le décrivent. Comme le montre le schéma ci-dessus, ce terme peut se représenter comme un relief montagneux avec des bosses et des creux dont certains ne sont pas associés à une altitude nulle, c'est-à-dire une densité d’énergie nulle dans l’univers actuel. Il se pourrait que l’état du champ de Higgs ne soit pas associé à un creux d’altitude zéro.

Quelles seraient les conséquences de cette transition ? Il est difficile de le dire avec précision mais les masses de plusieurs particules du modèle standard en serait affectées, celle des électrons par exemple et donc aussi la taille des atomes et leurs propriétés physiques et chimiques. Il est certain que cela se produirait avec la masse des bosons W et Z, lesquels sont responsables de la radioactivité bêta qui intervient dans les réactions thermonucléaires faisant briller le Soleil.

Dans le cadre des calculs de Coleman, une éventualité bien pire semble possible. La transition dans le vide quantique pourrait s’amorcer quelque part dans une petite région du cosmos et une sorte de bulle de nouveau vide se formerait en gonflant, comme une bulle de gaz dans un liquide mais à la vitesse de la lumière. La géométrie de l’espace-temps dans cette bulle changerait radicalement et elle deviendrait très instable de sorte que l’espace-temps ne tarderait pas à s’effondrer. Ce serait donc la fin de l’univers.

Quel rapport avec le LHC ? Le temps de vie du faux vide quantique minimal dans le cadre du modèle standard est particulièrement long mais il devient beaucoup, beaucoup plus court en présence de minitrous noirs aussi petits que ceux que l’on pourrait en théorie fabriquer au LHC d’après les calculs de Moss, Gregory et Burda. Cette fois, ce n’est pas seulement la Terre mais l’univers entier qui serait menacé de destruction.

Ces minitrous noirs agiraient comme l’équivalent des germes de nucléation qui provoquent la formation de gouttes d’eau à partir de la vapeur ou encore lorsqu’un choc provoque la transformation en glace de l’eau liquide dans un état de surfusion.

Il n’y a pas de raison de s’inquiéter pour autant. Si les calculs des chercheurs sont justes, pour les mêmes raisons qu’invoquées précédemment, la création de minitrous noirs par les rayons cosmiques aurait dû provoquer un changement de phase du vide quantique ayant conduit à la destruction du cosmos depuis fort longtemps.

L'argument m'avait déjà convaincu à l'époque qu'on n'avait rien à craindre du LHC car des collisions encore plus énergétiques se produisaient dans notre atmosphère et j'ai du mal à croire à une instabilité de l'univers mais cette théorie témoigne du moins à quel point nous sommes dans l'incertitude.

- Un déséquilibre entre leptons suggère un nouveau champ

Dans cet affichage de l'événement à partir de l'expérience LHCb au Grand collisionneur de hadrons du CERN, collisions proton-proton au point d'interaction (extrême gauche) se traduisent par une pluie de leptons et d'autres particules chargées.  Les lignes jaunes et vertes sont des reconstructions générées par ordinateur des trajectoires de particules à travers les couches du détecteur LHCb.  Image: CERN / Collaboration LHCbSelon un concept fondamental du modèle standard appelé "universalité leptonique", tous les leptons seraient traités de la même façon par toutes les forces fondamentales. La désintégration du lepton tau et du muon devraient donc toutes deux arriver à la même vitesse, une fois rapportée à leur différence de masse. Cependant, l'équipe a trouvé une petite, mais notable, différence dans les taux prévus de désintégration, ce qui suggère que des forces ou des particules encore inconnues pourraient interférer dans le processus.

"Le modèle standard dit que le monde interagit avec tous les leptons de la même manière. Il y a une démocratie. Mais il n'y a aucune garantie que cela reste vrai si nous découvrons de nouvelles particules ou de nouvelles forces".

- Accélérer des positrons dans un plasma

Une nouvelle façon, plus efficace, d'accélérer les positrons (antimatière des électrons) permettrait de réduire la taille des futurs accélérateurs linéaires de particules.

- La superposition des portes logiques renouvelle l'informatique quantique

C'est un nouveau système de calcul quantique dans lequel les opérations se déroulent sans un ordre bien défini. Cela a pour effet de pouvoir accomplir une tâche plus efficacement qu'un ordinateur quantique standard mais surtout pourrait jeter les bases d'une nouvelle forme d'informatique quantique, avec une encore plus grande accélération des calculs.

Avec une superposition de portes quantiques, il est impossible - même en principe - de savoir si une opération a eu lieu avant une autre opération, ou l'inverse. Cela signifie que deux portes logiques quantiques A et B peuvent être appliquées dans les deux sens en même temps. En d'autres mots, la porte A agit avant B et B agit avant A. Une expérience dans laquelle deux portes logiques quantiques ont été appliqués à des photons uniques a confirmé qu'il était impossible de déterminer quelle porte avait été la première - mais l'expérience n'est pas une simple curiosité. "En fait, nous avons été en mesure d'exécuter un algorithme quantique plus efficacement que tout algorithme précédemment connu".

- Une porte logique qui fait interagir les photons entre eux

Ceci est la restitution d'un artiste de ce qui se produit quand un photon passe par un milieu atomique soigneusement préparé en même temps que d'une impulsion dont de nombreux photons.  Modification des couleurs, représente des déphasages non-linéaires captés par chaque impulsion qui est proportionnelle au nombre de photons dans l'autre impulsion.  Un décalage de phase non linéaire mesurable causé par un seul photon sur une impulsion avec de nombreux photons peut permettre déterministes portes à deux qubits, une partie manquante importante du quantum matériel de traitement optique de l'information.  Image: Amir Feizpour

"Normalement des faisceaux lumineux se traversent l'un l'autre sans aucun effet du tout. Dans les ordinateurs quantiques optiques, vous voulez que vos faisceaux lumineux interagissent. Cela n'avait jamais été fait avant avec un photon unique".

Un photon unique a été envoyé sur des atomes de rubidium refroidis à un millionième de degré au-dessus du zéro absolu. Le photon est alors devenu «intriqué» avec les atomes, ce qui affecte la façon dont le rubidium interagit avec un autre faisceau optique. Le photon modifie l'indice de réfraction des atomes, ce qui a provoqué un minuscule mais mesurable "déphasage" dans le faisceau.

Ce processus pourrait être utilisé comme une porte logique quantique.

- Une puce quantique reprogrammable

Cette puce optique "universelle" permet de programmer tout algorithme quantique à base d'optique linéaire avec 6 photons. Elle consiste en une cascade de 15 interféromètres avec 30 déphaseurs thermo-optique

Par ailleurs, le 2X D-Wave est le troisième ordinateur de l'entreprise mis en vente, et dispose de plus de 1000 qubits - le double du modèle précédent mais, si l'entreprise prétend qu'il serait jusqu'à 15 fois plus rapide que les PC ordinaires, le doute subsiste sur ses performances et son intérêt.

- Le doublage de fréquence optique grâce aux excitons

Les monocouches de dichalcogenure de métaux de transition se distinguent du graphène par leur absence de symétrie d'inversion du réseau cristallin. Pour cette raison, ces matériaux présentent une non-linéarité optique du second ordre susceptible de produire du doublage de fréquence en permettant que l'absorption simultanée de deux photons soit suivie de la réémission d'un seul photon dont l'énergie est la somme des énergies des deux photons absorbés.

En outre, dans ces matériaux l'absorption d'énergie lumineuse se traduit par la création d'excitons, des paires électron-trou fortement liées. En focalisant un laser dont la fréquence est la moitié de celles des transitions excitoniques sur une monocouche de WSe2 (séléniure de tungstène) ils ont mesuré un signal doublé en fréquence 1000 fois plus intense que lorsque que le laser excite l'échantillon à une fréquence quelconque.

- Une « cape d'invisibilité » avec des matériaux non hermitiens

Une vague pénètre dans un matériau: Pour les matériaux non-hermitiques spécialement conçus.Les différentes façons dont le matériau peut influer sur l'onde lumineuse sont entièrement annulées par une interaction soigneusement équilibrée entre amplification et absorption de sorte que l'onde lumineuse ne soit pas déviée autour de l'objet mais le pénètre pleinement. "En fin de compte, l'onde lumineuse est exactement aussi brillante qu'elle l'aurait été sans l'objet - à chaque point de l'espace".

La différence avec les autres « capes d'invisibilité » à base de métamatériaux, c'est que l'onde n'est pas détournée mais pénètre l'objet comme s'il n'existait pas.

- La téléportation de champs magnétiques

Vortex métamatériaux téléporte champs magnétiques à travers l'espace

En fait, il ne s'agit que de la transmission par un tuyau d'un champ magnétique, le simple fait que le tuyau soit protégé d'autres champs magnétiques par un métamatériau servant de cape d'invisibilité aux champs magnétiques fait prétendre que ce serait l'équivalent d'un trou de ver mais c'est très exagéré.

Le tuyau est inséré à l'intérieur d'une sphère de bandes supraconductrices qui dévient les champs entrants (couche d'argent dans la figure ci-dessus). Mais cette déviation serait détectable, ce pourquoi une autre sphère, cette fois en matériau magnétique, a été placée à l'intérieur des bandes pour cacher les supraconducteurs (couche intérieure en or).

"Nous avons une compensation très finement ajustée d'attraction et de répulsion qui rend l'objet entier invisible aux champs magnétiques à cause de cette annulation".

Le champ magnétique qui ressort à l'autre extrémité, ressemble à un monopôle magnétique.

- Du sulfure d’hydrogène devient supraconducteur dès -70 °C à haute pression

Pour observer cette supraconductivité, il est toutefois nécessaire d'appliquer au matériau une pression de 1,5 million de bars !

Selon les chercheurs de l’institut Max Planck, si H2S devient supraconducteur à seulement -70°C, c’est essentiellement grâce à sa concentration en hydrogène. Les atomes d’hydrogène, en effet, grâce à leur légèreté, vibrent dans le réseau cristallin avec une fréquence plus élevée que tous les autres atomes. Et, comme ces vibrations sont à l’origine de la supraconductivité conventionnelle, on imagine bien que plus celles-ci sont rapides, plus la température critique est élevée.

- Faire du graphène en projetant des buckyballs à vitesse supersonique

En faisant s'écraser à des vitesses supersoniques ces ballons de carbone sur une surface, ils forment des feuilles de graphène.

Ces feuilles ont leurs propres particularités. Pour commencer, il n'y a pas que des hexagones réguliers, comme dans le graphène. Au contraire, on y troue aussi des pentagones, qui proviennent des structures des buckyballs (C60) d'origine. Ce serait potentiellement utile parce que les pentagones pourraient introduire des bandes dans le matériau, ce qui serait très intéressant.

- Un bioplastique qui se répare avec une simple goutte d'eau

Ce bioplastique dérivé d'une protéine de dent de calmar s'auto-cicatrise en présence d'eau.

- Un ascenseur spatial gonflable

La tour de l'espace de Thoth Technology devrait atteindre plus de 12 miles dans le ciel

On pourrait monter avec cet ascenseur spatial gonflable à 20km, dans la stratosphère, pour rejoindre une plateforme de lancement pour les fusées, nécessitant beaucoup moins d'énergie pour décoller.

 

Climat


climat, énergies, écologie

- Réchauffement : un El Niño inhabituel et des records de chaleur en 2015

Fig1-Anomalie_T°C_juillet_2015

Alors que la NOAA (National Oceanic and Atmospheric Administration) indique que le mois de juillet de 2015 a établi un nouveau record de température – après juin –, les météorologistes annoncent un El Niño exceptionnel, qui pourrait durer jusqu'au printemps prochain. Une élévation anormale des températures des eaux de surface a en effet été relevée dans l’océan Pacifique le long de l’équateur. Le Pérou se prépare à une pluviosité très importante et vient de renoncer au Paris-Dakar.

L’étude des épisodes précédents montre que lors d’un El Niño, l’hiver peut être plus doux à l’ouest et plus rude à l’est, ou plus sec au nord et plus humide à l’ouest…

- Le réchauffement global a mis fin à 1800 ans de refroidissement des océans

Un groupe international de chercheurs a mis en évidence un refroidissement de la surface des océans au cours de la période allant du Ier au XVIIIe siècle. Des éruptions volcaniques seraient vraisemblablement à l'origine de ce refroidissement pour les 1000 dernières années de cette période. Les températures les plus froides ont été celles de la période connue sous le nom du Petit Âge de Glace, avant que le réchauffement lié aux activités humaines ne vienne interrompre cette tendance.

Ces travaux montrent également que le Petit Age de Glace, période particulièrement froide de notre ère sur les continents entre le 15e et le XVIIIe siècle, coïncide avec cette diminution des températures de surface de l'océan, suggérant le caractère global du Petit Age de Glace.

Ces résultats mettent en évidence la manière dont l'océan agit comme mémoire du système climatique. "Une grande partie de l'énergie accumulée dans le système climatique suite au réchauffement global est absorbée par les océans. L'augmentation récente des températures de surface préfigure le réchauffement additionnel à venir, de la même manière que le refroidissement était la réponse à long terme aux épisodes volcaniques plus intenses et fréquents".

Voir aussi Futura-Sciences. Une autre étude réduit l'impact du volcanisme sur le refroidissement, ce qui, lié au caractère global du petit âge glaciaire (nié jusqu'ici), renforce l'hypothèse de l'impact du Minimum solaire sur ce refroidissement ?

- La Nasa juge inévitable une montée des océans d'un mètre d'ici 100 à 200 ans

Animation de la Nasa montrant les variations du niveau des océans. Plus la couleur tend vers le rouge, plus la montée des eaux est importante ©Nasa

"Au vu de ce que l'on sait aujourd'hui à propos de l'expansion des océans avec le réchauffement, et sur la fonte des glaciers et des calottes glacières qui ajoutent de l'eau dans les océans, il est pratiquement certain que nous aurons une augmentation du niveau des mers d'au moins un mètre, et probablement davantage".

Cette montée pourrait durement toucher de grandes villes situées en bord de mer comme Tokyo ou Singapour.

Voir aussi Futura-Sciences.

- La fonte des glaciers pourrait stimuler la croissance du plancton

La fonte des glaciers du Groenland pourrait constituer une source importante de silicium dont certains planctons (les diatomées) ont besoin pour leurs squelettes.

- La fonte des glaciers d'Asie centrale menace les ressources d'eau douce

Glaciers couverts de neige dans les montagnes de Terskey Ala-Too, au Kirghizistan. Les glaciers des monts Tian perdent du volume et de la masse à un rythme rapide. © D. Farinotti, GFZ/WSL

Les glaciers des monts Tian, en Asie centrale, ont perdu 27 % de leur masse et 18 % de leur surface au cours des cinquante dernières années. La neige et la glace qui fondent de ces glaciers sont pourtant essentielles à l'approvisionnement en eau de plusieurs pays.

- Capturer le C02 en le transformant en nanofibres de carbone

Voilà encore une nouvelle technique promettant de capturer suffisamment le CO2 de l'air pour revenir aux niveaux antérieurs. L'utilisation du lithium fait penser que ce serait un facteur limitant mais s'il faut rester prudent sur ces effets d'annonce, qu'elles se multiplient semble indiquer malgré tout qu'on devrait arriver un jour à le faire vraiment ? Par rapport aux "résines échangeuses d’ions" dont on avait parlé en mai, l'intérêt est de produire une matière première valorisable qui non seulement stocke durablement le CO2 mais possède des qualités remarquables (solide et léger) pour la construction entre autres, obtenues ici à coût extrêmement réduit. On peut se moquer du gigantisme du projet et de ses calculs de coin de table menant rapidement à la surproduction mais il n'est pas raisonnable de penser qu'on utilisera une technique unique de captage. C'est seulement l'indication de la faisabilité d'une capture de CO2 massive qui n'est pas hors de notre portée dans le siècle qui vient.

Cette technologie à la fois capture le dioxyde de carbone de l'air et emploie un procédé électrochimique pour le convertir en nanofibres de carbone et oxygène.

Le procédé nécessite du carbonate de lithium fondu avec un autre composé, l'oxyde de lithium. L'oxyde de lithium se combine avec le dioxyde de carbone de l'air pour former du carbonate de lithium. Lorsqu'une tension est appliquée entre deux électrodes immergées dans le carbonate fondu, le mélange réactionnel résultant produit de l'oxygène, du carbone qui se dépose sur une des électrodes, et de l'oxyde de lithium, qui peut être utilisé pour capturer plus de dioxyde de carbone et recommencer le processus.

Les chercheurs ont démontré la capacité de produire une variété de formes différentes et de diamètres de nanofibres en ajustant les conditions de croissance spécifiques, tels que la quantité de courant appliquée à des moments précis et la composition des divers ingrédients utilisés. Ils ont également montré qu'ils pouvaient faire des fibres très uniformes.

D'après leurs calculs, il suffirait d'une superficie inférieure à 10% de la taille du Sahara pour enlever suffisamment de dioxyde de carbone pour faire revenir les niveaux atmosphériques mondiaux aux niveaux préindustriels d'ici 10 ans - même si nous continuons à émettre des gaz à effet de serre à un taux élevé au cours de cette période.

Voir aussi Futura-Sciences (qui ne prennent pas au sérieux l'idée de couvrir 10% du Sahara!).

Le processus de conversion découvert par les chercheurs a été baptisé STEP (Solar Thermal Electrochemical Process). Il repose sur l’utilisation d’un four solaire qui concentre les rayons du soleil dans un creuset. Les chercheurs y font fondre du carbonate de lithium auquel ils ajoutent un peu de zinc — qui permet d’amorcer le processus. La croissance des nanofibres se poursuit grâce à la présence d’atomes de nickel, cobalt, cuivre et fer qui servent de site de nucléation. Le carbure de lithium liquide, à 723°C, devient alors une éponge à gaz carbonique. Deux électrodes plongées dans ce fluide et soumises à une différence de potentiel rendent ensuite possible la synthèse des nanofibres de carbone puisqu'elles permettent de briser les molécules de CO2. 95% du courant électrique utilisé, éventuellement produit lui aussi à partir de l’énergie solaire, soutient la synthèse de ces fibres.

- Un catalyseur (COF) qui transforme le CO2 en CO

Structural model showing a covalent organic framework (COF)  embedded with a cobalt porphyrin.Les réseaux organiques covalents (covalent organic frameworks ou COFs) sont des polymères purement organiques présentant une structure poreuse cristalline.

Ce cristal en porphyrine a une structure en éponge et peut réduire 290 000 molécules de CO2 en CO à la seconde.
- Un tétramère de cuivre pour convertir le CO2 en carburant

Un catalyseur de tétramère de cuivre créé par des chercheurs de l'Argonne National Laboratory peut aider à capturer et convertir le dioxyde de carbone d'une manière qui permet d'économiser l'énergie en fin de compte.  Il se compose de petits groupes de quatre atomes de cuivre, supportés chacun sur un film mince d'oxyde d'aluminium.  Ces catalyseurs fonctionnent en se liant à des molécules de dioxyde de carbone, en les orientant dans une manière qui est idéal pour des réactions chimiques.  La structure du tétramère de cuivre est telle que la plupart de ses sites de liaison sont ouverts, ce qui signifie qu'il peut fixer plus fortement le dioxyde de carbone et mieux peut accélérer la conversion.  Gracieuseté de Larry CurtissIl se compose de petits groupes de quatre atomes de cuivre posés sur un film mince d'oxyde d'aluminium. Ces catalyseurs fonctionnent en se liant à des molécules de dioxyde de carbone, en les orientant d'une manière idéale pour des réactions chimiques. La structure du tétramère de cuivre est telle que la plupart de ses sites de liaison sont ouverts, ce qui signifie qu'il peut fixer plus fortement le dioxyde de carbone et mieux accélérer sa conversion.

L'avantage d'une liaison accrue est que le nouveau catalyseur nécessite une pression plus faible et moins d'énergie pour produire la même quantité de méthanol.

Les obstacles potentiels sont l'instabilité et à trouver comment fabriquer des quantités en masse.

- Produire du méthane avec des bactéries, du CO2 et du soleil

Peidong Yang CJC Bioinorganic Solar to Chemical Text

Dans ce système de photosynthèse artificielle hybride, une matrice de nanofils de silicium et d'oxyde de titane recueille l'énergie solaire qui est utilisée pour scinder la molécule d'eau en oxygène et hydrogène. L'hydrogène est ensuite utilisées par les bactéries pour transformer le dioxyde de carbone en méthane.

Dans la nouvelle étude, la membrane est composée de photocathodes phosphure d'indium et de photoanodes en dioxyde de titane. La membrane a été ensemmencée avec l'archée-bactérie anaérobie Methanosarcina barkeri qui réduit le dioxyde de carbone à l'aide d'un atome d'hydrogène.

- De l'hydrogène solaire avec du dioxyde de titane noir (TiO2)

Voir aussi Technology Review ou ici.

- Un nano-râteau double l'efficacité des cellules solaires en polymère

Cette avancée pourrait aider à faire des cellules solaires en polymères une alternative économiquement attrayante par rapport à celles, beaucoup plus coûteuses, en silicium.

Dans les expériences, les cellules solaires fabriquées avec ce petit râteau ont doublé leur efficacité.

Les cellules en polymères combinent généralement deux types de polymères: un donneur, qui convertit la lumière en électrons et un accepteur, qui stocke les électrons jusqu'à ce qu'ils puissent être enlevés de la cellule, converti en électricité utilisable. Mais lorsque, dans sa fabrication, ce mélange est déposé sur la surface conductrice d'une cellule, les deux types ont tendance à se séparer en séchant, constituant de gros amas irréguliers, ce qui rend plus difficile pour la cellule de produire des électrons et de les stocker, ce que corrige le dit râteau (ou brosse).

- Un gel en protéine bovine et huile de coco booste les cellules solaires

Image: ShutterstockLe procédé utilise une protéine comestible (albumine bovine) mélangée avec un acide gras de l'huile de noix de coco. Lorsqu'on la réchauffe, la combinaison forme un gel, constitué d'environ 95% d'eau. Le gel est mélangé avec quatre molécules de colorant qui absorbent les régions bleue, verte et jaune du spectre solaire et réémettent dans le rouge plus efficace pour produire des courants électriques dans les cellules solaires.


- Des vitres intelligentes

dpr-construction-headquartersCes fenêtres électrochromiques comportent une couche d'oxyde de métal à l'intérieur. En appliquant une faible tension électrique à l'oxyde, les ions viennent exciter le matériau électrochrome pour bloquer la lumière.

La société affirme que ses fenêtres peuvent faire économiser 20% sur la facture d'énergie en régulant l'intensité du rayonnement solaire.

Chaque fenêtre a une adresse IP et peut être contrôlée par internet.

- Des vitres photovoltaïques intégrant des points quantiques

The luminescent solar concentrator could turn any window into a daytime power source.

C'est une nouvelle technologie prometteuse, la concentration solaire électroluminescente (luminescent solar concentrator) qui consiste à concentrer des rayons lumineux renvoyées par des nanoparticules aux cellules photovoltaïques tapissées sur le bord de la fenêtre.

"Dans ces dispositifs, une fraction de la lumière qui passe par la fenêtre est absorbée par des particules de taille nanométrique (points quantiques semi-conducteurs) dispersées dans une fenêtre en verre et qui réémettent la lumière dans l'infrarouge (invisible à l'œil nu) guidé vers les cellules solaires sur le bord de la fenêtre".

L'avancée consiste surtout dans le procédé d'inclusion des points quantiques dans un polymère de haute qualité optique, mais on a là une version hightech de la version lowtech ci-dessous.

- Un film transparent sur les fenêtres pour produire de l'électricité

new energy technologies want to make electricity with every window

New energy technologies a mis au point une pellicule capable de produire de l’électricité lorsque appliquée sur du verre ou du plastique.

Ces polymères organiques photovoltaïques sont totalement transparents mais peuvent être teintés à loisir et ne capturent que les rayons UV. De plus, contrairement aux systèmes photovoltaïques traditionnels, ces « fenêtres solaires » sont conçues pour opérer par tous temps, et même avec de la lumière artificielle.

- Un tournesol solaire à concentration

Ce tournesol solaire combine l'énergie solaire photovoltaïque et thermique concentrée, design esthétique qui aurait une efficacité totale de 80% environ.

Il ne produirait cependant que du 12V et serait trop cher...

- Des voitures électriques solaires grâce à la pérovskite ?

Si, pour le moment, la technologie photovoltaïque n’est pas assez performante pour pouvoir alimenter les batteries lithium-ion des véhicules électriques, les choses pourraient évoluer grâce à la pérovskite. © Daniel Borman, CC by 2.0

Avec un prototype de chargeur pour batterie lithium-ion basé sur des cellules photovoltaïques en pérovskite, quatre de ces cellules en série ont pu recharger une batterie lithium-ion en obtenant une efficacité photoélectrique et de stockage de 7,8%.

"Les pérovskites ont apporté un élan considérable à la communauté photovoltaïque et sont encore pleines de promesses mais elles se heurtent également à des verrous très importants comme leur piètre stabilité ou leur mauvaise résistance à l’eau".

- Un pas vers la fusion grâce au confinement du plasma

Les réactions de fusion souvent envisagées. Celle avec du bore (boron en anglais) produit trois noyaux d'hélium, des particules alpha.L'utilisation d'hydrogène-bore au lieu de deutérium-tritium a l'avantage que le bore est bien plus abondant que le tritium et que cela ne produit pas de neutrons qui attaquent les parois mais exige 30 fois plus d'énergie.

Tri Alpha Energy a construit une machine qui produit une boule de gaz surchauffée - à environ 10 millions de degrés Celsius - et la maintient en l'état pendant 5 millisecondes sans pertes. Cela peut sembler un simple clin d'œil, mais c'est beaucoup plus long que les résultats précédents et montre pour la première fois qu'il est possible de maintenir le gaz dans un état ​​stable. Les chercheurs n'ont arrêté l'expérience que par manque d'énergie.

Le dispositif de Tri Alpha vise à confiner un gaz si chaud que ses atomes sont dépouillés de leurs électrons, produisant un mélange d'électrons et d'ions rapides qu'on appelle plasma. Si les ions entrent en collision avec assez de force, ils fusionnent, convertissant une partie de leur masse en énergie, mais cela nécessite des températures d'au moins 100 millions de degrés Celsius, assez chaud pour faire fondre n'importe quel récipient. Donc, le premier défi pour les concepteurs de réacteurs de fusion est de savoir comment confiner le plasma sans le toucher.

La solution résiderait dans le fait d'envoyer des particules à haute vitesse tangentiellement au bord du plasma. La rapidité de ces nouveaux arrivants leur ferait suivre des orbites beaucoup plus larges dans le champ magnétique du plasma que les particules internes ; ces orbites larges agiraient comme une coque de protection, protégeant le plasma à la fois contre les turbulences et l'instabilité produites par la chaleur.

Voir aussi Futura-Sciences.

- ARC, la fusion grâce à des champs magnétiques plus intenses

Une vue en coupe du réacteur ARC proposé par une équipe du MIT. Grâce à une nouvelle technologie magnétique, le réacteur ARC devrait permettre de produire, à un prix plus faible, la même quantité d'énergie qu’un réacteur beaucoup plus grand. © MIT ARC Team

Une nouvelle génération de supraconducteurs qui permet de créer des champs magnétiques bien plus intenses simplifierait la conception d'un réacteur.

Ces supraconducteurs à base d’oxyde de baryum, de cuivre et de terres rares, et baptisés Rebco (rare-earth barium copper oxide), se présentent sous forme de rubans. De quoi permettre aux chercheurs du MIT de fabriquer des bobines génératrices de champs magnétiques particulièrement intenses, suffisamment pour confiner du plasma, la clé d'un réacteur à fusion nucléaire. Ils ont baptisé leur projet ARC, pour affordable, robust, compact (abordable, robuste et compact).

La solution proposée par les chercheurs du MIT pour ce projet ARC repose sur les mêmes principes physiques qu'ITER. Cependant, basée sur des champs magnétiques bien plus intenses, elle permet de diminuer la taille du réacteur et, partant, son coût. Elle permet aussi d’envisager d’autres avancées. Les scientifiques ont en effet établi qu’en doublant l’intensité du champ magnétique appliqué, l’énergie produite pouvait être multipliée… par 16 ! Avec un réacteur tel que cet ARC, l’énergie produite serait 10 fois supérieure à celle que l’on attend en utilisant des supraconducteurs classiques.

Pour l’heure, aucun réacteur de fusion n’a pu produire plus d’énergie qu’il n’en consomme. Or, dans sa configuration actuelle, ARC serait théoriquement capable de produire trois fois plus d’électricité que celle utilisée pour le faire fonctionner. Et les chercheurs du MIT assurent que ce rendement pourrait être encore doublé...

- Une anode en aluminium révolutionne les batteries lithium-ion

Cette image de synthèse illustre le principe des nanoparticules dont la structure reprend celle d’un œuf. La sphère grise au centre représente une nanoparticule d’aluminium et l’enveloppe bleu clair la coquille d’oxyde de titane. L’espace libre entre les deux permet à la nanoparticule de se dilater et de se contracter lors des cycles charge-décharge de la batterie sans endommager la coquille. © MIT, Christine Daniloff

Remplacer le graphite de l’anode par de l’aluminium augmente considérablement la capacité et la puissance des batteries lithium-ion.

Dans le cadre de tests en laboratoire, ils ont multiplié par trois la capacité de stockage de charge. Et ce n’est pas tout… En augmentant le taux de charge de la batterie, celle-ci a été complètement chargée en seulement six minutes.

L’aluminium a l’avantage d’être peu onéreux et d’offrir une capacité de stockage de charge nettement supérieure à celle du graphite (capacité théorique de 2 Ah/g). Problème, ce matériau est lui aussi sujet au phénomène de dilatation et de contraction. C’est là que l’équipe du professeur Li a trouvé une solution prometteuse en faisant appel à la nanotechnologie dite yolk shell qui est basée sur la structure d’un œuf (en anglais yolk signifie vitellus, ou le « jaune » de l’œuf, et shell coquille). Les nanoparticules d’aluminium sont confinées dans une coquille faite d’oxyde de titane, avec un vide suffisant pour leur permettre de se dilater et de se contracter librement. La coquille elle-même reste stable et isole efficacement l’aluminium de l’électrolyte.

- Une table qui absorbe et restitue la chaleur

Des billes de matériaux à changement de phase (MCP) sont encapsulées entre le panneau de surface en chêne et la sousface en aluminium anodisé. Le matériau fond quand la température de la pièce atteint 22°, les billes absorbant l'excès de chaleur. Quand la température descend en-dessous de 22° le matériau se solidifie et, grâce à la plaque en aluminium, les billes restituent la chaleur emmagasinée régulant ainsi la température de la pièce.

La table joue le rôle "d'éponge thermique", selon l'expression de Lagrange et Ménard. Elle absorbe l'excédent de chaleur puis la restitue une fois que la température de la pièce a suffisamment baissé.

Selon les concepteurs, la table permet une économie de 60% en besoins chauds et de 30% en besoins froids, diminuant considérablement les coûts en énergie.

- Recycler les plastiques par leur dépolymérisation

Les chimistes du LCMCE ont mis au point un nouveau procédé de dépolymérisation sélective, en phase homogène, d'une large gamme de matériaux polymériques à travers la rupture de liaisons C–O (7). La dépolymérisation de polymères à base de polyéthers, de polyesters et de polycarbonates a pu être réalisée dans des conditions réactionnelles douces (température ambiante et pression atmosphérique) et en utilisant des catalyseurs sans métaux et des hydrosilanes stables et non-toxiques (PMHS, TMDS) comme agent de réduction. En ajustant les conditions opératoires et la nature du matériau de départ, une variété de produits chimiques fonctionnels a pu être obtenue sous une forme pure.

- La plus grande ferme verticale du monde

ferme verticale

6500m² de surface, mais pas un gramme de sol et pas de contact avec le soleil : la plus grande ferme aéroponique du Monde va ouvrir dans les prochaines semaines dans la banlieue de New York.

C’est un immense hangar du quartier Ironbound à Newark (New Jersey) où se succèdent à l’infini des étagères pleines de salades, roquettes et choux. Les plantes poussent à travers un fin tissu organique. Leurs racines reçoivent un brouillard d’engrais biologique et la lumière vient de LED.

- Le Qatar, désertique, veut produire 70% des légumes consommés par ses habitants

- Une tente qui recueille les eaux pluviales et stocke l'énergie solaire

La structure de la tente double couche aurait la capacité de protéger du froid l'hiver et du temps pluvieux mais prodigue également des ouvertures pour permettre à l'air frais d'entrer ou à l'air chaud de s'évacuer en été. L'eau de pluie est collectée en haut de la tente ou évacuée sur les côtés de sorte que la tente ne soit pas inondée. La tente procure ainsi des douches avec l'eau récoltée dans les poches sur le côté. L'énergie solaire captée par la toile de tente est stockée dans une batterie.

 

Biologie


évolution, génétique, éthologie, anthropologie, neurologie

- La soupe primordiale dans des poches d'eau d'1,5 milliards d'années

Larmoyants capsules conseils de temps à comment la vie a démarré sur Terre primitive

On y trouve tous les ingrédients d'une soupe primordiale, y compris du glycéraldéhyde, l'un des précurseurs de l'ARN et de l'ADN, ainsi que du pyruvate, important dans le métabolisme cellulaire. Qui plus est, les produits chimiques de la vie - découverts dans cette poche d'eau qui a 1,5 milliards d'années - semblent avoir été formés sans aucune influence des processus biologiques.

Cela signifie que l'idée que la vie a démarré à la suite de réactions chimiques autour de sources hydrothermales marines profondes en sort renforcée.

L'eau a réagi avec la roche à des températures proches de 100°C grâce à un processus appelé serpentinisation dans un environnement pauvre en oxygène mais riche en hydrogène, fer et soufre.

La découverte de microbes fossilisés renforce l'hypothèse du rôle de la tectonique des plaques dans l'origine de la vie. Bien sûr tout cela suppose que la vie ne vient pas d'ailleurs (panspermie), soit contamination, soit recréation à chaque fois ?

- Une vie extra-terrestre à base de peroxyde d'hydrogène ?
Un géant de la lune apparaît avant un géant d'une planète subit des changements saisonniers dans cette vue en couleur naturelle de Titan et Saturne de la sonde Cassini de la NASA.  Image: NASA Jet Propulsion Laboratory

Plutôt que d'utiliser de l'eau comme liquide intracellulaire, les chercheurs proposent l'utilisation d'un mélange eau-peroxyde d'hydrogène. Un tel mélange "aurait les avantages particuliers dans cet environnement froid et sec de fournir un point de congélation bas, une source d'oxygène, de l'énergie et l'hygroscopicité", qui permet aux organismes d'attirer les molécules d'eau de leur atmosphère.


- Les métaux lourds impliqués dans les grandes extinctions de masse

Surface d'un calcaire à trilobites, brachiopodes, coraux rugueux et tabulés, gastéropodes, etc,. de la formation Jupiter datant du Silurien inférieur, sur l'île d'Anticosti, au Québec. © Axel Munnecke, Universität Erlangen-Nürnberg

Du plancton fossile malformé vieux de 415 millions d'années révèle une forme de pollution par métaux lourds qui pourrait avoir contribué à certains des plus grands événements d'extinctions d'espèces vivantes dans l'histoire de la Terre.

Ce plancton ancien contient des niveaux élevés de métaux lourds, tels que le fer, le plomb et l'arsenic. Les abondances des différents éléments dans les fossiles et dans les roches, combinées avec la forte présence de formes tératologiques, suggèrent que les métaux ont été absorbés par les organismes lorsqu'ils étaient vivants et se sont en même temps déposés dans les sédiments alentour.

Un empoisonnement par métaux lourds semble donc être la cause des malformations observées dans le microplancton. Les corrélations récurrentes entre l'apparition de ces organismes malformés et les événements d'extinction durant les périodes de l'Ordovicien et du Silurien pourraient indiquer que la contamination par des métaux toxiques est un facteur, jusqu'ici insoupçonné, ayant contribué aux phénomènes d'extinction dans les océans anciens.

Des changements observés dans les rapports isotopiques pour le carbone, l'oxygène et le soufre suggèrent qu'aux mêmes périodes la concentration en oxygène diminue dans les couches profondes de l'océan. Le scénario pourrait donc être le suivant : l'anoxie (diminution de l'oxygène dissous ou présent dans le milieu) des eaux favorisant la solubilité de certains éléments et entraînant des changements dans les cycles chimiques, les concentrations en métaux y augmentent. Ces eaux profondes pauvres en oxygène et riches en métaux remontent ensuite à la surface. Là, elles se mélangent aux eaux du plateau continental qui accueillent un écosystème très riche, entraînant l'extinction de nombreuses espèces et une pollution des sédiments.

Voir aussi Techno-Science.

- Des cellules souches totipotentes produites pour la première fois

Les cellules des premiers stades embryonnaires sont des cellules souches totipotentes : elles peuvent générer un embryon entier. © Bruno Vellutini, Flickr, CC by-sa 2.0Il était déjà possible d'obtenir en laboratoire des cellules souches pluripotentes, c'est-à-dire capables de se différencier en n'importe quel tissu. Des chercheurs ont trouvé une différence dans la chromatine entre elles et les cellules dites totipotentes. Ils ont ainsi pu produire ces cellules, capables de générer un embryon.

Ils ont notamment montré que leur ADN était moins condensé et que l’expression du complexe protéique CAF1 était diminuée dans ces cellules. CAF1, déjà connu pour son rôle dans l’assemblage de la chromatine (état organisé de l’ADN), serait ainsi responsable du maintien de l’état pluripotent en participant à la condensation de l’ADN.

Sur la base de cette hypothèse, les chercheurs sont parvenus à induire un état totipotent en inactivant l’expression de ce complexe, ayant pour effet une reprogrammation de la chromatine dans un état moins condensé.

- Développement avec la méthode CRISPR d'antibiotiques ciblés

CRISPR Cas9

Les fondateurs de Eligo ont utilisé des bactériophages modifiés pour cibler des gènes spécifiques de certaines bactéries. Le phage injecte un large éventail de bactéries mais la plupart sans aucun effet. Cependant, si le gène cible est présent le génome sera coupé et la bactérie mourra. Jusqu'à présent, ils ont utilisé cette technologie révolutionnaire pour cibler le gène de résistance à la méthicilline dans Staphylococcus aureus, et les gènes de résistance aux carbapénèmes dans Escherichia coli, distinguant ces pathogènes mortels pour les éliminer.

- Une modification génétique impacte l'expression d'autres gènes

Il semble que ce soit la forme de l'ADN et de sa chromatine qui soit affectée par une modification locale.

L'étude publiée dans Cell montre comment les variations génétiques ont affecté trois couches moléculaires dans les lignées cellulaires immunes chez 47 individus dont les génomes ont été entièrement séquencés: au niveau des interactions entre l'ADN et les facteurs de transcription, des états de la chromatine et de l'expression des gènes. "Nous avons observé que les variations génétiques à un endroit précis du génome impactent plusieurs éléments régulateurs, pourtant séparés, en même temps".

- Système d'infection des bactéries

Des chercheurs de l'Institut Pasteur et du CNRS ont franchi une étape importante dans la compréhension de la structure moléculaire et du fonctionnement d'un élément majeur de l'arsenal que les bactéries possèdent pour détruire des cellules ou d'autres bactéries. Cette étude publiée dans Nature focalise sur le mécanisme d'assemblage et la description détaillée de l'architecture d'une pièce maitresse du système de sécrétion bactérien de type 6.

Il ressemble à une arbalète moléculaire qui propulse une flèche faite du tube Hcp et de la pointe VgrG dans le cytoplasme de la cellule cible. Cette arbalète est ancrée de manière stable à l'enveloppe de la bactérie par un complexe membranaire.

- La première fleur

Montsechia vidalii pourrait être l’une des premières plantes à fleurs, avec une origine remontant à 130 millions d’années. ©PNAS

Montsechia vidalii pourrait être l’une des premières plantes à fleurs, avec une origine remontant à -130 millions d’années.

s’il fallait désigner un équivalent moderne à Montsechia, c’est probablement du côté de Ceratophyllum qu’il faudrait aller. Comme cette dernière, Montsechia était une angiosperme aquatique qui vivait et se reproduisait sous la surface des eaux. Lorsque l’évolution "invente" la fleur et donc le fruit, elle crée ce faisant le concept de la graine protégée par une coque (angiosperme signifie « graine dans un récipient »).

Voir aussi Futura-Sciences.

- L'intelligence des pieuvres

Le système nerveux des poulpes est très différent du nôtre (quoiqu'on avait vu certaines propriétés semblables), notamment du fait qu'il est plus décentralisé dans ses tentacules (à la différence de la seiche et du calmar) sans doute plutôt pour des réactions réflexes, un peu comme dans notre colonne vertébrale. Avec près d'un demi milliard de neurones, leur intelligence dépasserait celle des rats sauf que les pieuvres ont en général une durée de vie très courte.

Les pieuvres auraient deux familles génétiques s'étant considérablement élargies. L'une est connue sous le nom de C2H2 , et code pour des protéines appelées facteurs de transcription qui régulent les activités d'autres gènes. La seconde concerne les protocadhérines, qui codent pour des protéines guidant le développement des neurones dans le système nerveux. Ces deux familles de gènes sont également très développées chez les vertébrés, mais pas autant que l'on sache, dans aucun autre groupe d'animaux. La diversification de ces gènes permet des circuits plus complexes.

Voir aussi Futura-Sciences.

- Une pieuvre sociable et amoureuse

Octopus Chierchiae, dessinée par le chercheur l'ayant découvert en 1977 © Arcadio F. Rodaniche

Les grandes pieuvres à rayures du Pacifique sont très grégaires, phénomène inhabituel chez les poulpes. En effet, les pieuvres communes ne peuvent souvent pas être gardées en captivité dans un même aquarium, ce qui fut réalisé sans problème avec les spécimens capturés. Selon les plongeurs les ayant attrapées, il n'est d'ailleurs pas rare d'observer des regroupements d'individus persistant pendant plus de 2 ans, soit largement plus que la durée de vie d'une seule génération. L'hypothèse avancée par les chercheurs : leurs rayures leur permettrait de se reconnaître mutuellement, et d'ainsi rester groupées. Plus sociale, mais aussi moins barbare : contrairement à la plupart de ses cousins, les représentants de l'espèce ne s'entre-dévorent pas après les accouplements. Et les femelles ne décèdent pas immédiatement après avoir pondu leurs œufs. Les couples se reproduisent même en face à face, du jamais vu chez ces céphalopodes. Puis partagent le même nid dans les bas-fonds, pendant plusieurs jours. Ils vont même jusqu'à s'adonner à une parade nuptiale complexe, où le mâle change subrepticement de couleur.

- Une pieuvre qui projette des coquilles comme arme ?

 

- Des chercheurs créent une souris super-intelligente

Des chercheurs ont rendu une souris plus intelligente que la normale, en manipulant un seul gène. © Mike P, Flickr, CC by nc 2.0En agissant sur un seul gène, des scientifiques ont obtenu une souris qui apprend plus vite que la normale. Cette souris surdouée, qui montre aussi moins d’anxiété, laisse envisager de nombreuses applications thérapeutiques chez l’Homme.

PDE4B est une enzyme présente dans de nombreux organes des vertébrés, y compris le cerveau. De manière générale, les phosphodiestérases jouent des rôles dans plusieurs aspects fondamentaux de la fonction cérébrale : l’apprentissage, la mémoire et les fonctions cognitives supérieures. PDE4B est une phosphodiestérase importante dans la formation de l’hippocampe, associé à la mémoire, et un gène à risque pour des maladies psychiatriques.

Dans un article paru dans la revue Neuropsychopharmacology, des chercheurs anglais et canadiens expliquent qu’ils ont bloqué l’enzyme PDE4B de souris. Ils ont ensuite fait passer une série de tests aux souris ainsi modifiées et trouvé qu’elles apprenaient plus vite, se souvenaient d’événements plus longtemps et résolvaient des problèmes complexes, mieux que ne le faisaient des souris normales. Par exemple, ces souris savaient mieux en reconnaître une vue la veille et apprenaient plus vite la localisation d’une plateforme cachée dans le test du labyrinthe de Morris. La neurogenèse et la cognition étaient stimulées chez ces souris.

Les souris modifiées souffraient aussi moins d’anxiété : elles exploraient plus, passaient plus de temps dans des espaces ouverts et éclairés, par rapport à des souris normales qui préféraient les espaces sombres et fermés. Alors que les souris sont naturellement effrayées par les chats, les souris modifiées montraient moins de crainte vis-à-vis de l’urine du félin : l’inhibition de PDE4B pourrait donc augmenter les comportements à risque, ce qui serait plutôt un inconvénient pour une souris sauvage...

Enfin, par rapport à des souris normales, celles qui ont été modifiées se rappelaient moins un événement effrayant après plusieurs jours.

- L'arrivée de félins en Amérique a provoqué l'extinction de canidés

Venus d'Eurasie, les barbourofelidés (aujourd'hui disparus, physiquement proches du tigre à dents de sabre) et les félidés (qui regroupent aujourd'hui les grands lions comme les petits chats) seraient arrivés sur le continent américain il y a respectivement 15 et 25 millions d'années, en témoignent la datation des fossiles retrouvés. Une arrivée qui coïncide avec le déclin des deux sous-familles éteintes de canidés.


- Un chien dit Maman à la place du bébé


Un fake ?

- Les bribes de langage des bonobos

Pendant le repos, les bonobos produisent vocalisations peep.  Image: CC-BY.  Crédit: Zanna Clay / Lui Projet Bonobo KotaleLe répertoire vocal bonobo se compose de 15 appels principaux, produits dans une variété de contextes. "Ils sont particulièrement fréquents à l'occasion d'événements liés à l'alimentation".

En étudiant les cris des bonobos, qui sont "court, très haut perchée et produit avec la bouche fermée", les chercheurs ont constaté que les humains ne sont pas les seuls à disposer de la capacité à produire des vocalisations fonctionnellement flexibles. Selon les chercheurs, la flexibilité fonctionnelle serait "la capacité des signaux vocaux à exprimer une gamme d'états émotionnels indépendamment du contexte et de la fonction biologique".

"Le fait que les vocalises produites en contextes négatifs étaient plus contraintes par les mécanismes physiques de production vocale suggère que, au cours de l'évolution de la langue, la flexibilité fonctionnelle a dû d'abord avoir lieu dans des contextes positifs ou neutres".

On raconte justement que la narration aurait été inventée par les femmes autour du feu pour parler des hommes partis à la chasse...

- Une phalange de main moderne d'1,8 millions d'années

OH 86Avec ses 1,84 million d’années, c’est la plus ancienne connue. Le propriétaire de cette main devait mesurer 1,70 m". Il pourrait donc s’agir, selon lui, d'un nouvel hominidé encore inconnu, plus grand que le Paranthropus boiséi, (1,50 m) et l’Homo habilis (entre 1,10 et 1,30 m) qui vivaient à la même époque dans cette région de l’est africain.

"C’est la capacité à manipuler avec précision qui a interagi avec notre cerveau et permis le développement de notre intelligence, principalement grâce à l’invention et l’usage des outils".

La main précède donc bien l'intelligence. Voir aussi Futura-Sciences.

- Un mini-cerveau humain créé en laboratoire ?

Des scientifiques sont parvenus à créer en laboratoire un cerveau de la taille d'une gomme de crayon à papier et dont les structures sont équivalentes à celui d'un fœtus de 5 semaines.

"Non seulement il ressemble à un cerveau développé mais ses différents types de cellules expriment quasiment tous les gènes, qu'expriment celles d'un cerveau".

Cette recherche qui n'a pas fait l'objet d'une publication officielle est contestée. On aurait juste "un tas de cellules dans une boîte, comme une soupe".

- Le processus de reconnaissance du cerveau

Le Réseau pariétal mémoire (PMN), le nouveau réseau découvert de mémoire et d'apprentissage montre de nettes tendances d'activation et de désactivation dans trois régions distinctes du cortex pariétal de l'hémisphère gauche du cerveau - le precuneus, le cortex mi-cingulaire et la dorsale de gyrus angulaire.

"L'activité dans ce réseau nous dit si vous percevez quelque chose comme nouveau ou familier. Quand une personne voit un stimulus nouveau, ce réseau montre une diminution marquée de l'activité. Lorsqu'une personne voit un stimulus familier, ce réseau montre une augmentation marquée de l'activité".

Le plus intéressant, c'est le caractère non spécifique de cette reconnaissance qui ne dépend pas du type d'activité mais uniquement de sa nouveauté ou non (qu'on relie habituellement à une décharge de dopamine ?).

- Les neurones cholinergiques amplifient les événements surprenants pour les mémoriser

CholinergicSurprise
Grâce à l'optogénétique, on a pu constater que la modulation de l'intensité du signal des neurones cholinergiques est proportionnelle au caractère inattendu, surprenant, de l'évènement (punition ou récompense).

- Optoclamp une boucle de rétroaction pour l'optogénétique

On peut se servir de l'optogénétique pour activer des neurones mais dans ce cas, il faut avoir un retour pour régler l'activité nécessaire, étant donnée la variabilité de la réactivité des neurones.

La technique utilise un ordinateur pour acquérir et traiter la réponse à la stimulation neuronale optique en temps réel et ensuite varier la production de lumière pour maintenir la cadence de tir souhaitée. En fournissant ce contrôle de rétroaction, l'optoclamp pourrait faciliter la recherche de nouvelles thérapies pour l'épilepsie, la maladie de Parkinson, la douleur chronique et même la dépression.

- La déconnexion de l'hippocampe et du noyau accumbens perturbe les décisions liées à une gratification différée

Lorsque survenait une interruption du circuit liant l'hippocampe au noyau accumbens, les rats s'impatientaient et il leur était impossible d'attendre, ne serait-ce que quelques secondes. Ils optaient alors pour la récompense immédiate, bien que plus petite.

"D'une certaine façon, ce lien est logique; nous savons que l'hippocampe joue un rôle dans la planification, et que le noyau accumbens est à la fois un centre de récompense et un récepteur important de dopamine, un messager chimique responsable de la transmission de signes liés au plaisir et à la gratification. Nous ne pouvions toutefois pas imaginer que les résultats seraient aussi probants".

- Provoquer une apnée inconsciente par stimulation de l’amygdale gauche

Orage épileptique.pngVoilà peut-être bien l'un des dangers des appareils de stimulation cérébrale puisqu'on pourrait provoquer ainsi un crime parfait par arrêt de la respiration sans en avoir conscience.

Ce patient (désigné par ses initiales J.K.) ignorait totalement qu’il était en apnée lors de la stimulation, et ce alors qu’il était éveillé et dans un état de vigilance normale. Même lorsque la durée de la stimulation dépassait les 47 secondes et provoquait une baisse notable de la saturation en oxygène, J.K. ne réalisait pas qu’il s’était arrêté de respirer ! Pendant la stimulation, J.K. était tout à fait calme et regardait tout autour de la salle d’examen. Alors qu’il était en apnée, l’expression de son visage n’exprimait rien de particulier, aucun signe de désagrément ou d’essoufflement ! De même, quand les médecins lui ont demandé s’il avait remarqué quoi que ce soit au cours de la minute écoulée, J.K. leur a répondu par la négative. Quand ils lui ont finalement posé la question de savoir s’il avait ressenti quelque chose au niveau de sa respiration, lui demandant clairement s’il avait été à un moment gêné pour respirer, J.K. a continué de leur dire qu'il n'en avait rien été.

Tout indique que la stimulation de l’amygdale gauche chez le patient J.K. suffit à provoquer une apnée sans qu’il en ait conscience, sans qu’il ressente la moindre sensation désagréable ! De façon très surprenante, lors de cette apnée, il était spontanément capable de prendre une inspiration s’il lui prenait l’envie de parler.

Au-delà de leur caractère spectaculaire, ces observations pourraient s’avérer particulièrement utiles pour mieux comprendre l’origine de ce que l’on appelle la « mort soudaine inattendue dans l’épilepsie » ou SUDEP (Sudden unexpected death in epilepsy).

- Différence de réaction au cannabis sous oestrogène entre hommes et femmes

Image: ShutterstockIl y a des biologistes comme Catherine Vidal ou Odile Fillod qui consacrent toute leur énergie à nier les différences, notamment neurologiques, entre les hommes et les femmes au nom de la plasticité du cerveau. Odile Fillod est d'ailleurs intéressante car elle donne beaucoup de références mais ne sélectionne que ce qui va dans son sens au point que c'est un peu ridicule, il faut dire que la tendance inverse est très présente chez les hommes qui insistent un peu lourdement sur des différences dont une bonne partie est culturelle. Dans les deux cas on assiste à une idéologisation de la science. La réalité est un peu plus partagée, sachant qu'il ne s'agit jamais que de statistique dans le domaine biologique, caractérisé par sa variabilité, et qu'il y a une internalisation génétique du culturel, en particulier par la sélection sexuelle.

Cette fois, c'est une ancienne opposante qui se résout à une différence qu'elle constate, sur un point très particulier, la réaction aux cannabinoïdes sur les synapses après administration d'un oestrogène, réaction qu'on ne trouverait que chez les femmes et qui serait l'indice d'une plus grande production d'endocannabiboïdes que les hommes. La solidité d'une telle étude est à mettre à l'épreuve et on se dit que si on a besoin de ça, c'est quand même que les différences ne sont pas si flagrantes mais c'est incontestablement une piste à explorer, notamment pour des médications adaptées au profil sexuel.

Des expériences sur des rats ont montré que "dans les cerveaux des femelles le médicament URB-597 avait augmenté l'effet inhibiteur d'un endocannabinoïde clé dans le cerveau, appelé anandamide, provoquant une diminution de la libération de neurotransmetteurs. Dans les cerveaux masculins, le médicament n'a eu aucun effet".

La possibilité que des mécanismes de modulation synaptique diffèrent entre les hommes et les femmes a de profondes implications pour la compréhension des troubles du cerveau qui varient entre les sexes. On a trouvé récemment que 17β-estradiol (E2) supprime l'inhibition GABAergique aiguë dans l'hippocampe de rats femelles par un récepteur d'oestrogène α-spécifique du sexe (ERa), mGluR, et le mécanisme endocannabinoïde-dépendante.

Dans cette étude, nous démontrons les différences de sexe intrinsèques dans la régulation moléculaire d'un système de neuromodulation clé, le système endocannabinoïde, dans l'hippocampe. Les endocannabinoïdes sont impliqués dans divers aspects de la physiologie et du comportement qui impliquent l'hippocampe, y compris dans le domaine cognitif, affectant la motivation, la réponse au stress et des troubles neurologiques tels que l'épilepsie. Notre conclusion que la régulation moléculaire du système endocannabinoïde diffère entre les sexes suggère des mécanismes par lesquels les expériences ou thérapeutiques qui engagent les endocannabinoïdes pourraient affecter les hommes et les femmes différemment.

- Les survivants de l'holocauste ont transmis épigénétiquement leur stress à leurs enfants

- On peut prédire les futurs traîtres à leur langage

Les traîtres deviennent plus positifs et moins polis juste avant une trahison.

- Des dolmens en Sicile à 40m sous la mer

Underwater composite photographs taken from divers, showing the discovered ...

La présence du monolithe suggère une grande activité humaine dans la région. Il a été découpé et extrait en une seule pierre d'une carrière à environ 300m, puis transporté et sans doute érigé.

L'âge correspondant à la courbe du niveau de la mer post-glaciaire avec des profondeurs allant de 35,1 à 36,8 m, serait de 9350 ± 200 années BP.

L'idée que les ancêtres de l'homme vivaient autrefois au fond des mers modernes fascine facilement et frappe notre imagination. Ce qui est le plus surprenant, et jusqu'à récemment mal reconnu, c'est qu'un vaste patrimoine archéologique des premiers établissements humains reste inexploré sous les niveaux marins actuels. Presque tout ce que nous savons sur les cultures préhistoriques dérive de colonies qui se trouvent encore sur la terre émergée, et qui étaient à des dizaines voire des centaines de kilomètres de distance de la côte quand elles étaient occupées. La grande majorité des géophysiciens et les archéologues marins ont maintenant réalisé que pour retracer les origines de la civilisation dans la région méditerranéenne, il est nécessaire de concentrer les recherches dans les zones désormais submergées.

Cela confirme que les plus anciennes traces de civilisation sont sous l'eau car le niveau de la mer a considérablement monté depuis la dernière glaciation, promesse de réécriture encore une fois de notre (pré)histoire. Il ne faut pas non plus croire que tout pourrait être remis en cause, des temples comme celui de Göbekli Tepe datant de 11 600 ans BP et témoignant de capacités extraordinaires. Une civilisation peut se développer en bord de mer et laisser des traces sur des montagnes environnantes.

- Une ville fortifiée du Péloponnèse sous la mer vieille de 4500 ans

Voilà de quoi renforcer le mythe de l'Atlantide mais surtout l'archéologie sous-marine.

Elles étaient là depuis des millénaires, à seulement 1 à 3 mètres de fond, dans la baie de Kiladha, en Argolide. Les ruines d’un vaste établissement côtier découvertes récemment sur cette plage de Lambayanna.

Les archéologues ont découvert des structures défensives en pierres, dont "le caractère massif est d'un genre inconnu en Grèce jusqu'alors". Des tronçons d’un mur de fortification extérieur, relié aux fondations d’au moins trois grandes structures en pierres (18 mètres sur 10) en forme de fer à cheval, ont pu être identifiés. Ces trois bâtiments étaient peut-être des bastions ou des tours. À l'intérieur de cette enceinte, se trouvent des surfaces dallées, probablement des rues, ainsi que les ruines d'autres bâtiments, plus classiques cette fois : rectangulaires, circulaires ou à abside. "Leur fonction est avant tout domestique : il s'agit d'habitat, de lieu de stockage ou de production".

Pour comparaison, ces vestiges seraient donc contemporains des pyramides d'Égypte (celles du plateau de Gizeh ont été construites vers 2.600 - 2.500 avant J.-C), mais également de la civilisation des Cyclades (3.200 à 2.000 avant J.-C), voire des premiers Minoens, en Crète (2.700 à 1.200 avant J.-C). Mais ils précèdent de près de mille ans la première grande civilisation du continent grec, celle des Mycéniens (1.650 à 1.100 avant J.-C).

Voir aussi Sciences et Avenir.

 

Santé


traitements, nutrition, hygiène

- MouthLab diagnostique à partir des lèvres ou du bout du doigt

nul

Ce tricordeur analyse la salive et mesure la fréquence cardiaque, la pression artérielle, la température, la fréquence respiratoire ainsi que le niveau d'oxygène dans le sang.

- Un protège-dents pour surveiller sa santé

Click Here for a HighResolution VersionCe protège-dents peut surveiller des marqueurs de santé dans la salive tels que le lactate, le cortisol ou l'acide urique et transmettre l'information sans fil à un smartphone ou autre ordinateur.

Cela pourrait servir à surveiller des patients en continu, sans procédures invasives, aussi bie qu'à surveiller la performance ou le stress des athlètes de haut niveau ou des soldats et pilotes.

Voir aussi Futura-Sciences.

- Imiter les virus pour livrer des médicaments au coeur des cellules

virus_chimiqueConcrètement, le premier polymère (pGi-Ni2+) sert de support aux protéines, qui s'y fixent. Le second polymère (πPEI), récemment breveté, encapsule cet ensemble grâce à ses charges positives qui se lient aux charges négatives du pGi-Ni2+. Les particules obtenues (30-40 nanomètres de diamètre) sont capables de reconnaitre la membrane entourant les cellules et de s'y lier. Cette liaison active une réponse cellulaire : la nanoparticule est enveloppée par un fragment de membrane et entre dans un compartiment intracellulaire appelé endosome. Alors qu'ils étaient stables à l'extérieur de la cellule, les assemblages sont ébranlés par l'acidité qui règne dans ce nouvel environnement. Par ailleurs, cette baisse de pH permet au polymère πPEI de faire éclater l'endosome, ce qui libère son contenu en molécules actives.

Grâce à cet assemblage, les chercheurs ont pu concentrer suffisamment de protéines actives à l'intérieur des cellules pour obtenir un effet biologique notable. Ainsi, en transférant une protéine appelée caspase 3 dans des lignées de cellules cancéreuses, ils ont réussi à induire 80 % de mort cellulaire.

- Arrêter le cancer

Cancer cellsLes scientifiques ont découvert que la colle qui maintient les cellules ensemble est régie par des microARN. Quand tout fonctionne normalement les microARN arrêtent la division des cellules quand elles se sont répliquées suffisamment. Ils le font en déclenchant la production d'une protéine appelée PLEKHA7 qui rompt les liens cellulaires. Mais dans le cancer ce processus ne fonctionne pas.

Les scientifiques ont découvert qu'ils pouvaient déclencher le cancer dans les cellules en supprimant les microARN et les empêchant ainsi de produire la protéine.

Et, surtout, ils ont découvert qu'ils pouvaient inverser le processus et arrêter le cancer avec ces microARN délivrés directement dans les tumeurs.

La restauration des niveaux de PLEKHA7 ou des microARN dans ces cellules les fait revenir à l'état de tumeurs bénignes.

- Un venin de guêpe anti-cancéreux

- Comment l'inflammation produit des cancers

On avait déjà identifié la présence d'une lésion dans la structure de l'ADN, ce qu'on a appelé 5-chlorocytosine (5ClC), dans les tissus enflammés de souris infectées par l'agent pathogène Helicobacter hepaticus. Cette lésion, une forme endommagée de la cytosine de l'ADN normal, est causée par l'acide hypochloreux - molécule réactive qui est l'ingrédient principal de l'eau de Javel - produit par le système immunitaire lui-même.

"Dans tous les cas nous avons constaté que le 5ClC était mutagène et provoquait le même genre de mutations observées dans les cellules".

Qui plus est, la mutation caractéristique C-to-T provoquée par 5ClC est extrêmement fréquente, et très présente dans plus de 50% des signatures de mutagènes, ou profils de mutations de l'ADN, associés à des tumeurs cancéreuses.

Cela établit un lien mécanique entre l'inflammation chronique et le développement du cancer.

- Des pompes de terre violettes contre le cancer du côlon

purple potatoesPlusieurs substances des pommes de terre violettes (vitelottes noires) aident par différentes voies à tuer les cellules souches du cancer du côlon, que ce soient les anthocyanes, l'acide chlorogénique (qu'on trouve aussi dans le café) ou l'amidon résistant.

Les pommes de terre en général, pas seulement les pommes de terre violettes, contiennent de l'amidon résistant qui sert de nourriture aux bactéries de l'intestin qui peuvent produire des acides gras à chaîne courte tels que l'acide butyrique qui régule la fonction immunitaire dans l'intestin et supprime l'inflammation chronique, pouvant également provoquer l'auto-destruction des cellules cancéreuses.

En plus de l'amidon résistant, les substance colorées, tout comme dans d'autres fruits et légumes, peuvent être efficaces pour arrêter la croissance du cancer.

- Un capteur pour surveiller le cancer en temps réel

Ce capteur de 2 mm sera implanté dans une tumeur cancéreuse. © MIT

C'est un minuscule dispositif de 2 millimètres qui, implanté dans une tumeur cancéreuse, renseigne en temps réel et de l’intérieur du corps sur la manière dont la tumeur répond ou pas au traitement ! Un capteur sans fil relié à un aimant envoie les données.

Deux biomarqueurs liés à la réponse de la tumeur au traitement ont été retenus pour le suivi par les microcapteurs fournissant les données en temps réel : le pH (l’acidité du milieu) et l’oxygène dissous. Soumis à une chimiothérapie, un tissu cancéreux devient en effet plus acide et on sait qu’il se développe plus facilement dans des conditions de faible teneur en oxygène.

- Le manque de vitamine D facteur déterminant de la sclérose en plaque

La sclérose en plaques est due à une attaque par le système immunitaire de la myéline qui entoure les axones, prolongement du neurone par lequel celui-ci communique avec sa cellule cible. ©DURAND FLORENCE/SIPA

Les personnes ayant des niveaux de vitamine D moindres, du fait de particularités génétiques, ont un risque deux fois plus grand de développer une SEP.

- Vers un vaccin de la grippe universel

virus de la grippe © AP/SIPAPlutôt que de cibler la tête de l'hémagglutinine, en constante mutation, les chercheurs ont ciblé la tige de cette protéine, beaucoup plus stable. En liant donc une tige de protéine provenant d'un virus A(H1N1) à des nanoparticules et en la combinant avec un adjuvant, ils ont réussi à immuniser les souris et les furets avant de leur injecter des doses létales de virus A(H5N1). Résultat, la vaccination a protégé complètement les souris et partiellement les furets.

D'autres on ciblé l'hémagglutinine en s'efforçant de trouver des configurations capables de se lier à des anticorps monoclonaux à large spectre, c'est-à-dire ciblant de multiples souches virales. "Le candidat final baptisé mini-HA a démontré une capacité unique à provoquer une réponse immunitaire large et protectrice chez les souris et les primates non humains"

Voir aussi Futura-Sciences.

- Les souvenirs traumatiques peuvent être réprimés mais aussi ravivés

Le cerveauLes récepteurs GABA de la mémoire des souris ont été stimulés avec un médicament appelé gaboxadol. Les souris ont ensuite subi un choc électrique. Lorsque l'effet du médicament s'est estompé, les souris avaient oublié le choc électrique et se déplaçaient sans souci. Mais quand on leur a donné une nouvelle dose de gaboxadol elles se figeaient sur place, anticipant avec crainte un autre choc.

"Cela montre que, lorsque les souris sont retournées dans le même état cérébral, créé par la drogue, elles se souvenaient de l'expérience stressante du choc".

L'équipe espère maintenant tester si le gaboxadol pourrait être utilisé pour récupérer les souvenirs refoulés chez les humains.

- Bloquer la sérotonine, empêcherait de renforcer les souvenirs traumatisants

La sérotonine favoriserait le processus de consolidation de la mémoire. Lorsque les chercheurs ont bloqué dans l'amygdale les interactions des cellules avec la sérotonine après un traumatisme, les animaux stressés n'ont pas développé les symptômes du SSPT.

Ce processus de consolidation de la mémoire peut prendre des heures voire des jours, mais une fois la mémoire consolidée, elle est très difficile à effacer. Toutefois, les résultats suggèrent qu'il peut être possible, soit pour prévenir la formation des souvenirs traumatiques, soit pour les affaiblir après la consolidation, d'utiliser de médicaments qui interfèrent avec la sérotonine (comme l'agomélatine qui bloque ce type de récepteur de la sérotonine).

Par contre, des antidépresseurs comme le Prozac ou d'autres inhibiteurs de la recapture de la sérotonine (ISRS), couramment donnés aux patients traumatisés, ne feraient qu'aggraver leurs symptômes.

- Un médicament qui efface les souvenirs de l'addiction à la méthamphétamine

Les scientifiques de l’Université de Floride ont utilisé le fait que les souvenirs façonnés sous méthamphétamine ne se créent pas comme un souvenir normal. Ils ont donc mis au point un médicament capable de cibler uniquement ces souvenirs.

Comme l’explique Popular Science, un souvenir « normal » s’ancre dans votre cerveau notamment grâce à une protéine, l’actine. Celle-ci se stabilise rapidement et le souvenir en question se retrouve stocké. Pour un souvenir sous méthamphétamine, l’actine ne se stabilise jamais. Le médicament identifie cette instabilité pour supprimer le souvenir.

Malheureusement, l’actine joue aussi un rôle important dans le fonctionnement des muscles, et notamment du cœur. C’est pour cette raison que les chercheurs ont utilisé une autre molécule, la myosine IIB non musculaire, pour mettre au point ce médicament, le Blebbistatin, ou Blebb. Avec lui, il est possible de supprimer les souvenirs créés sous méthamphétamine jusqu’à 30 jours, et ce en une seule dose.

- Un défaut génétique du glutamate favorise l'addiction

Le glutamate contribue à réguler la libération de dopamine dans le noyau accumbens, l'une des structures cérébrales du système de récompense. Plus précisément, c'est un subtil équilibre avec un autre neurotransmetteur – l'acétylcholine – qui évite l'emballement du système et l'entrée dans l'addiction.

L'intensité et la rapidité de la décharge de dopamine sont à la base du processus qui va conduire au développement de l'addiction. Les neurones cholinergiques du noyau accumbens, l'un des centres de la récompense, sont connus pour réguler cette libération de dopamine. Alors que la plupart des neurones ne libèrent qu'un seul neurotransmetteur, l'équipe franco-canadienne de Salah El Mestikawy a montré en 2002 que ces neurones utilisant l'acétylcholine sont aussi capables d'utiliser le glutamate. Ces neurones, qui sont en quelque sorte bilingues, sont capables à la fois d'activer (via l'acétylcholine) et d'inhiber (via le glutamate) la sécrétion de dopamine.

Les chercheurs montrent que lorsqu'ils bloquent chez les souris un gène essentiel à cette communication par le glutamate (appelé VGLUT3), les animaux deviennent plus vulnérables à la cocaïne. Ils ressentent davantage les effets stimulants de la drogue, développent plus facilement une "addiction" et sont plus susceptibles de "rechuter" après une période d'abstinence.

L'équipe de Stéphane Jamain a observé qu'une mutation de ce gène est dix fois plus fréquente dans un groupe de patients toxicomanes sévères par rapport à un groupe d'individus sans symptômes psychiatriques. Cette mutation pourrait expliquer une plus grande vulnérabilité à l'addiction de ces patients.

- Le Modafinil améliore les performances cognitives sans effets pervers

Il améliorerait vraiment les capacités de réflexion, en particulier dans les longues tâches complexes. Il aiderait également à la planification, la prise de décision, la flexibilité, l'apprentissage, la mémorisation et la créativité...

- La dépression favorisée par le sucre

Une étude menée sur une vaste cohorte féminine montre qu'une alimentation sucrée augmenterait le risque de survenue d'une dépression.

Les auteurs précisent qu’il s’agit d’aliments à index glycémique élevé ou composés de sucres raffinés : pâtisserie, pain blanc, sodas ou plats préparés.

Par ailleurs, se promener dans la nature serait un des meilleurs moyens de ne plus ressasser d'idées noires.

- Les 9 facteurs de risque principaux de l'Alzheimer

À défaut de pouvoir être soignée, la dégénérescence des neurones caractéristique de la maladie d'Alzheimer peut être prévenue en surveillant certaines habitudes de vie. ©SUPERSTOCK/SIPA

Une vaste méta-analyse des données disponibles a listé neuf facteurs de risque qui seraient responsables à eux seuls des deux tiers des cas de maladie d'Alzheimer :

- l'obésité ;
- le tabagisme actif ;
- la sténose carotidienne (l'obstruction progressive de l'artère carotide);
- le diabète de type 2 ;
- un faible niveau d'éducation ;
- l'hyperhomocystéinémie (des taux élevés d'homocystéine, un acide aminé) ;
- la dépression ;
- l'hypertension artérielle ;
- la fragilité.

Ils ne parlent pas du sommeil qui semble pourtant déterminant. Une nouvelle étude met en cause les acides gras qui s'accumulent dans le cerveau des malades et forment des dépôts de graisse (voir aussi Techno-Science). Cela pourrait n'être que l'un des effets d'une défaillance des processus d'élimination des déchets du cerveau ? Une autre étude met en cause l'inflammation à partir du fait qu'une variante génétique qui empêche les niveaux de la protéine inflammatoire l'éotaxine d'augmenter avec l'âge semble reculer la maladie d'une dizaine d'années.

- Les oméga 3, une protection contre la schizophrénie ?

Des gélules de supplément en oméga 3. ©ANGOT/SIPA

Une supplémentation en oméga 3 pourrait réduire sensiblement le risque de développer une schizophrénie chez des jeunes à risque.

Par contre, les oméga 3 ne ralentiraient pas la dégénérescence cérébrale.

- Un QI élevé prédisposerait à la maniaco-dépression

- La cause du Parkinson une surchauffe de certains neurones ?

"Comme un moteur qui tournerait trop vite pour propulser un véhicule, ces neurones doivent produire beaucoup d'énergie pour fonctionner. Ils s'épuisent et meurent prématurément".

À la différence de la maladie d'Alzheimer, qui touche de façon plus large les milliards de neurones du cerveau, les symptômes principaux de la maladie de Parkinson sont causés par la mort de quelques dizaines ou centaines de milliers de neurones dans quelques régions plutôt circonscrites du cerveau incluant la substance noire compacte, le locus ceruleus et le noyau dorsal du nerf vague.

Ils ont découvert que cette surchauffe pourrait être causée par des cellules très complexes comptant un nombre élevé de prolongements et de sites de libération des neurotransmetteurs ; un peu comme un arbre avec de très nombreuses branches. Ces neurones seraient vulnérables et leur dysfonctionnement déclencherait la maladie de Parkinson, dont les premiers symptômes apparaissent dans la soixantaine. "Nos travaux appuient l'hypothèse selon laquelle les neurones très complexes comme ceux de la substance noire forcent les mitochondries à travailler très fort pour produire de l'énergie. Cela expliquerait l'usure cellulaire accélérée".

- Un possible traitement contre le Parkinson

Cela me semble peu convaincant.

Les chercheurs ont travaillé sur un modèle de mouche portant la même mutation que certains patients souffrant de Parkinson.Parmi les formes familiales de maladie de Parkinson, certaines sont liées à une mutation du gène de la dardarine (LRKK2) : une mutation du gène LRRK2 est même la cause héréditaire la plus courante de la maladie de Parkinson. Or, les patients qui possèdent la mutation LRRK2, mais aussi d’autres malades touchés par la maladie de Parkinson, présentent des problèmes mitochondriaux.

L'AUDC est un acide biliaire présent dans la bile humaine, mais aussi en grande quantité dans celle de l’ours brun, d’où son nom ; il est utilisé pour traiter des maladies cholestatiques du foie (cirrhose biliaire). Dans une étude datant de 2013, l'AUDC avait été identifié parmi 2.000 molécules comme efficace pour restaurer la fonction mitochondriale.

Les chercheurs ont testé l’AUDC sur le fonctionnement neuronal in vivo en utilisant la mouche Drosophila melanogaster. Chez la drosophile, les problèmes induits par la mutation LRKK2 sur les neurones dopaminergiques peuvent être suivis par la perte de la fonction visuelle. Les chercheurs ont ainsi montré que les mouches mutées pour LRKK2 conservaient leur réponse visuelle lorsqu’elles étaient nourries avec l’AUDC, comme l’explique Chris Elliott : « Le fait de nourrir les mouches avec de l’AUDC partiellement au cours de leur vie diminue la vitesse à laquelle le cerveau de la mouche dégénère ». La signalisation dopaminergique était donc sauvée par l’AUDC.

Remarquons qu'on ne parle pas du tout ici, ni dans la brève précédente, de la protéine alpha-synucléine supposée cause du Parkinson mais seulement d'un dysfonctionnement des mitochondries.

- Des opiacés produits par des levures

Des chercheurs ont manipulé des levures du boulanger pour leur faire fabriquer un analgésique opioïde : l’hydrocodone (commercialisé sous le nom de Vicodin).

Cette nouvelle avancée, après d’autres travaux dévoilés ces derniers mois dans ce champ de recherche, ouvre la voie à une nouvelle méthode de production beaucoup plus rapide et potentiellement moins coûteuse de nombreux médicaments dérivés des plantes.

Son équipe a utilisé et affiné des fragments d’ADN provenant d’autres plantes, de bactéries et même de rats qui ont été insérés dans de la levure pour produire tous les enzymes nécessaires aux cellules pour convertir le sucre en hydrocodone.

Ces chercheurs ont reconnu que ce nouveau processus de fabrication pouvait accroître le risque de produire ces substances illégalement, aggravant le problème d’abus de ces antidouleurs aux États-Unis.

On en avait déjà parlé, c'est fait, mais, pour l'instant, il faut 16.600 litres de levure traitée par cette technique de bio-ingénierie pour produire une seule dose d’hydrocodone !

- Ocytocine et vasopressine déterminants dans l'effet placebo

On va jusqu'à se demander si l'effet des antidépresseurs notamment ne serait pas simplement un effet placebo renforcé par ces hormones qui donnent confiance.

- Parler avec le souffle

Dr David Kerr montre le nouveau systèmeLe dispositif, qui se compose d'un masque respiratoire relié à un ordinateur, interprète les changements dans la façon dont une personne respire et les transforme en parole avec une machine de synthèse vocale.

Il faut d'abord que chaque personne crée ainsi sa propre langue, en faisant varier la vitesse de leur respiration, puis programmer le dispositif pour faire correspondre ces variations du souffle avec des mots ou expressions individuelles.

"Dans un contexte de soins intensifs, la technologie a le potentiel d'être utilisée pour faire un diagnostic précoce du locked-in syndrome, en permettant aux patients de communiquer efficacement par la respiration - un acte presque sans effort qui ne nécessite pas de mouvements du visage".

- Pour maigrir, boire de l'eau avant les repas

Boire un demi-litre d'eau avant chaque repas permettrait de perdre du poids.

- Le glaucome serait associé au mercure sanguin

L’analyse des métaux présents dans le sang et l’urine de plus de 2.600 adultes révèle une association entre la fréquence du glaucome et un taux élevé de mercure sanguin.

- Des organes ramenées à la vie en dehors du corps avant transplantation

Les chirurgiens ont commencé à utiliser pour les transplantations un dispositif qui leur permet de "ranimer" les coeurs de personnes récemment décédées et d'utiliser ces organes pour en sauver d'autres.

Au lieu de refroidir les organes, on les alimente en flux sanguin (et oxygène), ce qui les fait revivre mais le prélèvement doit se faire très rapidement sur les donneurs, avec le risque de la précipitation avant qu'ils ne soient vraiment morts...

- Des prothèses tellement réalistes que l’on dirait de vrais membres

C’est The Alternative Limb Project. pour réaliser ce genre de pièce, il lui faut un mois complet, le temps de donner à la prothèse une forme très proche du membre perdu, de créer une peau de la même pigmentation que celle de son porteur et de reproduire le moindre détail, y compris les ongles !

prothèses

 

Technologie


biotechnologies, informatique, robotique

- Un laser à semi-conducteurs qui émet de la lumière blanche

Le principe du laser à lumière blanche est simple à expliquer mais bien difficile à réaliser. Les physiciens ont réussi à assembler, dans un petit volume, trois matériaux semi-conducteurs présentant l'effet laser mais émettant de la lumière de trois couleurs différentes sous l'influence d'un faisceau laser de couleur bleue. Ces émissions peuvent alors se mélanger. © ASU/Nature NanotechnologyL’idée d’un laser blanc semble paradoxale. En effet, dans un laser, la lumière émise est pure alors que la lumière blanche est composée de plusieurs longueurs d'onde.

Ils ont utilisé un feuillet très fin (son épaisseur correspond à un millième de celle d'un cheveu humain et sa taille à un cinquième) et ont réussi à y grouper trois matériaux semi-conducteurs émettant dans trois bandes spectrales différentes dans le visible. Il ne s’agit donc que de la combinaison habituelle de sources de lumière de couleurs différentes afin d’obtenir de la lumière blanche.


- Un métamatériau imprimé en 3D pour surmonter l'effet cocktail party

La difficulté est d'arriver à isoler, comme le cerveau le fait, le discours d'une personne particulière lorsque plusieurs autres parlent en même temps à proximité.

Le dispositif est un épais disque de plastique, à peu près aussi large qu'une pizza. Des ouvertures son ménagées sur le bord afin que le son passe à travers 36 tunnels vers le microphone du milieu. Chaque passage modifie le son d'une manière subtilement différente, à peu près comme si un égaliseur avec différents réglages affectait le son dans chaque tranche.

La façon dont le disque fonctionne est simple. Si vous parlez dans le goulot d'une bouteille qui est partiellement remplie d'eau, l'air à l'intérieur résonnera au son de la voix et atténuera certaines fréquences en fonction de la quantité d'eau dans la bouteille. Dans le disque en matière plastique, les composants de chaque secteur sont conçues avec une structure en nid d'abeilles, dans lequel chaque cellule hexagonale est coupée à une hauteur différente. Le résultat, c'est comme si on avait un tableau de bouteilles remplies avec différentes quantités d'eau.

Ensuite, un algorithme peut déterminer précisément d'où vient le son.

- MultiFab, une imprimante 3D avec 10 matériaux différents

Quelques exemples des objets imprimés avec la MultiFab, l'imprimante 3D conçue par le MIT. Tom Buehler/CSAIL

Déjà, cette machine, qui n’est pour l’instant qu’un prototype, permet d’assembler 10 matériaux simultanément. Un record, laissant entrevoir la fabrication d’objets beaucoup plus complexes. Et ce d’autant plus que la résolution, c’est-à-dire la précision d’impression est de 40 micromètres, soit moins de la moitié de l’épaisseur d’un cheveu. Mieux, elle embarque un système optique, plus exactement un scanner 3D, qui augmente ses performances. À chaque couche déposée sur le support, le scanner détecte les erreurs et, si nécessaire, procède à une correction.

Les scientifiques américains envisagent même de produire des pièces complexes faites d’éléments mobiles ou encore des composants électroniques directement sur leurs supports. Par exemples, des moteurs et des actionneurs voire des robots. Ils ont déjà réalisés des lentilles de diodes électroluminescentes ainsi que des fibres optiques. Dernier point fort, la MultiFab devrait coûter moins de 7.000 euros.

- L'impression 3D en verre

L’impression 3D vient de franchir un nouveau palier dans l’innovation avec la mise au point de la G3DP, une imprimante capable de travailler avec du verre fondu. Cette technique qui permet de fabriquer des objets en 3D parfaitement transparents ouvre de très nombreuses possibilités en termes de design et d’ingénierie. © MIT Media Lab

Avec le G3DP (Glass 3D Printing) développé par le MIT’s Glass Lab, le verre en fusion s’écoule de lui-même à travers la buse par gravité. Pour interrompre l’impression au moment voulu, l'extrémité de la buse est refroidie avec de l’air comprimé. Pour relancer l’impression, la buse est chauffée avec un chalumeau au propane.

Voir aussi Futura-Sciences.

- Un selfie 3D avec un simple Smartphone

Une méthode permet de créer un avatar 3D avec un Smartphone. Murielle Gerber, EPFL 2015

"Il suffit de se filmer et de prendre quelques plans additionnels pour les expressions du visage, et notre algorithme s’occupe du reste".

Le double numérique, l’avatar, peut alors être affiché sur un écran, et animé en temps réel avec une caméra qui traque les mimiques.

- Transformer ce qu'on dit en gif animé

http://cdn1.tnwcdn.com/wp-content/blogs.dir/1/files/2015/08/GifTalkBlahBlah.gif

Le site Giftawk transforme ce qu'on dit en gif animé (il faut utiliser google chrome).

- Un robot qui construit des robots qu'il améliore de génération en génération

A ce stade, les "bébés robots" sont constitués de cubes en plastique avec un moteur à l'intérieur. Ceux-ci sont mis en place par un bras de robot "mère" qui les colle dans différentes configurations.

Bien que la mise en place soit simple, le système lui-même est ingénieux.

Le robot mère évalue dans quelle mesure ses bébés sont capables de se déplacer, et sans aucune intervention humaine, améliore la conception de sorte que le prochain qu'il construit puisse aller plus loin.

- Un robot qui fait des construction avec ce qu'il a sous la main

Le but de ces "robots constructeurs", qui sont conçus pour s'arranger de matériaux de construction improbables et malléables, c'est d'être déployés en cas de catastrophe.

En utilisant un algorithme qui fonctionne comme une boucle - scan, évaluation de l'environnement, pose du matériel, nouveau scan, évaluation des changements, mettre plus de matériaux, etc. - les robots sont capables de construire de manière itérative comme ça vient, en tenant compte des changements dans l'environnement, ainsi que des modifications des matériaux avec lesquels ils construisent.

- Des robots apprennent à faire pizzas et pancakes en lisant les recettes

Voir aussi Technology Review.

- Hollie, un robot qui fait des cocktails

HoLLiE

 

- OctaWorm, un robot pour explorer les tuyaux

Octaworm, le robot déformable en train de ramper dans une conduite en plexiglas ©Juan Cristobal Zagal

Le robot Octaworm que leur équipe a mis au point se déplace par reptation en déformant son corps qui, comme son nom l'indique, est en forme d'octaèdre.

D'après ses concepteurs, ce robot est particulièrement bien adapté à la circulation dans des conduites ou des canalisations sur la paroi desquelles il peut prendre appui. Et du fait de sa structure déformable, il peut s'adapter non seulement aux variations de diamètre de la canalisation, mais aussi s'accommoder de la déclivité du terrain. Outre les applications immédiates d'inspection de bâtiments, ce robot pourrait, dans un futur lointain, avoir des applications en médecine. En effet, les chercheurs imaginent qu'une version miniaturisée de la machine pourrait se faufiler demain dans nos vaisseaux sanguins.

- Un robot piloté par exosquelette

Voici Hermes, un robot développé par le MIT. Il est capable de se déplacer et d’agir en milieux hostiles. Cet avatar piloté à distance par un exosquelette fait preuve d’une force et d’une précision étonnante.

La grande innovation n’est pas les mains, ni même l’architecture du robot, mais dans les capteurs présents sur l’exosquelette qui en permettent le contrôle. En effet, ce sont les mains du pilote qui, en se déplaçant, contrôlent celles du robot et ce de façon très précise. L’interface inclut aussi un retour de force, permettant au porteur de sentir les mouvements qui pourraient le déséquilibrer.

- Atrias, le robot bipède qui court

Atrias

Inspiré de l’autruche, Atrias est capable de se déplacer sur ses deux jambes, évidemment, mais aussi et surtout de garder l’équilibre sur terrain accidenté et de rester debout lors d’un choc, grâce à ses membres montés sur ressorts.

Ceux-ci offrent une capacité d’absorption similaire à celle de nos propres muscles et lui permettent de se déplacer à plus de 2,5 m/s (9 km/h).

- Des robots tout terrain

 

- Un robot chargeur de voiture électrique chez Tesla Motors

Tesla Motors a montré dans une vidéo un système robotisé de recharge adapté à ses propres voitures électriques. © Tesla Motors

Le fabricant américain de voitures électriques haut de gamme, Tesla Motors, l’entreprise dirigée par Elon Musk, a présenté en vidéo une sorte de bras robot capable de fixer une prise électrique sur un véhicule.

Par ailleurs, StoreDot promet avec sa FlashBattery une autonomie de 480 kilomètres après seulement cinq minutes de charge :

Elle repose sur une nanostructure faite de matériaux bio-organiques qui augmentent la capacité des électrodes et les performances de l’électrolyte. Plus précisément, il s’agit de boîtes quantiques formées de nanocristaux de 2,1 nanomètres de diamètre fabriqués à partir de peptides de synthèse. Outre des performances hors normes, StoreDot vante également l’aspect écologique de son innovation qui substitue des composés organiques aux métaux lourds et toxiques actuellement employés dans les batteries lithium-ion ou au cadmium.

- Le projet Hyperloop se concrétise

Hyperloop

JumpStartFund entend bien démarrer la construction d’un Hyperloop taille réelle, et pouvant embarquer des passagers, en 2016. Ce prototype sera long de 8 km et situé entre San Francisco et Los Angeles.

- Des drones pour nettoyer les toits

drone nettoyage toit

Avec ses 7 kg sur la balance et ses 6 hélices, il est équipé d’une caméra et de buses rétractables lui permettant de pulvériser avec précision un mélange d’eau et de produit anti-mousse, parfait pour l’entretien de toute toiture.

Si son autonomie s’avère assez limitée – une quinzaine de minutes -, elle laisse le temps à l’appareil de traiter pas moins de 150 mètres carrés.

- Sony se met aux drones

Les premiers drones de Sony décollent

Dans le but avoué de produire des drones pour surveiller certaines zones difficiles d’accès, Aerosense a travaillé d’arrache-pied pour créer deux prototypes de drone commercial : le DTO1-E et le AS-MCO1-P.

Le premier cité, le DTO1-E, ressemble en tout point a un avion, mais format miniature. Capable d’effectuer des décollages et des atterrissages verticaux, l’appareil peut supporter une charge de 10 kilos, et cela en jouissant d’une autonomie de deux heures. Par ailleurs, ce prototype est équipé pour pouvoir atteindre une vitesse de pointe de 170 km/h.

Voir aussi Sciences et Avenir.

- Boeing a un canon laser pour abattre les drones
Boeing canon laser drone

- Le PAK TA, un cargo militaire supersonique russe

Artwork: Aleksey Komarov

Imaginé par la commission de l’industrie militaire russe, cet avion cargo en forme d’aile volante, disposerait d’une capacité de 200 tonnes, d’un rayon d’action de 7000 kilomètres et d’une vitesse de pointe supersonique de 2000 km/h !

- L'avion hypersonique d'Airbus pour aller à New York en 1 heure

avion supersonique Airbus

Les ingénieurs du projet ont ainsi imaginé l’avion le plus rapide du monde, ni plus ni moins, capable d’atteindre la vitesse folle de 5 500 km/h – soit 4 fois la vitesse du son ! -. À titre de comparaison, le Concorde ne volait qu’à 2 000 km/h. Avec ses deux moteurs turbo, cet avion-fusée décolle à la verticale et vol à plus de 30 000 mètres d’altitude. Malheureusement, pour atteindre de telles performances, l’appareil ne peut embarquer que 20 passagers.

- Des vols hypersoniques allemands d’ici 2030

Les vols suborbitaux permettraient de relier l’Europe à l’Australie en seulement 90 minutes.

SpaceLiner fonctionnerait sensiblement de la même manière que le vieux Space Shuttle. Le vaisseau décollerait verticalement, embarqué avec un moteur de fusée réutilisable, lequel se détacherait une fois une certaine altitude atteinte.

La rentrée dans l’atmosphère s’effectuerait, elle, à la vitesse de Mach 20 – 25 000 km/h – pour un atterrissage sur la terre ferme comme un avion traditionnel. Le moteur de la fusée, de son côté, serait récupéré par un vaisseau remorque avant d’atterrir de manière totalement autonome.

vols hypersoniques

 

<- Revue des sciences précédente | Revue des sciences suivante ->

 

3 838 vues

1 réflexion au sujet de « Revue des sciences septembre 2015 »

Laisser un commentaire