Un biocarburant à partir de stations d’épuration

Lien

- Un biocarburant à partir de stations d'épuration

Pour produire un algocarburant à moindre coût, la start-up réunionnaise Bioalgostral a développé une technologie permettant de fertiliser la culture de ses microalgues en valorisant des déchets, à savoir des eaux usées et les boues d'une station d'épuration. D’ici quelques années, les insulaires pourront, si tout se passe bien, se déplacer grâce à un biodiesel local.

Par ailleurs, La Recherche, p32, signale que Veolia teste un procédé de production de bioplastique (PHA) à partir de boues d'épuration.

Manipuler le climat au Nord assécherait le Sahel

Lien

- Manipuler le climat au Nord assécherait le Sahel
La Recherche, p16

Une des solutions envisagées pour empêcher un emballement du climat à cause de la fonte des glaces accélérée du Pôle Nord (phénomène qu'on ne retrouve pas au Pôle Sud), aurait été de se concentrer sur cette zone pour la protéger des rayonnements solaires. Pour cela, il suffirait par exemple d'injecter des particules dans l'hémisphère Nord. Las, des simulations prédisent que cela accentuerait encore la désertification de l'Afrique.

Lorsque l'opération est menée dans l'hémisphère Nord, la température de la Terre diminue d'environ un degré sur cette période. Mais le Sahel est alors privé de pluies. Réalisée dans l'hémisphère Sud, l'injection favorise le retour des pluies sur le Sahel mais assèche le Nordeste brésilien... Ces simulations renforcent donc notre conviction qu'une opération d'ingénierie climatique à l'échelle régionale est problématique.

3 des 4 sécheresses les plus sévères survenues au Sahel depuis 1900 ont suivi, avec un décalage de 6 à 12 mois, une importante éruption volcanique de l'hémisphère Nord.

Sans parler de tous les autres événements imprévisibles (volcans) qui changent tout, les simulations régionales restent assez peu fiables mais on doit retenir la difficulté d'un contrôle du climat et qu'une amélioration quelque part peut se payer très cher ailleurs, ce qui pose comme on l'avait vu la question de l'autorité capable d'en décider. De sorte qu'on ne peut avoir d'autre but qu'une stabilisation, ce qui ne veut pas dire que ce soit à notre portée, restant encore bien au-delà de ce qu'on sait faire (de perturber le climat nous en rend responsables sans en avoir encore les moyens).

Les préons, constituants des quarks ?

Lien

- Les préons, constituants des quarks ?
Don Lincoln, Pour la Science, p19-25

Ce mois-ci est riche en nouvelles perspectives en physique, notamment ce nouvel univers des constituants supposés des quarks et leptons, appelés préons.

- Dans les 12 particules élémentaires connues, certaines propriétés se répètent. Ce schéma suggère l'existence possible d'une structure interne de ces objets.

- Ces particules pourraient être composées d'entités plus petites, que les physiciens désignent sous le terme générique de « préons ».

- Aucune donnée expérimentale ne confirme aujourd'hui cette hypothèse. Mais la question pourrait être tranchée par le collisionneur lhc du CERN et par d'autres expériences.

Le modèle standard considère les quarks et les leptons comme ponctuels et indivisibles. Pourtant, de nombreux indices suggèrent que ces particules pourraient en fait être composées d'éléments encore plus petits. Cela permettrait d'expliquer que certaines particules ont des propriétés communes.

Le tableau des quarks et des leptons comporte trois colonnes nommées générations (la question de la multiplicité des particules est souvent nommée « problème des générations »). La première, tout à gauche, inclut les quarks u et d ainsi que l'électron et le neutrino électronique, c'est-à-dire tout ce qui est nécessaire pour expliquer l'Univers qui nous est familier. La deuxième génération contient les versions un peu plus massives des mêmes particules ; la troisième génération comprend les particules les plus lourdes.

Le modèle standard traite les quarks et les leptons comme des particules ponctuelles, dépourvues de structure interne. Mais la répétition des propriétés d'une génération à l'autre, comme pour les éléments chimiques, laisse penser que les quarks et les leptons ont une structure sous-jacente.

Forts de ces observations, les physiciens théoriciens ont proposé de nombreux modèles de sous-structures pour les quarks et les leptons. Le terme générique de « préon » s'est imposé pour désigner leurs constituants.

Pour illustrer ces modèles, prenons une version simple proposée en 1979 indépendamment par l'Israélien Haïm Harari et l'Américain Michael Shupe, et ultérieurement étendue par H. Harari et son étudiant Nathan Seiberg, tous deux à l'Institut Weizmann en Israël. Ils ont proposé l'existence de deux sortes de préons, l'un de charge électrique +1/3, l'autre de charge nulle. Chacun de ces préons a un homologue, une antiparticule, de charge opposée : –1/3 et 0, respectivement. Ces préons sont des fermions, des particules de matière. Chaque quark ou lepton est une combinaison de trois préons. Deux préons de charge +1/3 et un de charge nulle, par exemple, constituent un quark u, alors que l'antiquark u– est formé de deux préons de charge –1/3 et d'un de charge nulle. Les bosons vecteurs de force, quant à eux, sont des combinaisons de deux ou six préons. Le boson W+, porteur de l'interaction faible qui agit à la fois sur les quarks et les leptons, a trois préons de charge +1/3 et trois de charge 0.

La situation se complique quand nous portons notre attention sur les deuxième et troisième générations. Dans ce modèle, on fait l'hypothèse que les générations deux et trois sont des états excités des configurations de la première génération, de même que les atomes excités sont des atomes où des électrons ont sauté d'un état à un autre, d'énergie supérieure. En outre, on pense qu'un mécanisme inconnu assure la cohésion des préons au sein des quarks et des autres particules.

Si les préons qui constituent les particules des deuxième et troisième générations sont les mêmes que pour la première, il y a certainement quelque chose chez les préons qui permet aux particules d'interagir plus ou moins avec le champ de Higgs. Cela expliquerait pourquoi les particules des générations deux et trois sont plus lourdes.

En outre, les préons et les supercordes peuvent coexister, les dimensions des supercordes se situant à une échelle beaucoup plus petite que celle des quarks et des leptons.

Une autre alternative, s'inspirant des préons, est celle qu'a proposée en 2005 Sundance Bilson-Thompson, de l'Université d'Adélaïde en Australie. Dans son modèle, les préons seraient des tresses torsadées d'espace-temps, des objets constitués du tissu de l'espace-temps, et non des particules ponctuelles.

Il y a bien d'autres choses dans l'article, notamment le fait que plus l'échelle est petite, plus l'énergie est grande, ce qui impliquerait que la masse d'une particule soit inférieure à la somme de ses composants, etc.

La culture est-elle dans les gènes ?

Selection_culturelleC'est un article d'histoire des sciences qui revient sur les polémiques entre génétique et culture qu'on retrouve actuellement entre partisans et adversaires des théories du genre et qui témoignent d'une idéologisation de la science des deux côtés assez incroyable car aucune des deux positions n'est tenable jusqu'au bout d'une entière détermination par les gènes ou d'une culture sans rapport aucun avec une nature humaine.

Continuer la lecture

Des drones pour repérer les tagueurs de train

Lien

- Des drones pour repérer les tagueurs de train

La Deutsche Bahn déployera prochainement des drônes silenceux, qui auront pour mission de prévenir les actes de vandalisme sur ses trains et ses lieux.

Les drônes seront presque silencieux, équipés de trackers GPS, mais aussi de détecteurs infrarouges, qui aideront à repérer les contrevenants. Ils seront en mesure de voler à une altitude de 150 mètres, d’atteindre une vitesse de 53 km/h, et de tenir une surveillance 80 minutes consécutives.

On peut renvoyer à "La théorie du drone" de Grégoire Chamayou, quoique je trouve bien naïve et dangereuse sa recherche de responsabilité dans ces pures évolutions techniques.

Devenus bipèdes à cause d’un terrain escarpé

Lien

- Devenus bipèdes à cause d'un terrain escarpé

C'est une nouvelle version du singe qui se redresse pour parcourir la savane, sauf qu'on y rajoute les contraintes d'un terrain escarpé et rocailleux. Une autre théorie impliquait le transport de nourriture sur de longues distances mais ce n'est pas contradictoire.

Ainsi les Hominiens ont été obligés de marcher sur leurs deux jambes pour s'adapter à l'environnement de l'Afrique méridionale et orientale. Ils sont devenus progressivement des bipèdes, car ils ont dû marcher au lieu de grimper dans les arbres qui commençaient à se raréfier. La vaste forêt laissait place à une vaste plaine et à la savane, un environnement auquel les Hominiens devaient s'adapter pour survivre.

Le paysage de cette partie de l'Afrique est réputé être rocailleux et escarpé. Cette nature rocailleuse devenait le terrain de chasse des Hominiens, lesquels étaient obligés de se dresser pour élargir leur champ de vision. Ce nouveau cadre exigeait des activités physiques comme l'escalade, la course, la marche et le balancement. C'est ainsi qu'ils sont devenus, au fil du temps, des bipèdes à part entière. L'évolution des Hominiens ne se limite pas à ce changement à la verticale, on assiste également à un développement de la dextérité manuelle.

Utiliser les nanotubes comme filtres ultrarapides pour le dessalement

Lien

- Utiliser les nanotubes comme filtres ultrarapides pour le dessalement

Des simulations laissent penser que le flux de molécules d'eau à travers des membranes en nanotubes de carbone serait extrêmement rapidement, ce qui les rendrait très intéressants comme filtres au point de vue coût-efficacité pour des usines de dessalement d'eau de mer: les molécules d'eau passent en effet à travers les pores nanométriques alors que les ions de sel ne le peuvent pas.

Les molécules d'eau voleraient littéralement à travers les nanotubes de carbone sans toucher les parois hydrophobes, d'où leur friction réduite et des performances très supérieures (au moins de 200 à 1000 fois).

Des masques pour mieux écouter ou voir

Lien

- Des masques pour mieux écouter ou voir

Des masques pour mieux écouter ou voir

Un groupe d’étudiants du Royal College of Art de Londres a mis au point deux masques électroniques affinant la vue et l’ouïe. Le masque Eidos Vision permet de décomposer un mouvement en temps réel, et Eidos Audio peut isoler un son et l’amplifier en usant de l’ostéophonie. Le système utilise des capteurs et un traitement informatique pour sélectionner une entrée sensorielle et la renforcer en l’amplifiant. Ces dispositifs, encore au stade de prototypes, pourraient trouver des applications dans le sport, la musique, mais aussi la santé.

Imaginez assister à un concert où, muni d’un masque audio spécial, vous pourriez focaliser votre écoute sur un seul instrument ou la voix du chanteur, en isolant tous les autres sons environnants. Ou encore, étudier la technique d’un sportif en l’observant à travers un masque-lunettes qui décomposerait ses mouvements en temps réel, à la manière de ce que produit la photographie en pose longue.

Des armures exosquelettes pour les soldats

Lien

- Des armures exosquelettes pour les soldats

"L'armure devrait peser moins de 10 kilos, ne consommerait pas plus de 100W, et devrait permettre à un soldat pesant 80 kilos de transporter 45 kilos de matériel à une vitesse de 1,25 m/s, tout en réduisant la consommation métabolique du combattant de 25%, détaille la Darpa dans ses spécifications techniques. Ainsi, une batterie de 4,5 kilos de dernière génération suffirait à fournir l'énergie nécessaire pour une mission classique de 24 heures."

La combinaison est faite dans un tissu élastique dont les fibres, soigneusement orientées, sont capables de se contracter sous l'effet d'implusions électriques. Ce qui leur permet d'accentuer l'effort musculaire produit par le soldat.

Changement climatique et révolutions arabes

Lien

- Changement climatique et révolutions arabes

Il est intéressant de lier la sécheresse faisant monter le prix du pain et les révolutions arabes, un peu comme en 1789, mais la situation devrait empirer avec le réchauffement.

Dans une région aride, où les terres cultivables sont rares, la question de l’approvisionnement alimentaire est politiquement sensible. Déjà en janvier 1977, les émeutes du pain en Egypte avaient marqué les esprits et fait vaciller le régime (79 morts, plus de 500 blessés et de 1000 arrestations). Or, en 2010 et 2011, un enchaînement catastrophe se produit : des phénomènes climatiques extrêmes (vagues de chaleur, vagues de froid, fortes intempéries) font chuter dramatiquement le niveau des récoltes de blé en Russie (-32.7%), en Ukraine (-19.3%), au Canada (-13.7%), en Australie (-8.7%). Au même moment, la Chine connaît une sécheresse hivernale exceptionnelle (« a once-in-a-century winter drought ») : le souvenir des famines tragiques (la dernière en 1958-1961) et la crainte de mauvaises récoltes poussent le géant asiatique à compenser sa mauvaise année en achetant en quantité du blé sur les marchés internationaux. Les cours du blé explosent : de 157$ la tonne en juin 2010 à 326$ la tonne en février 2011.

Les pays arabes seront parmi les plus touchés par cette vertigineuse hausse des prix. En effet, parmi les 10 plus gros importateurs de blé ... 8 sont des pays arabes.

Affaiblissement des vents de la stratosphère

Lien

- Affaiblissement des vents de la stratosphère

Dans la stratosphère, les vents dominants au niveau de l’équateur changent de direction régulièrement. Cette oscillation est parfaitement naturelle, mais il apparaît qu’elle s’est affaiblie ces 60 dernières années. La diminution de son amplitude est une conséquence directe du changement climatique.

Pour la période 1953-2012, là où la pression est de 70 hPa, c'est-à-dire à environ 19 km d’altitude, l’amplitude de l’oscillation quasi biennale a diminué d’environ un tiers.

Les chercheurs démontrent que le renforcement du mouvement ascendant de l’air supprime la force des vents de l’OQB dans les modèles. Ils en ont alors déduit que la tendance observée dans les radiosondages est une confirmation du renforcement de la montée de l’air vers la stratosphère à l’équateur. Un tel changement de comportement en haute atmosphère peut être vu comme l’empreinte du réchauffement global du climat.

Par ailleurs, la plupart des modèles climatiques échoueraient à prendre en compte ces mouvements ascendants.

Un vaccin universel contre la grippe à base de nanoparticules

Lien

- Un vaccin universel contre la grippe à base de nanoparticules

En fait, pour l'instant, le vaccin n'est pas vraiment universel, mais il pourrait le devenir.

La nanoparticule est créée à partir d’hémagglutinine, une protéine retrouvée à surface des virus de la grippe (le H utilisé pour dénommer les différentes souches - ici le H1), et de la ferritine, une protéine qui transporte le fer et qui possède la propriété de se regrouper spontanément en amas.

Ces polypeptides ont été fusionnés par autoassemblage, obtenant un cœur sphérique composé de 24 molécules de ferritine, duquel s’élèvent huit colonnes, chacune constituée de trois fragments particuliers d’hémagglutinine.

Ces nanoparticules déclenchent une production d’anticorps antigrippaux bien plus importante qu’avec les vaccins classiques, à base de virus entiers inactivés, chez deux modèles animaux. Cette réponse immunitaire est 34 fois plus intense chez les souris et 10 fois plus importante chez les furets.

Ce vaccin d’un genre nouveau a donc un large spectre d’action, mais n’est pas universel. Pour immuniser complètement un individu, il faudrait lui injecter des nanoparticules présentant des hémagglutinines H1 à H17. Les auteurs ont déjà conçu ces composés avec des hémagglutinines H2 et H3, ainsi que certaines luttant contre les virus de la grippe de type B, mais ils n’ont pas encore été testés.

Voir aussi Futura-Sciences. Par ailleurs on espère pouvoir faire un vaccin à très large spectre en ciblant un polymère (poly-N-acétyl glucosamine ou PNAG) commun à de nombreux agents infectieux (virus, bactéries, champignons).

L’aire de Broca dédiée à la grammaire comme à la rationalité procédurale

Lien

- L'aire de Broca dédiée à la grammaire comme à la rationalité procédurale
Thierry Chaminade, La Recherche, p60

Parler comme on taille des silex | La Recherche

J'ai voulu mettre un titre plus précis mais cela aurait pu être "L'origine commune du langage et de la technique". L'article original s'appelle "Parler comme on taille des silex", Thierry Chaminade mettant en relation langage et taille des silex par l'intermédiaire du développement de l'aire de Broca, bien connue pour son lien au langage mais qui serait aussi nécessaire pour suivre des procédures de fabrication selon des règles du même ordre que la grammaire. C'est bien sûr très important puisque cela identifie langage et technique mais aussi parce que cela ferait remonter la grammaire, et donc peut-être le langage narratif, à des temps un peu trop reculés (une procédure comportant des étapes successives est effectivement de l'ordre de la narration).

Le rôle attribué au langage était jusqu'ici réduit à la transmission alors qu'il devient plutôt un produit de la rationalité et des procédures techniques, non pas de la fiction (des mythes qui n'en seraient que des pathologies) et donc pas des bavardages des femmes ni des contes pour enfant comme on en avait fait l'hypothèse. Cela n'empêche pas que la capacité de transmission permet ensuite d'accélérer l'évolution et de complexifier les techniques, ce qu'on n'observe d'ailleurs pas tellement avant le paléolithique supérieur, les innovations restant très rares avant. Le plus vraisemblable reste que le langage narratif est bien plus récent mais que sa structure préexistait dans les procédures techniques et que son émergence a été plus progressive.

En tout cas, on remet ainsi sur les pieds l'histoire de notre humanisation qui ne commence pas par l'esprit mais par une raison procédurale qui reste ancrée dans le biologique et la pratique manuelle (on avait d'ailleurs vu que la taille de la pierre avait fait évoluer nos mains). L'esprit joue quand même un grand rôle par l'intermédiaire de l'imitation et des neurones miroirs qui activent l'aire de Broca de celui qui regarde de façon semblable à celui qui taille la pierre (identification à l'intentionnalité du geste).

Aucun des proches cousins de l'homme - chimpanzés, gorilles, orangs-outans, etc. - ne parle. Pourtant, la plupart ont à leur disposition certains des prérequis nécessaires au langage. Par exemple, leurs organes vocaux leur permettent des vocalisations simples : ils émettent des sons pour signifier leurs émotions ou signaler un danger. On a aussi observé que des chimpanzés peuvent apprendre la langue des signes, associant des gestes à des objets ou à des actions concrètes. Cette forme de symbolisme constitue une première étape vers le langage.

Cependant, aucun singe ne maîtrise une forme de communication comparable aux langages humains, du point de vue de la richesse de vocabulaire et de la complexité de la grammaire. De la même manière, s'ils utilisent des pierres pour ouvrir des noix, par exemple, ils ne fabriquent pas véritablement des outils. Le langage et la fabrication d'outils ne se sont développés que chez l'homme. (...) Ces deux facultés sont en effet commandés par la même structure cérébrale : l'aire de Broca, structure propre à l'homme et chargée de hiérarchiser les actions.

En 1991, une professeur de psychologie à l'université de Californie à Los Angeles, Patricia Greenfield, a constaté que, chez l'enfant, l'apprentissage du langage semblait se dérouler de manière simultanée avec un autre processus, la manipulation d'objets.

Afin de cartographier les régions du cerveau impliquées lorsqu'un spécialiste de ces outils les fabrique, nous avons utilisé la tomographie par émission de positrons [...] Résultat : les deux types de pierre taillée (les plus primitives de plus de 2 millions d'années et les bifaces acheuléens de 1,7 millions d'années à 500 000 ans) actives l'aire de Broca, mais pas au même endroit. Fabriquer les outils les plus primitifs nécessite une activité dans la partie postérieure de l'ère de Broca, dans l'hémisphère gauche. C'est une zone qui est impliquée dans le contrôle moteur des mouvements de la main, mais aussi dans celui de l'articulation des sons.

La fabrication d'outils acheuléens requiert en revanche une région plus antérieure de l'aire de Broca, dans l'hémisphère droit. C'est dans cette même zone [mais plutôt dans l'hémisphère gauche ?] que le cerveau traite des aspects structurels du langage (la grammaire). Donc de la hiérarchie des mots.

Le recours à cette zone cérébrale pour fabriquer les outils acheuléens semble relever du même type de fonction : la hiérarchisation des gestes.

Nous avons étudié les régions du cerveau activées lorsqu'un observateur regarde un expert qui fabrique ces objets [...] Les résultats ont montré que s'il est novice, l'activité de l'aire de Broca de l'observateur se concentre dans la partie postérieure, celle qui sert au contrôle moteur des actions [...] En revanche, si l'observateur est expert, c'est une zone plus antérieure de l'aire de Broca qui est activée. Or, c'est celle qui contrôle la hiérarchie des différents gestes dans la taille de pierre [...] Il semble donc bien qu'il y ait un phénomène miroir.

Page 24, une petite brève fait état de coquilles d'oeuf d'autruche couverts de signes abstraits datant de 110 000 ans en Afrique du sud, ce qui pourrait être une manifestation du langage ?

La nourriture réduite à une poudre

Lien

- La nourriture réduite à une poudre

Rob Rhinehart, un ingénieur américain, a inventé une poudre à diluer capable de remplacer toute autre nourriture pour l'humain.

Ce professionnel de l'ingénierie électrique a créé "Soylent". Une poudre blanchâtre qui contiendrait tout ce dont l'homme a besoin pour vivre. Des vitamines, des minéraux, des acides aminés, des calories, du gras – de l'huile d'olive et un peu d'huile de poisson... Et aucune des toxines qui se trouvent dans de nombreux aliments, promet l'Américain de 24 ans.

Si la poudre blanche tient ses promesses, elle pourra s'adapter aux besoins de chaque individu, en fonction de son poids, de sa taille, de son activité physique... Et elle devrait coûter moins cher que les produits alimentaires traditionnels. 100 dollars suffiraient à satisfaire les besoins nutritionnels d'une personne pendant un mois si Soylent est produit à la chaine, assure le jeune patron. Sans compter que l'absence de nourriture signifie aussi absence de cuisson, de vaisselle et donc baisse de la consommation d'énergie.

C'est bien sûr dramatique...

Une lentille pour projeter des images 3D en l’air

Lien

- Une lentille pour projeter des images 3D en l'air

Ce n'est pas si extraordinaire car ne projetant l'image 3D d'un objet qu'à seulement quelques longueurs d'onde et c'est encore grâce à des métamatériaux qu'on obtient un indice de réfraction négatif permettant de concentrer à distance des rayons ultraviolets (pas seulement des micro-ondes). On peut juste se dire que c'est prometteur pour la suite.

Cette lentille plate ne repose pas sur des motifs nanométriques, mais consiste plutôt en simple sandwich de couches alternées d'épaisseur nanométrique d'argent (vert) et de dioxyde de titane (bleu), dont la production utilise des méthodes classiques.

Lorsqu'il est éclairé par une lumière UV, un objet placé d'un côté est projeté comme une image en 3D de l'autre côté. Ici, un anneau découpé dans une feuille sur la gauche est répliqué par la lumière située sur la droite.

Voir aussi Futura-Sciences.

Nouvelle théorie géométrique de la relativité quantique

Lien

- Nouvelle théorie géométrique de la relativité quantique

Eric Weinstein

Pour New Scientist, ce n'est que du sensationalisme mais cette nouvelle théorie d'un physicien qui s'était tourné vers la finance, Eric Weinstein, aurait l'avantage de donner des réponses à tous les mystères de la physique actuelle (matière noire, expansion, etc.) en unifiant relativité générale et mécanique quantique dans ce qu'il appelle "Geometric Unity" généralisant les symétries.

Le groupe de symétrie de Weinstein résulte de sa tentative de concilier les équations d'Einstein (courbure de l'espace-temps) avec les équations de Yang-Mills, sur lesquelles il travaille depuis longtemps, tout comme celle de Dirac, toutes les deux régissant les interactions de particules au niveau quantique.

C'est donc une géométrisation semblable à celle de la gravité par la relativité générale (mais avec 14 dimensions) qui en représenterait une approximation. Dans ce cadre, la constante cosmologique ne serait pas constante, variant en fonction de la courbure de l'univers. Nous sommes dans un fragment relativement plat de l'univers, ce qui explique que la constante cosmologique soit si petite. La matière noire résulterait d'une brisure de symétrie de particules dont une moitié serait sans interaction avec les champs électromagnétiques. Les 3 générations de particules à l'origine de la théorie des préons émergeraient spontanément de cette théorie. Il semblerait enfin qu'on puisse se passer du boson de Higgs pour rendre compte de la masse des bosons W et Z.

Tout ceci est peut-être faux, ce n'est pour l'instant qu'une construction mathématique même pas encore publiée (voir les critiques), mais permettrait du moins des prédictions expérimentales vérifiables avec le LHC (cependant certaines nouvelles particules prédites auraient dû déjà y être découvertes). Si ces hypothèses étaient vérifiées, ce serait un véritable saut comparable à celui d'Einstein. A suivre, donc...

On peut signaler aussi des progrès de la théorie holographique (mais, c'est moins nouveau).

Des voitures qui roulent à l’azote liquide ?

Lien

- Des voitures qui roulent à l'azote liquide ?

 
Pour le moment, les tentatives de la compagnie Highview Power Storage ont conduit à la mise au point d’un dispositif dont le rendement de conversion de l’énergie est de 50 à 60 %, alors que les batteries classiques peuvent atteindre 90 %. Des améliorations sont à espérer, mais pas au point de concurrencer directement les batteries à ce niveau.

Toutefois, cela ne veut pas dire que l’azote liquide n’est pas un concurrent sérieux pour les accumulateurs nickel-hydrure métallique ou les batteries lithium-ion, que l’on utilise dans les voitures hybrides notamment. En effet, la densité de stockage d’énergie est la même, et il est bien plus facile et rapide de refaire un plein d’azote liquide, fût-il à -200 °C, que de recharger des batteries ou des accumulateurs. Surtout, les systèmes de stockage de l’azote liquide peuvent durer des décennies, alors que la durée de vie des batteries n’est que de quelques années.

Des vitamines B contre l’Alzheimer

Lien

- Des vitamines B contre l'Alzheimer

Maladie d’Alzheimer : les vitamines B pourraient-elles la prévenir ?

Les volontaires avaient tous plus de 70 ans et étaient atteints de troubles cognitifs légers, un stade intermédiaire entre la situation normale et la démence, souvent annonciateur de la maladie d’Alzheimer. Les 156 participants ont été répartis en deux groupes : une moitié avalait quotidiennement 20 mg de vitamine B6, 0,5 mg de vitamine B12 et 0,8 mg de vitamine B9 (acide folique), tandis que le reste était sous placebo.

Après un suivi de deux ans, tous les patients avaient perdu de la matière grise. Un résultat cohérent puisque c’est le lot de tout le monde avec l’âge. Mais dans les régions ciblées, la perte neuronale monte à 3,7 % dans le groupe placebo, et atteint seulement 0,5 % chez les patients traités : soit environ 7 fois moins.

La vitamine B9 est cependant accusée d’augmenter légèrement les risques de certains cancers.

Cela pourrait confirmer l'efficacité des vitamines B aussi dans la dépression en favorisant la formation de neurones ? Pas sûr car l'efficacité semble reliée surtout à l'excès d'homocystéine spécifique de l'Alzheimer.

Par ailleurs, la cannelle pourrait empêcher la formation des plaques de protéine Tau que le composé "épicatéchine" présent aussi dans le chocolat et le vin rouge protègerait de l'oxydation (et du diabète souvent associé à l'Alzheimer). On a l'impression qu'on est dans les remèdes de bonnes femmes mais c'est plutôt qu'on en découvre les véritables vertus.

L’intrication quantique persiste entre deux photons si l’un disparaît

Lien

- L'intrication quantique persiste entre deux photons si l’un disparaît

L'intrication quantique persiste entre deux photons si l’un disparaît

Les chercheurs ont réalisé une fascinante variante des expériences précédentes d’échange d’intrication (schéma du bas sur l’image ci-dessus). Ils ont commencé par produire une première paire de photons intriqués et ont mesuré la polarisation sur le photon 1. Ensuite seulement ils ont fabriqué la paire de photons (3-4) et effectué une mesure d’état de Bell avec les photons 2 et 3. Ils ont vérifié leurs résultats en réalisant plusieurs fois la même expérience. Ils ont constaté, comme le prévoyait les équations de la mécanique quantique, que les résultats des mesures sur la polarisation de ces multiples essais identiques avec le photon 4 montraient que les paires de photons 1-4 étaient intriquées, alors même que les photons 1 avaient à chaque fois disparu.

Le plus paradoxal est que, selon les lois de la relativité restreinte, si des observateurs voyageaient à des vitesses différentes, ils ne pourraient s'accorder sur le moment où les deux photons 1 et 4 existent simultanément. Il en résulte, selon Hagai Eisenberg que « vous ne pouvez pas dire que le système est intriqué à tel ou tel moment ». Toutefois, l'intrication existe bel et bien. Le grand physicien Anton Zeilinger ajoute, à propos de cette expérience : « Elle est remarquable car elle montre plus ou moins que les événements quantiques sont au-delà de nos notions quotidiennes sur l'espace et le temps ».

C'est un grand pas de plus (et la preuve de l'inadéquation de nos représentations). Je trouvais effectivement que l'intrication semblait contredire la simultanéité relative des événements, ce qui n'est donc pas le cas puisqu'il n'y a aucune simultanéité, seulement interaction (intrication) puis non-localité qui n'est pas une simultanéité (mais ne pourrait-on inverser l'ordre de causalité dans certains référentiels relativistes ?). C'est plutôt la cryptographie qui pourrait en pâtir si on peut détruire (lire) un photon sans détruire l'intrication ?