L’Hyperloop : Los Angeles-San Francisco en 30 mn

Lien

- L'Hyperloop : Los Angeles-San Francisco en 30 mn

On avait déjà parlé de ces projets de transports ultra-rapide sur le principe des canons magnétiques dans un tube sous vide mais si on en reparle, c'est parce que Elon Musk, le milliardaire de Tesla Motors qui veut envoyer des hommes sur Mars, s'investit dans ce projet, qui n'est pas nouveau puisqu'il daterait de 1972 et reste encore flou.

Le VHST commencerait par accélérer jusqu'à sa vitesse maximale, avancerait en roue libre pendant un moment et finirait par ralentir. L'énergie cinétique utilisée pour accélérer serait restituée au moment de la décélération grâce à la récupération de l'énergie.

EN 1972, la Rand Corporation avait déclaré avoir envisagé une vitesse potentielle de 22 530 km/h. A cette allure, le trajet Los Angeles-New York ne prendrait que 21 minutes.

Le VHST devrait nécessairement être souterrain. Les tunnels seraient donc l'obstacle majeur à la réalisation du projet.

Action à distance sur des particules intriquées

Lien

- Action à distance sur des particules intriquées

Quantum_remote_control

C'est assez extraordinaire, témoignant comme de petits progrès techniques peuvent mener soudain à un bouleversement total. Ainsi, après qu'on ait appris à piéger des particules intriquées en les préservant de la décohérence, on s'est aperçu qu'on pouvait même les soumettre à des variations continues de champs magnétiques faibles sans briser l'intrication, ce qui permet dès lors de modifier immédiatement à n'importe quelle distance l'autre particule intriquée (ce qu'on appelle téléportation).

Ce n'est pour l'instant qu'une proposition théorique et il reste bien des limitations mais on voit comme ce qui était considéré impossible pour toujours devient soudain possible...

Des « plâtres » imprimés en 3D plus légers et esthétiques

Lien

- Des "plâtres" imprimés en 3D plus légers et esthétiques

Léger, aéré, lavable et mince grâce à son squelette en polyamide (un polymère), contrairement à un plâtre, il pourrait même être réutilisé.

Il s’agit de prototypes fabriqués à partir de radiographies et scanners. Parfaitement adapté au bras du porteur, il suffit de l’imprimer en deux morceaux puis de les souder.

Revue des sciences juillet 2013

Lire la suite

Des lunettes pour manipuler des objets en 3D

Lien

- Des lunettes pour manipuler des objets en 3D

Le logiciel développé par Atheer Labs pourrait permettre à des lunettes connectées de servir pour des conférences vidéo avec des gens comme s'ils étaient réellement dans la salle avec vous ou de jouer à des jeux 3D véritablement interactifs.

Ce sont essentiellement des caméras qui servent de capteur de profondeur pour détecter les mouvements de la main et des doigts.

"Dans quelques années, vous pourrez aller au restaurant et laisser une petite note en l'air qu'un ami pourra voir quand il viendra".

Le blocage du récepteur B1R contre l’Alzheimer

Lien

- Le blocage du récepteur B1R contre l'Alzheimer

C'est la première fois qu'un traitement semble pouvoir guérir de l'Alzheimer et inverser ses symptômes en réduisant l'inflammation cérébrale.

Les chercheurs ont découvert dans le cerveau de souris atteintes de maladie d'Alzheimer une plus grande concentration d'un récepteur appelé bradykinine de type B1 (B1R), lequel intervient dans l'inflammation. "En administrant une molécule qui bloque sélectivement l'action de ce récepteur, nous avons observé des améliorations importantes de la fonction cognitive et de la fonction vasculaire cérébrale".

Ces résultats montrent qu'une plus grande concentration du récepteur B1R est associée à des plaques de protéine bêta-amyloïde chez des souris atteintes d'Alzheimer et de déficits de mémoire. Ils montrent aussi que le blocage chronique du récepteur B1R améliore nettement l'apprentissage et la mémoire, la fonction vasculaire cérébrale et plusieurs autres caractéristiques pathologiques de la maladie d'Alzheimer chez des souris qui ont une pathologie pleinement développée. Tous ces résultats confirment un rôle du récepteur B1R dans la pathogenèse de la maladie d'Alzheimer et le rôle de la neuro-inflammation en tant que mécanisme fondamental de la maladie d'Alzheimer.

Métaux étranges intriqués et théorie des cordes

Lien

- Métaux étranges intriqués et théorie des cordes

Outre la découverte (pour moi) des "métaux étranges" ("non liquide de Fermi") et l'utilisation de la théorie des cordes ou des branes (notamment de sa dualité) pour résoudre des problèmes de la matière condensée (alors qu'on pensait que la théorie des cordes ne servait à rien), ce que je trouve le plus intéressant, c'est que l'intrication (massive) puisse être à l'origine de propriétés physiques comme la supraconduction ou les variations atypiques de la résistivité de cet état particulier de la matière. De quoi renforcer l'hypothèse de von Neumann d'une entropie d'intrication.

Les métaux et les supraconducteurs mettent en jeu un très grand nombre d'électrons, de l'ordre de 1023 pour un échantillon typique. Et, dans certaines conditions, le phénomène d'intrication semble s'établir au sein de cette multitude d'électrons. L'étude de ces matériaux devient alors si complexe que les outils mathématiques que nous utilisions sont insuffisants.

Le principe de « dualité » permet de relier des théories des cordes qui semblent différentes. Un phénomène peut s'interpréter dans une théorie ou dans une autre, et un catalogue d'outils permet de traduire les aspects d'une théorie pour les interpréter dans l'autre. Par exemple, en 1997, Juan Maldacena, alors à l'Université Harvard, a mis en évidence une dualité entre des théories fonctionnant là où les effets quantiques sont faibles mais la gravité forte, et des théories utilisées quand les effets quantiques sont importants, mais la gravité faible.

Les conducteurs, les isolants et les supraconducteurs correspondent à diverses phases de la matière. Dans chaque cas, l'essaim électronique revêt une forme différente. Ces deux dernières décennies, les physiciens ont découvert encore d'autres phases électroniques dans les solides. Un exemple, pourtant très intéressant, n'a même pas de nom : par défaut, les physiciens le nomment « le métal étrange ». Il est caractérisé par une résistance électrique qui varie de façon inhabituelle avec la température par rapport aux métaux ordinaires.

Il est possible d'observer une transition de phase à zéro kelvin, entre l'état supraconducteur [paires de Cooper] et un état nommé « onde de densité de spin » [spin haut et bas alternés]. La modification du point de transition de phase (le point critique quantique) – en dopant le matériau ou en exerçant sur lui une pression pour changer la distance entre les atomes –, permet d'obtenir un nouvel état si l'on augmente la température : le métal étrange.

Si la quantité de dopant augmente, la régularité de l'onde de densité de spin diminue; Elle disparaît pour la quantité critique de 30% d'arsenic remplacé par du phosphore. Le spin de chaque électron a alors autant de chance d'être haut ou bas. L'onde densité de spin n'existe plus, mais le matériau devient supraconducteur. Si on maintient le dopage de 30% et que l'on augmente la température, une nouvelle phase apparaît, celle des métaux étranges.

Près du point critique quantique, les électrons ne se comportent plus indépendamment ou même par paires, mais deviennent intriqués en masse. Le raisonnement que nous avons appliqué à deux électrons s'étend maintenant à 1023 particules. Deux électrons voisins sont intriqués l'un avec l'autre ; cette paire, à son tour, est intriquée avec les paires voisines, et ainsi de suite, créant un énorme réseau d'interconnexions.

Quand les électrons des cristaux ont un degré limité d'intrication, on peut encore se les représenter comme des particules (soit des électrons simples, soit des paires). Mais quand beaucoup d'électrons deviennent fortement intriqués, on ne peut plus conserver l'image de particules, et la théorie classique peine à prévoir ce qui se passe. Dans notre nouvelle approche, nous décrivons ces systèmes en termes de cordes qui se propagent dans une dimension supplémentaire d'espace.

Le degré d'intrication peut être mathématiquement considéré comme une distance selon une dimension spatiale supplémentaire. Deux particules peuvent être éloignées dans l'espace ordinaire, mais leur proximité dans la dimension supplémentaire reflète leur intrication.

Si l’on ne change rien, les poissons vont disparaître

Lien

- Si l'on ne change rien, les poissons vont disparaître

Aujourd'hui, la technologie est devenue le problème numéro un de la pêche. On l'utilise pour rafler plus, plus loin, plus profond, alors qu'elle pourrait être employée à trier le poisson au fond de la mer, et non plus sur le pont du navire. Les prises accessoires représentent près du tiers des captures. Elles sont inutiles et les poissons rejetés ne servent à rien dans les écosystèmes ; ils finissent sous forme de vase. La pêche ressemble un peu à un jeu vidéo : on peut voir quelles espèces sont présentes, à quelle profondeur et presque mettre l'hameçon devant la bouche du poisson. Pourquoi ne pas utiliser ce savoir-faire pour gérer les ressources et rester en phase avec les cycles de la nature ?

Par contre, Sciences et Avenir célèbre, p56, la reconstitution, grâce à la réduction des quotas de pêche, des populations de thons rouges qui étaient au bord de l'extinction en 2008. Les capacités de récupération sont en effet très grandes étant donné l'immensité de l'océan et le nombre d'oeufs pondus. Comme l'interview ci-dessus y insiste (après la FAO), en dehors de la pêche elle-même, le problème vient surtout de la prolifération des méduses qui mangent les oeufs. Il faudrait plutôt manger ces méduses ou les exploiter pour réduire leurs nuisances...

Parmi les mesures préconisées pour prévenir la prolifération
des méduses ou y faire face, on peut citer :
- le développement de produits à base de méduses pour l'alimentation - certaines
espèces sont consommées dans plusieurs pays ;
- l'utilisation de la «méduse immortelle» (Turritopsis nutricula), capable d'inverser le
processus du vieillissement pour l'élaboration de produits régénérants.

Dépeçage de la viande, il y a 2 millions d’années

Lien

- Dépeçage de la viande, il y a 2 millions d'années

Il y a 2,6 millions d'années, commence la période où les paléoanthropologues situent l'émergence du genre Homo. Elle est caractérisée par un grossissement du cerveau des hominidés, qui entraîne une demande accrue en calories. On observe aussi l'apparition des premières pierres taillées et des premières traces, peu nombreuses, de leur utilisation sur des os d'animaux. Tous ces indices suggèrent que c'est à cette époque que les hominidés auraient commencé à consommer de la viande. Un site (Kanjera) mis au jour au Kenya par une équipe internationale et daté de 2 millions d'années confirme que ce comportement carnivore était déjà en place à cette époque, et même que les hominidés chassaient.

Des coupures présentes sur les os montrent en effet que ces animaux ont été dépecés pour en récupérer la viande. Les hominidés ont également laissé près des os des milliers de pierres taillées et d'éclats.

Comme on y trouve des carcasses entières, ce serait une preuve de la pratique de la chasse (rien d'étonnant, les chimpanzés chassent aussi) bien qu'ils aient été plus souvent charognards, se nourrissant notamment de la cervelle des animaux, inaccessible aux autres prédateurs.

Ils semblaient préférer les têtes, surreprésentées sur le site. Bien que lourdes à transporter, ellcontiennent de la matière cérébrale, très nutritive, qui constitue une ressource de choix dans des prairies dépourvues de noix et de fruits. La robustesse de la boîte crânienne rend cette ressource inaccessible à la plupart des animaux, hyènes exceptées. Avec leurs outils, les hominidés étaient la seule autre espèce à pouvoir y accéder.

Quand on sait que l'augmentation du volume cérébral dépendait d'un apport nutritif supplémentaire, il est assez troublant qu'on ait commencé à manger de la cervelle pour cela !

Dossier spécial cerveau | La Recherche

Lien

- Dossier spécial cerveau | La Recherche

La Recherche 477

Pas grand chose de nouveau dans ce dossier de La Recherche sur le cerveau mais tout de même bien intéressant ; l'occasion de se rafraîchir la mémoire au moins et surtout d'en saisir la cohérence car le fonctionnement du cerveau reste largement un mystère, pour peu de temps encore sans doute étant donné le progrès des techniques d'observation ou manipulation des neurones (optogénétique, etc.).

D'abord, page 41, les illusions d'optique prouvent que "notre vision surmonte les incertitudes" de la perception en reconstruisant les images, dans ces cas particuliers à tort et simplement parfois parce que la lumière vient plus souvent de haut, illusions d'origine cognitive donc.

L'absence de sensation d'incertitude, malgré l'existence d'ambiguïtés visuelles, suggère que nous sommes globalement surconfiants.

Ensuite, page 46, "l'éveil de la perception" chez le bébé, manifeste son caractère statistique et la précocité de la conscience.

Depuis plusieurs décennies, les psychologues du bébé ont déjà démontré, au niveau comportemental , que durant la première année de la vie les nourrissons sont beaucoup plus intelligents que ne l'avait imaginé Piaget. Bien avant l'apparition du langage articulé (vers l'âge de 2 ans), il est aujourd'hui établi, par l'étude des réactions visuelles des bébés, qu'ils comprennent très tôt des principes élémentaires d'unité et de permanence des objets, de nombre, ainsi que de causalité physique ou mentale. Dans le prolongement de ces découvertes, un nouveau courant a récemment émergé, considérant le bébé comme un véritable petit scientifique qui fait des statistiques pour comprendre et anticiper les événements qu'il perçoit. Ce serait donc par les statistiques que le monde vient aux bébés ! Et pas n'importe quelles statistiques : celle au nom barbare de principes "bayésiens".

L'équipe de Ghislaine Dehaene, vient de montrer que le bébé possède dès 5 mois une conscience perceptive proche de celle de l'adulte : il présente en effet un marqueur électrophysiologique de la conscience analogue à la nôtre. Comme l'adulte - et avant même qu'il ne puisse s'exprimer par le langage -, son cerveau répond en deux temps à la perception d'un événement extérieur.

Dans un premier temps, il traite les informations de façon non consciente, ce qui se caractérise par une activité neuronale linéaire proportionnelle à la durée de présentation de l’événement. Puis, dans un second temps, la réponse neuronale n'est plus linéaire, signal que le seuil de la conscience est franchi. Cette seconde étape est atteinte en 300ms environ chez l'adulte, contre 900 ms chez le bébé de 5 mois, et 750 ms chez celui de 15 mois.

C'est la part du langage qui est de plus en plus diminuée (et sans doute sous-estimée après sa surestimation) mais la part de la perception elle-même est fortement relativisée au profit du cognitif, de la mémoire, du fantasme, jusqu'à rapprocher l'éveil du rêve : nous habitons bien dans notre petit monde imaginaire "le cerveau construit le monde de l'intérieur" (p64) mais cela n'empêche pas qu'on se cogne au réel et qu'il faut inévitablement en tenir compte (la représentation rejoignant la réalité dans son interaction avec elle).

C'est en 1991 que Rodolfo Llinàs formule sa théorie. A l'en croire, seul un petit pourcentage de nos perceptions serait fourni par nos sens, notre cerveau s'appuyant sur son activité interne pour représenter le monde, comme dans un rêve [...] Depuis une quinzaine d'années, l'homme se passionne pour la propriété très particulière qu'on les neurones de synchroniser de façon spontanée leurs signaux électriques selon des rythmes précis, lorsqu'ils sont connectés entre eux [...] Du point de vue de l'activité électrique du cerveau, il n'y a aucune différence entre l'éveil et le rêve.

C'est une structure particulière, le thalamus, qui récupère les signaux issus des organes des sens (sauf l'odorat), pour les renvoyer vers chacune des aires du cortex dévolues à leur traitement : l'aire visuelle, l'aire auditive, etc. Or, chez les souris, seuls 10% des neurones du cortex visuel reçoivent les signaux de neurones du thalamus en provenance des organes des sens. Les autres communiquent entre eux. De plus, comme le révèlent des études menées chez le chat, le nombre de connexions des neurones du thalmus vers le cortex est 10 fois moindre que celui des contacts établis en sens inverse. Toutes ces données tendent donc à renforcer l'idée selon laquelle la majorité de l'information que reçoit le cortex n'est pas sensorielle.

Au lieu d'élaborer de A à Z l'image d'un paysage observé, notre cerveau la reconstruit en n'utilisant les signaux venus de la rétine que pour vérifier la cohérence du résultat obtenu.

En fait, on vient tout juste de découvrir que l'activité intrinsèque du cerveau servait aussi à répéter et mémoriser les événements récents mais cette façon de projeter ses re-présentations, simplement modulées par la perception, est assez conforme à la phénoménologie (l'intentionalité constituant son objet, la noèse constituant le noème). Comme pour le confirmer, l'article suivant, page 68, essaie de déterminer "d'où viennent les hallucinations" qui seraient fondamentalement des erreurs d'attribution (comme venant de l'extérieur) de pensées internes. La cause pourrait en être la position d'une jonction dans l'aire de localisation spatiale du son ou une désynchronisation entre l'aire de Broca et l'aire de Wernicke, notamment par un défaut de myéline des neurones qui les relient. Les drogues hallucinogènes mettent plutôt en cause des neurotransmetteurs (dopamine, sérotonine, glutamate) - je dois dire que, pour ma part je n'ai jamais eu de véritables hallucinations sous LSD, plutôt des déformations, notamment des visages (très étonnamment). Il y a certainement des causes psychiques (ou sociales) des hallucinations plus souvent que neurologiques, même avec des drogues ce qui en fait l'éventuel intérêt thérapeutique. Tout ne se réduit pas au somatique.

Ensuite, page 74, Emmanuel Sander insiste sur l'importance de l'analogie qu'il identifie (un peu rapidement) aux concepts : "Notre pensée progresse en créant des catégories". On ne peut pas dire que ce soit nouveau.

Un concept est en dynamique perpétuelle. Pour preuve, les jeunes enfants passent en général par une phase où ils sont persuadés que les adultes n'ont pas de maman. Pour eux, une maman s'occupe forcément d'un enfant. Puis, par analogies successives, par comparaison des expériences vécues avec leur propre concept, leur concept de maman va évoluer jusqu'à prendre une forme culturellement partagée et plus ou moins stable, incluant les mamans d'adultes, ceux d'animaux, dont la reine des abeilles, mère de toute une ruche, voire des notions plus abstraites qualifiées communément de métaphoriques telles que "mère poule" ou "mère patrie".

On voit comme on passe insensiblement de l'analogie à la métaphore en escamotant l'intervention du langage qui est pourtant d'un autre ordre. Nos concepts ne relèvent pas tant de l'analogie des formes que de la dichotomie, de la division du réel par l'opposition des signifiants entre eux (dictionnaire), ce qui est un tout autre processus qui s'ajoute au démon de l'analogie et le rationalise (du continu au discret?). De plus, le fait de s'entendre parler, et de pouvoir en discuter, rajoute une dimension de réflexivité à nos concepts que l'analogie ne comporte pas, plus près du réflexe inconscient.

On a certes fait un grand progrès en admettant que "il n'existe pas de frontière entre percevoir et concevoir", qu'il faut "avoir déjà construit la catégorie à laquelle il appartient pour reconnaître un objet". Il faudrait ajouter qu'il n'y a pas de futur sans mémoire (même si sentir comme hier n'est pas sentir), pas d'événement sans un fond sur lequel il se détache. Cela est consistant avec le fait que "les détails ne nous sautent pas aux yeux" (p80) la perception procédant du global au local, en ayant d'abord une vue d'ensemble dégageant les grandes structures avant de s'intéresser d'autant plus aux détails qu'on est dans le connu. On croit lire Heidegger en 1923 ! La perception semble avoir surtout pour tâche de nous permettre de continuer à rêver et de conforter nos préjugés mais il faudrait distinguer : ce qui relève des statistiques ou de l'habitude - ce qui relève de l'analogie ou de l'apprentissage - et ce qui relève du langage ou de la culture.

Tout cela se combine dans une rationalité strictement limitée à des performances statistiquement assez efficaces mais qui ne sont pas exemptes de biais cognitifs, dont le "biais de l'optimisme" qui fait que "nos neurones nous font voir la vie du bon côté" (p78). Bien sûr, cela n'est pas le cas de tout le monde, il y a des dépressifs et des catastrophistes, mais ce sont des malades et ce n'est pas une raison pour croire que l'optimisme serait plus raisonnable. Il est juste vital mais bien trompeur, comme le montrent nos évaluations de l'avenir au regard des probabilités, supposées pourtant à la base de notre système cognitif. Ainsi, je ne trouve pas raisonnable l'insouciance actuelle sur le climat bien qu'elle soit compréhensible, la fonte du permafrost notamment est pleine de menaces et seule notre ignorance justifie qu'on ne panique pas plus, l'optimisme n'est pas de mise, comme si une providence divine allait nous sauver de nous-mêmes ! Rien à faire, la catastrophe est impensable avant qu'elle ne se produise ! Ce qui nous aveugle serait même câblé dans le cerveau, localisé dans le gyrus frontal inférieur (IFG)

C'est précisément ce biais d'optimisme que les chercheurs ont observé chez les volontaires dont l'IFG droit a été perturbé. En revanche, ce biais a disparu chez les volontaires dont l'IFG gauche a été inactivé.

Pour illustrer la nécessité de cette surconfiance du début à l'optimisme final, je peux renvoyer à la fin de mon article sur "La question du suicide" :

"L'humeur dépressive est sûrement plus décisive pour le réalisme du jugement mais aucune vie ne survivrait à cette lucidité si elle n'avait inventé de quoi nous étourdir l'esprit, pourvu que la dépression ne soit pas trop profonde justement, en oubliant tous les malheurs du monde au premier divertissement, au premier sourire, et retrouver encore une fois peut-être le goût d'apprendre et de lutter pour un monde meilleur jusqu'au jour où la magie n'opérera plus, où le corps ne répondra plus, où nous serons out, où la mort aura finalement raison de nous d'une façon ou d'une autre."

La somme de 2 statistiques peut inverser leur résultat

Lien

- La somme de 2 statistiques peut inverser leur résultat

Simpson

Les trois tableaux sont compatibles, aucune erreur ne s'est produite. Les résultats sont sans appel : chez les hommes, le placebo est meilleur que le médicament ; chez les femmes, le placebo est meilleur que le médicament. Pourtant, en regroupant hommes et femmes, le médicament produit de meilleurs résultats que le placebo. On se trouve dans un cas du paradoxe de Simpson : la fusion de données concluant individuellement dans un sens – l'inutilité du médicament testé – donne des résultats concluant dans le sens inverse.

De nombreux cas réels présentent cette inversion de résultat lorsqu'on regroupe plusieurs catégories complémentaires en une seule. Chaque année, on découvre de nouveaux exemples produisant étonnement et incrédulité. On a rencontré le paradoxe à propos des taux d'admission des filles dans divers départements de l'Université de Berkeley en 1973 : elles étaient meilleures que les garçons dans la plupart des départements de l'université, mais quand on fusionnait les résultats, leur taux général d'admission à l'université était inférieur à celui des garçons.

L'étonnement vient de ce que l'on croit que [a/b < c/d et a'/b' < c'/d'] entraîne (a + a')/(b + b') < (c + c')/(d + d'). Or aucune démonstration n'établira cette implication entre inégalités arithmétiques, puisque justement les nombres des tableaux 1-3 vérifient les deux premières inégalités et pas la troisième : 36/24 < 14/6 et 4/16 < 18/42, mais 40/40 > 32/48.

Il y a d'autres cas cités :
- un degré meilleur de réussite par catégories avec une baisse du niveau général car le nombre des meilleurs baisse par rapport aux moins bons qui progressent.
- un taux de mortalité faible malgré une espérance de vie réduite à cause du rajeunissement de la population.

En fait, ce que démontre ce paradoxe de Simpson, c'est tout simplement que les statistiques sont inconsistantes quand elles ne prennent pas les bonnes catégories. Lorsque celles-ci sont arbitraires ou trop générales, elles deviennent trompeuses faisant de la sociologie, et d'une bonne compréhension préalable, la condition de sondages pertinents. C'est un peu ce que je disais avec "de la statistique à l'organisation sociale".

Ce paradoxe ne joue que dans un très petit nombre de cas (moins de 2%) et seulement si les écarts ne sont pas trop nets mais, le plus étonnant, c'est qu'il aurait une traduction biologique, jouant un rôle (surévalué ici) dans la sélection des plus coopératifs bien que ce soit un handicap dans la compétition individuelle.

Simpson2

L'une des souches de bactérie produisait un antibiotique utile aux deux souches et l'autre en profitait sans le produire. Une situation apparemment paradoxale est apparue : les non-producteurs croissaient plus vite dans chaque groupe (ce qui n'est pas une surprise) bien qu'au total, les non-producteurs voyaient leur effectif global décroître en proportion.

Pour un biologiste, ce système est un exemple frappant de conflit entre niveaux de sélection. Les bactéries productrices du bien commun sont les bénéficiaires de l'ensemble du système quand on le considère comme un tout, alors qu'à un niveau individuel (celui auquel opère la sélection), elles sont désavantagées puisque dans chaque groupe leur proportion diminue.

Grâce aux effets du paradoxe de Simpson, un trait qui bénéficie à la population considérée comme un tout peut ainsi se trouver sélectionné, bien qu'à un niveau individuel le trait soit désavantageux. La chose est étonnante : ce qui est mauvais au niveau individuel se trouve au total favorisé par l'effet mécanique d'un paradoxe de Simpson. La réalisation concrète de l'expérience par les chercheurs démontre que cet effet sélectif paradoxal n'est pas seulement théorique, mais doit être pris en compte par les spécialistes de l'évolution. Cette dynamique doit être envisagée comme mécanisme de sélection de traits individuels favorables à la coopération et à l'altruisme.

(citation d'un encadré qui n'apparaît pas dans le lien de l'article en ligne mais seulement avec le pdf)

La peau des pommes de terre est toxique

Lien

- La peau des pommes de terre est toxique

Lisons les résultats des études récentes d'A. Aziz, T. Shibamoto et leurs collègues des Universités de Faisalabad (Pakistan) et de Davis (États-Unis). Ces chimistes se sont intéressés à deux glycoalcaloïdes (ce sont des défenses de la plante contre les ravageurs) présents dans la partie superficielle des pommes de terre : la solanine et la chaconine.

Ces deux composés sont thermorésistants : ils restent actifs après cuisson des pommes de terre, et résistent même à 285 °C. Ils provoquent gastro-entérites, diarrhées, vomissements, fièvres, modifications de la pression sanguine, syndromes neurologiques, et peuvent même tuer l'homme ou l'animal. Les autorités sanitaires ont proposé une limite de consommation de 200 milligrammes par kilogramme de pommes de terre : il a été montré que, quand la concentration en solanine est supérieure à 140 milligrammes par kilogramme, l'alcaloïde provoque un goût amer, une sensation de brûlure et, pour l'espèce humaine, la dose fatale est de trois à six milligrammes par kilogramme de poids corporel.

Même si les pourcentages sont presque toujours supérieurs aux doses recommandées, il y a peu de risques que ce soit mortel donc, mais il n'est pas bon de laisser la peau sur les pommes de terre comme l'habitude s'en répand.

Le pic de population repoussé ?

Lien

- Le pic de population repoussé ?

J'ai d'abord hésité à parler de ce qui n'est pas vraiment une nouvelle car basé sur des tendances incertaines mais il est quand même bon de mettre en doute les dernières prévisions qui étaient très optimistes sur la transition démographique accélérée de nombreux pays émergents jusqu'à parler d'un pic de population en 2050 autour de 9 milliards alors que l'ONU table maintenant sur 11 milliards en 2100. C'est en partie à cause de l'allongement de la vie que ce chiffre est revu à la hausse mais c'est aussi le rythme de développement de l'Afrique qui pourrait être moins rapide alors que c'est là que la population va continuer sa croissance.

En fait, on ne sait ce qui pèsera le plus sur les ressources, une population plus nombreuses ou l’accession plus rapide à la classe moyenne des pays les plus peuplés...

L’activité des neurones réduit la diffusion de l’eau dans cette zone

Lien

- L’activité des neurones réduit la diffusion de l'eau dans cette zone

Lors d’une activité cérébrale, le sang est rapatrié dans les régions stimulées qui demandent de l’oxygène. La RMN des protons dans ces zones se modifie en fonction du volume, du débit et de l’oxygénation des globules rouges. On peut alors cartographier les zones cérébrales actives lors de certaines séquences spécifiques, grâce à l’IRMf. Cependant, cette approche n’est pas toujours fiable et l’effet n’est pas immédiat, la modification des paramètres sanguins s’observe environ six secondes après une activation cérébrale.

Denis Le Bihan et son équipe du Commissariat à l’énergie atomique (CEA) ont choisi de développer une nouvelle méthode appelée IRM de diffusion. Cette technique permet d’observer l’activité cérébrale non pas grâce au sang mais en analysant la diffusion de l’eau. D’après des recherches récentes, la technique d’IRM par diffusion serait plus réactive que l’IRMf.

Leur travaux, publiés dans les Pnas, montrent bien que la diffusion de l’eau est une conséquence directe de l’activité des neurones.

Ainsi, lors d’une stimulation cérébrale, certaines zones du cerveau subiraient des modifications structurales, ce qui entraînerait une diminution de la diffusion de l’eau.

On peut voir dans le cerveau les pensées de la veille

Lien

- On peut voir dans le cerveau les pensées de la veille

C'est très étonnant et très nouveau. L'activité spontanée du cerveau "au repos" garderait trace de l'activité de la veille (à un rythme plus lent), phénomène de rémanence peut-être lié aux processus de mémorisation mais qui pourrait potentiellement donner accès à certaines préoccupations intensives de la veille (par exemple des phobies).

Un jour, nous pourrions être en mesure d'avoir une bibliothèque de configurations mettant en correspondance des expériences particulières avec l'activité observable qu'elles produisent. En théorie, cela pourrait permettre de lire le passé de quelqu'un à partir de ses ondes cérébrales au repos - au moins dans une certaine mesure.

L’homme lance des pierres depuis 2 millions d’années

Lien

- L'homme lance des pierres depuis 2 millions d'années

Cela fait quelque temps que la découverte de stocks de galets avait mené à l'hypothèse de l'utilisation du jet de pierre aux tout début de notre humanité pour se défendre des prédateurs et d'occuper ainsi le sommet de la chaîne alimentaire mais aussi de se nourrir plus régulièrement de viande, ce qui serait nécessaire au développement du cerveau. C'est donc très important et relié aux premières pierres taillées.

Une étude vient de montrer que notre force de lancer, bien supérieure à celle de chimpanzés plus forts pourtant, est due à une conformation de l'épaule qu'on trouve seulement à partir d'Homo erectus et qui permet "d'armer" le lancer (comme sur la photo) pour une détente fulgurante.

on a effectivement des traces de consommation de viande à cette époque mais je me demande quand même pourquoi ce serait la viande et non pas le poisson qui aurait nourri la croissance du cerveau ? Le problème, c'est que nos ancêtres qui vivaient au bord de mer sont inaccessibles depuis la montée des eaux de l'interglaciaire. Reste que le jet à distance pourrait être décisif pour l'hominisation (précurseur de la désignation?), même si les chimpanzés le font déjà ponctuellement (et même des réserves de munitions comme on a vu dans un zoo suédois).

Un médecin italien veut greffer des têtes humaines

Lien

- Un médecin italien veut greffer des têtes humaines

Dans une étude publiée il y a quelques jours par la revue Surgical Neurology International, le neurologue italien Sergio Canavero annonce tout de go qu'il est désormais possible de... greffer des têtes humaines.

Une moelle épinière tranchée net par un instrument chirurgical peut se réparer assez aisément pourvu qu'on remette les deux sections en contact dans un mélange de deux polymères, le polyéthylène glycol (PEG) et le chitosane. Ces produits sont en effet capables d'activer une sorte de fusion-réparation des cellules nerveuses endommagées, comme l'ont montré des expériences réalisées sur des cochons d'Inde et des chiens.

Il faut un receveur, par exemple un tétraplégique ou une personne souffrant d'un cancer sans métastatase au cerveau. Et il faut un donneur de la même corpulence et du même sexe (car ce détail a, dans ce genre de greffe, son importance...), en état de mort cérébrale. Dans la partie initiale de l'opération, deux équipes chirurgicales travaillent en parallèle. La première refroidit la tête du receveur, une profonde hypothermie devant ralentir énormément le métabolisme du cerveau de façon à ce que celui-ci ne subisse pas de dégâts pendant le laps de temps où il ne sera plus irrigué. Sur le cou, on dégage les muscles et les vaisseaux sanguins, la trachée et l'œsophage. On conserve la thyroïde. La seconde équipe prépare le cou du donneur, mais de l'autre côté de l'incision. Dernière étape : les deux groupes de chirurgiens sectionnent simultanément les moelles épinières.

Voir aussi Futura-Sciences. Voilà bien, ce que je n'aurais jamais cru possible, surtout si vite. Ce n'est pas du tout fait encore, mais imaginez qu'on greffe une tête d'homme sur un corps de chimpanzé ? ou le contraire ? On prévoit bien de faire des embryons chimériques animal-humain !

Des panneaux solaires d’épaisseur nanométrique

Lien

- Des panneaux solaires d'épaisseur nanométrique

Des panneaux solaires constitués de 2 couches, d'un atome d'épaisseur chacun, de graphène et de disulfure de molybdène n'ont qu'un rendement de 1 à 2%, ce qui est faible en surface mais par rapport à la matière, le rapport est de 1000 fois plus que les systèmes conventionnels. Ce serait donc utile au moins quand la légèreté est cruciale.

Il y a aussi des photo-transistors associant graphène et chlorophylle qui semblent prometteurs.