Le dégagement du méthane arctique sera bien catastrophique

Temps de lecture : 2 minutes

- Le dégagement du méthane arctique sera bien catastrophique

"Une libération brusque de 50 milliards de tonnes de méthane est possible à tout moment".

Des milliards de tonnes de méthane sont piégés juste sous la surface du plateau continental arctique de la Sibérie orientale. La fonte de la région signifie qu'elle est susceptible de produire à tout moment un dégagement gigantesque de gaz qui pourrait avancer le réchauffement climatique de 35 ans, et coûter l'équivalent du PIB mondial.

Telles sont les conclusions de la première analyse systématique du coût économique de la fonte de l'Arctique.

Ils ont calculé qu'une émission de 50 milliards de tonnes serait possible d'ici une décennie, à partir des zones connues de fonte du permafrost et de failles géologiques. Puisque le méthane est un gaz à effet de serre 25 fois plus puissant que le dioxyde de carbone, un tel scénario devrait déclencher une «catastrophe climatique» avec une augmentation de 12 fois la teneur en méthane de l'atmosphère et une augmentation des températures de 1,3˚C.

Un relâchement de 50 milliards de tonnes de méthane dans l'atmosphère devrait avancer de 15 à 35 ans la date à laquelle la hausse des températures sera supérieure à 2˚C.

Cela fait longtemps que je considère la bombe méthane comme la principale menace, très sous-estimée par le GIEC et la censure des prévisions trop catastrophistes. Ce n'est pas seulement l'effet du réchauffement global mais aggravé par un changement du régime des vents. Alors même qu'on se berce d'illusion avec une apparente pause des températures forcément démobilisatrice, on ne voit pas comment on pourra éviter cette catastrophe annoncée, et c'est à très brève échéance...

885 vues

Pas de thermodynamique à l’échelle nanométrique

Temps de lecture : 3 minutes

- Pas de thermodynamique à l'échelle nanométrique

Il n'y a rien de plus logique que les lois de la thermodynamique ne soient pas applicables à l'échelle atomique dès lors que ce sont des lois statistiques. L'augmentation de l'entropie n'est rien d'autre que la probabilité qu'un ensemble tende vers son état de plus grande probabilité si rien ne l'en empêche, ce qui n'a aucun sens au niveau d'un atome isolé. A ce niveau, on a affaire à l'autre sorte d'entropie liée à la transformation de l'énergie (par frottement, réaction chimique, décohérence, etc.) et qui n'est pas du même ordre que l'entropie statistique. Ce que cette étude montre, c'est que ce type d'entropie est beaucoup plus irréversible que l'entropie statistique, ce qu'ils attribuent à des effets quantiques.

La distinction entre ces deux types d'entropie n'a pas été assez soulignée jusqu'ici, il est bon que cela devienne un problème de physique à l'échelle nanométrique. Les auteurs qui ont essayé de récupérer l'énergie mise dans un moteur nanométrique n'ont pu que constater des pertes bien plus importantes qu'au niveau macroscopique, une plus grande irréversibilité (ce que désigne le mot entropie). Ils en concluent que des moteurs nanométriques seraient forcément très dispendieux en énergie ce qui ne tient pas compte d'autres phénomènes dont on pourrait tirer parti à cette échelle mais disqualifie sans doute les moteurs thermiques à cette échelle.

Les chercheurs ont découvert un ensemble de lois qui déterminent ce qui arrive à ces systèmes microscopiques lorsqu'on les chauffe ou les refroidit. Une conséquence importante de leurs lois, c'est qu'il y a une irréversibilité bien plus fondamentale dans les petits systèmes, ce qui signifie que des moteurs thermiques microscopiques ne peuvent pas être aussi efficaces que leurs homologues plus grands.

Avec les grands systèmes, si vous mettez de l'énergie dedans, vous pouvez récupérer toute cette énergie pour alimenter un moteur qui peut effectuer un travail (comme soulever un poids lourd). Mais les chercheurs ont constaté que ce n'était pas le cas pour les systèmes microscopiques. Si vous mettez en œuvre un système quantique vous ne pouvez généralement pas tout récupérer.

La "Thermodynamique à l'échelle microscopique est fondamentalement irréversible. Ceci est radicalement différent de grands systèmes où tous les processus thermodynamiques peuvent être largement réversibles si on change ces systèmes assez lentement".

736 vues

Plus de morts avant par les vendettas que par les guerres ?

Temps de lecture : 2 minutes

- Plus de morts avant par les vendettas que par les guerres ?

Une des choses les plus étonnantes et contrariant les contempteurs de la civilisation, c'est la découverte que les sociétés traditionnelles étaient bien plus meurtrières que nos sociétés modernes avec leurs armes de destructions massives et leurs guerres mondiales comptant les morts par millions. Le mythe rousseauiste de l'homme originaire en prend un coup tout comme la nostalgie des anciennes communautés. Il n'est pas question de revenir à ces temps barbares un peu trop idéalisés. Les liens communautaires ont un prix, notamment le prix du sang qui empoisonne les familles avec des vendettas sans fin. Il faudrait réaliser à quel point ces moeurs primitives étaient inacceptables et toutes les libertés que nous avons gagnées dans nos sociétés pacifiées, certes non sans multiples autres défauts.

L'étude qui compile les compte-rendus ethnographiques ne trouve en tout cas qu'un pourcentage de 15% de morts dans les guerres entre tribus, elles aussi rituelles, comme pour maintenir leurs identités propres, mais moins meurtrières que les règlements de compte internes. Ce n'est d'ailleurs guère différent aujourd'hui où la plupart des meurtres se font encore en famille...

Ce n'est sans doute pas une raison de minimiser l'importance de guerres qui seront de plus en plus décisives à mesure que civilisation et richesses se développeront (depuis le Néolithique et surtout depuis l'invention de l'écriture, du bronze, du fer, des chevaux), sans forcément augmenter le nombre de morts par violence, donc. Il n'est pas mauvais cependant de ne pas réduire l'origine de la violence au rejet de l'autre ni aux phénomènes de groupe. Il faut souligner aussi comme ces vendettas n'ont rien de "naturel", plutôt entièrement "culturelles", relevant d'une arithmétique des morts qui est entièrement prise dans le langage.

629 vues

Une écriture chinoise vieille de 5000 ans

Temps de lecture : 4 minutes

- Une écriture chinoise vieille de 5000 ans

Les Chinois ont toujours revendiqué l'ancienneté de leur civilisation mais leurs dynasties mythiques et le manque de traces archéologiques faisait douter jusqu'ici de leurs datations qui ne paraissent plus aussi fantaisistes puisqu'on vient de trouver ce qui ressemble à une écriture primitive seulement quelques siècles après les premières écritures sumériennes.

Les inscriptions trouvées sur des objets, au sud de Shanghai, seraient à peu près de 1.400 ans antérieures à plus ancienne trace écrite de la langue chinoise jusqu'ici.

L'une des pièces comporte six formes de mots comme enchaînés, ressemblant à une courte phrase.

"Ils sont différents des symboles que nous avons vu par le passé sur des artefacts. Leurs formes et le fait qu'ils aient l'air de phrase indique qu'ils sont l'expression d'un sens."

Les six personnages sont disposés en ligne, et trois d'entre eux ressemblent au caractère chinois actuel pour les êtres humains. Chaque symbole comporte de deux à cinq traits.

"Si cinq à six d'entre eux sont enchaînés comme dans une phrase, ce ne sont plus des symboles, mais des mots".

"Si vous regardez leur composition, vous verrez qu'ils sont plus que des symboles".

Pour l'instant, les chercheurs chinois ont convenu d'appeler cela une écriture primitive, un terme vague qui suggère que les marques de Liangzhu sont quelque part entre les symboles et les mots.

- Les idéogrammes chinois sont des signes divinatoires

Les plus anciens idéogrammes, datés du 16° siècle av. JC, avaient été trouvés sur des carapaces de tortues ou autre support divinatoire. On comprend bien l'intérêt de fixer matériellement des prédictions et celles-ci ont eut un rôle aussi dans l'invention de l'écriture au Moyen-Orient et les débuts de l'astrologie mais vite supplantée par l'usage administratif. Ce n'aurait pas été le cas en Chine, la thèse de Léon Vandermeersch dans son dernier ouvrage, "Les deux raisons de la pensée chinoise" (sous titré "Divination et idéographie") étant qu'elle aurait été inventée sous le règne de Wu Ding (13° siècle av. JC) spécifiquement pour la divination. C'est ce qui expliquerait que les idéogrammes chinois se distinguent bien sûr de l'écriture alphabétique mais aussi des hiéroglyphes par leur composition structurée (on voit cependant qu'elle devait s'inspirer d'une "écriture primitive" divinatoire antérieure à sa normalisation étatique).

Pour Léon Vandermeersch, l’origine et la spécificité de l’écriture chinoise réside dans le fait qu’elle invente des inscriptions d’équations divinatoires. Ce n’est que bien plus tard, au VIII° siècle de notre ère, que l’écriture chinoise, au travers diverses transformations que nous pourrions qualifier d’idéographisation en écho à la grammatisation, s’est généralisée comme une pratique d’écriture qui retranscrit la parole.

"Lettré" en chinois se dit "ru", étymologiquement "faiseur de pluie" ; or la danse chamanique a survécu comme danse pour faire tomber la pluie.

J'avais souligné il y a longtemps que la civilisation chinoise avait conservé des aspects chamaniques qui pourraient donc se retrouver dans son écriture. De là à vouloir opposer le chamanisme des chinois à une supposée théologie occidentale, cela semble un peu simplet (encore l'affrontement des essences alors que la science est universelle).

A lire aussi, sur le même blog, le billet plus ancien sur l'écriture comme grammatisation de la langue, invention technique apportant une réflexivité, un savoir de la langue impossible avant, la grammaire étant auparavant inconsciente.

1 549 vues

Chaque particule crée son propre espace-temps par son mouvement

Temps de lecture : < 1 minute

- Chaque particule crée son propre espace-temps par son mouvement

Pour le spécialiste de la gravitation à boucle, Jerzy Lewandowski, conformément à la relativité générale, chaque particule massive aurait son propre espace-temps dont la caractéristique la plus étonnante est qu'il serait orienté en fonction du mouvement de la particule et non pas identique dans toutes les directions (isotropie) comme pour un photon sans masse (et comme nous concevons l'univers).

597 vues

Des nuages pour sauver le corail ?

Temps de lecture : < 1 minute

- Des nuages pour sauver le corail ?

Devant les risques du réchauffement pour le corail, un climatologue propose d'envoyer de l'eau de mer dans les nuages pour les rendre plus réfléchissants et protéger les coraux situés en-dessous.

Il y a déjà eu une proposition de géoingénierie "locale" consistant à protéger le pôle Nord qui représente la menace principale actuelle mais on avait vu que cela renforcerait la sécheresse en Afrique. De même, les nuages sur la barrière de corail auront des effets ailleurs mais un critique pointe surtout le risque que, pour une raison ou une autre, la production de nuages s'arrête produisant alors un choc thermique fatal à coup sûr cette fois !

849 vues

Retour à l’origine de la pensée de Heidegger

Temps de lecture : 31 minutes

OntologieLa parution des premiers cours de Heidegger est un événement important pour comprendre les origines de sa pensée, lui qui prônait justement de toujours revenir à l'origine pour se délester de tous les discours qui la recouvrent. Cela permet aussi de se réconcilier avec les problématiques qu'il a mises au jour, et qui alimenteront toute la période existentialiste, avant leur contamination par la période nazie (et même s'il fréquentait déjà les cercles réactionnaires et pangermanistes). De quoi mieux comprendre à quel point son parcours s'enracine dans la théologie (notamment Luther et Kierkegaard bien qu'il soit lui-même catholique "à l'origine" O22), ce qui expliquerait la religiosité de ses partisans, ainsi que ce qui l'oppose radicalement à la phénoménologie dans laquelle il s'est pourtant formé comme assistant de Husserl. Celui-ci est en effet accusé de scientisme, à viser une certitude impersonnelle, alors qu'il s'attache lui-même à la temporalité de l'existence et son historicisme vécu (nébulosité éloignée d'idées claires et distinctes), assumant sa finitude et son point de vue dont nul ne saurait s'abstraire. Ce qui est mis ainsi en valeur, c'est le rapport direct et personnel de chacun à l'histoire, historicité de l'être-là humain comme ouverture aux possibilités du moment (être dans un monde).

Lire la suite

4 586 vues

L’illusion démocratique

Temps de lecture : 8 minutes

Les révolutions arabes sont confrontées à la perte des illusions sur la démocratie et plus généralement aux limitations du politique. Il faut dire que les illusions ne manquent pas, ici comme là-bas, sur une démocratie qu'on s'imagine toute puissante et pouvant décider de la société dans laquelle on veut vivre, ce qui veut dire forcément imposer son mode de vie aux autres. C'est assez clair avec les tentatives d'islamisation des pays arabes comme de la Turquie (sans parler de l'Iran), mais ce n'est guère différent de nos démocrates révolutionnaires, de droite comme de gauche, qui s'imaginent remodeler la société française s'ils arrivaient à gagner une majorité aux élections. Cette conception d'une démocratie majoritaire est celle des totalitarismes et doit être abandonnée pour une démocratie des minorités qui n'est pas l'incarnation dans le vote d'une supposée volonté générale mais l'instrument de la démocratisation de la société. C'est ce qu'on pourrait sans doute appeler une démocratie libérale sauf que pour mériter son nom de démocratie, elle ne peut oublier sa dimension sociale.

A quoi sert de faire la révolution alors se diront tous ceux qui veulent tout changer sinon rien ? A changer le personnel dirigeant, au moins, ce qui est souvent plus que nécessaire comme on le voit mais ne va pas beaucoup plus loin effectivement car les réalités ne changent pas qui s'imposent aux beaux discours et il ne suffit pas de faire étalage de sa bonne volonté ou de sa bonne foi pour savoir gérer un pays. Quand ça ne marche pas, le pouvoir est renversé fût-il démocratiquement élu. Il faut s'en persuader malgré la mythologie révolutionnaire, la démocratie n'est que le pire des régimes à l'exception de tous les autres, juste une façon de pacifier les conflits. Non seulement ce ne sont pas les meilleurs qui sont élus (ce sont les plus ambitieux, les plus habiles, les plus démagogues), mais on ne peut décider de tout, et même de pas grand chose en fait (moins qu'avant en tout cas). Pour le comprendre, il faudrait comprendre que le fonctionnement d'un système dépend assez peu de nous et qu'il y a des phénomènes sociaux qui nous dépassent comme il y a une évolution du monde irréversible (notamment technologique). Il n'est pas possible d'imposer la charia dans les pays musulmans, pas plus qu'on ne pourrait décider ici d'un monde sans musulmans. Il n'est pas vrai qu'on puisse mettre tous les étrangers dehors, ni fermer nos frontières, ni changer toute l'économie. Tout cela est pur fantasme et verbiage prétentieux. Ce n'est pas que certains autocrates ne tentent de forcer le destin, mais cela ne peut qu'empirer les choses. Ce qui est curieux, c'est comme ces prétentions de dicter sa loi ne posent pas question, malgré l'expérience séculaire de la démocratie, pas plus que l'idée que le monde devrait être conforme à nos souhaits, ce qu'il n'a jamais été, comme s'il n'avait pas d'existence propre et ne dépendait que de nous par devoir moral dirait-on. On fait comme si sa dérive était toute récente par rapport à un état antérieur idéalisé, témoignant simplement ainsi d'avoir un peu trop cru à la propagande officielle quand on était petit.

Lire la suite

2 865 vues

L’Hyperloop : Los Angeles-San Francisco en 30 mn

Temps de lecture : 2 minutes

- L'Hyperloop : Los Angeles-San Francisco en 30 mn

On avait déjà parlé de ces projets de transports ultra-rapide sur le principe des canons magnétiques dans un tube sous vide mais si on en reparle, c'est parce que Elon Musk, le milliardaire de Tesla Motors qui veut envoyer des hommes sur Mars, s'investit dans ce projet, qui n'est pas nouveau puisqu'il daterait de 1972 et reste encore flou.

Le VHST commencerait par accélérer jusqu'à sa vitesse maximale, avancerait en roue libre pendant un moment et finirait par ralentir. L'énergie cinétique utilisée pour accélérer serait restituée au moment de la décélération grâce à la récupération de l'énergie.

EN 1972, la Rand Corporation avait déclaré avoir envisagé une vitesse potentielle de 22 530 km/h. A cette allure, le trajet Los Angeles-New York ne prendrait que 21 minutes.

Le VHST devrait nécessairement être souterrain. Les tunnels seraient donc l'obstacle majeur à la réalisation du projet.

809 vues

Action à distance sur des particules intriquées

Temps de lecture : < 1 minute

- Action à distance sur des particules intriquées

Quantum_remote_control

C'est assez extraordinaire, témoignant comme de petits progrès techniques peuvent mener soudain à un bouleversement total. Ainsi, après qu'on ait appris à piéger des particules intriquées en les préservant de la décohérence, on s'est aperçu qu'on pouvait même les soumettre à des variations continues de champs magnétiques faibles sans briser l'intrication, ce qui permet dès lors de modifier immédiatement à n'importe quelle distance l'autre particule intriquée (ce qu'on appelle téléportation).

Ce n'est pour l'instant qu'une proposition théorique et il reste bien des limitations mais on voit comme ce qui était considéré impossible pour toujours devient soudain possible...

753 vues

Des « plâtres » imprimés en 3D plus légers et esthétiques

Temps de lecture : < 1 minute

- Des "plâtres" imprimés en 3D plus légers et esthétiques

Léger, aéré, lavable et mince grâce à son squelette en polyamide (un polymère), contrairement à un plâtre, il pourrait même être réutilisé.

Il s’agit de prototypes fabriqués à partir de radiographies et scanners. Parfaitement adapté au bras du porteur, il suffit de l’imprimer en deux morceaux puis de les souder.

578 vues

Revue des sciences juillet 2013

Temps de lecture : 7 minutes

Pour la Science

La Recherche

Physique, espace, nanos

Climat, écologie, énergie

Biologie, préhistoire, cerveau

Santé

Techno

<- Revue des sciences précédente | Revue des sciences suivante ->


Système solaire en mouvement dans l'espace

Pour une fois, et bien que la physique nous gratifie de nouveau de théories extravagantes où l'intrication acquiert un statut physique qui pourrait être assimilé à des trous de vers, il y a plus extravagant encore ! Nous entrons vraiment dans un monde de science-fiction même si c'est toujours très différent de ce qu'on avait imaginé, mais, qu'on en juge : on pourrait bientôt greffer une tête sur un autre corps (ce qu'on ne croyait pas du tout possible) et même, lire dans un cerveau au repos des pensées de la veille ! Il est vraiment très étonnant que ces nouvelles n'aient pas fait la une des journaux. Le dossier de La Recherche sur le cerveau donne l'occasion de revenir sur la (re)construction de la réalité et les biais cognitifs, notamment un optimisme démesuré et réellement constitutif bien que démenti par l'histoire. Le contrôle par la pensée va semble-t-il se généraliser (drones, prothèses, etc.) d'autant plus qu'il deviendrait assez vite naturel et automatique. Il est amusant d'apprendre que pour développer leur cerveau les premiers anthropoïdes mangeaient les cervelles de charognes en cassant leur crâne avec des pierres, ce que ne pouvaient pas les prédateurs. On a du mal à définir ce qui nous sépare des Chimpanzés et qui semble une multitude de petites différences dont plusieurs décisives, mais le fait de pouvoir lancer des pierres comme des armes pourrait avoir été déterminant. Sinon, après avoir découvert depuis peu l'existence de l'empathie et l'altruisme, chez les animaux comme chez l'homme, existence longtemps déniée par le darwinisme social, voilà que les Anglo-Saxons en viennent à découvrir la fausseté du dogme des années fric : Non, les entrepreneurs ne créent pas des entreprise pour l'argent mais pour être leur propre patron ou pour créer quelque chose, seuls 8% le font pour l'argent (heureusement, car ce n'est pas la meilleure méthode pour cela). Il est par contre quelque peu troublant de voir la grimace des bébés juste avant leur naissance, ce qui apparaît comme une souffrance, sans qu'on puisse en être sûr, dernière illusion de paradis perdu qui tombe...

Du côté du numérique, ce qui pourrait arriver plus vite qu'on ne pensait, en dehors des drones ou cafard robotisées, ce sont les voitures qui vont se garer toutes seules et les voitures connectées. Les imprimantes 3D devraient recevoir pour leur part une nouvelle impulsion avec l'intégration de l'impression 3D à Windows, ce qui en faciliterait grandement l'usage. On apprend aussi que Fleur Pellerin voudrait généraliser les fablabs. La manipulation des ondes sonores manifeste enfin des potentialités inouïes aussi bien pour le contrôle des ondes lumineuses que pour manipuler des nanoparticules, ouvrant un nouveau champ d'applications.

La forme actuelle de la revue des sciences n'est pas satisfaisante. Je vais revenir à quelque chose de plus proche de la formule précédente, pour autant que j'ai le temps, tout cela restant très précaire...

 

<- Revue des sciences précédente | Revue des sciences suivante ->
1 271 vues

Des lunettes pour manipuler des objets en 3D

Temps de lecture : < 1 minute

- Des lunettes pour manipuler des objets en 3D

Le logiciel développé par Atheer Labs pourrait permettre à des lunettes connectées de servir pour des conférences vidéo avec des gens comme s'ils étaient réellement dans la salle avec vous ou de jouer à des jeux 3D véritablement interactifs.

Ce sont essentiellement des caméras qui servent de capteur de profondeur pour détecter les mouvements de la main et des doigts.

"Dans quelques années, vous pourrez aller au restaurant et laisser une petite note en l'air qu'un ami pourra voir quand il viendra".

673 vues

Le blocage du récepteur B1R contre l’Alzheimer

Temps de lecture : 2 minutes

- Le blocage du récepteur B1R contre l'Alzheimer

C'est la première fois qu'un traitement semble pouvoir guérir de l'Alzheimer et inverser ses symptômes en réduisant l'inflammation cérébrale.

Les chercheurs ont découvert dans le cerveau de souris atteintes de maladie d'Alzheimer une plus grande concentration d'un récepteur appelé bradykinine de type B1 (B1R), lequel intervient dans l'inflammation. "En administrant une molécule qui bloque sélectivement l'action de ce récepteur, nous avons observé des améliorations importantes de la fonction cognitive et de la fonction vasculaire cérébrale".

Ces résultats montrent qu'une plus grande concentration du récepteur B1R est associée à des plaques de protéine bêta-amyloïde chez des souris atteintes d'Alzheimer et de déficits de mémoire. Ils montrent aussi que le blocage chronique du récepteur B1R améliore nettement l'apprentissage et la mémoire, la fonction vasculaire cérébrale et plusieurs autres caractéristiques pathologiques de la maladie d'Alzheimer chez des souris qui ont une pathologie pleinement développée. Tous ces résultats confirment un rôle du récepteur B1R dans la pathogenèse de la maladie d'Alzheimer et le rôle de la neuro-inflammation en tant que mécanisme fondamental de la maladie d'Alzheimer.

651 vues

Métaux étranges intriqués et théorie des cordes

Temps de lecture : 4 minutes

- Métaux étranges intriqués et théorie des cordes

Outre la découverte (pour moi) des "métaux étranges" ("non liquide de Fermi") et l'utilisation de la théorie des cordes ou des branes (notamment de sa dualité) pour résoudre des problèmes de la matière condensée (alors qu'on pensait que la théorie des cordes ne servait à rien), ce que je trouve le plus intéressant, c'est que l'intrication (massive) puisse être à l'origine de propriétés physiques comme la supraconduction ou les variations atypiques de la résistivité de cet état particulier de la matière. De quoi renforcer l'hypothèse de von Neumann d'une entropie d'intrication.

Les métaux et les supraconducteurs mettent en jeu un très grand nombre d'électrons, de l'ordre de 1023 pour un échantillon typique. Et, dans certaines conditions, le phénomène d'intrication semble s'établir au sein de cette multitude d'électrons. L'étude de ces matériaux devient alors si complexe que les outils mathématiques que nous utilisions sont insuffisants.

Le principe de « dualité » permet de relier des théories des cordes qui semblent différentes. Un phénomène peut s'interpréter dans une théorie ou dans une autre, et un catalogue d'outils permet de traduire les aspects d'une théorie pour les interpréter dans l'autre. Par exemple, en 1997, Juan Maldacena, alors à l'Université Harvard, a mis en évidence une dualité entre des théories fonctionnant là où les effets quantiques sont faibles mais la gravité forte, et des théories utilisées quand les effets quantiques sont importants, mais la gravité faible.

Les conducteurs, les isolants et les supraconducteurs correspondent à diverses phases de la matière. Dans chaque cas, l'essaim électronique revêt une forme différente. Ces deux dernières décennies, les physiciens ont découvert encore d'autres phases électroniques dans les solides. Un exemple, pourtant très intéressant, n'a même pas de nom : par défaut, les physiciens le nomment « le métal étrange ». Il est caractérisé par une résistance électrique qui varie de façon inhabituelle avec la température par rapport aux métaux ordinaires.

Il est possible d'observer une transition de phase à zéro kelvin, entre l'état supraconducteur [paires de Cooper] et un état nommé « onde de densité de spin » [spin haut et bas alternés]. La modification du point de transition de phase (le point critique quantique) – en dopant le matériau ou en exerçant sur lui une pression pour changer la distance entre les atomes –, permet d'obtenir un nouvel état si l'on augmente la température : le métal étrange.

Si la quantité de dopant augmente, la régularité de l'onde de densité de spin diminue; Elle disparaît pour la quantité critique de 30% d'arsenic remplacé par du phosphore. Le spin de chaque électron a alors autant de chance d'être haut ou bas. L'onde densité de spin n'existe plus, mais le matériau devient supraconducteur. Si on maintient le dopage de 30% et que l'on augmente la température, une nouvelle phase apparaît, celle des métaux étranges.

Près du point critique quantique, les électrons ne se comportent plus indépendamment ou même par paires, mais deviennent intriqués en masse. Le raisonnement que nous avons appliqué à deux électrons s'étend maintenant à 1023 particules. Deux électrons voisins sont intriqués l'un avec l'autre ; cette paire, à son tour, est intriquée avec les paires voisines, et ainsi de suite, créant un énorme réseau d'interconnexions.

Quand les électrons des cristaux ont un degré limité d'intrication, on peut encore se les représenter comme des particules (soit des électrons simples, soit des paires). Mais quand beaucoup d'électrons deviennent fortement intriqués, on ne peut plus conserver l'image de particules, et la théorie classique peine à prévoir ce qui se passe. Dans notre nouvelle approche, nous décrivons ces systèmes en termes de cordes qui se propagent dans une dimension supplémentaire d'espace.

Le degré d'intrication peut être mathématiquement considéré comme une distance selon une dimension spatiale supplémentaire. Deux particules peuvent être éloignées dans l'espace ordinaire, mais leur proximité dans la dimension supplémentaire reflète leur intrication.

1 068 vues

Si l’on ne change rien, les poissons vont disparaître

Temps de lecture : 2 minutes

- Si l'on ne change rien, les poissons vont disparaître

Aujourd'hui, la technologie est devenue le problème numéro un de la pêche. On l'utilise pour rafler plus, plus loin, plus profond, alors qu'elle pourrait être employée à trier le poisson au fond de la mer, et non plus sur le pont du navire. Les prises accessoires représentent près du tiers des captures. Elles sont inutiles et les poissons rejetés ne servent à rien dans les écosystèmes ; ils finissent sous forme de vase. La pêche ressemble un peu à un jeu vidéo : on peut voir quelles espèces sont présentes, à quelle profondeur et presque mettre l'hameçon devant la bouche du poisson. Pourquoi ne pas utiliser ce savoir-faire pour gérer les ressources et rester en phase avec les cycles de la nature ?

Par contre, Sciences et Avenir célèbre, p56, la reconstitution, grâce à la réduction des quotas de pêche, des populations de thons rouges qui étaient au bord de l'extinction en 2008. Les capacités de récupération sont en effet très grandes étant donné l'immensité de l'océan et le nombre d'oeufs pondus. Comme l'interview ci-dessus y insiste (après la FAO), en dehors de la pêche elle-même, le problème vient surtout de la prolifération des méduses qui mangent les oeufs. Il faudrait plutôt manger ces méduses ou les exploiter pour réduire leurs nuisances...

Parmi les mesures préconisées pour prévenir la prolifération
des méduses ou y faire face, on peut citer :
- le développement de produits à base de méduses pour l'alimentation - certaines
espèces sont consommées dans plusieurs pays ;
- l'utilisation de la «méduse immortelle» (Turritopsis nutricula), capable d'inverser le
processus du vieillissement pour l'élaboration de produits régénérants.

732 vues

Dépeçage de la viande, il y a 2 millions d’années

Temps de lecture : 2 minutes

- Dépeçage de la viande, il y a 2 millions d'années

Il y a 2,6 millions d'années, commence la période où les paléoanthropologues situent l'émergence du genre Homo. Elle est caractérisée par un grossissement du cerveau des hominidés, qui entraîne une demande accrue en calories. On observe aussi l'apparition des premières pierres taillées et des premières traces, peu nombreuses, de leur utilisation sur des os d'animaux. Tous ces indices suggèrent que c'est à cette époque que les hominidés auraient commencé à consommer de la viande. Un site (Kanjera) mis au jour au Kenya par une équipe internationale et daté de 2 millions d'années confirme que ce comportement carnivore était déjà en place à cette époque, et même que les hominidés chassaient.

Des coupures présentes sur les os montrent en effet que ces animaux ont été dépecés pour en récupérer la viande. Les hominidés ont également laissé près des os des milliers de pierres taillées et d'éclats.

Comme on y trouve des carcasses entières, ce serait une preuve de la pratique de la chasse (rien d'étonnant, les chimpanzés chassent aussi) bien qu'ils aient été plus souvent charognards, se nourrissant notamment de la cervelle des animaux, inaccessible aux autres prédateurs.

Ils semblaient préférer les têtes, surreprésentées sur le site. Bien que lourdes à transporter, ellcontiennent de la matière cérébrale, très nutritive, qui constitue une ressource de choix dans des prairies dépourvues de noix et de fruits. La robustesse de la boîte crânienne rend cette ressource inaccessible à la plupart des animaux, hyènes exceptées. Avec leurs outils, les hominidés étaient la seule autre espèce à pouvoir y accéder.

Quand on sait que l'augmentation du volume cérébral dépendait d'un apport nutritif supplémentaire, il est assez troublant qu'on ait commencé à manger de la cervelle pour cela !

767 vues

Dossier spécial cerveau | La Recherche

Temps de lecture : 11 minutes

- Dossier spécial cerveau | La Recherche

La Recherche 477

Pas grand chose de nouveau dans ce dossier de La Recherche sur le cerveau mais tout de même bien intéressant ; l'occasion de se rafraîchir la mémoire au moins et surtout d'en saisir la cohérence car le fonctionnement du cerveau reste largement un mystère, pour peu de temps encore sans doute étant donné le progrès des techniques d'observation ou manipulation des neurones (optogénétique, etc.).

D'abord, page 41, les illusions d'optique prouvent que "notre vision surmonte les incertitudes" de la perception en reconstruisant les images, dans ces cas particuliers à tort et simplement parfois parce que la lumière vient plus souvent de haut, illusions d'origine cognitive donc.

L'absence de sensation d'incertitude, malgré l'existence d'ambiguïtés visuelles, suggère que nous sommes globalement surconfiants.

Ensuite, page 46, "l'éveil de la perception" chez le bébé, manifeste son caractère statistique et la précocité de la conscience.

Depuis plusieurs décennies, les psychologues du bébé ont déjà démontré, au niveau comportemental , que durant la première année de la vie les nourrissons sont beaucoup plus intelligents que ne l'avait imaginé Piaget. Bien avant l'apparition du langage articulé (vers l'âge de 2 ans), il est aujourd'hui établi, par l'étude des réactions visuelles des bébés, qu'ils comprennent très tôt des principes élémentaires d'unité et de permanence des objets, de nombre, ainsi que de causalité physique ou mentale. Dans le prolongement de ces découvertes, un nouveau courant a récemment émergé, considérant le bébé comme un véritable petit scientifique qui fait des statistiques pour comprendre et anticiper les événements qu'il perçoit. Ce serait donc par les statistiques que le monde vient aux bébés ! Et pas n'importe quelles statistiques : celle au nom barbare de principes "bayésiens".

L'équipe de Ghislaine Dehaene, vient de montrer que le bébé possède dès 5 mois une conscience perceptive proche de celle de l'adulte : il présente en effet un marqueur électrophysiologique de la conscience analogue à la nôtre. Comme l'adulte - et avant même qu'il ne puisse s'exprimer par le langage -, son cerveau répond en deux temps à la perception d'un événement extérieur.

Dans un premier temps, il traite les informations de façon non consciente, ce qui se caractérise par une activité neuronale linéaire proportionnelle à la durée de présentation de l’événement. Puis, dans un second temps, la réponse neuronale n'est plus linéaire, signal que le seuil de la conscience est franchi. Cette seconde étape est atteinte en 300ms environ chez l'adulte, contre 900 ms chez le bébé de 5 mois, et 750 ms chez celui de 15 mois.

C'est la part du langage qui est de plus en plus diminuée (et sans doute sous-estimée après sa surestimation) mais la part de la perception elle-même est fortement relativisée au profit du cognitif, de la mémoire, du fantasme, jusqu'à rapprocher l'éveil du rêve : nous habitons bien dans notre petit monde imaginaire "le cerveau construit le monde de l'intérieur" (p64) mais cela n'empêche pas qu'on se cogne au réel et qu'il faut inévitablement en tenir compte (la représentation rejoignant la réalité dans son interaction avec elle).

C'est en 1991 que Rodolfo Llinàs formule sa théorie. A l'en croire, seul un petit pourcentage de nos perceptions serait fourni par nos sens, notre cerveau s'appuyant sur son activité interne pour représenter le monde, comme dans un rêve [...] Depuis une quinzaine d'années, l'homme se passionne pour la propriété très particulière qu'on les neurones de synchroniser de façon spontanée leurs signaux électriques selon des rythmes précis, lorsqu'ils sont connectés entre eux [...] Du point de vue de l'activité électrique du cerveau, il n'y a aucune différence entre l'éveil et le rêve.

C'est une structure particulière, le thalamus, qui récupère les signaux issus des organes des sens (sauf l'odorat), pour les renvoyer vers chacune des aires du cortex dévolues à leur traitement : l'aire visuelle, l'aire auditive, etc. Or, chez les souris, seuls 10% des neurones du cortex visuel reçoivent les signaux de neurones du thalamus en provenance des organes des sens. Les autres communiquent entre eux. De plus, comme le révèlent des études menées chez le chat, le nombre de connexions des neurones du thalmus vers le cortex est 10 fois moindre que celui des contacts établis en sens inverse. Toutes ces données tendent donc à renforcer l'idée selon laquelle la majorité de l'information que reçoit le cortex n'est pas sensorielle.

Au lieu d'élaborer de A à Z l'image d'un paysage observé, notre cerveau la reconstruit en n'utilisant les signaux venus de la rétine que pour vérifier la cohérence du résultat obtenu.

En fait, on vient tout juste de découvrir que l'activité intrinsèque du cerveau servait aussi à répéter et mémoriser les événements récents mais cette façon de projeter ses re-présentations, simplement modulées par la perception, est assez conforme à la phénoménologie (l'intentionalité constituant son objet, la noèse constituant le noème). Comme pour le confirmer, l'article suivant, page 68, essaie de déterminer "d'où viennent les hallucinations" qui seraient fondamentalement des erreurs d'attribution (comme venant de l'extérieur) de pensées internes. La cause pourrait en être la position d'une jonction dans l'aire de localisation spatiale du son ou une désynchronisation entre l'aire de Broca et l'aire de Wernicke, notamment par un défaut de myéline des neurones qui les relient. Les drogues hallucinogènes mettent plutôt en cause des neurotransmetteurs (dopamine, sérotonine, glutamate) - je dois dire que, pour ma part je n'ai jamais eu de véritables hallucinations sous LSD, plutôt des déformations, notamment des visages (très étonnamment). Il y a certainement des causes psychiques (ou sociales) des hallucinations plus souvent que neurologiques, même avec des drogues ce qui en fait l'éventuel intérêt thérapeutique. Tout ne se réduit pas au somatique.

Ensuite, page 74, Emmanuel Sander insiste sur l'importance de l'analogie qu'il identifie (un peu rapidement) aux concepts : "Notre pensée progresse en créant des catégories". On ne peut pas dire que ce soit nouveau.

Un concept est en dynamique perpétuelle. Pour preuve, les jeunes enfants passent en général par une phase où ils sont persuadés que les adultes n'ont pas de maman. Pour eux, une maman s'occupe forcément d'un enfant. Puis, par analogies successives, par comparaison des expériences vécues avec leur propre concept, leur concept de maman va évoluer jusqu'à prendre une forme culturellement partagée et plus ou moins stable, incluant les mamans d'adultes, ceux d'animaux, dont la reine des abeilles, mère de toute une ruche, voire des notions plus abstraites qualifiées communément de métaphoriques telles que "mère poule" ou "mère patrie".

On voit comme on passe insensiblement de l'analogie à la métaphore en escamotant l'intervention du langage qui est pourtant d'un autre ordre. Nos concepts ne relèvent pas tant de l'analogie des formes que de la dichotomie, de la division du réel par l'opposition des signifiants entre eux (dictionnaire), ce qui est un tout autre processus qui s'ajoute au démon de l'analogie et le rationalise (du continu au discret?). De plus, le fait de s'entendre parler, et de pouvoir en discuter, rajoute une dimension de réflexivité à nos concepts que l'analogie ne comporte pas, plus près du réflexe inconscient.

On a certes fait un grand progrès en admettant que "il n'existe pas de frontière entre percevoir et concevoir", qu'il faut "avoir déjà construit la catégorie à laquelle il appartient pour reconnaître un objet". Il faudrait ajouter qu'il n'y a pas de futur sans mémoire (même si sentir comme hier n'est pas sentir), pas d'événement sans un fond sur lequel il se détache. Cela est consistant avec le fait que "les détails ne nous sautent pas aux yeux" (p80) la perception procédant du global au local, en ayant d'abord une vue d'ensemble dégageant les grandes structures avant de s'intéresser d'autant plus aux détails qu'on est dans le connu. On croit lire Heidegger en 1923 ! La perception semble avoir surtout pour tâche de nous permettre de continuer à rêver et de conforter nos préjugés mais il faudrait distinguer : ce qui relève des statistiques ou de l'habitude - ce qui relève de l'analogie ou de l'apprentissage - et ce qui relève du langage ou de la culture.

Tout cela se combine dans une rationalité strictement limitée à des performances statistiquement assez efficaces mais qui ne sont pas exemptes de biais cognitifs, dont le "biais de l'optimisme" qui fait que "nos neurones nous font voir la vie du bon côté" (p78). Bien sûr, cela n'est pas le cas de tout le monde, il y a des dépressifs et des catastrophistes, mais ce sont des malades et ce n'est pas une raison pour croire que l'optimisme serait plus raisonnable. Il est juste vital mais bien trompeur, comme le montrent nos évaluations de l'avenir au regard des probabilités, supposées pourtant à la base de notre système cognitif. Ainsi, je ne trouve pas raisonnable l'insouciance actuelle sur le climat bien qu'elle soit compréhensible, la fonte du permafrost notamment est pleine de menaces et seule notre ignorance justifie qu'on ne panique pas plus, l'optimisme n'est pas de mise, comme si une providence divine allait nous sauver de nous-mêmes ! Rien à faire, la catastrophe est impensable avant qu'elle ne se produise ! Ce qui nous aveugle serait même câblé dans le cerveau, localisé dans le gyrus frontal inférieur (IFG)

C'est précisément ce biais d'optimisme que les chercheurs ont observé chez les volontaires dont l'IFG droit a été perturbé. En revanche, ce biais a disparu chez les volontaires dont l'IFG gauche a été inactivé.

Pour illustrer la nécessité de cette surconfiance du début à l'optimisme final, je peux renvoyer à la fin de mon article sur "La question du suicide" :

"L'humeur dépressive est sûrement plus décisive pour le réalisme du jugement mais aucune vie ne survivrait à cette lucidité si elle n'avait inventé de quoi nous étourdir l'esprit, pourvu que la dépression ne soit pas trop profonde justement, en oubliant tous les malheurs du monde au premier divertissement, au premier sourire, et retrouver encore une fois peut-être le goût d'apprendre et de lutter pour un monde meilleur jusqu'au jour où la magie n'opérera plus, où le corps ne répondra plus, où nous serons out, où la mort aura finalement raison de nous d'une façon ou d'une autre."

1 083 vues

La somme de 2 statistiques peut inverser leur résultat

Temps de lecture : 5 minutes

- La somme de 2 statistiques peut inverser leur résultat

Simpson

Les trois tableaux sont compatibles, aucune erreur ne s'est produite. Les résultats sont sans appel : chez les hommes, le placebo est meilleur que le médicament ; chez les femmes, le placebo est meilleur que le médicament. Pourtant, en regroupant hommes et femmes, le médicament produit de meilleurs résultats que le placebo. On se trouve dans un cas du paradoxe de Simpson : la fusion de données concluant individuellement dans un sens – l'inutilité du médicament testé – donne des résultats concluant dans le sens inverse.

De nombreux cas réels présentent cette inversion de résultat lorsqu'on regroupe plusieurs catégories complémentaires en une seule. Chaque année, on découvre de nouveaux exemples produisant étonnement et incrédulité. On a rencontré le paradoxe à propos des taux d'admission des filles dans divers départements de l'Université de Berkeley en 1973 : elles étaient meilleures que les garçons dans la plupart des départements de l'université, mais quand on fusionnait les résultats, leur taux général d'admission à l'université était inférieur à celui des garçons.

L'étonnement vient de ce que l'on croit que [a/b < c/d et a'/b' < c'/d'] entraîne (a + a')/(b + b') < (c + c')/(d + d'). Or aucune démonstration n'établira cette implication entre inégalités arithmétiques, puisque justement les nombres des tableaux 1-3 vérifient les deux premières inégalités et pas la troisième : 36/24 < 14/6 et 4/16 < 18/42, mais 40/40 > 32/48.

Il y a d'autres cas cités :
- un degré meilleur de réussite par catégories avec une baisse du niveau général car le nombre des meilleurs baisse par rapport aux moins bons qui progressent.
- un taux de mortalité faible malgré une espérance de vie réduite à cause du rajeunissement de la population.

En fait, ce que démontre ce paradoxe de Simpson, c'est tout simplement que les statistiques sont inconsistantes quand elles ne prennent pas les bonnes catégories. Lorsque celles-ci sont arbitraires ou trop générales, elles deviennent trompeuses faisant de la sociologie, et d'une bonne compréhension préalable, la condition de sondages pertinents. C'est un peu ce que je disais avec "de la statistique à l'organisation sociale".

Ce paradoxe ne joue que dans un très petit nombre de cas (moins de 2%) et seulement si les écarts ne sont pas trop nets mais, le plus étonnant, c'est qu'il aurait une traduction biologique, jouant un rôle (surévalué ici) dans la sélection des plus coopératifs bien que ce soit un handicap dans la compétition individuelle.

Simpson2

L'une des souches de bactérie produisait un antibiotique utile aux deux souches et l'autre en profitait sans le produire. Une situation apparemment paradoxale est apparue : les non-producteurs croissaient plus vite dans chaque groupe (ce qui n'est pas une surprise) bien qu'au total, les non-producteurs voyaient leur effectif global décroître en proportion.

Pour un biologiste, ce système est un exemple frappant de conflit entre niveaux de sélection. Les bactéries productrices du bien commun sont les bénéficiaires de l'ensemble du système quand on le considère comme un tout, alors qu'à un niveau individuel (celui auquel opère la sélection), elles sont désavantagées puisque dans chaque groupe leur proportion diminue.

Grâce aux effets du paradoxe de Simpson, un trait qui bénéficie à la population considérée comme un tout peut ainsi se trouver sélectionné, bien qu'à un niveau individuel le trait soit désavantageux. La chose est étonnante : ce qui est mauvais au niveau individuel se trouve au total favorisé par l'effet mécanique d'un paradoxe de Simpson. La réalisation concrète de l'expérience par les chercheurs démontre que cet effet sélectif paradoxal n'est pas seulement théorique, mais doit être pris en compte par les spécialistes de l'évolution. Cette dynamique doit être envisagée comme mécanisme de sélection de traits individuels favorables à la coopération et à l'altruisme.

(citation d'un encadré qui n'apparaît pas dans le lien de l'article en ligne mais seulement avec le pdf)

1 379 vues