Une écriture chinoise vieille de 5000 ans

Lien

- Une écriture chinoise vieille de 5000 ans

Les Chinois ont toujours revendiqué l'ancienneté de leur civilisation mais leurs dynasties mythiques et le manque de traces archéologiques faisait douter jusqu'ici de leurs datations qui ne paraissent plus aussi fantaisistes puisqu'on vient de trouver ce qui ressemble à une écriture primitive seulement quelques siècles après les premières écritures sumériennes.

Les inscriptions trouvées sur des objets, au sud de Shanghai, seraient à peu près de 1.400 ans antérieures à plus ancienne trace écrite de la langue chinoise jusqu'ici.

L'une des pièces comporte six formes de mots comme enchaînés, ressemblant à une courte phrase.

"Ils sont différents des symboles que nous avons vu par le passé sur des artefacts. Leurs formes et le fait qu'ils aient l'air de phrase indique qu'ils sont l'expression d'un sens."

Les six personnages sont disposés en ligne, et trois d'entre eux ressemblent au caractère chinois actuel pour les êtres humains. Chaque symbole comporte de deux à cinq traits.

"Si cinq à six d'entre eux sont enchaînés comme dans une phrase, ce ne sont plus des symboles, mais des mots".

"Si vous regardez leur composition, vous verrez qu'ils sont plus que des symboles".

Pour l'instant, les chercheurs chinois ont convenu d'appeler cela une écriture primitive, un terme vague qui suggère que les marques de Liangzhu sont quelque part entre les symboles et les mots.

- Les idéogrammes chinois sont des signes divinatoires

Les plus anciens idéogrammes, datés du 16° siècle av. JC, avaient été trouvés sur des carapaces de tortues ou autre support divinatoire. On comprend bien l'intérêt de fixer matériellement des prédictions et celles-ci ont eut un rôle aussi dans l'invention de l'écriture au Moyen-Orient et les débuts de l'astrologie mais vite supplantée par l'usage administratif. Ce n'aurait pas été le cas en Chine, la thèse de Léon Vandermeersch dans son dernier ouvrage, "Les deux raisons de la pensée chinoise" (sous titré "Divination et idéographie") étant qu'elle aurait été inventée sous le règne de Wu Ding (13° siècle av. JC) spécifiquement pour la divination. C'est ce qui expliquerait que les idéogrammes chinois se distinguent bien sûr de l'écriture alphabétique mais aussi des hiéroglyphes par leur composition structurée (on voit cependant qu'elle devait s'inspirer d'une "écriture primitive" divinatoire antérieure à sa normalisation étatique).

Pour Léon Vandermeersch, l’origine et la spécificité de l’écriture chinoise réside dans le fait qu’elle invente des inscriptions d’équations divinatoires. Ce n’est que bien plus tard, au VIII° siècle de notre ère, que l’écriture chinoise, au travers diverses transformations que nous pourrions qualifier d’idéographisation en écho à la grammatisation, s’est généralisée comme une pratique d’écriture qui retranscrit la parole.

"Lettré" en chinois se dit "ru", étymologiquement "faiseur de pluie" ; or la danse chamanique a survécu comme danse pour faire tomber la pluie.

J'avais souligné il y a longtemps que la civilisation chinoise avait conservé des aspects chamaniques qui pourraient donc se retrouver dans son écriture. De là à vouloir opposer le chamanisme des chinois à une supposée théologie occidentale, cela semble un peu simplet (encore l'affrontement des essences alors que la science est universelle).

A lire aussi, sur le même blog, le billet plus ancien sur l'écriture comme grammatisation de la langue, invention technique apportant une réflexivité, un savoir de la langue impossible avant, la grammaire étant auparavant inconsciente.

Chaque particule crée son propre espace-temps par son mouvement

Lien

- Chaque particule crée son propre espace-temps par son mouvement

Pour le spécialiste de la gravitation à boucle, Jerzy Lewandowski, conformément à la relativité générale, chaque particule massive aurait son propre espace-temps dont la caractéristique la plus étonnante est qu'il serait orienté en fonction du mouvement de la particule et non pas identique dans toutes les directions (isotropie) comme pour un photon sans masse (et comme nous concevons l'univers).

Des nuages pour sauver le corail ?

Lien

- Des nuages pour sauver le corail ?

Devant les risques du réchauffement pour le corail, un climatologue propose d'envoyer de l'eau de mer dans les nuages pour les rendre plus réfléchissants et protéger les coraux situés en-dessous.

Il y a déjà eu une proposition de géoingénierie "locale" consistant à protéger le pôle Nord qui représente la menace principale actuelle mais on avait vu que cela renforcerait la sécheresse en Afrique. De même, les nuages sur la barrière de corail auront des effets ailleurs mais un critique pointe surtout le risque que, pour une raison ou une autre, la production de nuages s'arrête produisant alors un choc thermique fatal à coup sûr cette fois !

Retour à l’origine de la pensée de Heidegger

OntologieLa parution des premiers cours de Heidegger est un événement important pour comprendre les origines de sa pensée, lui qui prônait justement de toujours revenir à l'origine pour se délester de tous les discours qui la recouvrent. Cela permet aussi de se réconcilier avec les problématiques qu'il a mises au jour, et qui alimenteront toute la période existentialiste, avant leur contamination par la période nazie (et même s'il fréquentait déjà les cercles réactionnaires et pangermanistes). De quoi mieux comprendre à quel point son parcours s'enracine dans la théologie (notamment Luther et Kierkegaard bien qu'il soit lui-même catholique "à l'origine" O22), ce qui expliquerait la religiosité de ses partisans, ainsi que ce qui l'oppose radicalement à la phénoménologie dans laquelle il s'est pourtant formé comme assistant de Husserl. Celui-ci est en effet accusé de scientisme, à viser une certitude impersonnelle, alors qu'il s'attache lui-même à la temporalité de l'existence et son historicisme vécu (nébulosité éloignée d'idées claires et distinctes), assumant sa finitude et son point de vue dont nul ne saurait s'abstraire. Ce qui est mis ainsi en valeur, c'est le rapport direct et personnel de chacun à l'histoire, historicité de l'être-là humain comme ouverture aux possibilités du moment (être dans un monde).

Continuer la lecture

L’illusion démocratique

Les révolutions arabes sont confrontées à la perte des illusions sur la démocratie et plus généralement aux limitations du politique. Il faut dire que les illusions ne manquent pas, ici comme là-bas, sur une démocratie qu'on s'imagine toute puissante et pouvant décider de la société dans laquelle on veut vivre, ce qui veut dire forcément imposer son mode de vie aux autres. C'est assez clair avec les tentatives d'islamisation des pays arabes comme de la Turquie (sans parler de l'Iran), mais ce n'est guère différent de nos démocrates révolutionnaires, de droite comme de gauche, qui s'imaginent remodeler la société française s'ils arrivaient à gagner une majorité aux élections. Cette conception d'une démocratie majoritaire est celle des totalitarismes et doit être abandonnée pour une démocratie des minorités qui n'est pas l'incarnation dans le vote d'une supposée volonté générale mais l'instrument de la démocratisation de la société. C'est ce qu'on pourrait sans doute appeler une démocratie libérale sauf que pour mériter son nom de démocratie, elle ne peut oublier sa dimension sociale.

A quoi sert de faire la révolution alors se diront tous ceux qui veulent tout changer sinon rien ? A changer le personnel dirigeant, au moins, ce qui est souvent plus que nécessaire comme on le voit mais ne va pas beaucoup plus loin effectivement car les réalités ne changent pas qui s'imposent aux beaux discours et il ne suffit pas de faire étalage de sa bonne volonté ou de sa bonne foi pour savoir gérer un pays. Quand ça ne marche pas, le pouvoir est renversé fût-il démocratiquement élu. Il faut s'en persuader malgré la mythologie révolutionnaire, la démocratie n'est que le pire des régimes à l'exception de tous les autres, juste une façon de pacifier les conflits. Non seulement ce ne sont pas les meilleurs qui sont élus (ce sont les plus ambitieux, les plus habiles, les plus démagogues), mais on ne peut décider de tout, et même de pas grand chose en fait (moins qu'avant en tout cas). Pour le comprendre, il faudrait comprendre que le fonctionnement d'un système dépend assez peu de nous et qu'il y a des phénomènes sociaux qui nous dépassent comme il y a une évolution du monde irréversible (notamment technologique). Il n'est pas possible d'imposer la charia dans les pays musulmans, pas plus qu'on ne pourrait décider ici d'un monde sans musulmans. Il n'est pas vrai qu'on puisse mettre tous les étrangers dehors, ni fermer nos frontières, ni changer toute l'économie. Tout cela est pur fantasme et verbiage prétentieux. Ce n'est pas que certains autocrates ne tentent de forcer le destin, mais cela ne peut qu'empirer les choses. Ce qui est curieux, c'est comme ces prétentions de dicter sa loi ne posent pas question, malgré l'expérience séculaire de la démocratie, pas plus que l'idée que le monde devrait être conforme à nos souhaits, ce qu'il n'a jamais été, comme s'il n'avait pas d'existence propre et ne dépendait que de nous par devoir moral dirait-on. On fait comme si sa dérive était toute récente par rapport à un état antérieur idéalisé, témoignant simplement ainsi d'avoir un peu trop cru à la propagande officielle quand on était petit.

Continuer la lecture

L’Hyperloop : Los Angeles-San Francisco en 30 mn

Lien

- L'Hyperloop : Los Angeles-San Francisco en 30 mn

On avait déjà parlé de ces projets de transports ultra-rapide sur le principe des canons magnétiques dans un tube sous vide mais si on en reparle, c'est parce que Elon Musk, le milliardaire de Tesla Motors qui veut envoyer des hommes sur Mars, s'investit dans ce projet, qui n'est pas nouveau puisqu'il daterait de 1972 et reste encore flou.

Le VHST commencerait par accélérer jusqu'à sa vitesse maximale, avancerait en roue libre pendant un moment et finirait par ralentir. L'énergie cinétique utilisée pour accélérer serait restituée au moment de la décélération grâce à la récupération de l'énergie.

EN 1972, la Rand Corporation avait déclaré avoir envisagé une vitesse potentielle de 22 530 km/h. A cette allure, le trajet Los Angeles-New York ne prendrait que 21 minutes.

Le VHST devrait nécessairement être souterrain. Les tunnels seraient donc l'obstacle majeur à la réalisation du projet.

Action à distance sur des particules intriquées

Lien

- Action à distance sur des particules intriquées

Quantum_remote_control

C'est assez extraordinaire, témoignant comme de petits progrès techniques peuvent mener soudain à un bouleversement total. Ainsi, après qu'on ait appris à piéger des particules intriquées en les préservant de la décohérence, on s'est aperçu qu'on pouvait même les soumettre à des variations continues de champs magnétiques faibles sans briser l'intrication, ce qui permet dès lors de modifier immédiatement à n'importe quelle distance l'autre particule intriquée (ce qu'on appelle téléportation).

Ce n'est pour l'instant qu'une proposition théorique et il reste bien des limitations mais on voit comme ce qui était considéré impossible pour toujours devient soudain possible...

Des « plâtres » imprimés en 3D plus légers et esthétiques

Lien

- Des "plâtres" imprimés en 3D plus légers et esthétiques

Léger, aéré, lavable et mince grâce à son squelette en polyamide (un polymère), contrairement à un plâtre, il pourrait même être réutilisé.

Il s’agit de prototypes fabriqués à partir de radiographies et scanners. Parfaitement adapté au bras du porteur, il suffit de l’imprimer en deux morceaux puis de les souder.

Revue des sciences juillet 2013

Continuer la lecture

Des lunettes pour manipuler des objets en 3D

Lien

- Des lunettes pour manipuler des objets en 3D

Le logiciel développé par Atheer Labs pourrait permettre à des lunettes connectées de servir pour des conférences vidéo avec des gens comme s'ils étaient réellement dans la salle avec vous ou de jouer à des jeux 3D véritablement interactifs.

Ce sont essentiellement des caméras qui servent de capteur de profondeur pour détecter les mouvements de la main et des doigts.

"Dans quelques années, vous pourrez aller au restaurant et laisser une petite note en l'air qu'un ami pourra voir quand il viendra".

Le blocage du récepteur B1R contre l’Alzheimer

Lien

- Le blocage du récepteur B1R contre l'Alzheimer

C'est la première fois qu'un traitement semble pouvoir guérir de l'Alzheimer et inverser ses symptômes en réduisant l'inflammation cérébrale.

Les chercheurs ont découvert dans le cerveau de souris atteintes de maladie d'Alzheimer une plus grande concentration d'un récepteur appelé bradykinine de type B1 (B1R), lequel intervient dans l'inflammation. "En administrant une molécule qui bloque sélectivement l'action de ce récepteur, nous avons observé des améliorations importantes de la fonction cognitive et de la fonction vasculaire cérébrale".

Ces résultats montrent qu'une plus grande concentration du récepteur B1R est associée à des plaques de protéine bêta-amyloïde chez des souris atteintes d'Alzheimer et de déficits de mémoire. Ils montrent aussi que le blocage chronique du récepteur B1R améliore nettement l'apprentissage et la mémoire, la fonction vasculaire cérébrale et plusieurs autres caractéristiques pathologiques de la maladie d'Alzheimer chez des souris qui ont une pathologie pleinement développée. Tous ces résultats confirment un rôle du récepteur B1R dans la pathogenèse de la maladie d'Alzheimer et le rôle de la neuro-inflammation en tant que mécanisme fondamental de la maladie d'Alzheimer.

Métaux étranges intriqués et théorie des cordes

Lien

- Métaux étranges intriqués et théorie des cordes

Outre la découverte (pour moi) des "métaux étranges" ("non liquide de Fermi") et l'utilisation de la théorie des cordes ou des branes (notamment de sa dualité) pour résoudre des problèmes de la matière condensée (alors qu'on pensait que la théorie des cordes ne servait à rien), ce que je trouve le plus intéressant, c'est que l'intrication (massive) puisse être à l'origine de propriétés physiques comme la supraconduction ou les variations atypiques de la résistivité de cet état particulier de la matière. De quoi renforcer l'hypothèse de von Neumann d'une entropie d'intrication.

Les métaux et les supraconducteurs mettent en jeu un très grand nombre d'électrons, de l'ordre de 1023 pour un échantillon typique. Et, dans certaines conditions, le phénomène d'intrication semble s'établir au sein de cette multitude d'électrons. L'étude de ces matériaux devient alors si complexe que les outils mathématiques que nous utilisions sont insuffisants.

Le principe de « dualité » permet de relier des théories des cordes qui semblent différentes. Un phénomène peut s'interpréter dans une théorie ou dans une autre, et un catalogue d'outils permet de traduire les aspects d'une théorie pour les interpréter dans l'autre. Par exemple, en 1997, Juan Maldacena, alors à l'Université Harvard, a mis en évidence une dualité entre des théories fonctionnant là où les effets quantiques sont faibles mais la gravité forte, et des théories utilisées quand les effets quantiques sont importants, mais la gravité faible.

Les conducteurs, les isolants et les supraconducteurs correspondent à diverses phases de la matière. Dans chaque cas, l'essaim électronique revêt une forme différente. Ces deux dernières décennies, les physiciens ont découvert encore d'autres phases électroniques dans les solides. Un exemple, pourtant très intéressant, n'a même pas de nom : par défaut, les physiciens le nomment « le métal étrange ». Il est caractérisé par une résistance électrique qui varie de façon inhabituelle avec la température par rapport aux métaux ordinaires.

Il est possible d'observer une transition de phase à zéro kelvin, entre l'état supraconducteur [paires de Cooper] et un état nommé « onde de densité de spin » [spin haut et bas alternés]. La modification du point de transition de phase (le point critique quantique) – en dopant le matériau ou en exerçant sur lui une pression pour changer la distance entre les atomes –, permet d'obtenir un nouvel état si l'on augmente la température : le métal étrange.

Si la quantité de dopant augmente, la régularité de l'onde de densité de spin diminue; Elle disparaît pour la quantité critique de 30% d'arsenic remplacé par du phosphore. Le spin de chaque électron a alors autant de chance d'être haut ou bas. L'onde densité de spin n'existe plus, mais le matériau devient supraconducteur. Si on maintient le dopage de 30% et que l'on augmente la température, une nouvelle phase apparaît, celle des métaux étranges.

Près du point critique quantique, les électrons ne se comportent plus indépendamment ou même par paires, mais deviennent intriqués en masse. Le raisonnement que nous avons appliqué à deux électrons s'étend maintenant à 1023 particules. Deux électrons voisins sont intriqués l'un avec l'autre ; cette paire, à son tour, est intriquée avec les paires voisines, et ainsi de suite, créant un énorme réseau d'interconnexions.

Quand les électrons des cristaux ont un degré limité d'intrication, on peut encore se les représenter comme des particules (soit des électrons simples, soit des paires). Mais quand beaucoup d'électrons deviennent fortement intriqués, on ne peut plus conserver l'image de particules, et la théorie classique peine à prévoir ce qui se passe. Dans notre nouvelle approche, nous décrivons ces systèmes en termes de cordes qui se propagent dans une dimension supplémentaire d'espace.

Le degré d'intrication peut être mathématiquement considéré comme une distance selon une dimension spatiale supplémentaire. Deux particules peuvent être éloignées dans l'espace ordinaire, mais leur proximité dans la dimension supplémentaire reflète leur intrication.

Si l’on ne change rien, les poissons vont disparaître

Lien

- Si l'on ne change rien, les poissons vont disparaître

Aujourd'hui, la technologie est devenue le problème numéro un de la pêche. On l'utilise pour rafler plus, plus loin, plus profond, alors qu'elle pourrait être employée à trier le poisson au fond de la mer, et non plus sur le pont du navire. Les prises accessoires représentent près du tiers des captures. Elles sont inutiles et les poissons rejetés ne servent à rien dans les écosystèmes ; ils finissent sous forme de vase. La pêche ressemble un peu à un jeu vidéo : on peut voir quelles espèces sont présentes, à quelle profondeur et presque mettre l'hameçon devant la bouche du poisson. Pourquoi ne pas utiliser ce savoir-faire pour gérer les ressources et rester en phase avec les cycles de la nature ?

Par contre, Sciences et Avenir célèbre, p56, la reconstitution, grâce à la réduction des quotas de pêche, des populations de thons rouges qui étaient au bord de l'extinction en 2008. Les capacités de récupération sont en effet très grandes étant donné l'immensité de l'océan et le nombre d'oeufs pondus. Comme l'interview ci-dessus y insiste (après la FAO), en dehors de la pêche elle-même, le problème vient surtout de la prolifération des méduses qui mangent les oeufs. Il faudrait plutôt manger ces méduses ou les exploiter pour réduire leurs nuisances...

Parmi les mesures préconisées pour prévenir la prolifération
des méduses ou y faire face, on peut citer :
- le développement de produits à base de méduses pour l'alimentation - certaines
espèces sont consommées dans plusieurs pays ;
- l'utilisation de la «méduse immortelle» (Turritopsis nutricula), capable d'inverser le
processus du vieillissement pour l'élaboration de produits régénérants.

Dépeçage de la viande, il y a 2 millions d’années

Lien

- Dépeçage de la viande, il y a 2 millions d'années

Il y a 2,6 millions d'années, commence la période où les paléoanthropologues situent l'émergence du genre Homo. Elle est caractérisée par un grossissement du cerveau des hominidés, qui entraîne une demande accrue en calories. On observe aussi l'apparition des premières pierres taillées et des premières traces, peu nombreuses, de leur utilisation sur des os d'animaux. Tous ces indices suggèrent que c'est à cette époque que les hominidés auraient commencé à consommer de la viande. Un site (Kanjera) mis au jour au Kenya par une équipe internationale et daté de 2 millions d'années confirme que ce comportement carnivore était déjà en place à cette époque, et même que les hominidés chassaient.

Des coupures présentes sur les os montrent en effet que ces animaux ont été dépecés pour en récupérer la viande. Les hominidés ont également laissé près des os des milliers de pierres taillées et d'éclats.

Comme on y trouve des carcasses entières, ce serait une preuve de la pratique de la chasse (rien d'étonnant, les chimpanzés chassent aussi) bien qu'ils aient été plus souvent charognards, se nourrissant notamment de la cervelle des animaux, inaccessible aux autres prédateurs.

Ils semblaient préférer les têtes, surreprésentées sur le site. Bien que lourdes à transporter, ellcontiennent de la matière cérébrale, très nutritive, qui constitue une ressource de choix dans des prairies dépourvues de noix et de fruits. La robustesse de la boîte crânienne rend cette ressource inaccessible à la plupart des animaux, hyènes exceptées. Avec leurs outils, les hominidés étaient la seule autre espèce à pouvoir y accéder.

Quand on sait que l'augmentation du volume cérébral dépendait d'un apport nutritif supplémentaire, il est assez troublant qu'on ait commencé à manger de la cervelle pour cela !

Dossier spécial cerveau | La Recherche

Lien

- Dossier spécial cerveau | La Recherche

La Recherche 477

Pas grand chose de nouveau dans ce dossier de La Recherche sur le cerveau mais tout de même bien intéressant ; l'occasion de se rafraîchir la mémoire au moins et surtout d'en saisir la cohérence car le fonctionnement du cerveau reste largement un mystère, pour peu de temps encore sans doute étant donné le progrès des techniques d'observation ou manipulation des neurones (optogénétique, etc.).

D'abord, page 41, les illusions d'optique prouvent que "notre vision surmonte les incertitudes" de la perception en reconstruisant les images, dans ces cas particuliers à tort et simplement parfois parce que la lumière vient plus souvent de haut, illusions d'origine cognitive donc.

L'absence de sensation d'incertitude, malgré l'existence d'ambiguïtés visuelles, suggère que nous sommes globalement surconfiants.

Ensuite, page 46, "l'éveil de la perception" chez le bébé, manifeste son caractère statistique et la précocité de la conscience.

Depuis plusieurs décennies, les psychologues du bébé ont déjà démontré, au niveau comportemental , que durant la première année de la vie les nourrissons sont beaucoup plus intelligents que ne l'avait imaginé Piaget. Bien avant l'apparition du langage articulé (vers l'âge de 2 ans), il est aujourd'hui établi, par l'étude des réactions visuelles des bébés, qu'ils comprennent très tôt des principes élémentaires d'unité et de permanence des objets, de nombre, ainsi que de causalité physique ou mentale. Dans le prolongement de ces découvertes, un nouveau courant a récemment émergé, considérant le bébé comme un véritable petit scientifique qui fait des statistiques pour comprendre et anticiper les événements qu'il perçoit. Ce serait donc par les statistiques que le monde vient aux bébés ! Et pas n'importe quelles statistiques : celle au nom barbare de principes "bayésiens".

L'équipe de Ghislaine Dehaene, vient de montrer que le bébé possède dès 5 mois une conscience perceptive proche de celle de l'adulte : il présente en effet un marqueur électrophysiologique de la conscience analogue à la nôtre. Comme l'adulte - et avant même qu'il ne puisse s'exprimer par le langage -, son cerveau répond en deux temps à la perception d'un événement extérieur.

Dans un premier temps, il traite les informations de façon non consciente, ce qui se caractérise par une activité neuronale linéaire proportionnelle à la durée de présentation de l’événement. Puis, dans un second temps, la réponse neuronale n'est plus linéaire, signal que le seuil de la conscience est franchi. Cette seconde étape est atteinte en 300ms environ chez l'adulte, contre 900 ms chez le bébé de 5 mois, et 750 ms chez celui de 15 mois.

C'est la part du langage qui est de plus en plus diminuée (et sans doute sous-estimée après sa surestimation) mais la part de la perception elle-même est fortement relativisée au profit du cognitif, de la mémoire, du fantasme, jusqu'à rapprocher l'éveil du rêve : nous habitons bien dans notre petit monde imaginaire "le cerveau construit le monde de l'intérieur" (p64) mais cela n'empêche pas qu'on se cogne au réel et qu'il faut inévitablement en tenir compte (la représentation rejoignant la réalité dans son interaction avec elle).

C'est en 1991 que Rodolfo Llinàs formule sa théorie. A l'en croire, seul un petit pourcentage de nos perceptions serait fourni par nos sens, notre cerveau s'appuyant sur son activité interne pour représenter le monde, comme dans un rêve [...] Depuis une quinzaine d'années, l'homme se passionne pour la propriété très particulière qu'on les neurones de synchroniser de façon spontanée leurs signaux électriques selon des rythmes précis, lorsqu'ils sont connectés entre eux [...] Du point de vue de l'activité électrique du cerveau, il n'y a aucune différence entre l'éveil et le rêve.

C'est une structure particulière, le thalamus, qui récupère les signaux issus des organes des sens (sauf l'odorat), pour les renvoyer vers chacune des aires du cortex dévolues à leur traitement : l'aire visuelle, l'aire auditive, etc. Or, chez les souris, seuls 10% des neurones du cortex visuel reçoivent les signaux de neurones du thalamus en provenance des organes des sens. Les autres communiquent entre eux. De plus, comme le révèlent des études menées chez le chat, le nombre de connexions des neurones du thalmus vers le cortex est 10 fois moindre que celui des contacts établis en sens inverse. Toutes ces données tendent donc à renforcer l'idée selon laquelle la majorité de l'information que reçoit le cortex n'est pas sensorielle.

Au lieu d'élaborer de A à Z l'image d'un paysage observé, notre cerveau la reconstruit en n'utilisant les signaux venus de la rétine que pour vérifier la cohérence du résultat obtenu.

En fait, on vient tout juste de découvrir que l'activité intrinsèque du cerveau servait aussi à répéter et mémoriser les événements récents mais cette façon de projeter ses re-présentations, simplement modulées par la perception, est assez conforme à la phénoménologie (l'intentionalité constituant son objet, la noèse constituant le noème). Comme pour le confirmer, l'article suivant, page 68, essaie de déterminer "d'où viennent les hallucinations" qui seraient fondamentalement des erreurs d'attribution (comme venant de l'extérieur) de pensées internes. La cause pourrait en être la position d'une jonction dans l'aire de localisation spatiale du son ou une désynchronisation entre l'aire de Broca et l'aire de Wernicke, notamment par un défaut de myéline des neurones qui les relient. Les drogues hallucinogènes mettent plutôt en cause des neurotransmetteurs (dopamine, sérotonine, glutamate) - je dois dire que, pour ma part je n'ai jamais eu de véritables hallucinations sous LSD, plutôt des déformations, notamment des visages (très étonnamment). Il y a certainement des causes psychiques (ou sociales) des hallucinations plus souvent que neurologiques, même avec des drogues ce qui en fait l'éventuel intérêt thérapeutique. Tout ne se réduit pas au somatique.

Ensuite, page 74, Emmanuel Sander insiste sur l'importance de l'analogie qu'il identifie (un peu rapidement) aux concepts : "Notre pensée progresse en créant des catégories". On ne peut pas dire que ce soit nouveau.

Un concept est en dynamique perpétuelle. Pour preuve, les jeunes enfants passent en général par une phase où ils sont persuadés que les adultes n'ont pas de maman. Pour eux, une maman s'occupe forcément d'un enfant. Puis, par analogies successives, par comparaison des expériences vécues avec leur propre concept, leur concept de maman va évoluer jusqu'à prendre une forme culturellement partagée et plus ou moins stable, incluant les mamans d'adultes, ceux d'animaux, dont la reine des abeilles, mère de toute une ruche, voire des notions plus abstraites qualifiées communément de métaphoriques telles que "mère poule" ou "mère patrie".

On voit comme on passe insensiblement de l'analogie à la métaphore en escamotant l'intervention du langage qui est pourtant d'un autre ordre. Nos concepts ne relèvent pas tant de l'analogie des formes que de la dichotomie, de la division du réel par l'opposition des signifiants entre eux (dictionnaire), ce qui est un tout autre processus qui s'ajoute au démon de l'analogie et le rationalise (du continu au discret?). De plus, le fait de s'entendre parler, et de pouvoir en discuter, rajoute une dimension de réflexivité à nos concepts que l'analogie ne comporte pas, plus près du réflexe inconscient.

On a certes fait un grand progrès en admettant que "il n'existe pas de frontière entre percevoir et concevoir", qu'il faut "avoir déjà construit la catégorie à laquelle il appartient pour reconnaître un objet". Il faudrait ajouter qu'il n'y a pas de futur sans mémoire (même si sentir comme hier n'est pas sentir), pas d'événement sans un fond sur lequel il se détache. Cela est consistant avec le fait que "les détails ne nous sautent pas aux yeux" (p80) la perception procédant du global au local, en ayant d'abord une vue d'ensemble dégageant les grandes structures avant de s'intéresser d'autant plus aux détails qu'on est dans le connu. On croit lire Heidegger en 1923 ! La perception semble avoir surtout pour tâche de nous permettre de continuer à rêver et de conforter nos préjugés mais il faudrait distinguer : ce qui relève des statistiques ou de l'habitude - ce qui relève de l'analogie ou de l'apprentissage - et ce qui relève du langage ou de la culture.

Tout cela se combine dans une rationalité strictement limitée à des performances statistiquement assez efficaces mais qui ne sont pas exemptes de biais cognitifs, dont le "biais de l'optimisme" qui fait que "nos neurones nous font voir la vie du bon côté" (p78). Bien sûr, cela n'est pas le cas de tout le monde, il y a des dépressifs et des catastrophistes, mais ce sont des malades et ce n'est pas une raison pour croire que l'optimisme serait plus raisonnable. Il est juste vital mais bien trompeur, comme le montrent nos évaluations de l'avenir au regard des probabilités, supposées pourtant à la base de notre système cognitif. Ainsi, je ne trouve pas raisonnable l'insouciance actuelle sur le climat bien qu'elle soit compréhensible, la fonte du permafrost notamment est pleine de menaces et seule notre ignorance justifie qu'on ne panique pas plus, l'optimisme n'est pas de mise, comme si une providence divine allait nous sauver de nous-mêmes ! Rien à faire, la catastrophe est impensable avant qu'elle ne se produise ! Ce qui nous aveugle serait même câblé dans le cerveau, localisé dans le gyrus frontal inférieur (IFG)

C'est précisément ce biais d'optimisme que les chercheurs ont observé chez les volontaires dont l'IFG droit a été perturbé. En revanche, ce biais a disparu chez les volontaires dont l'IFG gauche a été inactivé.

Pour illustrer la nécessité de cette surconfiance du début à l'optimisme final, je peux renvoyer à la fin de mon article sur "La question du suicide" :

"L'humeur dépressive est sûrement plus décisive pour le réalisme du jugement mais aucune vie ne survivrait à cette lucidité si elle n'avait inventé de quoi nous étourdir l'esprit, pourvu que la dépression ne soit pas trop profonde justement, en oubliant tous les malheurs du monde au premier divertissement, au premier sourire, et retrouver encore une fois peut-être le goût d'apprendre et de lutter pour un monde meilleur jusqu'au jour où la magie n'opérera plus, où le corps ne répondra plus, où nous serons out, où la mort aura finalement raison de nous d'une façon ou d'une autre."

La somme de 2 statistiques peut inverser leur résultat

Lien

- La somme de 2 statistiques peut inverser leur résultat

Simpson

Les trois tableaux sont compatibles, aucune erreur ne s'est produite. Les résultats sont sans appel : chez les hommes, le placebo est meilleur que le médicament ; chez les femmes, le placebo est meilleur que le médicament. Pourtant, en regroupant hommes et femmes, le médicament produit de meilleurs résultats que le placebo. On se trouve dans un cas du paradoxe de Simpson : la fusion de données concluant individuellement dans un sens – l'inutilité du médicament testé – donne des résultats concluant dans le sens inverse.

De nombreux cas réels présentent cette inversion de résultat lorsqu'on regroupe plusieurs catégories complémentaires en une seule. Chaque année, on découvre de nouveaux exemples produisant étonnement et incrédulité. On a rencontré le paradoxe à propos des taux d'admission des filles dans divers départements de l'Université de Berkeley en 1973 : elles étaient meilleures que les garçons dans la plupart des départements de l'université, mais quand on fusionnait les résultats, leur taux général d'admission à l'université était inférieur à celui des garçons.

L'étonnement vient de ce que l'on croit que [a/b < c/d et a'/b' < c'/d'] entraîne (a + a')/(b + b') < (c + c')/(d + d'). Or aucune démonstration n'établira cette implication entre inégalités arithmétiques, puisque justement les nombres des tableaux 1-3 vérifient les deux premières inégalités et pas la troisième : 36/24 < 14/6 et 4/16 < 18/42, mais 40/40 > 32/48.

Il y a d'autres cas cités :
- un degré meilleur de réussite par catégories avec une baisse du niveau général car le nombre des meilleurs baisse par rapport aux moins bons qui progressent.
- un taux de mortalité faible malgré une espérance de vie réduite à cause du rajeunissement de la population.

En fait, ce que démontre ce paradoxe de Simpson, c'est tout simplement que les statistiques sont inconsistantes quand elles ne prennent pas les bonnes catégories. Lorsque celles-ci sont arbitraires ou trop générales, elles deviennent trompeuses faisant de la sociologie, et d'une bonne compréhension préalable, la condition de sondages pertinents. C'est un peu ce que je disais avec "de la statistique à l'organisation sociale".

Ce paradoxe ne joue que dans un très petit nombre de cas (moins de 2%) et seulement si les écarts ne sont pas trop nets mais, le plus étonnant, c'est qu'il aurait une traduction biologique, jouant un rôle (surévalué ici) dans la sélection des plus coopératifs bien que ce soit un handicap dans la compétition individuelle.

Simpson2

L'une des souches de bactérie produisait un antibiotique utile aux deux souches et l'autre en profitait sans le produire. Une situation apparemment paradoxale est apparue : les non-producteurs croissaient plus vite dans chaque groupe (ce qui n'est pas une surprise) bien qu'au total, les non-producteurs voyaient leur effectif global décroître en proportion.

Pour un biologiste, ce système est un exemple frappant de conflit entre niveaux de sélection. Les bactéries productrices du bien commun sont les bénéficiaires de l'ensemble du système quand on le considère comme un tout, alors qu'à un niveau individuel (celui auquel opère la sélection), elles sont désavantagées puisque dans chaque groupe leur proportion diminue.

Grâce aux effets du paradoxe de Simpson, un trait qui bénéficie à la population considérée comme un tout peut ainsi se trouver sélectionné, bien qu'à un niveau individuel le trait soit désavantageux. La chose est étonnante : ce qui est mauvais au niveau individuel se trouve au total favorisé par l'effet mécanique d'un paradoxe de Simpson. La réalisation concrète de l'expérience par les chercheurs démontre que cet effet sélectif paradoxal n'est pas seulement théorique, mais doit être pris en compte par les spécialistes de l'évolution. Cette dynamique doit être envisagée comme mécanisme de sélection de traits individuels favorables à la coopération et à l'altruisme.

(citation d'un encadré qui n'apparaît pas dans le lien de l'article en ligne mais seulement avec le pdf)

La peau des pommes de terre est toxique

Lien

- La peau des pommes de terre est toxique

Lisons les résultats des études récentes d'A. Aziz, T. Shibamoto et leurs collègues des Universités de Faisalabad (Pakistan) et de Davis (États-Unis). Ces chimistes se sont intéressés à deux glycoalcaloïdes (ce sont des défenses de la plante contre les ravageurs) présents dans la partie superficielle des pommes de terre : la solanine et la chaconine.

Ces deux composés sont thermorésistants : ils restent actifs après cuisson des pommes de terre, et résistent même à 285 °C. Ils provoquent gastro-entérites, diarrhées, vomissements, fièvres, modifications de la pression sanguine, syndromes neurologiques, et peuvent même tuer l'homme ou l'animal. Les autorités sanitaires ont proposé une limite de consommation de 200 milligrammes par kilogramme de pommes de terre : il a été montré que, quand la concentration en solanine est supérieure à 140 milligrammes par kilogramme, l'alcaloïde provoque un goût amer, une sensation de brûlure et, pour l'espèce humaine, la dose fatale est de trois à six milligrammes par kilogramme de poids corporel.

Même si les pourcentages sont presque toujours supérieurs aux doses recommandées, il y a peu de risques que ce soit mortel donc, mais il n'est pas bon de laisser la peau sur les pommes de terre comme l'habitude s'en répand.

Le pic de population repoussé ?

Lien

- Le pic de population repoussé ?

J'ai d'abord hésité à parler de ce qui n'est pas vraiment une nouvelle car basé sur des tendances incertaines mais il est quand même bon de mettre en doute les dernières prévisions qui étaient très optimistes sur la transition démographique accélérée de nombreux pays émergents jusqu'à parler d'un pic de population en 2050 autour de 9 milliards alors que l'ONU table maintenant sur 11 milliards en 2100. C'est en partie à cause de l'allongement de la vie que ce chiffre est revu à la hausse mais c'est aussi le rythme de développement de l'Afrique qui pourrait être moins rapide alors que c'est là que la population va continuer sa croissance.

En fait, on ne sait ce qui pèsera le plus sur les ressources, une population plus nombreuses ou l’accession plus rapide à la classe moyenne des pays les plus peuplés...

L’activité des neurones réduit la diffusion de l’eau dans cette zone

Lien

- L’activité des neurones réduit la diffusion de l'eau dans cette zone

Lors d’une activité cérébrale, le sang est rapatrié dans les régions stimulées qui demandent de l’oxygène. La RMN des protons dans ces zones se modifie en fonction du volume, du débit et de l’oxygénation des globules rouges. On peut alors cartographier les zones cérébrales actives lors de certaines séquences spécifiques, grâce à l’IRMf. Cependant, cette approche n’est pas toujours fiable et l’effet n’est pas immédiat, la modification des paramètres sanguins s’observe environ six secondes après une activation cérébrale.

Denis Le Bihan et son équipe du Commissariat à l’énergie atomique (CEA) ont choisi de développer une nouvelle méthode appelée IRM de diffusion. Cette technique permet d’observer l’activité cérébrale non pas grâce au sang mais en analysant la diffusion de l’eau. D’après des recherches récentes, la technique d’IRM par diffusion serait plus réactive que l’IRMf.

Leur travaux, publiés dans les Pnas, montrent bien que la diffusion de l’eau est une conséquence directe de l’activité des neurones.

Ainsi, lors d’une stimulation cérébrale, certaines zones du cerveau subiraient des modifications structurales, ce qui entraînerait une diminution de la diffusion de l’eau.