Vers une théorie mathématique du contenu signifiant des communications

Lien

- Vers une théorie mathématique du contenu signifiant des communications

schéma

Malgré l'intérêt évident de prendre en compte le sens, celui-ci a été exclu de la plupart des approches théoriques de l'information en biologie. En conséquence, les réponses fonctionnelles basées sur une interprétation appropriée des signaux ont été remplacées par une description probabiliste des corrélations entre les symboles émis et reçus. Cette hypothèse conduit à des paradoxes potentiels. Les modèles de l'évolution du langage inspirés de la théorie des jeux utilisent cette méthode qui est celle de la théorie de Shannon, mais d'autres approches qui envisagent des agents communicants concrets montrent que la correspondance correcte (significative) résultant des échanges entre agents est toujours obtenue et que les systèmes naturels arrivent évidemment à résoudre le problème correctement. Comment la théorie de Shannon peut-elle être élargie de telle façon que le sens, du moins dans sa forme minimale référentielle, puisse y être correctement intégré ? En s'inspirant du concept de "dualité du signe" entre signifiant et signifié tel que promue par le linguiste suisse Ferdinand de Saussure, nous présentons ici une description complète du système minimal nécessaire pour mesurer la quantité d'information utile décodée. Plusieurs conséquences de nos développements sont étudiées, comme l'inutilité d'une approche quantitative de l'information transmise correctement dans la communication entre agents autonomes.

C'est intéressant car cela sort l'information du quantitatif et de toute proportionnalité au profit du qualitatif où une seule petite information peut déclencher un changement radical, ce que l'approche statistique quantitative masque (un peu comme les sondages) ignorant la spécificité des mécanismes en jeu (des informations pertinentes). Le sémantique est cependant réduit ici au référentiel commun (perception), permettant d'éliminer l'information non pertinente définie comme un "bruit référentiel" (qu'on pourrait dire contextuel?).

Il faudrait tenir compte aussi du fait qu'une information répétée n'en est plus une. Tout cela reste basique mais ouvre un nouveau domaine et pourrait s'avérer utile pour l'intelligence artificielle ou les communications entre robots, pas seulement pour la biologie cellulaire, dont ils sont partis, ou la théorie évolutionniste du langage en fonction du changement de référentiel qu'ils invoquent. Ce qui peut nous intéresser aussi, c'est de voir comme la communication entre agents suppose un monde commun qui n'est donc pas la caractéristique du langage même si celui-ci lui donne une toute autre dimension.

Une existence digne de ce nom

WPBanksy-life-is-beautifulLa remise en cause de notre existence est à la fois la chose la plus banale et la plus embrouillée. Difficile d'en tirer les fils sans s'y perdre, marché florissant des sagesses, des religions comme du "développement personnel", sinon des philosophes médiatiques qui prétendent nous donner les clés du bonheur et nous apprendre à être nous-mêmes ! S'il y a tant de charlatans, c'est malgré tout que la question de l'exigence d'une "existence digne de ce nom" se pose et n'est pas de celles dont on se débarrasse si facilement même si elle n'a pas forcément de réponse (ou alors plusieurs).

Ce serait une erreur de réduire la philosophie à cette question de la vie bonne, comme beaucoup le font dans la confusion entre la passion de la vérité et le souci thérapeutique (ou les technologies du bien-être). Il n'empêche que la question se pose à laquelle tous les philosophes sont confrontés, s'empressant d'y répondre en général par le plaisir de la connaissance et de la contemplation ainsi que par le mépris des autres plaisirs, trop éphémères et bestiaux à leur goût - avec le souci, au nom du gouvernement de soi et de l'auto-nomie, du détachement des passions et de nous délivrer du singulier par l'universel, autant dire nous délivrer du souci de l'existence, tout au plus nous apprendre à mourir (consolation de la philosophie). De ne pas situer la vérité hors de la vie ni la réduire aux plaisirs du corps, l'existentialisme introduit une toute autre exigence d'intensité, de créativité, de prise de risque qui est sans aucun doute sa part d'irrationalisme mais peut-être pas aussi fou qu'un rationalisme qui se croirait dépourvu de contradictions (alors qu'il en vit) et resterait insensible au vécu individuel. Pour Sartre, l'existentialisme est un humanisme, ce que récusera Heidegger, mais c'est incontestablement pour l'un comme pour l'autre, une nouvelle éthique plus qu'une ontologie, dans le rapport à soi-même au lieu d'une morale du rapport à l'autre et sa liberté (comme l'avait cru Gorz). Mon récent retour sur les premiers cours de Heidegger m'a semblé en tout cas l'occasion de se confronter à cette exigence de vérité dans l'existence qui nous met face à notre liberté et à nos choix.

Continuer la lecture

Revue des sciences août 2013

  • Le temps du réalisme quantique
  • Des animaux en deuil ?
  • Le métissage des espèces humaines
  • Chaque particule crée son propre espace-temps par son mouvement
  • Un corps noir exerce une force attractive plus forte que la gravitation
  • Pas de thermodynamique à l'échelle nanométrique
  • Le dégagement du méthane arctique sera bien catastrophique
  • Des bactéries pour fixer l'azote des plantes et remplacer les engrais
  • Un appareil pour cultiver des larves de mouche à manger
  • La croissance ne dépend plus du pétrole (pas de pic) ?
  • Pas d'espèces pour les micro-organismes de moins de 1mm
  • Les passagers clandestins de l'évolution
  • Progrès de l'opto-épi-génétique pour contrôler l'expression de gènes
  • Une nouvelle compréhension de la transformation en cellules souches
  • Il suffit d'une goutte de sang pour cloner une souris
  • Une écriture chinoise vieille de 5000 ans
  • Plus de morts avant par les vendettas que par les guerres
  • L'ocytocine aggrave les chagrins d'amour
  • Des champignons hallucinogènes produisent de nouveaux neurones
  • Des chiens connectés (pour handicapés?)
  • L'Hyperloop : Los Angeles-San Francisco en 30 mn

On ne retrouvera pas dans cette revue des sciences, qui revient à l'ancienne formule [pour une dernière fois], les nouvelles extraordinaires et un peu effrayantes du mois dernier comme la greffe d'une tête sur un autre corps ou la détection des pensées de la veille mais plutôt la confirmation de mouvements de fond dont, hélas, le réchauffement climatique et la fonte de l'Arctique qui n'est pas une mince affaire. Cette fois, il ne s'agit pas de se faire peur, il faudrait vraiment paniquer car ce qui vient d'être confirmé, c'est la bombe méthane que cela devrait déclencher dans les dix ans ! On est foutu.

Continuer la lecture

Le métissage des espèces humaines

Lien

- Le métissage des espèces humaines
Michael Hammer, Pour la Science, p58

http://www.pourlascience.fr/e_img/boutique/pls_430_hybridation1_opt_w1.jpg

Longtemps contestés, des phénomènes d'hybridation entre espèces humaines, même rares, sont maintenant attestés par l'étude génétique et pourraient avoir participé à notre adaptation.

L'hypothèse n'est pas nouvelle de la transmission d'adaptations spécifiques, principalement immunitaires, entre Erectus et Sapiens. Minorer la séparation des espèces revient cependant à renforcer l'idée de l'existence de races enracinées dans leur territoire (comme l'adaptation au manque d'oxygène des Tibétains) sauf que, là aussi, on s'est beaucoup mélangé depuis, jusqu'à être tous un peu cousins. On avait rendu compte de toutes ces dernières découvertes (y compris d'un Neandertal avec des caractères Sapiens) mais, là aussi, insensiblement, c'est toute notre conception des origines qui change encore une fois presque complètement, ne pouvant plus s'identifier à un groupe unique sorti d'Afrique.

Les premières études génétiques menaient aux conclusions inverses de ne concerner que les mitochondries, transmises par les mères alors que l'ADN des chromosomes témoigne au contraire de croisements mais il est logique que l'enfant métisse soit le fils d'une mère de la tribu et d'un père étranger, pas le contraire !

L'étude des gènes montre que nos ancêtres se sont métissés avec les espèces humaines archaïques qu'ils ont rencontrées. Cette hybridation a sans doute contribué à l'expansion d'Homo sapiens.

Deux thèses évolutives s'opposent. Milford Wolpoff, de l'Université du Michigan, et d'autres chercheurs ont proposé l'hypothèse de l'origine multirégionale de l'homme moderne. D'après cette théorie, les populations archaïques se sont progressivement « modernisées » à mesure que l'arrivée d'hommes modernes et le métissage avec eux y multipliaient les traits avantageux (modernes !). Selon ce scénario, à l'issue de la transition, tous les humains partagent les mêmes caractéristiques modernes, tandis que certains traits distinctifs hérités des ancêtres archaïques persistent localement, sans doute parce qu'ils sont avantageux pour la survie dans une région.

Fred Smith, de l'Université d'État de l'Illinois, a proposé pour sa part une variante de la théorie multirégionale, selon laquelle la contribution des populations venues d'Afrique aux caractéristiques anatomiques modernes est plus grande.

À ce courant d'idées s'opposent les partisans de l'hypothèse de l'origine africaine de l'homme moderne, que l'on nomme aussi l'hypothèse du remplacement (en anglais Out of Africa, entre autres). Pour les partisans de cette théorie, par exemple Christopher Stringer, du Muséum d'histoire naturelle de Londres, les hommes anatomiquement modernes sont apparus en Afrique subsaharienne, puis ont remplacé partout les hommes archaïques sans se métisser.

Günter Bräuer, de l'Université de Hambourg, a proposé une version plus souple de cette théorie, admettant la possibilité de métissages occasionnels lors des rencontres entre groupes archaïques et modernes, quand les « Africains » abordaient de nouveaux territoires.

Pour expliquer ces observations, les chercheurs ont avancé l'idée de plusieurs métissages successifs. Tout d'abord, des hommes anatomiquement modernes sortis d'Afrique se sont croisés avec des Néandertaliens, comme on l'a évoqué plus haut. Puis les descendants de ces premiers migrants modernes se seraient déplacés jusqu'en Asie du Sud-Est, où ils se seraient croisés avec des Denisoviens. Des ancêtres doublement croisés de groupes actuels, tels les Mélanésiens, auraient ensuite atteint l'Océanie il y a environ 45 000 ans, et une seconde vague d'hommes anatomiquement modernes aurait migré vers l'Asie orientale sans se croiser avec ces ancêtres de type denisovien.

Même si ce sont les croisements hors d'Afrique qui ont suscité le plus de travaux jusqu'à présent, il est clair que c'est a priori en Afrique que les hommes anatomiquement modernes ont eu le plus de chances de se croiser avec des formes archaïques, puisque c'est sur le grand continent que la coexistence entre espèces a duré le plus longtemps.

Un morceau de type néandertalien de la région dite HLA (Human Leukocyte Antigen) du génome semble être présent à une fréquence relativement élevée dans les populations eurasiennes, à la suite d'une sélection naturelle positive liée à son rôle dans la lutte contre les pathogènes. Sans doute ne devrions-nous pas être surpris de trouver des contributions archaïques contenant des gènes qui renforcent l'immunité. Il est facile d'imaginer que l'acquisition d'une variante d'un gène procurant un avantage pour résister aux pathogènes locaux ait avantagé les lignées d'hommes anatomiquement modernes qui l'acquéraient.

Pour autant, les génomes des populations actuelles semblent dériver pour l'essentiel d'ancêtres africains, et les contributions des Eurasiens archaïques au génome eurasien moderne semblent plus modestes que ne l'impliquent la théorie d'une évolution multirégionale et celle d'une assimilation [...] Que ces métissages aient été rares après la sortie d'Afrique des hommes modernes me paraît clair [...] Pour ma part, je suis en faveur d'une théorie prenant en compte un métissage des espèces pendant la transition des formes archaïques à la forme moderne. Ce scénario tient compte de la possibilité que certains traits qui nous rendent anatomiquement modernes soient hérités de formes transitoires (entre formes humaines archaïques et modernes) aujourd'hui disparues.

Tout cela n'empêche pas qu'il y a bien un goulot d'étranglement génétique aux alentours de -70 000 ans, ce qu'on attribue à l'éruption du Mont Toba en -72 000 et l'hiver volcanique qui s'en est suivi bien que cela ne semble pas avoir touché beaucoup d'espèces (macaques, tigres, orangs-outangs). Pour l'instant on continue de penser qu'au moins la population hors d'Afrique descend quand même d'un tout petit nombre de Sapiens sortis d'Afrique vers ces dates, qui se seraient rapidement (150 ans) scindés en 3 groupes (séparés par une nouvelle glaciation), et qui auront simplement bénéficié ponctuellement du métissage avec des populations locales plus archaïques mais mieux adaptées. Pour ce qui s'est passé avant, on fait même état de métissage avec des chimpanzés ou bonobos, on peut donc parler d'une évolution buissonnante bien que ces croisements restaient sans doute très rares mais cela n'empêche pas une contribution décisive à la sélection, notamment dans la protection des maladies locales, brouillant la question des origines.

 

Cependant, cette reconstruction historique suggère fortement qu'un croisement avec Neandertal aurait apporté une peau blanche permettant la conquête des pays du Nord, et pourtant il semble que non, la mutation n'étant pas la même et datant juste d'un peu avant le Néolithique (11000-19000 ans), notre blanchiment ayant donc été une conséquence de la pression du milieu et non ce qui aurait permis de l'investir. A priori, l'hypothèse d'une origine unique de notre humanité semble la plus évidente mais si elle résulte vraiment d'une amélioration des performances cognitives et d'une sélection de l'adaptabilité, elle doit ses caractéristiques au changement de milieux plus qu'à sa généalogie spécifique, pour finalement devenir un General Problem Solver. De quoi rendre beaucoup moins absurde l'idée d'une évolution multirégionale (par exemple de la main pour tailler les pierres). De même que nos sociétés modernes sélectionnent les capacités exigées pour survivre et se reproduire, avec des effets sur la génétique de l'ensemble de la population mondiale, de même notre adaptabilité n'est pas dans notre patrimoine génétique le plus archaïque, elle n'est pas liée à notre milieu d'origine mais à l'épreuve de brusques changements climatiques, notamment. Tout cela n'empêche qu'il y a, grossièrement au moins, une généalogie de l'homme moderne mais rien d'originel ni même de véritablement génétique dès lors que le langage et l'outil deviennent déterminants, dont le caractère culturel ne fait aucun doute (la culture immatérielle se substituant au matériel génétique). On aurait plutôt une agrégation de traits convergeant vers un stade cognitif supérieur (de l'outil à l'agriculture, c'est à dire la production de son milieu et donc la colonisation de tous les milieux, jusqu'à l'ère de l'information actuelle et de l'exploration planétaire).

Le dégagement du méthane arctique sera bien catastrophique

Lien

- Le dégagement du méthane arctique sera bien catastrophique

"Une libération brusque de 50 milliards de tonnes de méthane est possible à tout moment".

Des milliards de tonnes de méthane sont piégés juste sous la surface du plateau continental arctique de la Sibérie orientale. La fonte de la région signifie qu'elle est susceptible de produire à tout moment un dégagement gigantesque de gaz qui pourrait avancer le réchauffement climatique de 35 ans, et coûter l'équivalent du PIB mondial.

Telles sont les conclusions de la première analyse systématique du coût économique de la fonte de l'Arctique.

Ils ont calculé qu'une émission de 50 milliards de tonnes serait possible d'ici une décennie, à partir des zones connues de fonte du permafrost et de failles géologiques. Puisque le méthane est un gaz à effet de serre 25 fois plus puissant que le dioxyde de carbone, un tel scénario devrait déclencher une «catastrophe climatique» avec une augmentation de 12 fois la teneur en méthane de l'atmosphère et une augmentation des températures de 1,3˚C.

Un relâchement de 50 milliards de tonnes de méthane dans l'atmosphère devrait avancer de 15 à 35 ans la date à laquelle la hausse des températures sera supérieure à 2˚C.

Cela fait longtemps que je considère la bombe méthane comme la principale menace, très sous-estimée par le GIEC et la censure des prévisions trop catastrophistes. Ce n'est pas seulement l'effet du réchauffement global mais aggravé par un changement du régime des vents. Alors même qu'on se berce d'illusion avec une apparente pause des températures forcément démobilisatrice, on ne voit pas comment on pourra éviter cette catastrophe annoncée, et c'est à très brève échéance...

Pas de thermodynamique à l’échelle nanométrique

Lien

- Pas de thermodynamique à l'échelle nanométrique

Il n'y a rien de plus logique que les lois de la thermodynamique ne soient pas applicables à l'échelle atomique dès lors que ce sont des lois statistiques. L'augmentation de l'entropie n'est rien d'autre que la probabilité qu'un ensemble tende vers son état de plus grande probabilité si rien ne l'en empêche, ce qui n'a aucun sens au niveau d'un atome isolé. A ce niveau, on a affaire à l'autre sorte d'entropie liée à la transformation de l'énergie (par frottement, réaction chimique, décohérence, etc.) et qui n'est pas du même ordre que l'entropie statistique. Ce que cette étude montre, c'est que ce type d'entropie est beaucoup plus irréversible que l'entropie statistique, ce qu'ils attribuent à des effets quantiques.

La distinction entre ces deux types d'entropie n'a pas été assez soulignée jusqu'ici, il est bon que cela devienne un problème de physique à l'échelle nanométrique. Les auteurs qui ont essayé de récupérer l'énergie mise dans un moteur nanométrique n'ont pu que constater des pertes bien plus importantes qu'au niveau macroscopique, une plus grande irréversibilité (ce que désigne le mot entropie). Ils en concluent que des moteurs nanométriques seraient forcément très dispendieux en énergie ce qui ne tient pas compte d'autres phénomènes dont on pourrait tirer parti à cette échelle mais disqualifie sans doute les moteurs thermiques à cette échelle.

Les chercheurs ont découvert un ensemble de lois qui déterminent ce qui arrive à ces systèmes microscopiques lorsqu'on les chauffe ou les refroidit. Une conséquence importante de leurs lois, c'est qu'il y a une irréversibilité bien plus fondamentale dans les petits systèmes, ce qui signifie que des moteurs thermiques microscopiques ne peuvent pas être aussi efficaces que leurs homologues plus grands.

Avec les grands systèmes, si vous mettez de l'énergie dedans, vous pouvez récupérer toute cette énergie pour alimenter un moteur qui peut effectuer un travail (comme soulever un poids lourd). Mais les chercheurs ont constaté que ce n'était pas le cas pour les systèmes microscopiques. Si vous mettez en œuvre un système quantique vous ne pouvez généralement pas tout récupérer.

La "Thermodynamique à l'échelle microscopique est fondamentalement irréversible. Ceci est radicalement différent de grands systèmes où tous les processus thermodynamiques peuvent être largement réversibles si on change ces systèmes assez lentement".

Plus de morts avant par les vendettas que par les guerres ?

Lien

- Plus de morts avant par les vendettas que par les guerres ?

Une des choses les plus étonnantes et contrariant les contempteurs de la civilisation, c'est la découverte que les sociétés traditionnelles étaient bien plus meurtrières que nos sociétés modernes avec leurs armes de destructions massives et leurs guerres mondiales comptant les morts par millions. Le mythe rousseauiste de l'homme originaire en prend un coup tout comme la nostalgie des anciennes communautés. Il n'est pas question de revenir à ces temps barbares un peu trop idéalisés. Les liens communautaires ont un prix, notamment le prix du sang qui empoisonne les familles avec des vendettas sans fin. Il faudrait réaliser à quel point ces moeurs primitives étaient inacceptables et toutes les libertés que nous avons gagnées dans nos sociétés pacifiées, certes non sans multiples autres défauts.

L'étude qui compile les compte-rendus ethnographiques ne trouve en tout cas qu'un pourcentage de 15% de morts dans les guerres entre tribus, elles aussi rituelles, comme pour maintenir leurs identités propres, mais moins meurtrières que les règlements de compte internes. Ce n'est d'ailleurs guère différent aujourd'hui où la plupart des meurtres se font encore en famille...

Ce n'est sans doute pas une raison de minimiser l'importance de guerres qui seront de plus en plus décisives à mesure que civilisation et richesses se développeront (depuis le Néolithique et surtout depuis l'invention de l'écriture, du bronze, du fer, des chevaux), sans forcément augmenter le nombre de morts par violence, donc. Il n'est pas mauvais cependant de ne pas réduire l'origine de la violence au rejet de l'autre ni aux phénomènes de groupe. Il faut souligner aussi comme ces vendettas n'ont rien de "naturel", plutôt entièrement "culturelles", relevant d'une arithmétique des morts qui est entièrement prise dans le langage.

Une écriture chinoise vieille de 5000 ans

Lien

- Une écriture chinoise vieille de 5000 ans

Les Chinois ont toujours revendiqué l'ancienneté de leur civilisation mais leurs dynasties mythiques et le manque de traces archéologiques faisait douter jusqu'ici de leurs datations qui ne paraissent plus aussi fantaisistes puisqu'on vient de trouver ce qui ressemble à une écriture primitive seulement quelques siècles après les premières écritures sumériennes.

Les inscriptions trouvées sur des objets, au sud de Shanghai, seraient à peu près de 1.400 ans antérieures à plus ancienne trace écrite de la langue chinoise jusqu'ici.

L'une des pièces comporte six formes de mots comme enchaînés, ressemblant à une courte phrase.

"Ils sont différents des symboles que nous avons vu par le passé sur des artefacts. Leurs formes et le fait qu'ils aient l'air de phrase indique qu'ils sont l'expression d'un sens."

Les six personnages sont disposés en ligne, et trois d'entre eux ressemblent au caractère chinois actuel pour les êtres humains. Chaque symbole comporte de deux à cinq traits.

"Si cinq à six d'entre eux sont enchaînés comme dans une phrase, ce ne sont plus des symboles, mais des mots".

"Si vous regardez leur composition, vous verrez qu'ils sont plus que des symboles".

Pour l'instant, les chercheurs chinois ont convenu d'appeler cela une écriture primitive, un terme vague qui suggère que les marques de Liangzhu sont quelque part entre les symboles et les mots.

- Les idéogrammes chinois sont des signes divinatoires

Les plus anciens idéogrammes, datés du 16° siècle av. JC, avaient été trouvés sur des carapaces de tortues ou autre support divinatoire. On comprend bien l'intérêt de fixer matériellement des prédictions et celles-ci ont eut un rôle aussi dans l'invention de l'écriture au Moyen-Orient et les débuts de l'astrologie mais vite supplantée par l'usage administratif. Ce n'aurait pas été le cas en Chine, la thèse de Léon Vandermeersch dans son dernier ouvrage, "Les deux raisons de la pensée chinoise" (sous titré "Divination et idéographie") étant qu'elle aurait été inventée sous le règne de Wu Ding (13° siècle av. JC) spécifiquement pour la divination. C'est ce qui expliquerait que les idéogrammes chinois se distinguent bien sûr de l'écriture alphabétique mais aussi des hiéroglyphes par leur composition structurée (on voit cependant qu'elle devait s'inspirer d'une "écriture primitive" divinatoire antérieure à sa normalisation étatique).

Pour Léon Vandermeersch, l’origine et la spécificité de l’écriture chinoise réside dans le fait qu’elle invente des inscriptions d’équations divinatoires. Ce n’est que bien plus tard, au VIII° siècle de notre ère, que l’écriture chinoise, au travers diverses transformations que nous pourrions qualifier d’idéographisation en écho à la grammatisation, s’est généralisée comme une pratique d’écriture qui retranscrit la parole.

"Lettré" en chinois se dit "ru", étymologiquement "faiseur de pluie" ; or la danse chamanique a survécu comme danse pour faire tomber la pluie.

J'avais souligné il y a longtemps que la civilisation chinoise avait conservé des aspects chamaniques qui pourraient donc se retrouver dans son écriture. De là à vouloir opposer le chamanisme des chinois à une supposée théologie occidentale, cela semble un peu simplet (encore l'affrontement des essences alors que la science est universelle).

A lire aussi, sur le même blog, le billet plus ancien sur l'écriture comme grammatisation de la langue, invention technique apportant une réflexivité, un savoir de la langue impossible avant, la grammaire étant auparavant inconsciente.

Chaque particule crée son propre espace-temps par son mouvement

Lien

- Chaque particule crée son propre espace-temps par son mouvement

Pour le spécialiste de la gravitation à boucle, Jerzy Lewandowski, conformément à la relativité générale, chaque particule massive aurait son propre espace-temps dont la caractéristique la plus étonnante est qu'il serait orienté en fonction du mouvement de la particule et non pas identique dans toutes les directions (isotropie) comme pour un photon sans masse (et comme nous concevons l'univers).

Des nuages pour sauver le corail ?

Lien

- Des nuages pour sauver le corail ?

Devant les risques du réchauffement pour le corail, un climatologue propose d'envoyer de l'eau de mer dans les nuages pour les rendre plus réfléchissants et protéger les coraux situés en-dessous.

Il y a déjà eu une proposition de géoingénierie "locale" consistant à protéger le pôle Nord qui représente la menace principale actuelle mais on avait vu que cela renforcerait la sécheresse en Afrique. De même, les nuages sur la barrière de corail auront des effets ailleurs mais un critique pointe surtout le risque que, pour une raison ou une autre, la production de nuages s'arrête produisant alors un choc thermique fatal à coup sûr cette fois !

Retour à l’origine de la pensée de Heidegger

OntologieLa parution des premiers cours de Heidegger est un événement important pour comprendre les origines de sa pensée, lui qui prônait justement de toujours revenir à l'origine pour se délester de tous les discours qui la recouvrent. Cela permet aussi de se réconcilier avec les problématiques qu'il a mises au jour, et qui alimenteront toute la période existentialiste, avant leur contamination par la période nazie (et même s'il fréquentait déjà les cercles réactionnaires et pangermanistes). De quoi mieux comprendre à quel point son parcours s'enracine dans la théologie (notamment Luther et Kierkegaard bien qu'il soit lui-même catholique "à l'origine" O22), ce qui expliquerait la religiosité de ses partisans, ainsi que ce qui l'oppose radicalement à la phénoménologie dans laquelle il s'est pourtant formé comme assistant de Husserl. Celui-ci est en effet accusé de scientisme, à viser une certitude impersonnelle, alors qu'il s'attache lui-même à la temporalité de l'existence et son historicisme vécu (nébulosité éloignée d'idées claires et distinctes), assumant sa finitude et son point de vue dont nul ne saurait s'abstraire. Ce qui est mis ainsi en valeur, c'est le rapport direct et personnel de chacun à l'histoire, historicité de l'être-là humain comme ouverture aux possibilités du moment (être dans un monde).

Continuer la lecture

L’illusion démocratique

Les révolutions arabes sont confrontées à la perte des illusions sur la démocratie et plus généralement aux limitations du politique. Il faut dire que les illusions ne manquent pas, ici comme là-bas, sur une démocratie qu'on s'imagine toute puissante et pouvant décider de la société dans laquelle on veut vivre, ce qui veut dire forcément imposer son mode de vie aux autres. C'est assez clair avec les tentatives d'islamisation des pays arabes comme de la Turquie (sans parler de l'Iran), mais ce n'est guère différent de nos démocrates révolutionnaires, de droite comme de gauche, qui s'imaginent remodeler la société française s'ils arrivaient à gagner une majorité aux élections. Cette conception d'une démocratie majoritaire est celle des totalitarismes et doit être abandonnée pour une démocratie des minorités qui n'est pas l'incarnation dans le vote d'une supposée volonté générale mais l'instrument de la démocratisation de la société. C'est ce qu'on pourrait sans doute appeler une démocratie libérale sauf que pour mériter son nom de démocratie, elle ne peut oublier sa dimension sociale.

A quoi sert de faire la révolution alors se diront tous ceux qui veulent tout changer sinon rien ? A changer le personnel dirigeant, au moins, ce qui est souvent plus que nécessaire comme on le voit mais ne va pas beaucoup plus loin effectivement car les réalités ne changent pas qui s'imposent aux beaux discours et il ne suffit pas de faire étalage de sa bonne volonté ou de sa bonne foi pour savoir gérer un pays. Quand ça ne marche pas, le pouvoir est renversé fût-il démocratiquement élu. Il faut s'en persuader malgré la mythologie révolutionnaire, la démocratie n'est que le pire des régimes à l'exception de tous les autres, juste une façon de pacifier les conflits. Non seulement ce ne sont pas les meilleurs qui sont élus (ce sont les plus ambitieux, les plus habiles, les plus démagogues), mais on ne peut décider de tout, et même de pas grand chose en fait (moins qu'avant en tout cas). Pour le comprendre, il faudrait comprendre que le fonctionnement d'un système dépend assez peu de nous et qu'il y a des phénomènes sociaux qui nous dépassent comme il y a une évolution du monde irréversible (notamment technologique). Il n'est pas possible d'imposer la charia dans les pays musulmans, pas plus qu'on ne pourrait décider ici d'un monde sans musulmans. Il n'est pas vrai qu'on puisse mettre tous les étrangers dehors, ni fermer nos frontières, ni changer toute l'économie. Tout cela est pur fantasme et verbiage prétentieux. Ce n'est pas que certains autocrates ne tentent de forcer le destin, mais cela ne peut qu'empirer les choses. Ce qui est curieux, c'est comme ces prétentions de dicter sa loi ne posent pas question, malgré l'expérience séculaire de la démocratie, pas plus que l'idée que le monde devrait être conforme à nos souhaits, ce qu'il n'a jamais été, comme s'il n'avait pas d'existence propre et ne dépendait que de nous par devoir moral dirait-on. On fait comme si sa dérive était toute récente par rapport à un état antérieur idéalisé, témoignant simplement ainsi d'avoir un peu trop cru à la propagande officielle quand on était petit.

Continuer la lecture

L’Hyperloop : Los Angeles-San Francisco en 30 mn

Lien

- L'Hyperloop : Los Angeles-San Francisco en 30 mn

On avait déjà parlé de ces projets de transports ultra-rapide sur le principe des canons magnétiques dans un tube sous vide mais si on en reparle, c'est parce que Elon Musk, le milliardaire de Tesla Motors qui veut envoyer des hommes sur Mars, s'investit dans ce projet, qui n'est pas nouveau puisqu'il daterait de 1972 et reste encore flou.

Le VHST commencerait par accélérer jusqu'à sa vitesse maximale, avancerait en roue libre pendant un moment et finirait par ralentir. L'énergie cinétique utilisée pour accélérer serait restituée au moment de la décélération grâce à la récupération de l'énergie.

EN 1972, la Rand Corporation avait déclaré avoir envisagé une vitesse potentielle de 22 530 km/h. A cette allure, le trajet Los Angeles-New York ne prendrait que 21 minutes.

Le VHST devrait nécessairement être souterrain. Les tunnels seraient donc l'obstacle majeur à la réalisation du projet.

Action à distance sur des particules intriquées

Lien

- Action à distance sur des particules intriquées

Quantum_remote_control

C'est assez extraordinaire, témoignant comme de petits progrès techniques peuvent mener soudain à un bouleversement total. Ainsi, après qu'on ait appris à piéger des particules intriquées en les préservant de la décohérence, on s'est aperçu qu'on pouvait même les soumettre à des variations continues de champs magnétiques faibles sans briser l'intrication, ce qui permet dès lors de modifier immédiatement à n'importe quelle distance l'autre particule intriquée (ce qu'on appelle téléportation).

Ce n'est pour l'instant qu'une proposition théorique et il reste bien des limitations mais on voit comme ce qui était considéré impossible pour toujours devient soudain possible...

Des « plâtres » imprimés en 3D plus légers et esthétiques

Lien

- Des "plâtres" imprimés en 3D plus légers et esthétiques

Léger, aéré, lavable et mince grâce à son squelette en polyamide (un polymère), contrairement à un plâtre, il pourrait même être réutilisé.

Il s’agit de prototypes fabriqués à partir de radiographies et scanners. Parfaitement adapté au bras du porteur, il suffit de l’imprimer en deux morceaux puis de les souder.

Revue des sciences juillet 2013

Continuer la lecture

Des lunettes pour manipuler des objets en 3D

Lien

- Des lunettes pour manipuler des objets en 3D

Le logiciel développé par Atheer Labs pourrait permettre à des lunettes connectées de servir pour des conférences vidéo avec des gens comme s'ils étaient réellement dans la salle avec vous ou de jouer à des jeux 3D véritablement interactifs.

Ce sont essentiellement des caméras qui servent de capteur de profondeur pour détecter les mouvements de la main et des doigts.

"Dans quelques années, vous pourrez aller au restaurant et laisser une petite note en l'air qu'un ami pourra voir quand il viendra".

Le blocage du récepteur B1R contre l’Alzheimer

Lien

- Le blocage du récepteur B1R contre l'Alzheimer

C'est la première fois qu'un traitement semble pouvoir guérir de l'Alzheimer et inverser ses symptômes en réduisant l'inflammation cérébrale.

Les chercheurs ont découvert dans le cerveau de souris atteintes de maladie d'Alzheimer une plus grande concentration d'un récepteur appelé bradykinine de type B1 (B1R), lequel intervient dans l'inflammation. "En administrant une molécule qui bloque sélectivement l'action de ce récepteur, nous avons observé des améliorations importantes de la fonction cognitive et de la fonction vasculaire cérébrale".

Ces résultats montrent qu'une plus grande concentration du récepteur B1R est associée à des plaques de protéine bêta-amyloïde chez des souris atteintes d'Alzheimer et de déficits de mémoire. Ils montrent aussi que le blocage chronique du récepteur B1R améliore nettement l'apprentissage et la mémoire, la fonction vasculaire cérébrale et plusieurs autres caractéristiques pathologiques de la maladie d'Alzheimer chez des souris qui ont une pathologie pleinement développée. Tous ces résultats confirment un rôle du récepteur B1R dans la pathogenèse de la maladie d'Alzheimer et le rôle de la neuro-inflammation en tant que mécanisme fondamental de la maladie d'Alzheimer.

Métaux étranges intriqués et théorie des cordes

Lien

- Métaux étranges intriqués et théorie des cordes

Outre la découverte (pour moi) des "métaux étranges" ("non liquide de Fermi") et l'utilisation de la théorie des cordes ou des branes (notamment de sa dualité) pour résoudre des problèmes de la matière condensée (alors qu'on pensait que la théorie des cordes ne servait à rien), ce que je trouve le plus intéressant, c'est que l'intrication (massive) puisse être à l'origine de propriétés physiques comme la supraconduction ou les variations atypiques de la résistivité de cet état particulier de la matière. De quoi renforcer l'hypothèse de von Neumann d'une entropie d'intrication.

Les métaux et les supraconducteurs mettent en jeu un très grand nombre d'électrons, de l'ordre de 1023 pour un échantillon typique. Et, dans certaines conditions, le phénomène d'intrication semble s'établir au sein de cette multitude d'électrons. L'étude de ces matériaux devient alors si complexe que les outils mathématiques que nous utilisions sont insuffisants.

Le principe de « dualité » permet de relier des théories des cordes qui semblent différentes. Un phénomène peut s'interpréter dans une théorie ou dans une autre, et un catalogue d'outils permet de traduire les aspects d'une théorie pour les interpréter dans l'autre. Par exemple, en 1997, Juan Maldacena, alors à l'Université Harvard, a mis en évidence une dualité entre des théories fonctionnant là où les effets quantiques sont faibles mais la gravité forte, et des théories utilisées quand les effets quantiques sont importants, mais la gravité faible.

Les conducteurs, les isolants et les supraconducteurs correspondent à diverses phases de la matière. Dans chaque cas, l'essaim électronique revêt une forme différente. Ces deux dernières décennies, les physiciens ont découvert encore d'autres phases électroniques dans les solides. Un exemple, pourtant très intéressant, n'a même pas de nom : par défaut, les physiciens le nomment « le métal étrange ». Il est caractérisé par une résistance électrique qui varie de façon inhabituelle avec la température par rapport aux métaux ordinaires.

Il est possible d'observer une transition de phase à zéro kelvin, entre l'état supraconducteur [paires de Cooper] et un état nommé « onde de densité de spin » [spin haut et bas alternés]. La modification du point de transition de phase (le point critique quantique) – en dopant le matériau ou en exerçant sur lui une pression pour changer la distance entre les atomes –, permet d'obtenir un nouvel état si l'on augmente la température : le métal étrange.

Si la quantité de dopant augmente, la régularité de l'onde de densité de spin diminue; Elle disparaît pour la quantité critique de 30% d'arsenic remplacé par du phosphore. Le spin de chaque électron a alors autant de chance d'être haut ou bas. L'onde densité de spin n'existe plus, mais le matériau devient supraconducteur. Si on maintient le dopage de 30% et que l'on augmente la température, une nouvelle phase apparaît, celle des métaux étranges.

Près du point critique quantique, les électrons ne se comportent plus indépendamment ou même par paires, mais deviennent intriqués en masse. Le raisonnement que nous avons appliqué à deux électrons s'étend maintenant à 1023 particules. Deux électrons voisins sont intriqués l'un avec l'autre ; cette paire, à son tour, est intriquée avec les paires voisines, et ainsi de suite, créant un énorme réseau d'interconnexions.

Quand les électrons des cristaux ont un degré limité d'intrication, on peut encore se les représenter comme des particules (soit des électrons simples, soit des paires). Mais quand beaucoup d'électrons deviennent fortement intriqués, on ne peut plus conserver l'image de particules, et la théorie classique peine à prévoir ce qui se passe. Dans notre nouvelle approche, nous décrivons ces systèmes en termes de cordes qui se propagent dans une dimension supplémentaire d'espace.

Le degré d'intrication peut être mathématiquement considéré comme une distance selon une dimension spatiale supplémentaire. Deux particules peuvent être éloignées dans l'espace ordinaire, mais leur proximité dans la dimension supplémentaire reflète leur intrication.