Newsletter 06/07

Leonard de VinciRevue des sciences du mois de juin 2007

  • Le pétrole sera-t-il bradé ?
  • Les limites des théories en économie
  • Dites NO à la dépression!
  • Le méthane, signe de vie sur Mars ?
  • 12 films sur la rétine !
  • Les robots de Bill Gates
  • Savoir qu’un autre ne sait pas peut nous aider à savoir !
  • Saturation des réseaux
  • La plus grande extinction de masse
  • L'hypothèse d'une deuxième dimension temporelle ???
  • La supraconductivité imperméable aux champs magnétiques
  • Climat, ça se gâte !
  • Un régime trop gras peut rendre diabétique
  • La Z-machine fait un pas en direction de la fusion contrôlée !
  • Un ordinateur à 10 dollars !!


Pour la Science no 356, Le méthane de Titan signe de vie ?


Pour la Science

- Le pétrole sera-t-il bradé ?, p8

Ivar Ekeland soulève le paradoxe qu'on risque d'arriver à brûler tout le pétrole disponible quelque soit notre politique en faveur des énergies renouvelable. En effet, plus ces énergies feront baisser le prix du pétrole (qui ne continuerait donc pas à augmenter comme on le croit d'habitude), plus il y aura consommation de pétrole jusqu'à ce qu'il n'y en ait plus, et ce, quoiqu'on fasse !

Il est clairement de l'intérêt des producteurs de ne plus avoir de pétrole à vendre quand il ne vaudra plus rien, et donc d'arriver au seuil fatidique avec des gisements vides.

La faille dans le raisonnement est sans doute que le pétrole deviendra plutôt un produit de haute valeur à mesure qu'il se fera plus rare car c'est un produit précieux à plus d'un titre et qu'il est absurde de brûler alors qu'on pourrait en faire des usages bien plus nobles. Il n'est pas impossible pourtant que le volume consommé ne soit pas du tout du même niveau et que les revenus des producteurs baissent dramatiquement, ce qui justifie la crainte de les voir brader leur pétrole jusqu'à la dernière goutte. De quoi s'inquiéter fortement...

Ivar Ekeland ajoute qu'une taxation n'y changerait rien car, dans la même logique, les pays producteurs baisseront leur prix pour garder une consommation élevée :

La seule différence est qu'une partie de la rente pétrolière sera transférée aux pays consommateurs, qui la prélèveront sous forme de taxe.

- Les limites des théories en économie, p14

Existe-t-il aujourd’hui des théories économiques qui rendent compte de l’état du monde ? Non, d’après Bernard Maris, professeur d’économie à l’Université Paris 8. Les rares lois établies par les économistes des XIXe et XXe siècles ont été invalidées et il n’en est plus aujourd’hui d’applicables au plan mondial. Toutefois, si l’on ne peut que constater la faillite de la macroéconomie, on doit admettre que la microéconomie se porte bien.

Dans cet interview, Bernard Maris fait un bref historique de la théorie économique à partir de la valeur matérielle des physiocrates à la valeur-travail de Adam Smith-Ricardo-Marx jusqu'à la loi de l'offre et de la demande des néoclassiques, avec l'équilibre général de Walras et l'optimum de Pareto, pour aboutir aux théories monétaires de Keynes et aux théories du déséquilibre et de l'information imparfaite de la théorie des jeux. Il montre que les dogmes libéraux sont démentis par les faits qui sont beaucoup plus compliqués que les modèles mathématiques que les économistes en font, les causes sociologiques étant trop sous-estimées. C'est pourquoi ces modèles ne s'appliquent que dans des contextes spécifiques où ils sont utilisés quotidiennement sans avoir de validité générale comme certains le prétendent encore. Rien de très nouveau sans doute mais qu'il est bon de rappeler.

Il aurait été sans doute préférable de montrer en quoi les différentes théories et les différentes valeurs s'articulent et se combinent car on ne peut dire qu'elles s'excluent comme la vérité et l'erreur mais dessinent plutôt des niveaux différents. La fixation des prix par l'offre et la demande immédiate n'empêche pas qu'à plus long terme c'est la valeur-travail qui s'impose comme valeur de référence, valeur de reproduction sans quoi elle disparaît. De même la valeur-travail n'est rien sans la valeur matérielle et l'écologie de son milieu qui en constitue la base vitale. On a affaire à différents points de vue, aux différentes temporalités, sur le même objet. C'est la même chose dans le modèle darwinien où ce n'est pas le vainqueur à court terme qui triomphera à plus long terme : il faut inclure le temps et la mémoire dans l'observation. Tout se complique encore avec l'ère de l'information et de l'immatériel où la valeur devient très volatile, non linéaire et d'ordre statistique.

Sinon, ce n'est qu'un détail, mais j'ai été assez étonné qu'il ne voit pas d'autres successeurs à Marx que les marxistes alors que Schumpeter par exemple me semble souvent faire de la paraphrase de Marx, même s'il n'est pas marxiste du tout. La réfutation par Keynes de la loi des débouchés de Jean-Baptiste Say se trouve aussi dans Marx déjà, qui montre bien que, lorsque Say prétend qu'il ne peut y avoir de surproduction, il résonne comme si on était en économie de troc, négligeant le rôle de l'intermédiaire monétaire. Il est d'ailleurs amusant de voir comme le succès d'une "loi économique" sert souvent à nier simplement la réalité (l'existence de la surproduction ou de la pauvreté ou des destructions écologiques).

- Un champignon de 9 mètres, il y a 300 millions d'années..., p27

C'était le plus grand organisme terrestre de cette époque. Etiqueté conifère dès sa découverte (...) Prototaxites serait un champignon... de 9 mètres de hauteur !

- Dites NO à la dépression !, p28

Cela fait longtemps que je suis fasciné par le monoxyde d'azote ou oxyde nitrique ou NO (voir rire et guérir) qui a la particularité d'être un gaz et d'avoir une fonction de neurotransmetteur ou de dilatation des vaisseaux. Une autre fonction du NO est reliée aux mitochondries. Le fait d'être un gaz permet une réactivité rapide avec diffusion différente aussi bien des neurotransmetteurs chimiques que des transmissions électriques. Plusieurs prix Nobel ont récompensé les recherches à son sujet, le Viagra étant l'une de leurs principales applications, mais plusieurs panacées traditionnelles favorisent sa production : le ginseng, le Sargenor et même le vin... Or on vient de découvrir que l'enzyme responsable de la production de NO avait un effet antidépresseur par inhibition de la recapture de la sérotonine.

Le monoxyde d'azote, qui a la particularité d'être un neurotransmetteur gazeux, est produit par les neurones grâce à une enzyme, la NO-synthase. Il a plusieurs effets : il dilate les vaisseaux sanguins, régule la mort des cellules, et il serait impliqué dans la mémoire.

La NO-synthase diminue l'activité du transporteur, nommé SERT, qui récupère la sérotonine dans la fente synaptique (...) En présence de NO-synthase, le transporteur est bloqué et la concentration de sérotonine dans la synapse augmente. C'est également ce qui se passe lorsque le transporteur est bloqué par un antidépresseur.

- Le méthane, signe de vie sur Mars et Titan ?, p38

Le méthane découvert dans l’atmosphère de Mars et dans celle de Titan est constamment renouvelé. Provient-il de sources biologiques ou d’une activité géologique inhabituelle ?

De toutes les planètes du Système solaire, c’est sans doute sur Mars qu’on a le plus de chances de découvrir la vie, passée ou présente. Mars ressemble à la Terre par sa formation et son histoire climatique et géologique, du moins au début. Des micro- organismes pourraient y avoir trouvé leur place. Titan, la plus grosse lune de Saturne, est elle aussi au centre des débats sur la biologie extraterrestre. Les conditions nécessaires à la formation des précurseurs moléculaires de la vie régnaient sur Titan dans son passé primitif, et certains scientifiques pensent que ce satellite a pu abriter la vie à cette époque, voire qu’elle abrite encore aujourd’hui.

Un gaz associé à la chimie du vivant, le méthane, a été découvert sur ces deux corps célestes, ce qui ravive les spéculations. Présent en quantité limitée mais néanmoins significative dans l’atmosphère de Mars, il inonde littéralement Titan. Sur Mars, sa source peut être biologique ou géologique. Dans les deux cas, les implications sont fascinantes : soit nous ne sommes pas seuls dans l’Univers, soit Mars et Titan abritent de vastes réservoirs d’eau souterrains et une activité géochimique inattendue.

Coupe de Titan                

Titan En fait il est bien peu probable qu'il y ait de la vie sur Titan malgré de grandes quantités de méthane, alors qu'il est très probable qu'il y a eu de la vie sur Mars et qu'il peut en rester un peu puisqu'on sait désormais qu'il y a de l'eau. Les quantités mesurées par le satellite européen Mars Express sont très faibles, puisqu'il y a 26000 fois moins de méthane sur Mars que sur Terre ! mais comme le méthane se dégrade, il faut malgré tout qu'il y ait une source continue de production de méthane qu'elle soit géologique ou biologique. Il est intéressant, en tout cas, de remarquer que l'atmosphère de Mars est un tout petit peu plus "vivante" que ne le croyait James Lovelock.

Une origine biologique du méthane est beaucoup moins vraisemblable sur Titan que sur Mars. Néanmoins, le caractère habitable de cette lune reste plausible La lumière solaire apporte suffisamment d'énergie pour que l'azote et le méthane soient transformés en molécules prébiotiques.

- Des films sur la rétine, p55

Contrairement à ce qu’on pensait, la rétine traite l’information visuelle qu’elle reçoit : elle envoie au cerveau 12 « films » différents. Chacun d’eux reflète une des caractéristiques des scènes observées.

Nous avons découvert que les neurones de la rétine créent des signaux que l'on peut comparer à 12 films ; chacun d'eux correspond à une représentation rudimentaire d'un aspect de la scène, en permanence mise à jour par la rétine et envoyée en continu au cerveau. Ainsi, l'un des films est un ensemble d'images qui ressemblent à des esquisses, où seuls les contours des objets sont visibles. Un autre correspond au mouvement, souvent dans une direction spécifique. certains films transmettent de l'information sur les ombres ou les régions très éclairées de la scène. Les représentations des autres films restent à préciser.

Les 12 "films" correspondent aux 12 types de cellules ganglionnaires dont les axones forment le nerf optique. C'est important pour d'éventuels yeux artificiels pour les aveugles mais c'est aussi sûrement une découverte dont la robotique devrait s'inspirer tant les performances de la vision robotique laissent à désirer. Plutôt que de vouloir traiter l'image elle-même, il vaut mieux en suivre les différentes dynamiques. Ce qui est intéressant aussi, c'est de constater que ces différents "points du vue" se constituent par inhibitions de certains signaux, un peu comme des filtres. Il faut rappeler que les reptiles par exemple ne voient que ce qui bouge, l'oeil ne pouvant voir que des changements de luminosité et si nous voyons les objets immobiles, c'est que notre oeil vibre contrairement à celui du reptile ! De même, il faut rappeler qu'on savait déjà que l'image était reconstruite dans le cerveau puisqu'elle est inversée dans la rétine et si on met des lunettes qui inversent l'image, on finit par voir quand même les choses "à l'endroit" par rapport à notre propre déplacement.

- Un robot dans chaque foyer, p76
Bill Gates

À l’instar de l’informatique il y a 30 ans, la robotique est aujourd’hui mûre pour devenir une véritable industrie et se diffuser dans l’ensemble de la société.

Imaginez une industrie qui s’appuie sur des nouvelles technologies révolutionnaires, où une poignée de firmes établies vendent des appareils spécialisés aux entreprises et où un nombre croissant de jeunes pousses produisent des objets innovants et des produits destinés à des usages spécifiques. Une industrie fragmentée, sans normes ni outils communs, où les projets sont complexes, les progrès lents et les applications assez rares. Et dont malgré l’enthousiasme et les promesses qu’elle suscite, nul ne peut dire quand, ni même si elle s’implantera à grande échelle. Mais si elle y parvient, elle pourrait changer la face du monde. Cela pourrait être le portrait de l’industrie informatique au milieu des années 1970. (...) Cette description s'applique mot pour mot à un phénomène beaucoup plus contemporain : l'émergence de l'industrie robotique, qui connaît un développement comparable à celui de l'informatique il y a 30 ans.

Microsoft venant de sortir un nouveau système d'exploitation et langage de programmation pour robots, Bill Gates veut nous persuader que nous ne pouvons plus nous passer de robots, en particulier : robot aspirateur, robot tondeuse, robot de surveillance, robot blanchisseur et, enfin, robot garde-malade ou de compagnie qui est le seul a pouvoir être plus ou moins androïde. Les autres robots devraient se fondre dans notre décor sans même qu'on sache que ce sont des robots... En fait, la véritable nouveauté, c'est que les robots sont équipés depuis peu de liaisons wifi, ce qui permet de les contrôler et les programmer par ordinateur, justifiant l'adoption d'une norme commune et d'outils adpatés.

Il est amusant de voir que Bill Gates fait référence au Basic Microsoft qui est à peu près la seule chose qu'il ait faite dans sa vie (tout le reste il l'a acheté, en premier lieu le système d'exploitation MS/DOS qui était un clone du CP/M qu'IBM voulait implémenter sur ses PC). Il fait comme si ce Basic avait été fondamental dans le développement de la micro-informatique ce qui est contestable car il était trop "basique" et pas assez performant. Le succès de la micro-informatique est venu des tableurs (VisiCalc), programmés en langage machine, et justifiant l'achat d'un micro-ordinateur (c'est ce qu'on appelle une "killer application"!), puis, un peu plus tard, du Turbo Pascal de Borland bien plus professionnel que le Basic. Lui qui se permet d'attaquer les logiciels libres et voudrait nous faire croire qu'il est à l'origine de la micro-informatique, ne doit en fait sa fortune qu'à la copie des véritables innovateurs et aux relations de sa mère avec le patron d'IBM !

La principale nouveauté du langage de programmation de Microsoft pour les robots c'est de permettre la programmation de processus concurrents : au lieu d'avoir une boucle testant les capteurs les uns après les autres, chaque capteur est traité directement par le programme qui l'interprète. Cela ressemble furieusement à la programmation par "interruptions matérielles" (un événement sur un capteur déclenche une routine en interrompant l'exécution du microprocesseur) qui n'a rien de nouveau (la gestion du clavier ou de la souris sur un ordinateur se fait ainsi, sans compter que les commandes MS/DOS utilisaient une "interruption 21"!). Certes, des outils logiciels peuvent en faciliter la mise en oeuvre. Il vaudrait beaucoup mieux pourtant que ce soient des logiciels libres et on peut s'étonner que Pour la Science offre ainsi des pages de publicité gratuite à Microsoft !

- L’incroyable problème de Freudenthal
Jean-Paul Delahaye

Savoir qu’un autre ne sait pas peut nous aider à savoir !

Sans donner les détails du raisonnement, je trouve intéressant de faire part de ce problème à cause de sa ressemblance avec l'apologue de Lacan "Le temps logique et l'assertion de certitude anticipée" qui date de 1945 et qui relie la possibilité pour l'un de savoir la vérité à l'ignorance de l'Autre (pouvoir être un homme du fait que personne ne sait ce qu'est un homme). Le problème de Hans Freudenthal (1905-1990) semble bien postérieur.

Le principe en est simple, c'est celui de l'intersection entre deux types d'information, par exemple l'addition et la multiplication de deux chiffres : en recoupant ces informations on peut déterminer les chiffres en question mais dans certains cas très particuliers on n'a pas besoin de connaître les deux informations, il suffit d'en connaître une et de savoir que l'autre information n'est pas concluante pour faire la bonne déduction. Il y a donc plusieurs temps : celui où l'information est donnée à chacun, celui où l'un dit qu'il ne peut rien en déduire, celui où l'autre avoue aussi son ignorance, puis celui où le premier déduit la solution en fonction de l'ignorance du deuxième, puis celui où le deuxième aussi déduit la bonne solution !

L'intéressant n'est pas tant le raisonnement mathématique qui ne laisse qu'une seule possibilité mais le fait que pour aboutir à cette conclusion, on a besoin du témoignage de l'autre : c'est le fait que l'autre ne puisse décider, et donc qu'il lui manque une information, qui nous permet de déduire la solution car cela élimine les configurations qui auraient été évidentes pour lui !

Rappelons la fin du texte de Lacan qui illustre ce phénomène avec 3 prisonniers qui doivent deviner la couleur qu'on leur a mis dans leur dos à la réaction des autres, à leur temps d'hésitation, au "temps de voir" et au "temps de comprendre" :

Nous montrerons pourtant quelle réponse une telle logique devrait apporter à l'inadéquation qu'on ressent d'une affirmation telle que "Je suis un homme", à quelque forme que ce soit de la logique classique, qu'on la rapporte en conclusion de telles prémisses que l'on voudra. ("L'homme est un animal raisonnable"..., etc.)

Assurément plus près de sa valeur véritable apparaît-elle présentée en conclusion de la forme ici démontrée de l'assertion subjective anticipante, à savoir comme suit :

1° Un homme sait ce qui n'est pas un homme;

2° Les hommes se reconnaissent entre eux pour être des hommes;

3° Je m'affirme être un homme, de peur d'être convaincu par les hommes de n'être pas un homme.

Mouvement qui donne la forme logique de toute assimilation "humaine", en tant précisément qu'elle se pose comme assimilatrice d'une barbarie, et qui pourtant réserve la détermination essentielle du "je"…

- De chair et d’âme, p100
Boris Cyrulnik, Odile Jacob, 2007, 255 pages

Mon admiration pour Boris Cyrulnik ne va pas tellement au thème de la résilience que pour avoir su concilier la neurologie et la psychanalyse d'une façon qui me semble très raisonnable et qui n'était pas si facile dans le climat d'exclusion mutuelle entre ces 2 dimensions inséparables de notre psychisme, réussissant à ne pas être trop réductionniste sans dénier le rôle du substrat neurologique au moins dans les perturbations de l'esprit mais en distinguant le domaine du langage ou de la relation et celui du corps ou de la biologie dans toutes leurs interactions. Voici le compte-rendu qu'en fait Bernard Schmitt dans Pour la Science :

Boris Cyrulnik nous offre une étonnante incursion dans les arcanes intriqués de la pensée, de l’amour, de la foi, de la culture et des comportements. Alliant réflexion philosophique et démonstration scientifique, ce livre s’appuie largement sur les données les plus récentes de l’exploration du cerveau afin d’illustrer la relation entre structuration mentale et structuration cérébrale.

Exposé et vulnérable, l’homme est embarqué, dès sa naissance, sur un chemin ardu semé d’embûches. Cette vulnérabilité fondamentale l’amène à négocier en permanence des compromis adaptatifs et sécurisants, capables cependant de ménager suffisamment d’espaces de liberté pour laisser le champ libre aux expériences ultérieures. Ainsi, chaque âge est marqué par ses faiblesses et ses blessures, mais trouve aussi la force de rebondir.

Cette capacité à renaître, à accéder par touches successives à la résilience (aptitude à rebondir après une épreuve) et au bonheur, toujours remise en cause et toujours à reconquérir, témoigne de l’extraordinaire plasticité du cerveau. Cette faculté tient moins au déterminisme génétique dont chacun a hérité qu’à la socialisation acquise. (...) Ainsi, la construction du bonheur passe nécessairement par l’expérience de l’agression, de l’échec, du malheur et de l’insécurité. Elle est un apprentissage permanent au travail de deuil. Sans la notion de « perte » (d’un être cher, de son intégrité physique, de ses repères sociaux…), l’individu pourrait-il grandir, espérer, guérir, aimer ?

Cette capacité d’adaptation n’est certes possible que par la mobilisation de toutes les ressources psychiques, affectives, spirituelles et sociales. Mais elle fait également appel à la capacité de modulation du fonctionnement physico-chimique du cerveau.

Grâce à l’imagerie médicale et à la biochimie, il est possible aujourd’hui de mettre en évidence des circuits et des connexions synaptiques particuliers, de même que l’allumage ou l’extinction de certaines zones encéphaliques précises, en fonction des sentiments éprouvés, des rencontres, des situations ou de l’anticipation d’événements prévisibles. La répétition des stimulus, le renouvellement de l’expérience vont permettre, grâce à cet entraînement (comparable à celui du sportif), de développer de véritables empreintes métaboliques cérébrales et de privilégier certaines voies neuronales dont l’individu tirera profit pour se forger, dans une conquête permanente, à la fois une personnalité unique et la capacité d’adaptation à un contexte écologique, social et culturel donné.

Dans la construction de ce fondamental symbolique de la mémoire, lieu intériorisé de sécurisation et de l’émotion, refuge contre toutes les agressions anxiogènes, la foi, la spiritualité et la religion jouent un rôle essentiel, au même titre que le style de musique qui nous émeut ou la langue maternelle. Ce conditionnement de la préférence sensorielle en fonction des empreintes précoces que nous avons subies constitue dès lors la constante apaisante et socialisante qui perdure jusqu’aux étapes ultimes de la vie et de la déchéance physique et psychique, quand tous les moyens de résilience s’amenuisent.

Le corps et l’âme ne sont pas liés à un destin prédéterminé : toute histoire humaine est une aventure unique qui se forge au contact de l’autre dans un ballet d’échanges d’informations multiples « sculptant des formes étranges dans la pâte à modeler de nos cerveaux » : nous avons besoin de la complexité des autres pour apprivoiser notre propre complexité grâce au développement de connexions neuronales capables de vibrer en résonance et qui conditionnent affectivité et capacité de vivre : «…mon corps est fait de votre argile » conclut B. Cyrulnik en citant Aragon.

- Les modèles du futur. Changements climatiques et scénarios économiques : enjeux scientifiques et politiques, p103
Sous la direction d’Amy Dahan Dalmedico, La Découverte, 2007, 244 pages

Sur quelles bases scientifiques se construisent les politiques climatiques ? À l’heure où le 4e rapport de synthèse du Groupe intergouvernemental d’experts sur l’évolution du climat (GIEC) est sous presse, cet ouvrage collectif offre une perspective historique passionnante sur la construction des outils de modélisation de l’économie et du climat. Il explore également les interactions de cette expertise scientifique et du processus politique de négociations sur le climat.

Le premier volet de l’ouvrage ressuscite le débat qui eut lieu dans les années 1970 sur la croissance. Les regards croisés de plusieurs spécialistes de la question rendent perceptible l’héritage de la réflexion sur le développement durable amorcée à l’époque par le Club de Rome. Ils offrent la possibilité au lecteur de comprendre les théories et hypothèses sous-jacentes aux modèles économiques et aux scénarios socio-économiques mondiaux.

Après une présentation des étapes clés de la modélisation du climat terrestre, le deuxième volet de l’ouvrage est consacré à l’utilisation de l’expertise scientifique dans les débats climatiques. La façon dont est produite l’expertise du giec est analysée ; le jeu de ses acteurs présenté et les instances internationales d’expertise et de négociation climatique expliquées. Nombre des difficultés apparaissant au cours de ces négociations sont analysées en fonction des hypothèses sous-jacentes aux modèles économiques mis en œuvre.

Enfin, le dernier volet de l’ouvrage porte sur la représentation des futurs possibles dans le débat public. Il aborde les limites de l’exercice de modélisation économique dans l’approche coûts/bénéfices pour rechercher les émissions « optimales » de gaz à effet de serre, et revendique la nécessité de construire pour les pays en développement – bientôt les principaux émetteurs de gaz à effet de serre – une approche spécifique. La manière dont l’expertise scientifique entre dans le débat public est analysée par deux exemples : le débat sur la taxe carbone aux États-Unis et le rapport de prospective Énergie 2010-2020 en France. Enfin, c’est la construction de la représentation collective du changement climatique qui est examinée à travers le prisme des médias français, des lobbies et des ONG. Cette analyse touche du doigt la difficulté de la communication sur un problème aussi complexe que celui du climat où le recours aux rouages émotionnels (peur, culpabilisation) risque de bloquer la diffusion des connaissances et l’ouverture d’un véritable débat public sur les futurs possibles.


La Recherche no 409, Extinction


La Recherche

- Les astrocytes de la soif, p16

Le rôle des astrocytes est de plus en plus réévalué. Après avoir été considérés comme un simple support physique des neurones on s'est rendu compte que les astrocytes modulaient l'activité des neurones et les contrôlaient à un niveau plus global mettant en oeuvre des liaisons à longue distance, le cerveau n'étant pas seulement un réseau de neurones mais plutôt l'imbrication de 2 systèmes en interaction. On vient de découvrir que les astrocytes seraient impliqués dans la régulation du niveau de sodium dans le corps et donc dans le déclenchement de la soif ou de l'aversion au sel par l'intermédiaire du lactate.

- Entre souris et primate, la greffe ne prend pas, p22

On avait déjà parlé des embryons homme-vache destinés à régénérer les neurones dans les maladies dégénératives à partir d'un ovocyte de vache dont on remplace le noyau par celui d'une cellule du patient pour obtenir facilement des cellules souches (mais avec des mitochondries de vache!). Cette fois, c'est la greffe réussie de cellules souches de souris pour régénérer le coeur de moutons qui avait fait espérer qu'on pourrait l'appliquer à l'homme mais l'expérience a échoué avec des babouins qui ont rejetés la greffe !

- Saturation des réseaux, p28 (Les lois de puissance expliquées)

C'est la confirmation qu'on ne peut multiplier ses relations à l'infini et même que le nombre de relations qu'on peut entretenir est strictement limité. Au point qu'on peut dire que malgré les réseaux numériques on n'entretient pas tellement plus de liens qu'avant et que, donc, les liens distants se font au détriment des liens proches.

La première explication de la loi de puissance porte le nom "d'attachement préférentiel" ; elle traduit l'idée selon laquelle on ne prête qu'aux riches. La probabilité qu'un nouveau venu dans un réseau social crée des liens avec un membre donné de ce réseau est ainsi proportionnelle au nombre de liens déjà créés par de membre. Séduisante et efficace pour expliquer la loi de puissance cette représentation a toutefois révélé des limites lors de divers observations empiriques.

Une autre idée a alors germé, "l'optimisation" : on considère que le réseau tend à devenir le plus "efficace" possible. par exemple, on cherche le meilleur compromis pour minimiser les "degrés de séparation" entre membres du réseau (le nombre d'intermédiaires nécessaires pour joindre deux membres) tout en évitant de saturer le réseau par de trop nombreuses connexions. On constate que, ainsi optimisé, le réseau obéit à une loi de puissance.

De cette optimisation émerge un phénomène d'attachement préférentiel : plus un point capte de liens avec les points qui viennent après lui, plus il a de chances d'en capter d'autres. Mieux : le modèle met en relief un phénomène dit de "saturation", qui fait qu'un point trop riche en liens finit par ne plus pouvoir en capter de nouveaux. Un phénomène qui correspond à ce qui se produit dans les réseaux où la quantité de liens que peut tisser un membre est limitée a priori.

- La plus grande extinction de masse, p30

C'est le dossier du mois. Plusieurs articles reviennent sur la plus grande extinction de masse de l'histoire de l'évolution, celle du Permien où plus de 90% des organismes vivants ont disparu.

Rien de tellement nouveau sur ce sujet déjà abordé en novembre de l'année dernière, mais confirmation de l'hypothèse d'un risque d'emballement du réchauffement climatique par libération des hydrates de méthane des fonds marins suivi d'un empoisonnement de l'atmosphère, ce qui justifie amplement qu'on y revienne.

Evidemment, il ne s'agit pas de dire que c'est sûr, ni que c'est pour tout de suite. Les incertitudes sont très grandes, c'est le seul point sur lequel Claude Allègre a raison. Il y aurait même eu, semble-t-il, des libérations de méthane, par exemple il y a 60 millions d'années, qui n'auraient pas provoqué alors d'extinction de masse (c'est douteux car plusieurs extinctions sont corrélées à ce phénomène). Etant donnée la gravité exceptionnelle de l'extinction du Permien, un seuil a dû être dépassé par conjonction de plusieurs facteurs mais il n'y a pas besoin d'être absolument certain d'une catastrophe d'une telle ampleur, ni qu'elle ne soit pas tout-à-fait imminente pour s'en prémunir dès maintenant car c'est ce que nous ferons aujourd'hui qui pourra avoir des conséquences démesurées pour les générations futures !

Il ne faisait pas bon vivre il y a 250 millions d'années, à la fin du Permien : des éruptions volcaniques intenses, un climat très rude, une atmosphère viciée, un océan sans oxygène. Est-ce la raison de la disparition de près de 90% des espèces marines ? (...) les réponses ne sont pas anodines alors que la 6ème extinction de masse a peut-être commencé...

Les causes sont sûrement multiples mais, le plus probable, c'est une activité volcanique intense suivie d'un emballement du réchauffement climatique avec augmentation du CO2 et du méthane conjuguée à une baisse de l'oxygène et un empoisonnement de l'atmosphère. En effet, le pourcentage d'oxygène a chuté fortement à la fin du Permien, après avoir plus que doublé ! En même temps la teneur en CO2 a été multipliée par 6 en quelques millions d'années. Certains supposent en plus la chute d'un énorme astéroïde mais cela reste bien douteux et superflu. Par contre, le fait que toutes les terres émergées soient réunies alors en un seul continent, la Pangée, était un facteur de diminution de la biodiversité, notamment par réduction des côtes, et donc d'une plus grande vulnérabilité de l'écosystème.

Il y a 250 millions d'années, environ 3 millions de km cubes de laves se répandirent en Sibérie, formant ce qu'on appelle des trapps (un mot suédois signifiant "escalier").

Les 5 grandes extinctions que la Terre a connues sont concomitantes de la survenue de ces énormes éruptions volcaniques, dites fissurales. Elles n'ont rien à voir avec celles plus limitées des volcans éruptifs du Pinatubo aux Philippines et du Krakatoa en Indonésie. On peut les comparer en revanche à celle du Laki en Islande. En moins de 9 mois, entre juin 1783 et février 1784, une fracture dans l'écorce islandaise libéra 12 km cubes de laves et rejeta dans l'atmosphère des millions de tonnes de gaz (dioxydes de soufre et de carbone) et de poussières. En Europe, l'été fut exceptionnellement chaud, l'hiver très rude, le nombre de décès fut exceptionnel. En se prolongeant au moins 600 000 ans (...) les éruptions sibériennes ont été beaucoup plus dévastatrices que celles du Laki.

Cette absence d'oxygène dissous dans l'eau (...) aurait favorisé la prolifération de bactéries anaérobies émettant de l'hydrogène sulfuré (H2S). Au-delà d'une quantité critique, ce poison serait remonté vers la surface, annihilant au passage la faune aérobie, puis se serait diffusé dans l'atmosphère, provoquant des pluies acides et attaquant la couche d'ozone. Les rayons ultraviolets très ionisants auraient ainsi pu atteindre en plus grand nombre le sol et augmenté la mortalité déjà très élevée des organismes terrestres, achevant le travail d'extinction (...) les volcans sont aussi, à l'instar des bactéries, émetteurs d'hydrogène sulfuré : l'hypothèse de l'empoisonnement semble d'autant plus plausible.

Sans compter qu'il faisait très chaud dans une grande partie de la Pangée. Du fait de sa géographie, elle connaissait un climat continental très rude (...) Les températures dépassaient en certains endroits 36°C en moyenne annuelle. Aux hautes latitudes, la température de l'océan était telle que les grands courants océaniques devaient être au ralenti, empêchant les eaux de se mélanger. Puis, à seulement 7 millions d'années d'écart, deux épisodes de trapps (...) De quoi donner le coup de grâce en altérant encore plus les propriétés chimiques de l'atmosphère et de l'océan. Les poussières et les aérosols soufrés éjectés ont d'abord occasionné un refroidissement général. Le CO2 a ensuite inversé la tendance en provoquant un fort effet de serre.

Nombreux sont ceux qui pensent aujourd'hui que le CO2 ne fut sans doute pas le seul gaz à effet de serre émis. Ces scientifiques pensent au méthane. Ce gaz se serait échappé des eaux océaniques, multipliant par 2 l'augmentation de température due au seul CO2.

Le méthane est un puissant gaz à effet de serre, puisqu'une molécule de méthane est 24 fois plus puissante à capter le rayonnement infrarouge terrestre que le CO2. Il est donc possible qu'un petit réchauffement climatique ait déclenché une fonte des hydrates, ce qui a libéré les méthane dans l'eau, puis dans l'atmosphère. Ce surplus de méthane atmosphérique a alors occasionné un plus grand effet de serre. Ce qui a provoqué une nouvelle augmentation de la température qui a fait fondre encore plus d'hydrates, et ainsi de suite, dans une spirale infernale.

Il y a bien eu 2 pulsations marquées dans la crise du Permien-Trias, et non une longue extinction graduelle (...) cela signifie que ce pic s'est produit aux environs de 251,4 millions d'années, sur une durée - courte - d'environ 200 000 ans.

A bien y regarder, on s'aperçoit que les animaux ayant le plus souffert sont ceux qui vivaient fixés aux fonds marins (...) dans l'ensemble, le passage du Paléozoïque au Mésozoïque s'est traduit par le passage d'une faune en majorité fixée et se nourrissant de particules en suspension à une faune mobile et se nourrissant de façon active.

Après la crise, au début du trias, l'ensemble des fonds marins était dévasté et appauvri en oxygène. Ces conditions ont favorisé la prolifération d'espèces appelées "espèces désastre", qui se plaisent dans les environnements défavorables et y prolifèrent, car sans concurrence. Au début du Trias, il s'agissait par exemple de bactéries.

Les "espèces désastre" n'ont pas survécu plus de quelques millions d'années, le temps que se reconstitue la biodiversité (et l'oxygène?). L'extinction a été surtout marine mais sur terre aussi il y a eu un renouvellement important, favorisant les animaux capables de s'adapter à d'importantes variations de températures et au manque d'oxygène (futurs dinosaures et mammifères notamment). En particulier l'étrange reptile mammalien herbivore Lystrosaurus :

La faune terrestres souffre aussi, même s'il est difficile de chiffrer les extinctions (...) Parmi les dicynodontes, seul survit Lystrosaurus (ci-dessus), apparu juste avant la limite. Par son abondance, cet animal est emblématique du début du Trias. En revanche, d'autres lignées tirent leur épingle du jeu. C'est le cas des cynodontes (ci-contre). Apparus à la toute fin du Permien, ces animaux franchissent sans encombre la limite Permien-Trias, se répandent et se diversifient. 30 millions d'années plus tard, certains d'entre eux seront à l'origine des premiers mammifères.

- La France invisible, p91
Stéphane Beaud, Joseph Confavreux, Jade Lindgaard (dir.), La découverte

Ils sont mal logés, abonnés aux missions d'intérim et aux CDD, relégués dans une zone pavillonnaire anonyme, écartés du système de soins... Leur situation est ignorée, méprisée ou enfermée dans des stéréotypes et des catégories fourre-tout (chômeurs, RMistes...). Cette immense cohorte d'oubliés constitue « La France invisible », titre de l'ouvrage collectif dirigé par le sociologue Stéphane Beaud et les journalistes Joseph Confavreux et Jade Lindgaard.

Fruit d’une entreprise peu banale qui associe des écrivains, des chercheurs et des journalistes, le livre veut "donner la parole à des personnes et des groupes peu écoutés" à travers une série de 36 portraits, récits de vie et reportages - assortis, la plupart du temps, d’un entretien avec un spécialiste de la problématique abordée. Cette plongée dans les "parts d’ombre" et les "trous noirs" du "monde social" est ensuite analysée grâce à une quinzaine d’articles savants. Sans prétendre l’égaler, les auteurs se réfèrent à la démarche de Pierre Bourdieu dans La Misère du monde, imposant travail d’enquête publié en 1993 qui donnait à entendre les souffrances de gens ordinaires.

En France, la proportion de précaires est plus élevée dans le public que dans le privé, de plus en plus de personnes ne demandent pas les prestations sociales auxquelles elles ont droit, la plupart des SDF ont une adresse, la moitié des adolescents qui se suicident sont homosexuels, les licenciés qui retrouvent un emploi connaissent presque systématiquement une perte de revenu, les femmes au foyer sont souvent des chômeuses dissimulées, un ouvrier non qualifié a deux fois et demie plus de risques de décéder avant soixante ans qu’un ingénieur...

C’est l’existence de millions d’hommes et de femmes, ceux et celles qui constituent la "France invisible", que l’on découvrira dans ce livre hors normes. La France invisible, ce sont des populations qui, malgré leur nombre, sont masquées, volontairement ou non, par les chiffres, le droit, le discours politique, les représentations médiatiques, les politiques publiques, les études sociologiques, ou se retrouvent enfermées dans des catégorisations dépassées qui occultent leurs conditions d’existence.

A la manière d’un dictionnaire des idées non reçues, La France invisible propose des enquêtes, des portraits, des témoignages et des analyses permettant de mieux comprendre une société de plus en plus aveugle à elle-même. Ce travail d’investigation sociale s’est appuyé sur un dispositif inédit, associant étroitement des journalistes et des chercheurs.

Publié à la veille de la campagne pour l’élection présidentielle de 2007, La France invisible brosse le portrait d’un pays qui ne ressemble pas à celui auquel les candidats vont s’adresser.

On frôle peut-être parfois la compassion pour les victimes dont notre temps semble faire une consommation excessive (...) le comparatisme historique et géographique eût aussi permis d'éviter de donner de temps à autres aux lecteurs l'impression que le livre participait d'un genre où se déclinent aujourd'hui le sentiment de la perte et la description du déclin. Car lecture faite, comment ne pas se poser la question : on fait quoi maintenant ? La révolution ?

- Pourquoi lire Mill aujourd'hui ?, p92

Le livre anglais dont rend compte La Recherche ce mois-ci est un livre du professeur de philosophie écossais John Skorupski : "Why Read Mill Today ?" (Routledge). Je ne suis pas sûr que les raisons données sont les bonnes mais il est certain qu'il faut lire John Stuart Mill, tout comme il faut lire Tocqueville. Les références que les libéraux actuels font de ces penseurs me semblent par contre assez scandaleuse car il ne serait pas impossible qu'ils se reconnaissent plus dans les anti-libéraux actuels (qui sont loin d'être des ennemis de la liberté) plutôt que dans les néo-libéraux dogmatiques comme Gary Becker !

John Stuart Mill est un libéral intelligent et modéré, de même qu'il est un utilitariste tout-à-fait acceptable bien loin de nos doctrinaires actuels pourfendeurs de l'Etat et de la protection sociale. J'approuve pour ma part tout-à-fait son affirmation "Le test de ce qui est bon en politique n'est pas la volonté du peuple, mais le bien du peuple", affirmation certes ambiguë mais il est certain que la dictature de la majorité est inacceptable et mène au pire, comme les fascismes l'ont illustré. Mill a eu bien raison de rappeler dans son célèbre opuscule sur la liberté que le "peuple" qui gouverne n'est pas le même que le peuple gouverné. La démocratie est donc d'abord dans les droits des gouvernés (démocratie des droits de l'homme avant l'heure). La liberté résulte pour lui de notre ignorance commune et non d'une prétendue "volonté générale" souveraine et incapable de se tromper comme le voudrait une certaine religion démocratique ! Il était attentif aux droits concrets plus qu'aux droits abstraits. De là à conclure comme l'article (et le livre?) que la démocratie est seconde par rapport au libéralisme, c'est au moins une formulation maladroite sinon fausse ! Ce dont on a besoin c'est d'une pensée complexe comme l'était celle de Mill, et que représente Amartya Sen plus près de nous, pas des slogans simplistes du libéralisme comme du populisme.

- La Mort du devin, l'émergence du démiurge, p93
Jean-Pierre Aubin, Beauchesne

Un système n'est autre chose que la disposition des différentes parties d'un art ou d'une science dans un ordre où elles se soutiennent toutes mutuellement, et où les dernières s'expliquent par les premières (...) qui rendent raison des autres. Condillac

Je ne sais ce que ça vaut et suis plutôt méfiant mais ce livre, refusé par les éditeurs depuis plus de 10 ans, prétend démontrer "au moyen de métaphores mathématiques, le dynamisme propre des organismes biologiques, économiques, sociaux et culturels à éléments disparates". C'est une pensée systémique basée sur ce qu'il appelle des "régulons" (redondants) où la rétroaction est une réponse à une question posée par le système.

Formés d'êtres vivants, nombre d'organismes biologiques, économiques, sociaux et culturels partagent des traits communs malgré la disparité de leurs éléments. Il faut alors s'attendre à ce qu'ils partagent également quelques propriétés de leur mode d'évolution. Divulguer certaines de ces propriétés découvertes à ce jour à l'aide de métaphores mathématiques est le propos de cet essai.

Les états sont les « manières d'être » de certaines variables, telles les organismes en biologie, les biens économiques en économie, les comportements des individus en sociologie, les « états cognitifs » en sciences cognitives,

Les régulons sont par exemple les gènes en biologie, les prix et autres biens fiduciaires (comme la monnaie) en économie, les régulons socioculturels en sociologie et les régulons cognitifs en sciences cognitives.

La différence entre états et régulons réside en ceci : on connaît les acteurs qui agissent sur les états, il n'existe pas de consensus sur la nature de « ceux » qui régissent l'évolution des régulons. Je fais l'hypothèse que les états évoluent en fonction de régulons. Il nous faut découvrir comment les régulons « rétroagissent » sur les états (agissent à leur tour, en retour).

- Les fruits à l'alcool encore plus antioxydants !, p98

Non seulement l'éthanol retarde le pourrissement des fruits mais il accroît leur pouvoir antioxydant. C'est peut-être ce qui rend le vin meilleur que le jus de raisin mais l'étude thaïlandaise concernait les fraises au rhum et le champagne à la mûre !



Brèves et liens



Physique


- La théorie M pourrait nécessiter deux dimensions temporelles !

Même si on n'y comprend rien, voilà un article passionnant sur une théorie assez extraordinaire, dite théorie F (Father) succédant à la théorie M (Mother) de la théorie des cordes, dont on ne voit pas bien ce qu'elle peut signifier d'une deuxième dimension temporelle ! En tout cas cette théorie pourrait être testée en particulier du fait qu'elle prédit l'existence de neutrinos droits (non observés encore) qui pourraient être des candidats pour la matière noire. Elle réfuterait aussi l'hypothétique "axion" et permettrait de tester boson de Higgs et dilaton aux énergies atteignables par le LHC.

Au cours de ses recherches sur les symétries des équations des théories des cordes, de Grande Unification et de supergravité, Itzhak Bars avait été conduit à examiner une symétrie bien particulière. Lorsque l’on considère en mécanique quantique l’ensemble des variables de position (X) et de quantité de mouvement (P) d’une particule, celles-ci doivent être remplacées par des objets mathématiques que l’on appelle des opérateurs.

On peut montrer que les équations de mouvement possèdent une invariance si l’on change X en P et inversement mais de la même façon en tous points de l’espace et du temps où se trouvent la particule. Or, les équations de la physique des interactions fondamentales sont basées sur des symétries de transformations appliquées, non pas globalement dans l’espace, mais localement. Ce sont les fameuses symétries dites de jauge basées sur des groupes de Lie.

Dans ces conditions, positions et impulsions deviendraient fondamentalement impossibles à distinguer dans les équations en chaque point de l’espace. Quelque chose de stupéfiant a commencé à émerger des calculs de Itzhak Bars, cette symétrie locale n’était possible que si l’on rajoutait une dimension spatiale de plus et une dimension de temps supplémentaire !

On passerait alors à un espace-temps à 13 dimensions, 11 spatiales et 2 de temps. Le sceptique pourra dire que cela commence à faire vraiment beaucoup d’épicycles, et il aura peut être raison. De plus, l’introduction de deux dimensions de temps peut conduire à des paradoxes avec la causalité dont certains pourraient être fatals à la théorie.

- Deux trous noirs super massifs sur le point de fusionner

Ces monstres jumeaux tourbillonnent l'un autour de l'autre, et dans plusieurs millions d'années ils fusionneront, en émettant de puissantes ondes gravitationnelles.

Les deux galaxies sont connues sous le nom collectif de NGC 6240, et sont situées à environ 300 millions d'années-lumière de la Terre.

- Quand la Voie Lactée et Andromède entreront en collision, dans 2 milliards d'années...

On peut voir aussi une vidéo.

À ce moment, le Soleil sera toujours une étoile appartenant à la séquence principale et continuera à brûler son hydrogène, mais il sera beaucoup plus lumineux et suffisamment chaud pour faire bouillir les océans terrestres. Les deux galaxies graviteront un moment l'une autour de l'autre, les forces gravitationnelles brassant leurs étoiles.

Dans approximativement 5 milliards d'années, Andromède et la Voie Lactée auront complètement fusionné pour former une galaxie elliptique unique à la forme d'un ballon de rugby. Le Soleil sera devenue une vieille étoile s'approchant de la phase de géante rouge et de la fin de sa vie. Le système solaire se situera à 100 000 années-lumière du centre de la nouvelle galaxie (contre 25 000 actuellement).

Les collisions de galaxies ne sont pas rares dans l'univers, de nombreux exemples en sont visibles. Il ne s'agit pas non plus d'évènements cataclysmiques et destructeurs, car ces univers-îles sont composés essentiellement de vide interstellaire parsemé d'étoiles, la plupart du temps séparées par de nombreuses années-lumière. Ainsi, on devrait plutôt parler d'"interpénétration", les galaxies se traversant entre elles sans rencontrer de résistance, les collisions d'étoiles y étant rares, ou même inexistantes.

- La supraconductivité imperméable aux champs magnétiques

En montrant qu'un échantillon supraconducteur perd sa supraconductivité (absence de résistance) lorsqu'il est soumis à un champ magnétique de grande intensité, les chercheurs du Laboratoire national des champs magnétiques pulsés ont montré que la résistance venait du champ magnétique créé par le déplacement des électrons. Cela pourrait permettre de se rapprocher du graal de la supraconductivité à "haute température" (-135° pour l'instant!) permettant, entre autres, une lévitation magnétique et donc un déplacement sans frottement mais on n'en pas là encore !

Ils ont soumis leurs échantillons à un champ magnétique allant jusqu'à 62 Teslas (un million de fois le champ magnétique terrestre), à très basse température (entre 1,5 K et 4,2 K). Le champ magnétique détruit l'état supraconducteur. L'échantillon, alors dans l'état normal, présente une oscillation de la résistance électrique en fonction du champ magnétique. Cette oscillation est caractéristique des métaux: cela signifie que, dans les échantillons étudiés, les électrons ont le même comportement que dans les métaux usuels.

Légende de l'illustration:
Expérience de lévitation magnétique. La voiture contient deux disques de YBa2Cu3O7 un matériau supraconducteur à haute température critique refroidi à l'azote liquide. La route constituée d'aimants crée un champ magnétique qui ne peut pas pénétrer la voiture. Tout se passe comme si le champ magnétique était un très fort courant d'air qui soulèverait la voiture. En l'absence de frottement, il suffit alors de donner une impulsion de départ à la voiture pour qu'elle avance (indéfiniment) sur la route.

- Interview de Pierre-Gilles de Gennes sur les énergies du futur, l'éducation et la recherche

Mort le 18 mai, le prix Nobel de physique 1991 Pierre-Gilles de Gennes spécialiste des matières molles, cristaux liquides, tas de sables, avait un grand souci de vulgarisation et d'enseignement, comme ici, dans un de ses derniers échanges sur le forum futura-sciences en octobre 2006. Il témoigne notamment de la nécessité de petites structures et de l'impuissance des grandes organisation à faire de la recherche ou à gérer l'innovation (que ce soit Microsoft, Intel, les laboratoires pharmaceutiques, le CNRS, etc.). On peut voir aussi quelques vidéos.

Je ne crois plus (hélas) à l’avenir de la fusion contrôlée.

Actuellement la recherche industrielle la plus féconde se fait dans de petites « start up ».

Dans mon secteur, je suis convaincu que nous avons besoin d’une recherche artisanale en petites équipes. Le problème des moyens n’est pas le plus brûlant. Nous dépensons trop d’argent sur des gros projets soutenus par des groupes de pression (ITER, SOLEIL…) et pas assez sur les postes pour jeunes chercheurs.

Climat


- Quand le climat fait trembler la Terre

La montée de la mer, suite au réchauffement climatique, favoriserait les tremblements de Terre.

- L'Arctique semble fondre trois plus vite que prévu

Une équipe américaine conteste les modèles utilisés par le Giec et estime que la fonte de la calotte glaciaire arctique est beaucoup plus rapide. Des chercheurs belges et français arrivent à la même conclusion pour les glaces du Groenland.

Selon les modèles du Giec, la surface des glaces en septembre, c’est-à-dire à son minimum estival, a décru de 2,5 % par décennie entre 1953 et 2006. Les scientifiques américains, eux, annoncent une diminution trois plus forte, atteignant 7,8 % tous les dix ans. De même, la réduction de surface au mois de mars, au maximum de l’extension des glaces, est selon eux de 1,8 %, soit, là encore, une valeur trois plus élevée que les estimations des modèles du Giec.

- Les océans bientôt saturés de dioxyde de carbone ?

Ce n'est pas assuré, mais c'est inquiétant. Le nouvelles vont plutôt vers le pire par rapport aux prévisions optimistes du GIEC.

Mauvaise nouvelle : à cause du changement climatique lui-même, la capacité des océans à absorber le gaz carbonique semble arriver à saturation. Selon des résultats récents, l’océan Antarctique, principal puits de carbone, a cessé depuis trente ans d’augmenter son stockage de carbone.

- Evolution du taux de CO2 dans l'atmosphère bien pire que prévue

Cela me semblait évident, les prévisions du GIEC étaient trop diplomatiques... Au lieu de diminuer nos émissions après Kyôto, on continue à les augmenter ! Très, très inquiétant.

Les émissions du CO2 des combustibles fossiles, cause principale du réchauffement climatique, ont accéléré globalement à un taux bien plus grand que prévu, passant de 1,1 % par an dans les années 90 à 3% par an pour la période 2000 à 2005.

L'augmentation des émissions de CO2 est plus alarmante que le pire scénario retenu par le GIEC, le groupe international d'experts sur l'évolution du climat.

- Une stratégie High-tech pour la protection du climat

Rien de bien nouveau mais rien non plus de trop excentrique (il n'y a pas de miracle!). Voir aussi le projet NanoGLOWA de capturer le CO2 par des membranes.

Les scientifiques ont en effet identifié les domaines où les technologies restent à développer : le photovoltaïque, la séquestration du CO2, les procédés de fabrication à faible émission, mais aussi la photosynthèse artificielle, les piles à combustible ou encore les moteurs à propulsion.

- On attend des tempêtes exceptionnelles en 2007

Cet été, les tempêtes tropicales seront nombreuses et plus puissantes que la moyenne. C’est ce qu’ont annoncé officiellement les prévisionnistes de la NOAA, précisant que l’accalmie de 2006 restera exceptionnelle.

Biologie


- Vers une légalisation du massacre des baleines ?

Le Japon tue plus de 1200 cétacés par an sous des prétextes scientifiques, la Norvège 600 et l'Islande 30 "seulement". Les organisations écologistes ne cessent de dénoncer ce qu'elles considèrent comme une hypocrisie et réclament la fin de ce massacre, estimant que plusieurs espèces sont en danger d'extermination. Cependant, l'inverse risque de se produire.

- Les cétacés menacés par le changement climatique

Or les cétacés qui dépendent des eaux froides (et des populations de krills qui s'y développent) sont déjà menacés par le réchauffement climatique...

D’autres conséquences projetées du changement climatique listées dans le rapport sont l’acidification des océans à mesure qu’ils absorbent des quantités croissantes de CO2, une sensibilité accrue des cétacés aux maladies, ainsi qu’une réduction de la réussite reproductive, et des taux de survie.

- Les différences génétiques avec les masurpiaux

Sur les 18 000 à 20 000 gènes (le chiffre n’est pas certain) qu’ils ont dénombrés, 15 000 sont communs à tous les mammifères.

Quant aux différences, elles résident essentiellement dans ce que l’on appelle les parties non codantes de l’ADN.

Notre petit opossum montre une différence remarquable avec les placentaires concernant l’inactivation d’un des deux chromosomes X chez les femelles. Chez les mammifères placentaires, en effet, un seul chromosome X s’exprime (ce qui signifie que les gènes qu’il porte sont effectivement utilisés), tandis que l’autre ne sert plus. Mais le choix semble se faire au hasard. En tout cas, il s’agit indifféremment du chromosome hérité du père ou de celui venant de la mère.

Chez l’opossum, c’est toujours le chromosome paternel qui est désactivé.

- Découverte d'un lien entre nutrition et synthèse de l'ADN

Confirmation de l'importance du milieu dans les mécanismes de reproduction ou de suicide cellulaire, ce qui pourrait aussi être relié aux cancers.

Le métabolisme central carboné (qui produit de l'énergie à partir des aliments) et la réplication (qui synthétise l'ADN), deux fonctions cellulaires centrales dans les domaines de la nutrition et de l'hérédité, sont étroitement liés.

Ceci aurait pour conséquence d'ajuster la vitesse de la synthèse de l'ADN et la stabilité de la machinerie réplicative à la richesse du milieu nutritif et donc à la vitesse de croissance des cellules.

Ces résultats, obtenus chez des bactéries, sont à rapprocher d'observations faites sur les organismes supérieurs, reliant le métabolisme des sucres à la transcription, l'apoptose (la mort programmée des cellules) et l'influx nerveux, afin d'ajuster l'activité de grandes fonctions biologiques à la richesse du milieu environnant.

- Un modèle de la division cellulaire

Je n'ai pas compris grand chose à ce modèle (à base de "micro-pochoirs" ??), sinon qu'il permettrait d'expliquer comment l'environnement des cellules oriente mécaniquement la division cellulaire. Cela semble un modèle plus précis que celui proposé par le livre "Ni Dieu ni gène" de Jean-Jacques Kupiec et Pierre Sonigo.

Ce sont les contraintes induites par les autres cellules, l'environnement, qui influencent la division et le positionnement des cellules filles.

Les mesures des orientations de milliers de divisions cellulaires leur ont permis de proposer un modèle mécanique de positionnement du fuseau mitotique, structure cellulaire éphémère présente uniquement au moment de la division cellulaire, basé sur l'activation de molécules "moteurs" à la surface de la cellule. Les moteurs, localisés au niveau des points de contact de la cellule avec son micro-environnement, tirent sur les microtubules astraux et orientent le fuseau. Ce mécanisme permet aux cellules d'accorder la position du plan de division avec la géométrie de leur environnement.

- L’homme aurait un odorat presque aussi performant que celui du chien
Cerveau & Psycho numéro 20

Difficile à croire tout de même (cela dépend sans doute des odeurs ?).

Contrairement à une idée reçue, l’homme aurait un odorat presque aussi performant que celui du chien.

Les volontaires devaient suivre une piste odorante laissée dans l’herbe pour trouver un objet placé à l’autre bout du pré, en se fiant uniquement à leur odorat.

Non seulement l’être humain parvient dans tous les cas à suivre la trace les yeux fermés, mais il atteint même son but de façon plus directe que le chien, qui fait des détours de part et d’autre de la trace olfactive.

Nous sommes doués d’un très bon odorat, et c’est surtout pour des raisons pratiques que nous ne l’utilisons guère : notre vue est excellente et nous suffit la plupart du temps (…) ; qui plus est, le fait d’être bipèdes ne nous prédispose pas à renifler le sol pour nous diriger !

Des études génétiques avaient montré que l’homme a beaucoup moins de gènes de l’olfaction (40 % en moins) que le singe ou la souris. On supposait donc que son odorat s’était dégradé au fil de l’évolution, puisqu’il ne remplissant plus de fonction vitale. Il semble à présent que ce type de conclusions soit à revoir.

Nous disposons d’un comparateur olfactif qui utilise les différences d’odeur perçue entre les deux narines : dès qu’on leur bouchait une narine, les personnes qui participaient à l’expérience ne parvenaient plus à s’orienter.

Santé


- Tâches domestiques n'égalent pas activités physiques

Dommage ! C'est sans doute parce que les tâches ménagères génèrent beaucoup de stress au contraire d'une pratique purement physique.

Bien que passer l’aspirateur, tondre la pelouse ou nettoyer les vitres puisse vous faire suer, il serait inapproprié d’attribuer à ces activités les mêmes effets sur la santé que la marche ou la pratique d’un sport. C’est du moins ce qu’indiquent les résultats d’une vaste enquête menée auprès de 14 836 Britanniques âgés de 16 ans et plus1.

Les chercheurs rapportent que la pratique de la marche vigoureuse ou d’une activité physique à raison de 30 minutes par jour, cinq jours par semaine, a un impact mesurable sur les facteurs de risque de maladies cardiovasculaires ou d’obésité. Selon leurs conclusions, l’accomplissement des tâches domestiques n’aurait pas cet effet.

- Mal de dos ou anémie, gérer son hypophyse !
Maxi 7, Mai 2007

Voilà ce que je n'aurais pas pris au sérieux si ce n'était signalé par une newsletter médicale ("Le serment d'hypophyse" édité par endocrino.net). Il est certain que l'hypophyse est très importante puisqu'elle commande les autres glandes, en particulier la thyroïde (mais elle est commandée elle-même par la rétroaction aux sécrétions du corps). Le lien avec le mal de dos n'est quand même pas évident, cela ressemble à de la pensée magique mais il y a peut-être du vrai là dedans :

Lorsque l’on souffre de problèmes de dos ou d’anémie, Maxi explique que l’on est sous l’influence de l’hypophyse. L’hypophyse fonctionne trop ou pas assez. Dans le premier cas, Maxi explique que «votre principal point faible, c'est votre dos ! Et quand vous exagérez une sciatique peut se réveiller (...) vous pouvez alors souffrir de périarthrite douloureuse de l'épaule, notamment à l'approche de la ménopause». Donc «si vous souffrez d'un mal de dos, il faut boire 2 litres d'eau par jour au minimum. Les traitements par acupuncture vous conviennent bien, surtout quand il s'agit de calmer vos ardeurs au travail ou à la tâche».

Lorsque l’hypophyse se montre paresseuse, il y a de «l’hypotension» dans l’air. «Vous êtes alors victime d'évanouissement. Votre coeur bat vite, même au repos. Le principal risque : les kilos en trop, un laisser aller pouvant vous conduire à l'obésité». Donc, pour celles dont l’hypophyse ne fonctionne pas assez «une fois par semaine, la prise de zinc, nickel et cobalt peut vous aider à réharmoniser le système hypophysaire».

- Vieillir en bonne santé et vivre plus longtemps grâce à la créatine ?

La créatine est déjà largement utilisée pour augmenter la force musculaire (produisant plus d'énergie), pour la récupération après l'effort ou pour augmenter le volume des muscles (par rétention d'eau). Attention, les créatines sur le marché peuvent être contaminées par des résidus toxiques ce qui en constitue le principal danger avec la déshydratation et la surcharge des reins.

Les scientifiques ont constaté que la durée de vie des animaux ayant absorbé cet additif alimentaire a augmenté de 9% en moyenne. Le Dr. Klopstock va même plus loin: "Nous avons toutefois trouvé d'autres effets positifs: les souris âgées se démarquent physiquement, en ce qui concerne la force musculaire et l'équilibre, mais aussi au niveau de la mémoire. Ceci a été confirmé par le fait qu'une plus faible quantité de lipofuscine, le "pigment du vieillissement", s'était déposée dans leur cerveau et que les radicaux libres étaient réduits".

- Les oestrogènes avant 65 ans au secours de la maladie d’Alzheimer ?

Mais, on retiendra surtout que les femmes qui utilisèrent un traitement estrogènique avant leurs 65 ans ont vu leur risque de développer une des deux affections neurodégénératives diminué de 50% par rapport à celles qui n’en firent pas usage avant cet âge. Et celles qui commencèrent l’estrogénothrapie seule après 65 ans virent le risque augmenter dans la même proportion de 50% (chiffre multiplié par 2 lorsqu’elles utilisèrent oestrogène plus progestérone). Ce résultat est d’autant plus remarquable que des études antérieures avaient montré que l’hormonothérapie débutée pendant la WHIMS augmentait le risque de survenue d’une démence.

- Les mécanismes d'apparition d'un diabète mis en évidence
Le Monde 12/05

Découverte importante si elle est confirmée : ce ne serait pas tant le sucre mais les graisses qui rendraient diabétique en provoquant une modification de la flore intestinale suivie d'une inflammation de l'intestin. A côté de cela l'identification de gènes prédisposant au diabète semble moins décisive.

Une équipe du CHU de Toulouse vient de montrer par quels processus un régime riche en graisses peut aboutir à une prise de poids et à un diabète de type 2.

Ces travaux mettent au jour des modifications de la flore bactérienne intestinale et des réactions inflammatoires. (…) L'augmentation du taux sanguin de liposaccharide déclenche une réaction inflammatoire qui entraîne le développement d'un diabète et d'une obésité chez les souris soumises à un régime alimentaire riche en graisses.

Notre étude permet de montrer que le type de régime, selon qu'il est plus ou moins gras, module la quantité d'endotoxine dans le sang, en dehors de tout processus infectieux.

Nous avons apporté la preuve que cette action inflammatoire du LPS passe par un "interrupteur", en l'occurrence un récepteur appelé CD14. (…) Lorsque l'on inhibe la réaction inflammatoire, on empêche du même coup la prise de poids et l'apparition d'un diabète chez les souris mises sous régime gras.

En résumé, le régime riche en graisses modifie la flore bactérienne et facilite le passage dans le sang du LPS. L'élévation du taux sanguin de LPS déclenche une réaction inflammatoire par le biais d'un récepteur. Cette réaction entraîne, chez la souris, une prise de poids et un diabète qu'il est possible de contrer en inhibant la réaction inflammatoire.

L'une des parades les plus efficaces serait de modifier la flore intestinale par une alimentation appropriée. Nous sommes en train de tester l'impact de fibres alimentaires et de yaourts type probiotique sur les patients à risque.

Ajoutons que, selon Sciences et Avenir, la cannelle est bonne pour les diabétiques et le curcuma possède des propriétés antioxydantes et anti-inflammatoires qui pourraient être utiles.

La consommation quotidienne de 1,3 à 6 grammes de cannelle moulue pendant 40 jours entraîne une diminution significative du glucose sanguin et de certains lipides sanguins (cholestérol total, triglycérides, cholestérol LDL). p40

Les scientifiques ont découvert dans les années 1990 qu'une supplémentation nutritionnelle en glutamine, arginine ou acides gras oméga 3 avait des effets sur l'immunité, la cicatrisation et la réponse inflammatoire. p58

- Grippe aviaire : des anticorps humains ont permis de neutraliser le H5N1
Le Monde, Le Figaro, La Croix (30/05)

Un groupe de chercheurs travaillant au Vietnam, en Suisse et aux Etats-Unis annonce avoir mis au point une méthode vaccinale permettant de protéger efficacement des souris contre une infection massive et mortelle du virus H5N1.

Ils ont réussi à produire ces anticorps antiviraux à partir de cellules présentes dans l'organisme de personnes ayant survécu à une infection par le virus H5N1.

Ces anticorps ont été testés chez 60 souris, qui ont ensuite été infectées avec des doses mortelles de la souche du virus H5N1 présente au Vietnam en 2004. Cinquante-huit de ces souris ont survécu à l'infection.

Le médicament ne sera pas en circulation avant 3 à 4 ans.

- Le radon « favoriserait le cancer du poumon »
Le Figaro, Le Parisien, Libération

Le radon peut s'accumuler dans les espaces clos et notamment dans les maisons, surtout dans les caves mal ventilées, à cause de la désintégration du radium qui vient lui de la désintégration de l'uranium naturellement présent dans les briques et les roches du sol. Le rôle du radon dans le cancer du poumon entre autres n'est pas une découverte (il suffit de faire des recherches sur Internet pour le constater) mais ce n'est pas assez connu encore.

Selon le dernier Bulletin épidémiologique hebdomadaire, « l'exposition au radon domestique serait à l'origine d'environ 9 % des décès par cancer du poumon et de 2 % de tous les décès dûs au cancer en Europe ».

Le radon est un gaz très particulier. Il y en a un peu partout, souvent à très petites doses, parfois à doses plus élevées dans certaines habitations. Inodore, il passe inaperçu.

Les mesures ont démontré qu'un nombre non négligeable de lieux publics présente une concentration en radon élevée et nécessitent la mise en place d'actions correctives.

Le défi est maintenant de communiquer ces informations à tous les acteurs et d'aider les décideurs à réaliser des actions pertinentes à tous les niveaux.

Parmi les 25 134 décès par cancer du poumon survenus en 1999 en France, entre 5 % et 12 % seraient attribuables à l'exposition domestique au radon, le risque semblant trois fois plus élevé chez le fumeur que chez le non-fumeur.

Carte du radon ou de la radioactivité granitique en France :

Technologie (énergie, nanotechnologies, robotique, informatique)


- La Z-machine fait un pas en direction de la fusion contrôlée !

Coup de chapeau à Jean-Pierre Petit, qui a été un merveilleux vulgarisateur avec ses BD de Lanturlu, mais qui s'était grillé dans le milieu d'avoir trop cru aux extra-terrestres et pourtant, sur ce coup là il avait parfaitement raison malgré tous les dénigrements : la Z machine est sans doute la bonne piste pour la fusion (le bore et l'argent du bore !) mettant à la retraite ITER avant d'avoir commencé !

La Z-machine sera-t-elle la clé de la technologie de la fusion contrôlée dans un avenir proche ? Une coopération du laboratoire Américain Sandia à Albuquerque et du laboratoire Russe HCEI à Tomsk explore cette possibilité. Un dispositif électrique, mis au point par les chercheurs du HCEI en liaison avec leurs collègues de Sandia, a été testé expérimentalement et à l’aide de simulation informatique. En liaison avec la Z-machine, il permettrait de fournir, toutes les 10 secondes, des décharges suffisamment puissantes pour maintenir le processus de fusion .

Le circuit testé, qualifié de révolutionnaire, a déjà été capable de produire des décharges toutes les 10,2 secondes plus de 11 000 fois sans aucun problème. En fait, son rôle est analogue à celui des bougies dans un moteur à explosion. Celui-ci est formé de 20 dispositifs montés en parallèle et formant un anneau.

Une révolution dans la production d’énergie mondiale pourrait bien se produire dans moins de 20 ans.

- Les voitures "intelligentes" aussi économes que les hybrides

Voir aussi vers une nouvelle génération de moteur.

Des ingénieurs de l'université australienne de Melbourne ont réalisé une étude comparative montrant que la version hybride d'un modèle donné était plus économe de 15 à 25% que la version classique, et autant qu'une voiture équipée de capteurs permettant de déterminer la circulation avec 7 secondes d'avance dans certaines conditions de trafic, avec 60 secondes dans d'autres conditions. Si la prédiction était de 180 secondes, l'économie atteignait 33%.

- Qui a tué la voiture électrique ?

Sciences et Avenir rend compte sur 2 pages (96-97) d'un DVD sorti en 2006 aux USA sur le curieux torpillage de la voiture électrique aux Etats-Unis, en particulier la Saturn EV1 de General Motors, sortie en 1996 à 1000 exemplaires et qui aurait été mise à la casse pour préserver le réseau de concessionnaires et la chaîne de service après-vente très lucrative des moteurs thermiques. Je suis un peu dubitatif sur le sabotage supposé de la filière des voitures électriques sans doute encore un peu prématurées car les performances des batteries sont encore trop mauvaises (cela devrait changer rapidement maintenant) mais il est tout de même troublant que GM ait détruit toutes ces voitures une à une jusqu'aux 78 dernières en 2005 !

A la voiture électrique, les Etats-Unis ont préféré l'hybride, où un moteur thermique et un moteur électrique se relaient ou coopèrent selon la vitesse. Elle a l'avantage de consommer plus qu'un diesel moderne, préservant ainsi la prééminence de la filière pétrole. Depuis 2003, l'administration Bush soutient (avec plus d'un milliard de dollars de subventions) l'hypothétique pile à combustible, le moteur à hydrogène liquide, garantissant aux industriels qu'aucun changement n'interviendra avant au moins 15 ans.

- Bientôt des panneaux solaires moins chers avec des boîtes quantiques ?

Tétrapodes en séléniure de Cadmium observés au microscope électronique

Il s’agit de composés semi-conducteurs plus petits que des cellules vivantes, obtenus à partir du séléniure de cadmium et qui sont plusieurs fois plus efficace pour la conversion de lumière en électricité que les boîtes quantiques ordinaires.

- Fabriquer des structures de dimensions inférieures à 10 nm

Ce n'est pas tant la solution à la fabrication bottom-up de nanostructures que le signe de ses limites...

Les approches "top-down" les plus fines qui s'appuient principalement sur la lithographie par faisceau d'électrons permettent difficilement d'élaborer des structures dont les dimensions sont inférieures à la dizaine de nanomètres. Pour aller au-delà, une équipe de l'université de Pennsylvanie (Philadelphie) propose d'utiliser le faisceau d'un microscope électronique à transmission à haute résolution.

C'est le faisceau électronique fortement focalisé jusqu'à un diamètre inférieur au nanomètre qui réalise l'ablation des atomes de métal, la précision de sa localisation étant assurée par le système de contrôle du faisceau du microscope haute résolution. En jouant sur la valeur de l'intensité du courant, on peut stopper ou reprendre l'ablation du film métallique, tout en contrôlant directement l'image de la structure ainsi réalisée.

- Des nanotubes de 2 cm !

C'est, entre autres, l'espoir de batteries-condensateurs enfin efficaces et non polluantes ? Pour futura-sciences c'est l'espoir d'un ascenseur spatial mais, ça c'est pas pour tout de suite !

Les nanotubes obtenus sont extrêmement longs comparés à leurs prédécesseurs (3 millimètres). Plus important encore pour leur fabrication, les chercheurs ont réalisé un "tapis" uniforme de 12 millimètres de large de nanotubes alignés sur un substrat de silicium de 10 centimètres, ouvrant ainsi la porte à une production à plus grande échelle.

- Les “promesses” des aliments nanotechnologiquement modifiés

Des nanogouttes de vitamines en spray et autres nutriments en nanopoudres, des nanocapsules pour “libérer” (si l’on peut dire) pesticides, fertilisants, vaccins, exhausteurs de goûts, stéroïdes et hormones de croissance dans les aliments, des nanoparticules pour y trier et éliminer produits chimiques et pathogènes, en modifier l’ADN ou prolonger la date limite de consommation, des nanocapteurs pour surveiller la présence d’agents infectieux, la température, l’humidité, la croissance… l’industrie agro-alimentaire dépense des millions de dollars en recherche et développement dans les nanotechnologies.

- L'évolution des nanotechnologies

Comme toutes les prévisions, c'est à prendre avec des pincettes. En fait, c'est surtout une échelle de complexité.

  • 2000-2005 - nanostructures passives :

cette période tire avantage des propriétés passives des nanomatériaux, qui incluent par exemple les nanotubes de carbone, les nanocouches… ;

  • 2005-2010 - nanostructures actives :

les nanostructures ici changent leur état durant leur utilisation, répondant de façon prédictive à l’environnement qui les entourent ;

  • 2010-2015 - systèmes de nanosystèmes :

des assemblages de nanosystèmes fonctionnent de concert en vue d’un but (notamment en échangeant des informations durant le processus). Ce stade est porteur d’avancées notables en robotique, biotechnologie et technologies de l’information ;

  • 2015-2020 - nanosystèmes moléculaires :

cette période inclut la conception à façon de systèmes atomiques et moléculaires conduisant à une compréhension et au contrôle sans précédent des briques de base pour toute construction générée par la nature ou par l’homme ;

- Vers les télécommunications Térahertz

On en parle depuis un moment, ces ondes infrarouges (1mm) qui permettent de voir à travers les vêtements pourraient s'ajouter aux autres communications sans fil.

- Les robots arrivent !

Pesant 4 kg, Nao - c'est son nom - vous regarde du haut de ses 57 centimètres et est capable de reconnaître ses interlocuteurs et ses amis.

Equipé des dernières technologies en matière de reconnaissance vocale et d'écriture, il peut lire votre courrier dans une vingtaine de langues et obéir à vos instructions. Quant à son regard, c'est aussi le vôtre puisqu'il peut se transformer en une webcam ultra-perfectionnée et vous transmettre tout ce qu'il voit via Internet.

Nao sera ensuite proposé au marché grand public pour un prix inférieur à 3.000 euros, et cela dès le troisième trimestre 2008.

- Un ordinateur à 10 dollars !!

Les enfants indiens pourraient bientôt être équipés de l'ordinateur (PC) le moins cher du monde. Le ministère local du développement et des ressources humaines se donne deux ans pour assembler un PC à 10 dollars. "Nous avons déjà conçu un ordinateur à 47 dollars. S'il est produit à au moins un million d'unités, nous pensons pouvoir atteindre notre objectif", explique un haut fonctionnaire.

S'il est fabriqué, l'ordinateur à 10 dollars pourrait compromettre les chances de réussite du programme "Un ordinateur portable par enfant", initié par Nicholas Negroponte, fondateur du Media Lab au Massachusetts Institute of Technology (MIT) de Boston.

- Désordination : les maux de l’e-démocratie

En inventant le néologisme de désordinateurs, Daniel Kaplan rappelait à quel point “les technologies génèrent leurs propres dysfonctionnements, leurs propres pollutions“.

La façon dont le vote électronique et les machines à voter s’installent en France est à ce titre révélateur de ce que l’on pourrait qualifier de “désordination“, qui pervertit les “désordinateurs” en ramenant la démocratie, et donc le peuple, et la nation, à des processus cybernétiques, voire déshumanisés, où l’informatique sert à “rationaliser” le lien social.

- Des réseaux de créativité contre la “fatigue de l’innovation”

Andy Grove, le co-fondateur d’Intel, estime aujourd’hui que “le terme même d’innovation, surexploité, est aujourd’hui devenu un cliché sans réelle signification“.

“L’une des plus importantes leçons apprises ces dernières années en matière d’innovation est que les sociétés ne peuvent pas le faire toutes seules. Et l’on voit de plus en plus de compagnies créer des réseaux d’innovation avec leurs partenaires et fournisseurs“. Sans, bien sûr, oublier d’observer leurs clients.

- Des avatars des morts

Pouvoir continuer à parler avec les morts...

Il y a quelques années déjà, la société Yapanda.com avait proposé de créer des chatterbots à la ressemblance de personnes disparues, et de les conserver quelques siècles sur leurs serveurs (une ambition un peu démesurée, puisque Yapanda n'a vécu que quelques mois !). A l'époque, ils envisageaient même de graver sur les pierres tombales l'url du bot du défunt...

Aujourd'hui, une nouvelle société, MyCyberTwin, s'attaque à la création de “jumeaux numériques”. Il s'agit bien évidemment là aussi d'avatars, de “chatterbots” avec lesquels on peut causer en ligne.

- Assassinat de Kennedy : l'hypothèse du deuxième tireur révélée par la science

Sans tomber dans les "théories du complot" les plus paranoïaques, il serait bien naïf de croire qu'il n'y a jamais aucun complot ("même les paranoïaques ont des ennemis"). On sait bien que l'assassinat de Kennedy à Dallas le 22 novembre 1963 a été fomenté sans doute par la mafia, en tout cas avec la complicité du tout puissant directeur du FBI J. Edgar Hoover et peut-être de Johnson lui-même (les raisons pouvant être Cuba, le Vietnam et même la taxation des puits de pétrole), mais la commission Warren avait étouffé l'affaire après l'invraisemblable assassinat de l'assassin supposé Lee Harvey Oswald ! C'est suffisamment gros pour qu'on puisse douter que cette nouvelle analyse de 3 balles tirées, bien difficile à croire, puisse remettre en cause la version officielle...

"Les conclusions de notre analyse signifient que les fragments de projectile retrouvés pourraient provenir d'au moins trois balles distinctes", affirment-t-ils, ajoutant que si trois balles ou plus ont été tirées, cela rend probable la présence d'un second tireur ayant également touché le Président.

- Des maisons écologiques et anti-sismiques pour la lune ?

Le principe en est simple. On creuse la terre, et on en remplit des sacs de toile que l'on empile soigneusement pour ébaucher la forme de la maison à construire. Ensuite, on fixe l'ensemble avec du fil de fer barbelé, et le tour est joué.

Dès que la forme est obtenue, on allume un grand feu à l'intérieur et une coquille de terre cuite extrêmement solide se forme, aussi résistante que du béton et qui supporte tout l'édifice, d'autant plus aisément puisqu'il s'agit d'un dôme.

copyleftcopyleft 

10 réflexions au sujet de « Newsletter 06/07 »

  1. Au sujet de l'article concernant Cyrulnik, la religion y est évoquée comme un refuge. De même on pourrait dire de l'effet des sectes qui proposent des schémas de fixations imaginaires favorisant une forme d'homéostasie.
    Un peu comme le skieur de compétition mimant son parcours avant de se lancer sur la piste.

    Dans une époque de déstabilisation des représentations, les effets de ces propositions venant de nouvelles religions ne sont pas négligeables et offrent, dans un premier temps, des modes de résiliences ou plutôt des façons de surmonter des phases de délien social. Seulement, les effets à termes de ces processus apparaissent discutables.

  2. à propos de l'article Bill Gates

    "... milieu des années 1970... énormes ordinateurs centraux ... dans les grandes entreprises, les ministères et autres institutions..."
    J'ai commencé en 1969 sur IBM 360 (3e génération) et ceci dans une moyenne entreprise !
    "... le langage de programmation Microsoft BASIC que nous avons élaboré dans les années 1970."
    il me semble que bien avant cela le basic existait déjà sur des mainframes (des jeux de simulation d'entreprise étaient écrits en Basic),
    de plus selon wikipedia, kuntz et kemmeny l'aient conçu en 1963
    "... le langage Micosoft BASIC a été l'un des catalyseurs de la révolution de l'ordinateur personnel."
    surtout sur Apple, Amiga, Oric, ZX80 et autres Commodores
    sans compter plus tard un Turbo-Basic

    Ce qui m'a choqué le plus dans l'article, c'est sur la gravure le robot garde-malade. Tant pis pour les contacts humains.

    Quant au multiprocesseurs, j'avais noté il y a longtemps le Transputer et son langage Occam. si quelqu'un pouvait en dire quelque chose sur la situation actuelle du transputer et de occam

    PS l'adresse de trackback est à revoir 🙁

  3. Sur les théories économiques:
    Le développement d'outils d'analyse statistiques permettant de dériver les caractéristiques de comportement de marchés dont on voudrait profiter a favorisé l'effort de création de modèles brisant la connaissance en concepts théoriques liés les uns aux autres comme des pièces de puzzle qui trouveraient leur valeur dans la quantité d'observations qu'elles pourraient théoriquement valider. La philosophie fournirait un cadre de réflexion plus complet et plus logique que celui constitué par les collections de modèles; et aussi beaucoup plus précis à travers la compréhension du langage et de l'éthique rationnelle. Socialement, on gagnerait à arriver à une définition plus précise de l'activité et de l'information de marché qui nous permettrait de mieux les intégrer dans l'ensemble de la société pour atteindre nos buts plutôt que de continuer à les considérer soit comme une bête qui ne doit pas être dérangée ou comme un ensemble d'activités irrationnels.

  4. Il n'a jamais été question que Bill Gates ait inventé le Basic, il a fait le premier basic pour micro-ordinateur (Altair) un basic qui, je crois, tenait sur 8k ce qui est tout de même un exploit mais plutôt de tâcheron, rien de très inventif là dedans, ni de très décisif. Le basic d"Apple était sans doute meilleur, en tout cas il a été plus important.

    Je ne pense pas du tout qu'il faudrait être choqué par les robots garde malade du fait qu'ils se substitueraient aux contacts humains. D'une part, c'est avoir une vision bien idéalisée des contacts humains et de la réalité des malades aujourd'hui. Il ne faut pas imaginer chaque malade avec une personne dévouée à son chevet, c'est hélas le plus souvent bien plus sordide et les rapports sont souvent exécrables voire abject mais surtout il n'y a pas forcément de substitution et plutôt du temps libéré pour de véritables rapports humains au contraire. Avec ces arguments on condamne toute technique et tout automatisme mais il ne faut pas regretter le travail à la chaîne ni les poinçonneurs des métros, on peut juste regretter qu'il n'y ait plus de présence humaine dans certaines stations à certaines heures... Un robot rend des services comme un PC ou une machine à laver, cela n'empêche pas de voir ses amis ni de rendre visite à un malade. On ne pourra sans doute plus s'en passer sans que cela empire notre désastre humain qui n'est ni nouveau ni dû aux machines...

    Je ne crois pas que le langage de programmation de Microsoft soit multiprocesseurs mais multi-processus ce qui est tout différent. Un multiprocesseurs est destiné à optimiser un processus unique comportant de nombreux calculs. Un langage multi-processus peut partager un seul microprocesseur par des interruptions matérielles. Une interruption matérielle est un signal qui vient directement au micro-processeur dont il interrompt le traitement et lance un programme correspondant au numéro de l'interruption. Dans MS/DOS cela se traduisait par une sauvegarde des registres sur la pile suivi d'un "call far" à l'adresse de base de la mémoire avec pour offset le numéro d'interruption multiplié par 4 puisque les adresses se codaient alors sur 4 octets (32 bits). Je ne sais comment ils font maintenant, cela doit être très différent.

    Sinon, merci pour le trackback, c'est corrigé !

    Sur le théories économiques, on peut penser comme Amartya Sen qu'il suffirait d'élargir la base de donnée des économistes pour prendre en compte la totalité du réel mais je pense que c'est encore une illusion, même s'il est très utile d'élargir le point de vue économique. Le problème, c'est qu'il y a différentes dimensions qui ne peuvent se ramener les unes aux autres (c'est la bêtise de la prétendue "économie du crime"). C'est parce qu'il n'y a pas de véritable autonomie de l'économie qu'elle ne peut être valablement mathématisée sans arrêt perturbée par la politique, l'histoire, la technique, l'écologie, les catastrophes naturelles, les phénomènes sociaux. Il n'y a pas de totalisation ou plutôt cette totalisation est toujours à faire, la société tend à s'instituer sans y parvenir complètement, toujours en mouvement. Comme il y a une part assez grande d'autonomie de l'économie quand même, les modèles ont leur pertinence sur des périodes de temps limité et dans un contexte donné. Par exemple, si l'homo oeconomicus est une simplification abusive, c'est par contre une vision réaliste des entreprises, des "personnes morales" commerciales et peut rendre compte de façon assez réaliste de nombreux phénomènes de marché. Toute théorie totalitaire se révélera fautive. La philosophie peut apporter ici un peu d'ordre en rappelant la hiérarchie des causes. Il faut lire pour cela Hegel, les principes de la philosophie du droit surtout. A toutes ces difficultés s'ajoute notre passage à l'ère de l'information qui rend tout chiffrage bien plus aléatoire au profit d'une productivité statistique...

  5. Merci de votre réponse, Jean. Pourquoi, et pardonnez encore ma naivité, dites-vous 'qu'il y a différentes dimensions qui ne peuvent se ramener les unes aux autres'? Bien entendu je ne prône pas la quête d'une connaissaince a posteriori complète comme celle de la base de données hypothétique d'Amartya Sen mais je crois plutôt que parmis les dimensions auquelles je pense vous faites allusion, il y aurait une dimension logique dominante (the driving force) dont l'ensemble des manifestations deviendraient beaucoup plus cohérentes à travers un cadre d'analyse plus large et plus souple (je lirai Hegel comme vous le recommendez) et qui permettrait aussi de mieux distinguer la frontière entre comportement rationnel et autres influences qui trouveraient leurs explications dans les leurs propres domaines -- culturel, politique,psychologique.

  6. Je pense effectivement qu'il est relativement naïf de croire pouvoir tout ramener à une cause dominante alors qu'il y en a plusieurs qui s'affrontent (comme la logique de l'honneur et de l'intérêt), qu'il y a des contradictions (toute existence est contradictoire) et surtout que notre rationalité est limitée :
    jeanzin.free.fr/...

    Aristote a donné ainsi une théorie de la valeur basée sur la peine assez solide (reprise par Thomas d'Aquin et par les utilitaristes) mais dont il a montré toutes les contradictions dans "les disputes entre amis" où le bienfait pour l'un constitué par le don de l'autre ne sont pas équivalents (un homme riche peut sauver la vie d'un ami pauvre par une somme faible pour le riche et considérable pour le pauvre qui ne peut rendre la pareille), ce qui va au-delà de l'impossibilité (réelle) de mesurer peines et plaisirs.

    Il y a aussi différentes temporalités. Sur le long terme on peut sans doute dégager des tendances fortes (homogénéisation du monde) mais surtout après-coup car l'avenir est très incertain et des catastrophes planétaires sont possibles ou des inventions scientifiques imprévisibles. Sur le court terme on peut dégager des rationalités de marché mais c'est l'irrationalité qui domine (la bulle immobilière actuellement...). Tout cela n'empêche pas que selon Hegel le réel est rationnel et le rationnel est réel mais de là à pouvoir le modéliser... (Hegel dit bien que la chouette de minerve ne s'envole qu'au soir, c'est-à-dire qu'on ne peut rationaliser qu'après-coup!)

  7. A propos du monoxyde d'azote, Raffarin l'avait bien exprimé dans une de ses raffarinades :

    " The yes needs the NO to win. "

  8. Article G De Gennes : le problème c'est que beaucoup de petites structures à partir d'une certaine taille essaient de mimer les grosses structures, ce qui aboutit à établir des hiérarchies bureaucratiques ne comprenant pas grand chose aux problèmes techniques mais fières de leur pouvoir de myopes.

    L'intérêt de la supraconductivité, plus que la minimisation des frottements de véhicules, c'est surtout les économies de transmission d'énergie électrique( cosinus phi ) sur longues distances, le rendement de nouveaux types de moteurs électriques et le stockage en batteries faites de supraconducteurs. Combinés à des capteurs solaires, ce serait une voie prometteuse. Seulement, les supraconducteurs actuels sont efficaces à basse température et n'étant pas des métaux et plus proches des céramiques, leur mise en oeuvre pour réaliser des cables ou bobines reste un problème.

  9. A propos de "Un ordinateur à 10 dollars !!"

    Monsieur, vous même, comme le journal Le Monde manquaient de précision quand vous parlez "d'ordinateurs". Les (projets d') ordinateurs à 10 ou 80 USD sont en fait des terminaux graphiques ("thin client") qui peuvent se connecter à un ordinateurs sous Linux (via le protocole X11), ou un ordinateur sous Windows, souvent en mode "Terminal Server" (via les protocoles RDP ou ICA).
    Plus d'informations sur Wikipedia.

    Techniquement, ces terminaux sont des PC pas très puissants équipés d'une version allégée de Linux ou Windows.

    Ce type d'équipement correspondrait à 10% du marché professionnel. Ces technologies sont peu connues en dehors de ce milieu. Elles sont déployées dans les banques, les hôpitaux, les universités, l'ONF (à vérifier) et même par l'UNICEF à Bagdad avec une liaison satellite vers le siège pour utiliser le logiciel de comptabilité de l'organisation (à vérifier).

    La sous médiatisation de cette architecture (fiable, éprouvée, dont les couts sont connus) est aussi une source de réflexion... Des analystes ont écrits des choses intéressantes à ce sujet.

    Il existe déjà des terminaux légers à 80 USD. Ce n'est donc pas un scoop.

    Dans le cas d'une connexion à un serveur sous Windows, le cout du terminal peut etre inférieur aux couts des licences de Windows. Les organisations qui s'équipent de terminaux espèrent un système plus fiable et dont le cout total de possession est inférieur à une architecture classique (avec un PC sur le bureau).

    Votre lettre d'information est très intéressante, mais cette section ("Un ordinateur à 10 dollars !!"") s'appuie sur "Le Monde", une source très peu fiable pour ce qui concerne la technologie, dont le journaliste scientifique ne comprend même pas le sens de la dépêche d'agence dont il recopie le contenu. Assez inquiétant pour un journal "De Référence". Nos médias institutionnels sont comme nos hommes politiques, ignorants des enjeux techniques, et des implications politiques.
    Navrant.

    Cordialement

  10. Merci beaucoup de ces précisions très importantes.

    Je n'y connaissais effectivement rien comme à la plupart des choses dont je parle. Le Monde devrait certes être mieux renseigné mais, pour ma part, je prends les informations où je les trouve et n'ai pas d'autres ambitions avec cette newsletter que de faire part des nouvelles qui ont retenu mon attention et d'inciter ceux que cela intéresse à aller y voir de plus près.

    Nous sommes tous très ignorants et il peut être utile de croiser nos informations. Il est vrai que je suis un peu étonné d'avoir à faire ce rôle de filtre qui devrait être plus répandu ou fait par des gens plus compétents ou avec plus de moyens mais les contributions ou correctifs des lecteurs compétents seront toujours irremplaçables.

Les commentaires sont fermés.