Newsletter 12/06

Leonard de VinciRevue des sciences du mois de décembre 2006

  • Un monde de flou !
  • Les virus, inertes ou vivants ?
  • Animal ou végétal ?
  • Les espèces
  • Entre gènes et environnements
  • D'un sexe à l'autre
  • Les degrés de la conscience
  • La frontière classique-quantique
  • L'irresponsabilité climatique
  • Intrication quantique entre lumière et matière
  • Les gènes du sexe
  • Trous noirs et nouvelle relativité espace-temps
  • Un "effondrement vers la vie" ?
  • Une interface cerveau-machine commercialisée dans 5 ans ?
  • Nouvelles cellules photovoltaïques
  • La sécurité informatique n'est plus assurée...


C'est la physique qui est à l'honneur ce mois-ci avec une meilleure compréhension de la décohérence quantique et une confirmation du caractère holographique de notre univers mais on s'intéressera aussi aux incertitudes de la science et de la sexuation. Il faut dénoncer enfin l'irresponsabilité de certains chercheurs par rapport au réchauffement climatique !


Pour la Science no 350, Les frontières floues


Pour la Science

- Un monde de flou !, p38

Dossier très intéressant sur les frontières floues, la limite insaisissable entre différents concepts ou différents états (entre grand et petit, inerte et vivant). Combien de grains pour faire un tas de sable, combien d'arbres pour une forêt ? Les frontières ne sont plus assurées entre les espèces, entre virus et bactéries, entre animal et végétal, entre Homme et singe, entre gènes et environnements, entre le monde quantique et le monde classique (décohérence), entre sexes ou degrés de conscience, d'un état de la matière à l?autre, voire, parfois, entre amateurs de science et scientifiques...

Alors que les sciences sont fondées sur l'exactitude mathématique, il est fondamental de reconnaître non seulement la marge d'erreur, la définition limitée des mesures, mais surtout la fluctuation du réel lui-même (pas seulement au niveau quantique) et la multiplicité des configurations qui échappent aux limites du concept, à toute définition rigide. Il y a toujours des exceptions qui ne rentrent pas dans les cases. Les frontières ne sont pas des discontinuités totales, immédiates et sans épaisseur, rupture brutale d'un processus continu, mais des zones chaotiques et floues entre deux états (du moins à une échelle rapprochée, de loin le flou s'estompe).

Lorsqu'en plus on fait usage de termes vagues comme celui de "tas de sable", on tombe dans ce que les Grecs appelaient "paradoxes sorites" (sorite vient de "tas", ce sont les "paradoxes du tas"). C'est le problème plus général du passage de la quantité à la qualité qui n'est pas absolument exacte mais comporte une incertitude "quantique", un temps de réaction, les transitions de phase étant des phénomènes non-linéaires. Cela implique qu'on ne peut se fier à la pure déduction logique sans tomber dans des sophismes. D'où l'importance de l'expérience. La question des limites est d'autant plus importante que les sciences se spécialisent et que la physique se divise en plusieurs "théories effectives" selon le niveau d'observation choisi et l'horizon des événements considérés. La logique floue peut être utile pour exprimer le degré d'incertitude des savoirs sans pouvoir le réduire (pas plus qu'on ne peut dépasser le caractère probabiliste de la physique quantique). On voit en tout cas qu'il est vain de vouloir éliminer les imprécisions du langage et les paradoxes logiques, même dans le domaine scientifique et qu'il vaut mieux en tenir compte pour ne pas tomber dans le dogmatisme et l'erreur...

Quelques extraits du dossier :

Mimivirus

- Les virus, inertes ou vivants ? Ali Saïb, p60

Plus qu?elles ne répondent à cette interrogation, les découvertes récentes replacent les virus dans une position d?arbitre : ne sont vivants que les organismes qui sont infectés par un virus !

La biologie, ou science de la vie, est l?étude des êtres vivants et des interactions qu?ils établissent avec d?autres ou avec l?environnement. Partant, le biologiste se doit de distinguer ce qui est vivant de ce qui ne l?est pas. Cette frontière entre la matière inerte et le vivant est également l?objet d?études d?autres disciplines scientifiques, telles la chimie ou la physique, et reste un sujet de réflexion pour philosophes et religieux. Intuitivement, nous savons distinguer ce qui est vivant de ce qui ne l?est pas : un arbre, un animal sont vivants, un caillou, un livre ne le sont pas. Cette dichotomie qui semble aisée au niveau macroscopique se complique à l?échelle microscopique. Pour nous aider, rappelons les caractéristiques généralement admises pour qualifier un organisme de vivant. Aujourd?hui, plusieurs définitions coexistent, toutes évoluant au gré des progrès des connaissances. Sans tendre à l?exhaustivité, dressons la liste des dénominateurs communs à la plupart des écoles. Ainsi, une entité serait vivante si elle peut utiliser ou créer de l?énergie, si elle se reproduit, si elle échange avec le milieu extérieur, si elle répond à des stimulus, si elle croît, s?il peut exister une variabilité génétique distinguant la génération parentale des descendants. Sur ces critères, les bactéries sont des organismes vivants.

Les virus sont considérés en général comme n'étant pas vivants mais c'est moins clair sur certains virus (par exemple le Mimivirus aussi grand qu'une bactérie). Comme les virus sont sûrement à l'origine de l'ADN et s'intègrent parfois au génome de leur hôte (rétrovirus entre autres), ils sont inséparables de la vie, de son évolution et en constituent au moins une des conditions externes (pour l'échange de gènes par exemple), tout comme les constituants de la cellule. D'où la définition (douteuse) qui est donnée de la vie : pouvoir être infecté par un virus ! Le virus constituerait ainsi l'information génétique circulante, et la vie serait l'information structure, la mémoire génétique, le récepteur pour lequel l'information virale fait sens. Ce que ne dit pas l'article, c'est que la vie, c'est le monde de l'information (flux d'information et réseau systémique de boucles de contrôle des flux d'énergie et de matière), cependant cette définition est aussi problématique depuis qu'on a des machines de traitement de l'information et des systèmes automatisés qui ne sont pourtant pas vivants !

Il n'y a pas si longtemps, le feu était considéré comme une entité vivante puisque celui-ci répondait aux principaux critères du vivant. il se propage et se reproduit grâce à des étincelles, il répond à des stimulus externes comme le vent. Il est doué d'un métabolisme, consumant de l'oxygène et produisant des déchets (...) De même, un cristal croît, mais n'est pas vivant, alors qu'une mule incapable de se reproduire est une organisme vivant. Aussi, définir la vie par une liste de propriétés est une entreprise vaine.

- Animal ou végétal ? Une distinction obsolète, Marc-André Selosse, p66

Algue, champignon, végétal, animal... Ces termes sont utiles dans le langage courant, mais ne sont fondés que sur des ressemblances acquises indépendamment par divers organismes : ils ne reflètent donc aucune parenté évolutive.

Les bruits les plus inquiétants circulent à propos du monde vivant ! On dit que « les champignons ne sont plus des végétaux », d?aucuns affirment que « les algues n?existent plus ». Élucubrations ? Non, ces affirmations sont pertinentes pour le taxonomiste, qui classe les organismes. Ces 20 dernières années, ce que l?on croyait acquis a été chamboulé et l?on ne sait plus trop quoi classer au sein des végétaux, un label dont les limites paraissent aujourd?hui bien incertaines. Les animaux, que l?on opposait aux végétaux, deviennent eux aussi un groupe aux frontières floues. Pour y voir plus clair, nous explorerons la classification actuelle des organismes eucaryotes, ceux dont les cellules ont un noyau (tout le vivant sauf les bactéries) afin d?esquisser les contours que l?on peut encore donner aux végétaux : nous verrons alors que, même avec des critères larges, il est difficile de faire des végétaux un groupe homogène. Puis nous reviendrons sur les limites de l?opposition animal/végétal : force sera de constater que rien de bien tranché ne sépare les deux règnes.

endosymbiose

De plus, les phénomènes d'endosymbiose brouillent encore plus les cartes puisque, comme des poupées russes, on peut avoir un type de cellule intégrant un autre type de cellule qui elle-même peut intégrer une cellule d'un autre type encore... Il peut se produire aussi des phénomènes de convergence, tout comme la perte d'anciennes caractéristiques. La place des champignons est problématique, plus près de l'animal que du végétal mais il y a bien d'autres organismes difficiles à classer.

Ainsi, même en écartant les champignons, la distinction animal / végétal a surtout valeur descriptive et n'a pas de sens pour celui qui s'intéresse à la classification. Les résultats, souvent contre-intuitifs, de la classification phylogénétique dessinent une histoire évolutive pleinement réversible qui accumule des différences entre organismes apparentés, mais crée aussi d'étonnantes ressemblances entre organismes non apparentés. La symbiose y occupe un rôle majeur.

- L?espèce : entre stabilité et évolution, Philippe Lherminier, p74

dimorphisme sexuel Contrairement à ce qu'on croit ni l'aspect extérieur (il y a notamment un dimorphisme sexuel qui peut être considérable), ni la fécondité (un lion et un tigre peuvent donner un tigron) ne suffisent à définir une espèce qui reste insaisissable à cause de la diversité génétique et de son évolution constante, sa dérive génétique. On peut dire de l'espèce ce que Bergson disait de la durée dans ce qui l'oppose aux vérités éternelles comme à une volonté immédiate, cet équilibre fragile et mouvant dont l'avenir n'est pas donné.

Darwin déclarait vaines les recherches auxquelles donne lieu le terme d?espèce. En effet, cette notion se dérobe à toute tentative d?encadrement : ressemblance, descendance et interfécondité sont insuffisantes pour décrire ce qu?est une espèce, un concept certes utile, mais flou.

Nous ne pouvons imaginer un monde sans espèces, un monde où la variation des êtres vivants serait quelconque, imprévisible et anarchique. Nous ne pourrions plus dire : « Le lion est noble et l?aigle fier », « Le chien est l?ami de l?homme », car ces mots n?auraient pas de sens. Un monde de clones est tout autant inimaginable : un peuple entier d?individus identiques de traits, de désirs, de jugements et de sexe serait d?une monstruosité angoissante. Dans la fiction du hasard des formes, les relations se dissolvent, la ressemblance est fortuite, la lignée imprévisible et le couple absurde ; dans la fiction du clone, règne l?identité, la plus pauvre des relations. Elles manquent d?un équilibre entre des ressemblances harmonieuses et des différences modérées. En un mot, il manque l?espèce, qui se situerait à la frontière des deux mondes.

Un autre article sur la différenciation entre le singe et l'Homme montre qu'il est problématique de trouver un trait propre à l'homme en dehors de la bipédie permanente... (du moins en tant qu'espèce biologique car sinon c'est le langage qui nous spécifie vraiment mais un extra-terrestre n'ayant aucun matériel génétique commun avec nous serait l'un des nôtre si on pouvait se parler. Bien sur le langage est relativement tardif). Bien qu'on sache maintenant que les chimpanzés utilisent des outils, il me semble que l'usage intensif d'outils diversifiés reste quand même le meilleur marqueur de l'humanité en paléontologie, la spécificité humaine étant sans doute surtout la confection de parures et l'utilisation d'armes, en commençant par le jet de cailloux.

- Entre gènes et environnements, Jean-Claude Ameisen, p88

Ameisen

La frontière entre gènes et environnement, entre inné et acquis s?estompe. Notre histoire et notre environnement modulent la façon dont nous utilisons nos gènes.

Au milieu du XVIIIe siècle, deux théories de l?hérédité s?affrontaient. La théorie de la préformation postulait que toute la descendance à venir était déjà préfigurée, depuis l?origine, dans l??uf, sous forme de minuscules individus. Selon la théorie de l?épigenèse, chaque embryon émergeait et se construisait de façon singulière en fonction de son héritage et de son environnement. Un siècle plus tard, la théorie darwinienne de l?évolution donnait à l?hérédité une signification nouvelle, en proposant que ses variations discrètes à chaque génération étaient non seulement à l??uvre dans l?émergence de la singularité de chaque individu, mais aussi, sur des temps beaucoup plus longs, dans la naissance d?espèces nouvelles. Puis la découverte des gènes, de leur nature moléculaire ? l?ADN ?, de l?universalité du code génétique, et ensuite l?essor de la génétique moléculaire et la création d?organismes génétiquement modifiés ont radicalement changé notre compréhension du vivant.

Aujourd'hui, on assiste selon les mots du biologiste français Henri Atlan à "la fin du tout génétique". L'idée d'une frontière absolue entre gènes et environnements - entre inné et acquis - commence à s'estomper. Elle cède la place à une notion plus riche et plus ouverte : celle d'une interaction permanente des gènes et de leurs environnements.

Non seulement les gènes n'ont pas d'intentions, mais ils ne sont pas non plus des acteurs : ils représentent, pour les cellules qui les contiennent, un répertoire de possibilités et de contraintes. Et leur utilisation varie en fonction des circonstances.

La notion réductrice, mais populaire, de "programme génétique" est une notion ambiguë : "Il s'agit d'un programme", a écrit H. Atlan, "qui a besoin des produits de sa lecture et de son exécution pour pouvoir être lu et exécuté..."

Notez que, là encore, l'utilisation d'un mot comme "programme" qui semble bien représenter la fonction de l'ADN est source de fausses évidences, recouvrant tout ce qui différencie une cellule vivante d'un programme informatique. La représentation est toujours inadéquate et trompeuse par quelque côté, le réel ne pouvant s'approcher que par vérifications successives.

Réseaux de gènes, de protéines, de cellules, d'organes, d'individus, d'espèces, réseaux écologiques : à chacun de ces niveaux, où émergent des interactions nouvelles, la plupart des éléments se révèlent, selon les mots de Pascal, "choses à la fois causantes et causées". Les chaînes de causalité sont multidirectionnelles, avec des effets de rétroaction, d'amplification ou d'inhibition. "L'intérieur et l'extérieur s'interpénètrent" a écrit le généticien américain Richard Lewontin "et un être vivant est  la fois le lieu et le produit de cette interaction". Le plus souvent, l'extérieur compte autant que l'intérieur, l'environnement autant que les gènes, l'acquis autant que l'inné, et, dans l'espèce humaine et dans certaines espèces animales, la culture autant que la nature.

Dans leur immense majorité, les maladies graves les plus fréquentes dans nos pays - cancers, maladies cardio-vasculaires, maladies neurodégénératives - sont davantage liées à nos environnements et à nos modes de vie qu'à nos gènes.

Le plus étonnant, c'est une certaine "hérédité épigénétique", c'est-à-dire la transmission des caractères acquis, l'exemple donné étant celui de l'influence d'une souris stressée sur ses souriceaux qui seront stressés à leur tour...

- D'un sexe à l'autre, Colette Chiland, p96

Drag queen

Un homme a un corps d?homme et le sentiment d?être un homme ; de même pour une femme. Les intersexués ont des caractéristiques biologiques des deux sexes, et les transsexuels n?ont pas l?impression d?appartenir à leur sexe biologique. Dépourvu d?ambiguïté, dans certains cas, la frontière entre le masculin et le féminin est floue.

L?identité sexuée est le sentiment que nous avons d?être un homme ou une femme. Ce sentiment paraît aller de soi et découler du fait qu?on a un corps d?homme ou un corps de femme. Mais les faits sont plus compliqués? Tout d?abord, il existe des « intersexués », c?est-à-dire des personnes qui présentent une ambiguïté quant à leur sexe, toutes les caractéristiques biologiques mâles ou femelles n?étant pas présentes. Ensuite, il existe des personnes « transsexuelles » qui, en l?absence de tout signe décelable d?intersexuation, ne se sentent pas appartenir à leur sexe biologique et demandent un « changement de sexe » à l?aide d?hormones et de chirurgie, suivi d?un changement d?état civil. Enfin, il existe des « trans » ou « transgenres » qui militent pour un libre choix du sexe, voire pour la disparition de l?identité sexuée à l?état civil au profit d?une identité indifférenciée.

Une méthodologie valable ne doit exclure ni le corps ni l'environnement. Il est difficile de concevoir que l'identité sexuée dans l'espèce humaine puisse résulter uniquement de phénomènes cérébraux et biologiques, alors que l'importance des facteurs culturels est évidente.

Dans le culturel, il faut compter le désir de l'Autre, la structure familiale et les représentations sociales. Il est certain que notre époque est celle d'un certain "Gender trouble", avec le règne de l'unisexe depuis la libération des femmes et de l'homosexualité. Toutes les cultures jusqu'ici ont accentué au contraire la différenciation sexuelle. On y reviendra peut-etre.

- Les degrés de la conscience, Steven Laureys, p100

IRM

Plusieurs états indiquent une perte de conscience : le sommeil, l?évanouissement, l?anesthésie, le coma. L?étude de l?état végétatif souligne combien les limites de la conscience sont incertaines, mais aussi combien il est urgent de les explorer.

L'état végétatif, un syndrome qui peut suivre le coma, est un éveil sans conscience. Cela peut être une étape vers la récupération, mais c?est parfois un état qui dure des années. Le coma correspond à une absence d?éveil et donc de conscience. L?état de conscience minimale est un éveil avec des ébauches de conscience. Le sommeil normal est un état sans conscience, qui peut durer plusieurs heures, mais où la conscience peut-être rappelée rapidement, la vigilance revenant après stimulation. L?évanouissement (ou syncope) est une perte de conscience de courte durée, souvent due à une baisse trop forte de la pression artérielle. L?anesthésie est une perte de conscience provoquée, où l?éveil et, par conséquent, la conscience sont annihilés tant que les substances anesthésiantes sont actives. Ainsi, les « absences de conscience » chez l?homme sont protéiformes. Leur essence même varie. Les frontières entre ces différents états sont floues et, plus encore, le passage de l?état conscient à l?état non conscient dans ces différents scénarios.

En collaboration avec A. Owen, nous avons récemment étudié une patiente âgée de 23 ans en état végétatif depuis un accident de voiture. A notre grande surprise, nous avons constaté une imagerie mentale intacte chez cette patiente post-traumatique en état végétatif (...) Lorsque nous lui avons demandé d'imaginer qu'elle jouait au tennis, les aires cérébrales motrices se sont activées de la même façon que chez des sujets sains. lorsque nous lui avons demandé d'imaginer qu'elle se promenait dans sa maison, nous avons à nouveau vu des activations spécifiques dans le réseau de la représentation spatiale. Ainsi, l'imagerie cérébrale fonctionnelle a révélé que la patiente, bien que cliniquement en état végétatif, comprenait la tâche et l'exécutait de manière répétée : cette expérience attestait sans ambiguïté que la perception consciente subsistait.

Ce dialogue avec un cerveau déconnecté du corps est fascinant. Je trouve très insuffisants les abords de la conscience (que je définirais par l'intentionalité qui cherche des informations pour arriver à ses fins, ce qui implique une certaine conscience de soi, ou de réflexivité, et l'unité de la volonté qui se règle sur l'extérieur dans une boucle de rétroaction) mais l'article aborde la question par le fonctionnement cérébral (structures postérieures médiales surtout) et les états pathologiques, ce qui est indispensable aussi.

- La frontière classique-quantique, Michel Brune, p106

frontière

décohérence

Comment passe-t-on de la physique quantique à la physique classique ? Une horloge que l?on peut mettre dans un état quantique ambigu ? elle avance et retarde en même temps ? permet aux physiciens d?analyser cette transition floue entre deux comportements de natures très différentes.

Si un romantique, tel Alfred de Musset, exclut qu?une porte soit à la fois fermée et ouverte, alors, a fortiori, un réaliste aussi ! Sauf si ce réaliste est un physicien quantique constructeur de portes quantiques. On nomme ainsi d?étonnants systèmes microscopiques, qui, en effet, ressemblent à des portes à la fois ouvertes et fermées. Pourquoi la nature se livre-t-elle à pareilles facéties ? Du point de vue scientifique, la question n?a ni sens ni réponse. En revanche, on peut se demander comment la nature s?y prend. L?enjeu est d?importance, car le monde macroscopique que décrit la physique dite classique est constitué d?atomes, de molécules et d?autres particules : des systèmes microscopiques qui obéissent tous à la logique quantique. Alors, comment cette accumulation de comportements quantiques produit-elle les propriétés classiques, celles de la matière à notre échelle ?

Le passage du monde quantique au monde classique, c'est le problème de la décohérence, c'est-à-dire de la réduction (ou de l'effondrement) de la fonction d'onde lors d'une mesure, d'une interaction où ce qui était une simple probabilité parmi d'autres s'actualise soudain, ce qu'illustre la fameuse histoire du "chat de Schrödinger" qui ne peut être à la fois vivant et mort alors qu'une particule quantique, elle, peut parfaitement être une superposition d'états, de spins opposés par exemple (ce qui se traduit par une combinaison d'ondes inversées qui s'annulent partiellement). Dans le monde quantique tout s'additionne mais il ne s'agit que de probabilités... En tout cas, contrairement à un dogme de la physique quantique (voir plus bas), il y a bien perte d'information puisque ce qu'on appelle décohérence, c'est "un processus de fuite d'information vers l'environnement qui détruit les superpositions d'états".

Comment se produit cette décohérence ? Il se trouve qu'un seul photon perdu dans l'environnement, par exemple par diffusion sur un des miroirs de la cavité, emporte avec lui assez d'information pour distinguer entre deux états, ce qui détruit l'état de superposition créé. Pour un champ microscopique, ne contenant qu'un seul photon, le temps de décohérence est donc la durée de vie d'un photon. Ce temps n'est rien d'autre que le temps de décroissance de l'énergie du champ, en d'autres termes le temps pendant lequel l'oscillation de la cavité perdure.

Nous avons constaté que le temps de décohérence varie comme la durée de vie d'un photon divisée par le nombre de photons présents. Ce résultat est essentiel, et peut être compris par un argument très simple : de même que la probabilité de pêcher un poisson dans un lac est proportionnelle au nombre de poissons présents, la probabilité de perdre un photon dans son environnement est N fois supérieure quand il y a N photons à perdre que quand il n'y en a qu'un !

La façon dont la décohérence nous fait sortir du monde quantique apparaît donc clairement : pour un champ classique macroscopique, contenant un grand nombre de photons, la décohérence est si rapide qu'elle ne laisse aucune chance aux superpositions quantiques de type "chat de Schrödinger" de se manifester.

On peut dire que plus on est dans les grands nombres et plus il y a de chances qu'une interaction fixe les choses, moins il y a de chances aussi que plusieurs particules basculent en même temps dans une configuration alternative. Les probabilités ne sont pas conservées car les degrés de liberté ne sont pas les mêmes au niveau individuel et pris en masse, où ce qui compte ce sont les relations plus que les éléments. Le nombre introduit une inertie qui rend absolument certain ce qui ne devrait être que probable, tout comme en thermodynamique. Ainsi, les effets thermodynamiques sont rigoureusement calculables alors qu'à la base il y a fluctuation d'entropie, indétermination du mouvement des particules. Au niveau d'un moteur il n'y a plus tellement d'indétermination et on peut être tout-à-fait certain que la vapeur pousse le piston. Le caractère prédictible de notre monde est lié à la loi des grands nombres, ce qui manque au nanomonde justement. Est-ce donc vraiment une question d'énergie du champ qui diminue (absorbé dans une interaction) ou bien un simple problème de physique statistique ?

expérience décohérence

A noter que Sciences et Avenir a sorti un hors-série intéressant (bien que pas toujours très clair) sur le paradoxe du chat de Schrödinger, dont le premier article sur le sujet mettait d'ailleurs en cause le "flou" de la physique quantique ! On voit mieux que ce paradoxe doit tout aux probabilités puisqu'il résulte du simple couplage d'une probabilité microscopique avec une probabilité macroscopique. L'incertitude sur un état quantique contamine l'état final, mais il suffit d'ouvrir la boîte pour voir que le chat est mort ou vif !

Ce qui caractérise ces divers exemples, c'est qu'une indétermination initialement restreinte au domaine atomique est transposée en indétermination, grossie et perceptible, laquelle est ensuite résolue par observation directe. Ce qui nous retient d'accorder de façon naïve le moindre crédit à un "modèle flou" en tant qu'image de la réalité. Il n'y a là, en soi, rien d'obscur ou de contradictoire. Une photo bougée ou mal mise au point est une chose ; un cliché représentant ds nuages ou des bancs de brume en est une autre. (Erwin Schrödinger, 1935)

- D'un état de la matière à l'autre, Pierre Papon, p114

L?eau liquide se solidifie à 0 °C et devient vapeur à 100 °C, mais de telles transitions ne sont pas si nettes. La métastabilité des états et la dynamique des changements de phase brouillent ces frontières.

Solides, liquides, gaz, etc. : la matière se présente sous plusieurs aspects. Il s?agit d?états aux propriétés distinctes et qui n?existent que dans certaines conditions de pression et de température. Lorsque celles-ci sont modifiées, on observe un changement d?état de la substance considérée. C?est ainsi que l?eau liquide se transforme en glace quand la température diminue au-dessous de 0 °C à la pression atmosphérique. À l?inverse, si la température est supérieure à 100 °C, l?eau liquide passe à l?état gazeux, elle se vaporise. Mais à y regarder de plus près, on s?aperçoit que des gouttelettes d?eau refroidies peuvent rester à l?état liquide bien au-dessous de 0 °C : l?eau est alors dans un état surfondu. Inversement, l?eau reste parfois liquide bien que sa température dépasse 100 °C. Autrement dit, les frontières entre le gaz, le liquide et le solide ne sont pas si précises... Et nous verrons d?autres exemples de changements d?état où le point de transition n?est pas rigoureusement défini.

La géographie des états de la matière est complexe ; chaque état a des frontières floues où le matériau présente une stabilité fragile, et l'état lui-même peut être un mélange de plusieurs phases.

- Les multiples frontières du nanomonde, Claudine Noguera, p122

nanomonde

Le nanomètre, milliardième de mètre, marque-t-il le début du nanomonde ? Pour les physiciens, ce n?est pas si simple : les frontières de ce domaine sont définies par l?émergence de nouvelles propriétés, et dépendent du couple objet-phénomène considéré.

Que se passe-t-il si l'on continue à diminuer la taille de l'objet ? Si les atomes qui le composent ne se comptent plus par milliers, mais par centaines, voire par dizaines ? Un calcul d'ordre de grandeur montre qu'au-dessous d'un rayon de 3 ou 4 nanomètres, une "goutte" atomique a plus de 50% de ses atomes à sa surface, ce qui rend ses propriétés extrêmement sensibles à son environnement. A cette taille, l'addition ou la soustraction d'un seul atome peut être cruciale (...) En continuant à réduire les tailles, on entre dans un domaine où chaque atome compte et où les propriétés des nano-objets ne varient plus de façon monotone avec la taille.

Plus les objets sont petits et se rapprochent de l'échelle quantique, plus ils sont fragiles et sensibles aux fluctuations quantiques tout comme aux phénomènes électriques...

- Amateurs de science : une nébuleuse utile, Patrick Matagne, p140

Chercheurs de métier et scientifiques amateurs ont des statuts qui se distinguent aisément. Mais leurs activités ne sont pas toujours très différentes. Et dans certains domaines de la science, l?apport des amateurs est presque aussi important que celui des professionnels.

De par leur nombre et leur organisation, les amateurs assurent, notamment en astronomie et en sciences naturelles, une vigilance collective - aussi bien scientifique que citoyenne - que la communauté scientifique professionnelle, malgré ses personnels et ses équipements perfectionnés, ne peut remplacer. Cette population diverse, où différentes formes de savoir sont représentées, fait vivre les débats scientifiques et scientifico-éthiques ; elle contribue ainsi à lutter contre un analphabétisme scientifique qui menace nos démocraties.

- L'irresponsabilité climatique, p8

PETM

Je dois dire ma consternation devant ce petit article de Jean-Louis Hartenberger (en totale contradiction avec le numéro précédent) qui prétend minimiser le réchauffement climatique actuel au regard de l'histoire du climat, en s'appuyant en particulier sur ce qu'il appelle "la crise thermique qui se produisit voici 55,8 millions d'années, connue sous l'appellation de PETM (Paleocene Eocene Thermal Maximum)", et dont il ne dit pas qu'elle a causé une extinction massive sous prétexte que ce sont les mammifères qui en ont finalement profité. Le fait que ce réchauffement soit dû à un dégagement massif du méthane contenu dans les fonds marins sert d'argument pour nier le rôle de l'homme dans l'augmentation du CO2 ! La nature produisant des catastrophes, nous n'aurions pas à nous soucier des catastrophes que nous causons nous-mêmes ! Certains veulent ne voir dans le réchauffement climatique que catastrophisme, culpabilité religieuse ou phénomène médiatique alors que la question est de savoir si c'est vrai (ça l'est) et les conséquences d'ici une cinquantaine d'années (les incertitudes sont encore immenses). Il ne s'agit pas de gober n'importe quoi mais vouloir faire comme s'il n'y avait pas de quoi s'inquiéter est tout simplement irresponsable. Comparer la "crise thermique" du Paleocene-Eocene aux chaleurs actuelles est d'ailleurs trompeur à plus d'un titre. D'abord parce que le réchauffement est beaucoup plus rapide aujourd'hui mais surtout parce que, ce qui compte, ce n'est pas la température actuelle alors qu'on sait que les effets des rejets de CO2 se feront vraiment sentir dans 50 ans et qu'il n'est pas impossible que l'augmentation dépasse les 6° voire beaucoup plus (il faudrait s'assurer un peu mieux des scénarios envisagés, perfectionner des modèles encore bien trop approximatifs).

En ce temps-là, les hôtes de la terre ont vu se produire en moins de 20 000 ans une augmentation de la température globale annuelle de près de 10°C. A titre de comparaison pour l'époque contemporaine, entre 1500 et 2003, année où l'hémisphère Nord a connu son hiver le plus chaud, la température moyenne annuelle du globe n'a augmenté que de 0,25°C.

Et pour le siècle prochain, il ne se produira pas de grandes modifications de la répartition des paysages végétaux tels qu'ils apparaissent aujourd'hui. Ce ne fut pas le cas voici 55 millions d'années, et cette période correspond à une révolution biologique, dont les mammifères ont été les héros. Alors qu'il n'existait aucune calotte glaciaire aux pôles, la zone intertropicale, à climat chaud et humide, a alors gagné plusieurs degrés en latitude. profitant des nouveaux espaces où chaleur et humidité se combinaient pour faire pousser des flores luxuriantes, trois ordres de mammifères nés en Asie (...) ont en quelques milliers d'années colonisé tout le septentrion.

Non seulement il n'y a pas eu que ce côté idyllique (les extinctions massives ont certes toujours été des facteurs de complexification!) mais on pourrait retenir au contraire que ce dégagement de méthane pourrait rajouter encore 10° au réchauffement dû au CO2. Le risque, ici, c'est l'emballement, le cercle fatal décrit dans le numéro précédent justement et qui peut mener à l'asphyxie. Il ne s'agit pas de prétendre que c'est inéluctable, ni même que c'est le plus probable, mais qu'il faut absolument l'éviter et donc s'en préoccuper suffisamment à l'avance, assumer la responsabilité des conséquences de nos actes plutôt que de faire comme si rien ne pouvait nous arriver. La question n'est pas que "la nature n'a pas attendu que l'homme invente des véhicules à moteur propulsés grâce aux combustibles fossiles pour saturer l'atmosphère de gaz à effet de serre" mais si on peut y faire quelque chose pour éviter le pire ! Il y a ici une curieuse sacralisation de la nature mais opposée aux écologistes cete fois !

A noter aussi l'enquête du Sunday Telegraph sur le réchauffement climatique qui tend à minimiser le rôle du CO2 dans le réchauffement actuel. Bien sûr ce n'est pas un débat qu'on peut trancher, c'est aux scientifiques de réagir à ces arguments qui semblent tout de même contenir d'énormes contre-vérités (comme le fait que le "petit âge glacière" du Moyen âge ne serait pas pris en compte, ni le cycle solaire !). Il est indispensable que des opinions contraires s'expriment mais on se demande ce qui motive des falsifications manifestes (ou alors tous les autres scientifiques nous raconteraient des histoires?).


La Recherche no 403, Dinosaures


La Recherche

- Lumière et matière intriquées, p10

J'avais déjà signalé la semaine dernière cette Première téléportation d'états quantiques entre lumière et matière en donnant simplement le schéma et le lien car cela ne me semblait pas si important, constituant simplement un pas de plus dans la maîtrise des caractéristiques du monde quantique. Certes, cela n'apporte qu'une vérification de plus au niveau de la théorie quantique mais sur le plan technique cela pourrait être une avancée considérable vers l'ordinateur quantique et la cryptographie quantique basée sur l'intrication :

"Les atomes peuvent stocker l'information quantique, jouant ainsi le rôle de mémoire, et la lumière est capable de la transporter avec peu de pertes". (Claude Fabre)

Il faut encore réussir l'expérience inverse : téléporter l'état quantique d'un groupe d'atomes sur des photons. Une fois cela réalisé, les physiciens disposeraient d'une formidable boîte à outils pour manipuler, stocker et transmettre l'information quantique.

Je n'avais pas compris l'importance du fait que "C'est la première fois que la téléportation est réalisée entre le média 'mobile' qu'est la lumière et un média 'stationnaire' constitué d'atomes". Occasion de souligner qu'une information (ou une découverte) n'est rien en elle-même, il faut qu'elle fasse sens et qu'on sache quoi en faire, qu'elle modifie nos représentations théoriques ou les possibilités pratiques. Pour cela il faut qu'elle rencontre un récepteur pertinent à travers les filtres et les réseaux de distribution de l'information. Notons que l'usage du mot information en physique quantique est trompeur. Le terme information regroupe les différentes caractéristiques physiques des champs quantiques. C'est une information pour le physicien, mais qui désigne un type d'énergie (cinétique). Là encore l'utilisation du mot peut être trompeuse.

L'étape suivante, c'est la téléportation d'objet ! C'est de la véritable science-fiction : "Nous désirons aboutir à une téléportation à longue distance d'objets macroscopiques" (Polzik). Voilà qui sera beaucoup plus intéressant cette fois, mais on n'y est pas encore (ce n'est sans doute qu'une question d'années?).

XY

- Les gènes du sexe, p16

Selon que nos chromosomes seront XX ou XY nous fera fille ou garçon, du moins presque tout le temps. C'est donc le chromosome Y qui détermine le sexe masculin mais il suffirait d'un gène (appelé SRY) pour déterminer la masculinité, ce qui veut dire aussi que le reste du chromosome Y est inutile ou presque, ce qui expliquerait qu'il se dégrade de façon assez importante. En tout cas, il suffit que ce gène migre accidentellement sur un chromosome X pour que des enfants XX soient des garçons. Une autre mutation du X suffit à produire des mâles à la place de femelles : la dégradation du gène RSPO1 qui déclenche la production des organes mâles. Le mécanisme serait le suivant, impliquant le gène SOX9 responsable du développement des testicules :

RSPO1 inhibe SOX9, ce qui empêche le développement des testicules et déclenche celui des ovaires. Lorsque ce gène RSPO1 est inactivé, cela suffit à provoquer la masculinisation. Le gène SRY agit au contraire en accentuant l'activité de SOX9. Comme souvent dans le vivant, les processus ne sont pas directs mais procèdent par inhibitions et inhibition de l'inhibition... Ainsi c'est le mâle qui serait le modèle par défaut (s'il n'est pas inhibé mais inhibant lui-même le développement des organes féminins). La femelle est l'inhibition du mâle mais le mâle effectif n'est pas le mâle originaire, c'est l'inhibition de l'inhibition, le refoulement du féminin !

 

Puisqu'on parle du chromosome Y, je fais part d'une information que j'ai trouvée ailleurs bien qu'elle ne soit pas très neuve, et peut-être dépassée, puisqu'elle date d'août 2005. La dérive du chromosome Y aurait commencé depuis 300 millions d'années où il était identique au chromosome X (l'homme était une femme comme une autre !). "Depuis cette époque le chromosome X a perdu peu, voire aucun gène alors que le chromosome Y a perdu la plupart de ses gènes communs". La divergence avec les chimpanzés daterait de 6 millions d'années et la comparaison montrerait que notre chromosome Y n'a pas perdu de gènes depuis, alors que le chimpanzé en aurait perdu ou endommagé 5.

ADN A noter aussi l'importance des différences génétiques entre individus.

?l?ensemble des régions du génome susceptibles de présenter des variations entre deux individus représentent 12 % du total?. D?une personne à l?autre, seule une petite proportion de ces 12 % est différente.

L?équipe estime que la différence moyenne entre deux êtres humains pris au hasard est d?environ 0,5 %. Les responsables de l?étude précisent eux-mêmes que leur estimation est approximative.

Curieusement, on peut remarquer au passage que cette valeur complémentaire de 99,5 % est celle qui vient d?être donnée pour la différence entre l?homme moderne et l?Homme de Neandertal...

 

 

- Les accidents technologiques, p26

Tout dépend sans doute de ce qu'on appelle accidents technologiques. Les chiffres semblent plutôt sous-estimées (les morts de la route ne sont-ils pas des accidents technologiques ?), mais l'important c'est qu'ils sont en augmentation. Le facteur organisationnel et humain est déterminant. Cela ne signifie pas qu'on ne peut en accuser la technologie elle-même car le problème, c'est qu'à cause de l'erreur humaine, si ce n'est sa folie, aucune technique ne peut être fiable à 100%, et donc plus elle est puissante, plus elle est dangereuse potentiellement.

Le Bureau d'analyse des risques et des pollutions industrielles a recensé 21576 accidents ou incidents en France entre le 1er janvier 1992 et le 31 décembre 2005. 625 personnes ont été tuées et 15168 blessées. Les plus fréquents sont l'incendie et le rejet de matières dangereuses, et concerne surtout l'agriculture, les transports terrestres et l'industrie chimique. L'analyse des causes montre que les facteurs organisationnel et humain interviennent dans la quasi-totalité des accidents. Hélas, la tendance est à l'augmentation.


Brèves


Physique

- Un trou noir, son horizon des événements et... un éléphant

C'est la nouvelle la plus excitante du mois, reliée à la gravité holographique, basée sur une nouvelle relativité, celle de la position dans l'espace-temps qui serait relative à l'observateur... Pour l'instant cela semble bien improbable et spéculatif, mais qui sait ? En tout cas, cela perd beaucoup de son mystère si c'est seulement une question de probabilité et de ce qu'on peut en savoir, sans affecter un réel dédoublement : une fois passé l'horizon d'un trou noir on se transforme en radiation pour ceux qui ne voient plus que cela, bien que le trou noir mettra encore longtemps à nous absorber. C'est seulement une limite de la physique elle-même.

Les chercheurs appellent cela le paradoxe de l'information du trou noir. Il survient parce que toute perte d'informations sur l'état quantique d'un objet tombant dans un trou noir est interdite, mais que tout scénario qui permette à l'information de s'en échapper semble également interdit. Les physiciens parlent souvent d'information plutôt que de matière parce que c'est une donnée plus fondamentale.

"Toute la physique que nous connaissons est conditionnée au fait que l'information est conservée, même si elle est embrouillée", indique Susskind.

En 1997, Maldacena a développé un type de théorie des cordes dans un univers à cinq grandes dimensions spatiales doté d'une géométrie d'espace-temps déformée. Il a prouvé que cette théorie, qui inclut la gravitation, était équivalente à une théorie quantique des champs standard, sans gravitation, évoluant à la frontière quadridimensionnelle de cet univers. Tout ce qui se produit sur cette frontière est équivalent à ce qui se produit à l'intérieur: les particules ordinaires en interaction sur cette surface correspondent précisément aux cordes en interaction à l'intérieur.

"Cette théorie est tellement précise d'un point de vue mathématique que tous les physiciens théoriques en sont venus à la conclusion que le principe holographique et la conservation de l'information devraient être vrais".

Selon Alice, l'éléphant n'a jamais franchi l'horizon ; elle l'a vu s'approcher du trou noir et fusionner avec le rayonnement de Hawking. Selon Bob, l'éléphant est passé à travers et a continué à planer joyeusement pendant des éons jusqu'à ce qu'il se transforme en spaghetti. Les lois de la physique exigent que les deux histoires soient vraies, pourtant elles se contredisent l'une l'autre. Alors, où est l'éléphant, à l'intérieur ou à l'extérieur ? La réponse de Susskind est - on l'aura deviné - les deux. L'éléphant est tout à la fois à l'intérieur et à l'extérieur du trou noir ; la réponse dépend de qui la pose. "Ce que nous avons découvert est que l'on ne peut pas parler de ce qui est derrière l'horizon ET de ce qui est devant l'horizon", indique Susskind. "La mécanique quantique oblige toujours de substituer le mot ET par le mot OU. La lumière est une onde OU la lumière est une particule, selon l'expérience que l'on réalise. Un électron possède une position OU il possède une impulsion, selon ce que l'on mesure. La même chose se produit avec les trous noirs. SOIT on décrit la matière qui est tombée dans de trou noir en se considérant derrière l'horizon, SOIT on la décrit en termes de rayonnement de Hawking qui en sort".

"On a toujours pensé que les ambiguïtés quantiques était un phénomène de très petite taille", ajoute-t-il. "Nous découvrons que plus la gravité quantique devient importante, plus les échelles auxquelles interviennent ces ambiguïtés deviennent énormes" (...) Susskind appelle cela "un nouveau genre de relativité". Einstein a considéré des facteurs qui étaient censés être invariables - la longueur d'un objet et le déroulement du temps - et a prouvé qu'ils étaient relatifs au mouvement de l'observateur. La position d'un objet dans l'espace ou dans le temps pouvait seulement être défini relativement à cet observateur, mais sa position dans l'espace-temps était garantie. Désormais cette notion est anéantie, dit Susskind, et la position d'un objet dans l'espace-temps dépend de l'état du mouvement de l'observateur relativement à un horizon.

"Ceci doit faire partie de la compréhension de la gravitation quantique", indique Giddings. "Il est possible que ce paradoxe de l'information du trou noir mène à une révolution au moins aussi profonde que celle engendrée par la mécanique quantique".

Selon Susskind, le fond cosmique de micro-onde qui nous entoure pourrait revêtir une importance encore plus grande que nous le pensions. Les cosmologues étudient ce rayonnement parce que ses variations nous renseignent sur les premiers temps de l'univers, mais Susskind spécule que ce pourrait être un genre de rayonnement de Hawking en provenance du bord de notre univers.

- Un trou noir qui tourne à une cadence infernale

Trou noir

Situé dans la constellation de l'Aigle à environ 35 000 années-lumière de la Terre, le trou noir GRS1915+105 tourne autour de lui-même 950 fois par seconde, s'approchant ainsi de la limite théorique de rotation de 1150 tours par seconde.

- Ancienneté et variabilité de l?énergie noire

L?étude de 24 supernovae de type 1a, étoiles qui ont explosé il y a 8 à 10 milliards d?années, suggère que l?énergie noire date de 9 milliards d?années et a agi depuis de manière conséquente. Les données indiquent que l?effet de l?énergie noire était plutôt faible jusqu?à il y a 5 à 6 milliards d?années de cela. Elle surpassa alors la gravité lors d?une sorte de « guerre des forces cosmiques ». Le taux d?expansion commença alors à croître. En outre, selon les chercheurs, les observations confirment que la constante cosmologique est actuellement la meilleure explication pour l?énergie noire, au détriment d?autres théories alternatives, telle la quintessence.

- Exploit : on a filmé des noyaux d?atomes !

Vidéo de deux noyaux de deutérium en train de se séparer. Sous l??il de cet instrument, des effets purement quantiques sont devenus visibles.

- Voir le déplacement d'un électron

Pas évident...

électron

Biologie

- un "effondrement vers la vie"

foudre

La vie sur Terre serait un phénomène inévitable de dissipation de l'énergie chimique accumulée, véritable "paratonnerre", disent-ils ! C'est une façon un peu simpliste de dire que l'énergie nécessaire à la vie était disponible mais il y avait aussi bien d'autres conditions de remplies.

Cerveau

- Le neurone qui fait de nous des humains (?) existe chez les baleines !

baleines
 

Il est maintenant établi que les baleines possèdent également ces neurones en fuseau, des neurones spécialisés qui participeraient au traitement des émotions et nous aideraient ainsi à interagir socialement.

Les neurones en fuseau, nommés ainsi en raison de la forme de leur corps cellulaire, seraient impliqués dans le sentiment d'amour ainsi que d'autres émotions. Cette découverte chez les baleines relancerait le débat à la fois sur la question de leur intelligence mais également sur la question éthique de leur chasse par l'homme. En effet, les neurones en fuseau sont situés dans des zones du cerveau responsables de notre organisation sociale, de notre empathie (capacité à deviner ou ressentir l'émotion des autres), de la parole et d'autres réactions rapides et instinctives.

- Une interface cerveau-machine commercialisée dans 5 ans ?

topographie cerveau Cela ne va pas beaucoup plus loin qu'un on/off par la pensée, mais tout de même... (on doit pouvoir déclencher l'appareil sans le vouloir, comment éviter une pensée sans y penser d'abord ?). En tout cas, il suffit d'un appareil relativement petit capable de localiser l'échauffement du cerveau !

Le nouvel appareil utilise une technique de ?topographie optique?. Cette méthode mesure la circulation du sang dans le cerveau grâce à une lumière proche de l'infrarouge: on peut donc savoir quelles sont les zones cérébrales activées. Ainsi, il a été possible aux expérimentateurs de faire fonctionner l'interrupteur marche/arrêt d'un train électrique en activant diverses régions de leur cerveau, par exemple en effectuant du calcul mental ou en s'imaginant chanter.

La topographie spatiale est non-intrusive: elle ne nécessite pas d'intervention chirurgicale. De plus, contrairement à l'IRM (Imagerie à Résonance Magnétique), par exemple, elle n'exige pas l'immobilité totale de la part du patient. Elle est sans danger et n'implique pas l'absorption de molécules radioactives, comme dans le cas de la TEP (Tomographie par émission de positons). Enfin, l'appareillage est compact et peut être déplacé. Autant d'avantages qui jouent certainement en faveur d'une possible commercialisation.

- Electrifier le cerveau booste la mémoire

Appliquer un faible courant électrique au cerveau pendant le sommeil fait passer dans le sommeil profond et améliorerait les performances de 8% !

- La puce qui stimule le cerveau

Implanté sur le crâne de singes, un circuit électronique a généré de nouvelles connexions dans la zone du cerveau contrôlant les mouvements. De quoi ouvrir une voie de recherche pour soigner des traumatismes crâniens ou des paralysies.

Quand ce Neurochip est relié au cerveau, les scientifiques ont eu la surprise de constater que l?activité de la région enregistrée se met à ressembler à celle de la région stimulée. Ce phénomène s?expliquerait par le renforcement des connexions entre les deux zones, stimulées par la synchronisation de leurs activités via le Neurochip. Deuxième surprise : après une stimulation d?une journée par la puce électronique, cette jonction persiste au moins plusieurs jours. Pour les chercheurs, tout se passe comme si ce circuit électronique « créait un lien artificiel que le cerveau peut apprendre à utiliser pour compenser une voie abîmée ». Eberhard Fetz estime que la persistance de la jonction vient de ce que « le conditionnement est associé au comportement normal » de l?animal.

Dans cette expérience, le cerveau, grâce à sa plasticité, a donc récupéré ce nouveau circuit entre deux zones comme s?il s?agissait d?un réseau de vraies connexions entre neurones. Voilà peut-être un moyen de réparer une zone endommagée du système nerveux. Plutôt que de la reconstituer intégralement, il suffirait alors d?aider un peu le cerveau à en compenser l?absence par un circuit parallèle?

Ecologie

- une puce électronique transformant la chaleur en électricité

Récupérer la chaleur dégagée par les éléments électroniques pour la transformer en électricité: c'est ce que propose la société américaine Eneco, le système se présentant sous la forme d'un simple composant électronique.

L'efficacité annoncée est de 20 à 30%. Selon Eneco, la puissance électrique générée peut atteindre 10kW. Si le composant est lui-même alimenté en électricité, sa capacité en refroidissement se retrouve fortement augmentée. Les tests effectués par Eneco ont ainsi permis d'atteindre des températures de refroidissement de -150°C.

La puce utilise le principe physique de la thermoïonique, qui a pour conséquence la création d'un flux d'électrons dans un métal ou oxyde métallique. Ce phénomène s'établit lorsque les atomes de la matière possèdent une vibration causée par l'énergie thermique surpassant les forces électrostatiques maintenant en place son ou ses électrons libres. Plus la température est élevée, plus l'émission thermoïonique (le flux d'électrons généré) est importante.

- Des cellules photovoltaïques à chlorophylle synthétique

Les feuilles sont des cellules solaires très efficaces qui peuvent convertir jusqu'à 40% de la lumière reçue en énergie chimique, c'est-à-dire bien plus efficaces que les cellules solaires à base de silicium conventionnelles qui possèdent un rendement d'environ 15%

- En vidéo : nouveaux records de concentrations en gaz à effet de serre

les valeurs mesurées s?établissent à 379,1 parties par million (ppm), contre 377,1 ppm en 2004, ce qui représente une hausse de 0,53 %.

- Risque invasifs des biocarburants

Le plantes destinées aux biocarburants pourraient se révéler trop invasives ! (les solutions techniques posent toujours de nouveaux problèmes).

Mathématiques et Informatique

- Perelman : conjecture de Poincaré

Très bon article d'initiation à la topologie, avec animations, et qui essaie d'expliquer l'attribution de la médaille Fields à Gregory Perelman, dont j'avais déjà rendu compte.

- La sécurité informatique n'est plus assurée...

Dans un article encore confidentiel, le chercheur et ses collègues décrivent la façon dont ils ont pu, en une seule tentative ? soit quelques millisecondes ?, récupérer la quasi-intégralité d'une clé de cryptage de 512 bits (suite d'autant de 0 ou de 1).

On peut résumer ainsi le principe de l'attaque : pour aller toujours plus vite, le processeur fonctionne en parallèle et dispose d'un système de prédiction du résultat de l'opération en cours. Si la prédiction est bonne, le processus est sensiblement accéléré. Si elle est erronée, il faut revenir en arrière et recommencer l'opération élémentaire. Il "suffit" de mesurer le temps de calcul lorsque le processeur égrène la chaîne de 0 et de 1 qui constitue la clé de cryptage pour en déduire celle-ci.

Enfin, il paraît que ce ne serait pas si grave selon certains ! En tout cas, il est amusant de constater qu'on peut toujours contourner un système de sécurité même d'une extrême complexité. C'est un peu comme les systèmes de mot de passe très élaborés qu'on peut parfois tès facilement sauter en introduisant un "jump" dans le code machine du programme pour shinter le contrôle...

- Tim Berners-Lee vient d?annoncer le lancement du projet ?Web science?. Son but : analyser la structure du web sous tous ses aspects afin, éventuellement, de l?améliorer.

Tim Berners-Lee

Mais le web intéresse aussi les mathématiciens et les physiciens. On a en effet découvert que le développement de la toile se conformait à une série de processus universels qui gouvernent bon nombre de phénomènes dits ?complexes? : par exemple, il adopte la structure des réseaux en ?petits mondes? caractérisés par la fameuse règle des ?six degrés de séparation? de Stanley Milgram, un type de topologie qu?on trouve autant dans certains phénomènes chimiques et physiques qu?au c?ur des organismes vivants ; les biologistes, surtout ceux influencés par la ?vie artificielle? voient eux dans le web un possible écosystème numérique, ces ?petit mondes? évoluant en général sous la contrainte d?une forme de sélection darwinienne.

"Cette science a ses propres principes : la décentralisation, qui évite les engorgements techniques et sociaux ; l?ouverture, avec la réutilisation de l?information de manière inattendue ; et l?équité."

Un peu optimiste, tout de même, comme s'il n'y avait ni pouvoir ni argent qui compte... En fait les mêmes utopies étaient nées à la fin du XIXè à propos des réseaux de chemin de fer, de la poste et d'électricité affublés de toutes les vertus, dont la décentralisation déjà (voir Kropotkine par exemple). On ne le sait pas mais la formule de Lénine "les soviets plus l'électricité" pour définir le communisme faisait référence aux réseaux électriques plus qu'à l'énergie elle-même. Ce n'est pas que les réseaux n'aient pas de vertus mais ils ont aussi leurs effets pervers, leurs féodalités, leurs mafias, leurs manipulations, leurs concentrations, leurs exclusions. Il est d'autant plus important d'étudier concrètement le fonctionnement réel des réseaux.

copyleftcopyleft 

2 réflexions au sujet de « Newsletter 12/06 »

  1. J'écoutait ce matin la chronique de Bernard Maris qui se réjouissait du rapport de Levy Jouey remis à M. Breton Ministre de l'économie et des finances, portant sur l'économie de l'immatériel.
    Je me suis donc précipité sur ce texte : http://www.minefi.gouv.fr/direct...

    En lisant rapidement, quelques passages m'ont interpellés.

    Ayant récemment découvert votre site et lu votre livre "L'écologie politique à l'ère de l'information" votre avis éclairé sur l'économie de l'immatériel m'intéresse. Partagez-vous mes impressions ?

    (je ne savais pas trop où placer ce post, je l'ai donc mis dans les news vu que c'en est une...)

    Voici pour eux "LES FONDEMENTS DE L’ÉCONOMIE DE L’IMMATÉRIEL"

    - Economie de l'innovation

    La recherche et l'innovation pour une meilleure compétitivité, une offre de produits plus efficaces et une consommation toujours plus aliénée :
    "Ces dernières décennies, l’innovation est donc sortie du cadre étroit du laboratoire de recherche pour entrer dans la plupart des départements des entreprises : du service commercial à celui de la logistique, du marketing et de la communication à la finance, l’innovation s’est généralisée. Elle a d’autant plus été incitée à le faire que les entreprises ont amélioré leur connaissance de la demande de leurs clients et s’efforcent d’affiner en permanence leur offre, en collant le plus possible aux attentes du marché." p.14

    La recherche et l'innovation pour le marché :
    "La découverte fait encore la demande, mais dans bien des cas, c’est l’inverse qui se produit. L’amélioration de la connaissance de la demande conduit les équipes à préciser leurs besoins aux équipes de recherche, qui innovent sur la base du marché." p.14

    - Economie de l'information et de la communication

    Elle permet la délocalisation et ainsi de profiter d'une main d'oeuvre peu chère :
    "Elle autorise [...] le développement de l’externalisation, qu’il s’agisse de la production proprement dite (qui peut, à cette occasion être délocalisée) ou encore de certaines fonctions supports désormais automatisées (et qui peuvent pour certaines être délocalisées également)." p.15

    Elle permet de tracer le consommateur pour mieux le maîtriser :
    "Au-delà de la connaissance des clients, les TIC améliorent les possibilités de les suivre, de personnaliser les produits, de renforcer leur qualité et modifient profondément la nature de la relation." p.15

    - Le rapport expose tout de même certains paradoxes qui ne font, je crois, que nuancer le contenu capitaliste du rapport :

    Le paradoxe de la propriété intellectuelle
    Le paradoxe d’une économie à la fois concurrentielle et collaborative
    Le paradoxe de la « valeur gratuite »
    Le paradoxe de l’évolution du travail

    Une remarque sur l'évolution du travail exposé : Je n'ai vue qu'une dénonciation de la pénibilité du travail actuellement plus psychologique que physique. Et pour quelle raison ? "les nouvelles organisations fondées sur le « juste à temps » ou le « temps réel » obligent à une mobilisation permanente du salarié, génératrice de tension et de stress, et entraînent une augmentation des horaires atypiques de travail (travail de nuit, le week-end…)" p.26
    Et le travail précaire ? N'est-il pas justement la conséquence de cette révolution vers l'économie de l'immatériel basé sur "des activités au coeur du processus d’innovation : l’identification et la résolution de problèmes et le courtage stratégique" (p.26) ?

    Le rapport rabâche sans cesse les notions de brevetage, de licences, de protection des idées etc. qui ne font que créer la rareté de la connaissance alors que le progrès découle plutôt de la profusion des idées et de la gratuité.

    A mon grand étonnement, je n'ai rien vu concernant l'aspect révolutionnaire de l'immatériel et de l'information organisant de nouveaux modes de production écologiques et favorisant la décroissance.

    Au contraire j'y vois plutôt l'aspect économique de l'immatériel rendant plus efficace les modes de productions actuels, augmentant la croissance et la pollution, pour des ambitions de profit et de court termes, alors même qu'on assiste cet automne à des températures recors depuis des siècles.

    Bien évidemment, je n'ai pas tout lu (env. 180 pages) et je ne pense pas le lire complètement, mais de ce que j'ai lu, je ne vois rien de si réjouissant sauf peut-être une incitation à l'investissement dans la recherche et l'éducation. Gardons espoir que la collaboration, le don et la gratuité prenne le dessus.

    Au passage je vais me lancer dans la lecture de deux livres que vous citez souvent : "Changer d'ère" de Jacques Robin et "L'immatériel" de André Gorz. Peut-être aurai-je ensuite les idées plus précises sur la question...

  2. Tout ceci est très juste. Je ne suis absolument pas un chantre béat de l'immatériel et j'insiste entre autres sur le fait que la précarité est bien une conséquence de l'ère de l'information (ce pourquoi un revenu garanti s'impose). Ce n'est certes pas la technique qui nous sauvera contre nous-mêmes!

    Il y a de quoi s'affoler en effet et dénoncer la globalisation marchande et financière qui ne pourrait exister sans les réseaux informatiques. Ce qui se fait sans nous se fait contre nous et l'ère de l'information introduit de nouvelles tensions et bouleverse les modes de vie parfois dramatiquement. Le travail n'est plus un travail de force, il est plus valorisant mais il exige aussi plus d'investissement, abolissant la séparation du travai et de la vie. Cela n'a rien d'un paradis, donc, mais c'est notre monde, qui s'impose à tous saltimbanques et marchands, simplement il faudrait utiliser ses potentialités autrement, tout d'abord pour favoriser la relocalisation. Ce n'est pas à la mode, mais on commence à en parler même à l'UMP !

    Il ne faut avoir aucune illusion, il faut souligner tous ces problèmes, mais pour tenter de les résoudre, pas pour prétendre revenir en arrière. Utilisé contre nous (par exemple en rendant tout payant) l'immatériel peut nous mener au pire, utilisé avec intelligence il peut nous mener au meilleur (décroissance matérielle, coopération des savoirs). Ce n'est pas gagné cela dépend de nous !

Les commentaires sont fermés.