Revue des sciences 09/11

<- Revue des sciences précédente | Revue des sciences suivante ->

Revues : Pour la Science - La Recherche - Sciences et Avenir
Brèves : Physique - Climat - Biologie - Santé - Technologie

La loi de l'information veut qu'on ne se répète pas mais ce n'est pas parce qu'on arrête d'en parler que le Japon est sortie d'affaire, la caractéristique du nucléaire étant sa durée déraisonnable. C'est donc sans doute pour longtemps qu'il y aura encore des pluies radioactives sur le Japon. Le mois d'août est normalement un mois creux pour l'information mais il y a quand même encore bien trop de nouvelles scientifiques pour un seul homme, pas de pause de ce côté. Ce n'est pas tous les jours non plus qu'on assiste à la naissance d'une nouvelle théorie physique très prometteuse comme celle dite des espaces de moments ou espaces de phases, défendue par Lee Smolin et dont l'originalité est de faire de l'énergie une dimension spatiale (une nouvelle profondeur), ce qui semble de plus entrer en résonance avec les octonions qu'on avait vu le mois dernier. Par contre on peut s'amuser de voir les physiciens transformer en information une absence d'information et de s'enthousiasmer qu'on serait proche de la découverte du boson de Higgs du fait même qu'il ne reste qu'un petit intervalle où il pourrait se cacher alors même qu'il brille surtout par son absence !

La crise qui traîne en durée elle aussi manifeste à quel point le monde est désormais unifié même s'il ne le sait pas assez et que chacun voudrait se replier sur soi, ses intérêts, ses préjugés, son histoire. Il y a toujours un décalage dans la prise de conscience qui résiste d'abord à la nouveauté. D'ailleurs, un des paradoxes de l'ère du numérique et de l'économie de la connaissance, paradoxe bien connu dans les sciences, c'est de devoir favoriser la créativité alors que par définition on continue à la rejeter et mener la vie dure aux créateurs qui restent forcément des marginaux jusqu'à ce que leurs idées aient fait leurs preuves. Si la crise est imputable de façon très classique au cycle de Kondratieff, c'est-à-dire à la bulle de crédit et la crise de la dette précédant un retour de l'inflation, le numérique y intervient massivement, notamment par la rapidité d'ordres automatiques et les réseaux globaux pas seulement financiers, si ce n'est par la propagation de rumeurs. Ce sont souvent maintenant des robots qui répondent à des robots, et lorsqu'on laisse des robots parler entre eux, on entend surtout les lacunes de leur concepteur. Un nouveau venu pourrait jouer un rôle imprévu. En effet, Bitcoin, le système sécurisé et anonyme d'échange d'argent peer to peer (sans frais ni intermédiaire bancaire) connaît un succès croissant et pourrait, à plus long terme servir de monnaie globale (notamment en cas d'effondrement du dollar) sauf qu'il est déjà parasité par la spéculation... Même une monnaie virtuelle a besoin d'une régulation et d'un pilotage réactif pour être viable. On peut être dubitatif aussi devant le projet d'IBM de simuler le monde grâce à des data center gigantesques même si cela peut donner quelques résultats. Il est beaucoup plus certain qu'on entre dans le monde de la cyberguerre qui reprend de vieilles techniques d'espionnage comme l'infiltration mais le manuel de Kevin G. Coleman : The Cyber Commander’s eHandbook (téléchargeable sur l’internet) dresse la liste de 40 types d’offensives et on pourrait être attaqués dans tous les appareillages numériques :

Le N°39, c’est le piratage informatique des automobiles. Une voiture est bourrée de puces contrôlant le système de freinage, la transmission, le moteur, en fait absolument tout. Prenez le contrôle de ces systèmes et vous contrôlez de fait le véhicule, et vous pouvez l’accidenter à votre guise. Vous n’y croyez pas ? Des chercheurs de l’université Rutgers ont piraté l’année dernière les puces d’une voiture se déplaçant à 100 km à l’heure à l’aide d’un système WiFi utilisé pour vérifier la pression des pneus.

En même temps que le contrôle des Etats sur le réseau s'étend en prenant modèle sur les dictatures, il devient plus facile de devenir hacker avec un logiciel pour pirates :

La guerre des brevets aussi continue à faire rage dont l'absurdité apparaît sur ce schéma où tout le monde fait des procès à tout le monde :


Pour la Science no 407, Vivre dans un monde quantique


Pour la Science - Vivre dans un monde quantique, p22

La théorie quantique ne concerne pas seulement les électrons et les atomes. Elle s'applique aussi à plus grande échelle : aux oiseaux, aux plantes, voire aux humains.

Article très décevant sur les conséquences macroscopiques des propriétés quantiques comme l'intrication et qui nous refait le coup du chat de Schrödinger en voulant nous faire croire qu'il pourrait y avoir superposition d'un chat mort et d'un chat vivant, voire que cet état pourrait être réversible, alors qu'on nous parle en fait simplement du mécanisme quantique permettant aux oiseaux de percevoir l'inclinaison du champ magnétique terrestre, le seul côté intéressant étant d'arriver à préserver l'intrication d'électrons 100 microsecondes alors qu'on arrive pour l'instant qu'à 50 microsecondes ! Il y a pourtant bien d'autres expériences récentes qui tentent de préserver les propriétés quantiques à un niveau où ils deviennent visibles. De là à prétendre qu'il n'y aurait pas de séparation entre physique quantique et physique classique...

Selon son idée, inspirée des travaux de Klaus Schulten, de l'Université de l'Illinois, la rétine d'un œil d'oiseau contiendrait une molécule où deux électrons forment une paire intriquée de spin total nul.

Dans le modèle théorique de T. Ritz, quand cette molécule absorbe un photon de lumière visible, les électrons reçoivent assez d'énergie pour se séparer et devenir ainsi sensibles au champ magnétique terrestre. Si le champ magnétique est incliné, il affecte différemment les deux électrons, créant un déséquilibre qui modifie la réaction chimique subie par la molécule. Des mécanismes chimiques traduisent cette différence en impulsion nerveuse, que le cerveau de l'oiseau transforme en une image du champ magnétique terrestre. L'oiseau est ainsi doté d'un dispositif d'orientation macroscopique, qui ne relève pas de la physique classique.

L'article se termine par l'hypothèse faisant de la gravitation un phénomène émergent et qui vient juste d'être réfutée, notamment par la mesure de la force de gravitation sur des neutrons. Il est plus raisonnable de penser que le phénomène de décohérence, c'est-à-dire d'interactions, serait à l'origine du monde classique par ses propriétés d'organisation collective.

La relativité générale suppose que les objets ont des positions bien définies et ne sont jamais à plus d'un endroit à la fois, ce qui est en contradiction avec la physique quantique. (...) L'espace-temps classique émergerait de l'intrication quantique par le processus de décohérence.

Une autre possibilité, plus intéressante encore, serait que la gravitation ne soit pas une force en elle-même, mais le bruit résiduel de l'action des autres forces de l'Univers engendré par le caractère flou des phénomènes quantiques. Cette idée de « gravitation induite » remonte aux années 1960 et au physicien et dissident soviétique Andreï Sakharov. Si elle devait se révéler pertinente, alors non seulement la gravitation y perdrait son statut de force fondamentale, mais aussi tous les efforts accomplis pour la « quantifier » seraient vains. Au niveau quantique, la gravitation ne pourrait même pas exister.

- Le désordre intrinsèque des protéines, p56

Selon les fonctions qu'elles accomplissent dans les cellules, les protéines présentent une conformation rigide ou, au contraire, très flexible. Les biologistes commencent à étudier le rôle des protéines « intrinsèquement désordonnées » dans diverses maladies.

On assimilait jusqu'ici les protéines à des machines et donc à des structures rigides dont les fonctions dépendaient d'un repliement spécifique (site catalyseur, clé, pompe, etc.). On apprend ici que les protéines ne sont pas des machines mais sont bien vivantes comportant une part d'aléatoire qui leur apporte une flexibilité indispensable. Un grand nombre de protéines "intrinsèquement désordonnées" sont faites pour s'envelopper sur d'autres protéines, à partir d'un point d'ancrage, ou pour les inhiber, on ne peut dire qu'elles soient vraiment "fonctionnelles" mais elles sont réactives et il est intéressant de constater que même dans les protéines "rigides", des parties sont laissées plus informes, procurant plus de flexibilité.

Les exemples évoqués jusqu'à présent sont des protéines qui se replient – soit sur elles-mêmes, soit autour d'autres protéines – lorsqu'elles accomplissent leur fonction (voir l'encadré page 60). Mais le désordre est souvent une partie intégrante du fonctionnement d'une protéine. Parfois, une région non structurée agit comme un minuteur contrôlant le moment auquel deux sites de liaison se rencontrent : si la région non structurée est longue, les deux sites de liaison passent plus de temps à se chercher que lorsque la région non structurée est courte, car la probabilité de « rencontre » des deux sites est inférieure. Dans certains cas, le fait d'être déstructurée permet à une protéine particulière de se faufiler à travers la membrane cellulaire. De telles protéines non structurées apparaissent dans les axones des neurones, où elles forment des structures protégeant l'axone en occupant le volume aux alentours et en empêchant les enzymes de destruction d'approcher.

Cela permet de mieux comprendre l'origine de la vie et des maladies comme Alzheimer ou Parkinson où des protéines déstructurées se mettent à former des agrégats.

Dans les machines moléculaires anciennes (du point de vue évolutif), qui sont constituées d'assemblages d'arn et de protéines, presque toutes ces protéines sont partiellement ou entièrement déstructurées quand elles ne sont pas liées à leurs arn « partenaires ». Ces anciens complexes hybrides (complexes ribonucléoprotéiques) comprennent le splicéosome et le ribosome.

Dans cette théorie d'un « monde à arn », une difficulté majeure tient au fait que l'arn se replie difficilement dans sa forme active et reste souvent figé dans des conformations inactives. Dans les cellules actuelles, des protéines dites chaperonnes assurent un repliement correct de l'arn et d'autres le stabilisent dans sa conformation active. Ces deux types de protéines n'ont pas de structure stable avant de se lier à l'arn. Leur apparition aurait ainsi permis de résoudre l'épineux problème du repliement de l'arn.

Les acides aminés hydrophobes, volumineux, qui poussent une protéine à se replier, seraient apparus tardivement, et donc les protéines constituées des premiers acides aminés devaient très probablement rester dépliées quand elles étaient seules. Si ces hypothèses sur l'évolution du code génétique sont correctes, alors les premières protéines apparues sur Terre se repliaient mal ou pas du tout. Les acides aminés apparus ultérieurement ont manifestement permis aux protéines de se structurer. Elles ont alors acquis des sites enzymatiques actifs de type clé-serrure et, dès lors, ont assuré les fonctions remplies par les arn dans les cellules pendant des millions d'années.

- Des insectes pour guérir, p36

Depuis 5 000 ans, les insectes sont utilisés en médecine traditionnelle. En étudiant leurs principes actifs, des biochimistes mettent au point de nouvelles molécules thérapeutiques.

Ainsi, les blattes sont utilisées en Chine, en Thaïlande, en Grèce et au Burkina Faso comme antibiotique contre les otites, ou en Russie et dans le monde arabe comme diurétique ; les nids de guêpes sont (ou étaient) réputés pour leurs effets anticancéreux (Chine et Europe), antibiotique (Chine, Cameroun, Mali, Zambie), analgésique (Chine, France, Libéria, Mozambique) et anti-inflammatoire (Chine, Brésil) ; des fourmis ont été prescrites pour leur effet analgésique, en particulier contre l'arthrite et les rhumatismes (France, Russie, Afrique du Sud, Mexique, Brésil, Australie), ou leur effet neurotonique (Chine, France, Maroc), voire pour suturer les plaies avec leurs mandibules (Inde, Turquie, Mexique) ; les miels sont connus depuis longtemps sur tous les continents pour leur effet antibiotique et pour faciliter la cicatrisation, et le venin d'abeille soulage l'arthrite et les rhumatismes, tant en Corée qu'en Europe, au Soudan ou au Brésil.

Moins de 0,5 pour cent des arthropodes terrestres ont été étudiés, mettant déjà en évidence des molécules pharmacologiquement actives variées : le potentiel de découverte de nouvelles molécules est élevé. Avec 1 600 familles, un million d’espèces connues et plus de quatre millions restant à découvrir, les arthropodes terrestres représentent le plus gros réservoir inexploré de médicaments.

Ce n'est pas la raison pour laquelle il faudrait préserver la biodiversité mais cela y participe car, quoiqu'on dise, les substances naturelles sont souvent supérieures aux substances artificielles (pas toujours) ayant bénéficié de millions d'années de mise au point et d'expérience.

- La langue façonne la pensée, p30

Les langues que nous parlons modifient notre façon de percevoir le monde et nos capacités cognitives.

Il ne fait aucun doute que le langage façonne la pensée, comme j'ai essayé d'en rendre compte dans "un homme de parole", très au-delà de ce qu'examine cet article ne s'attachant qu'aux spécificités culturelles alors que la narration donne corps aux mythes, entre autres, et nous sépare radicalement des animaux (après la cuisson). Reste qu'il est intéressant de constater que certaines langues ne connaissent pas la gauche ou la droite ne se repérant que par rapports aux points cardinaux mais ce n'est pas la langue en tant que telle, seulement la sédimentation d'une culture dans une langue particulière manifestant cependant à quel point on pense avec la langue. Pierre Pica souligne que le langage peut modifier surtout nos conceptions du nombre, de l'espace et du temps, ce qui devrait intéresser la physique, mais l'article insiste avec raison sur la construction du genre également (il faudrait ajouter le tu et le vous). Cependant, si on peut lier une langue à des façons de penser, une vision du monde (l'esprit d'un peuple), ce n'est qu'à être le résultat d'une histoire singulière plus qu'une essence originaire car toute langue reste traduisible dans une autre langue et les sciences sont universelles. Il est donc difficile de distinguer ce qui relève du langage ou de l'idéologie, de la culture ou des modes de vies qui vont avec (les Esquimaux perçoivent des nuances de neige pour lesquels nous n'avons pas de mots et on avait vu le mois dernier comme la perception des couleurs était influencée par les mots). Il ne suffit pas d'être bilingue pour changer ses façons de penser même si beaucoup de bilingues avouent penser différemment d'une langue à l'autre. L'auteur de l'article montre que les préjugés changent en fonction de la langue employée !

Bien que tout ceci soit assez mince, son intérêt, c'est de montrer que le langage structure la pensée, ce que le structuralisme avait déjà bien mis en évidence, que la pensée dépend de sa matérialisation dans des mots et des discours constitués. On le sait bien lorsqu'on écrit et qu'on cherche le mot juste sans lequel la pensée ne trouve pas d'expression et reste dans la confusion, n'ayant pas de véritable existence, alors qu'on ne sait ce qu'on pense qu'à s'entendre parler ou relire sa phrase. Il ne faut voir là ni relativisme ni subjectivisme ou vision du monde arbitraire mais plutôt un matérialisme des mots (matérialisation de l'immatériel) et la fonction pratique du langage aussi bien que sa dépendance à l'histoire, c'est-à-dire à l'expérience du réel et les traces laissées dans la mémoire de la langue. La réalité est certes construite, avec toutes sortes de limitations cognitives, mais par des processus bien réels.

Chaque langue apporte sa « trousse à outils » cognitive et renferme la connaissance et la vision du monde développées au cours de plusieurs milliers d’années dans une culture. Elle contient une façon de percevoir le monde, de l’appréhender et de lui donner une signification, et représente un guide que les ancêtres ont développé et perfectionné. Les recherches sur la façon dont les langues parlées modèlent la pensée permettent aux scientifiques de découvrir comment l’homme crée la connaissance et construit la réalité.


Pour Mark Changizi, ce qui fait la difficulté pour un ordinateur de comprendre le langage serait que celui-ci provient de processus perceptifs (pour les sons) et biologiques (pour leur combinaison). Cela rejoint les intuitions de René Thom qui voyait dans la structure de la phrase l'analogue de la prédation et renforce la liaison originelle entre le corps et l'esprit (ce qui ne veut pas dire que l'esprit se réduit au corps). De même, la musique serait liée aux mouvements du corps, pas seulement le rythme. Cela n'explique pas ce qui différencie les tons majeurs des tons mineurs ou les accords parfaits des accords dissonants, qui sont des propriétés objectives, mais a l'intérêt de souligner la place du corps dans le langage comme dans la musique.


- Les débuts de la culture en Europe, p42

Ce qui est fascinant dans les articles sur la préhistoire, c'est qu'on nous raconte à chaque fois une autre histoire, pas tout à fait la même bien que ce ne soit pas tout à fait une autre. C'est ce qu'on préfère depuis qu'on est gamin pour s'endormir le soir !

On avait parlé le mois dernier de traces de culture gravettienne plus ancienne qu'on ne croyait et qui semble se confondre avec l'arrivée de l'homme moderne. Là on se situe encore un peu avant, peut-être 40 000 ans, dans le Jura souabe avec des hommes modernes, encore à l'Aurignacien (comme la grotte Chauvet) mais en progrès rapide.

Ces découvertes suggèrent qu'au début du Paléolithique supérieur, toute une série d'innovations culturelles et techniques se sont produites dans le Jura souabe. Apparemment, le phénomène n'a pas d'équivalent au cours de la période culturelle précédente : il semble que le Jura souabe ait été l'un des foyers d'innovation du Paléolithique supérieur à l'origine de la modernité culturelle : un langage complexe, un système de croyances, un système de liens sociaux et économiques.

Les bijoux, les figurines et les instruments de musique que façonnent les membres de telles sociétés attestent de leur aptitude à se représenter la réalité à l'aide de concepts (des représentations mentales d'aspects de la réalité) associés à des symboles tels que des suites de sons (mots, airs de musique), des signes graphiques, des gestes, des statues, etc. Tout cela forme ce que l'on nomme la pensée symbolique.

Les objets symbolisant un aspect de la réalité (figurines) ou façonnés pour produire des symboles, par exemple sonores (instruments de musique), sont des manifestations de la modernité culturelle. Selon les indices disponibles de nos jours, ils apparaissent pour la première fois à l'arrivée des Homo sapiens en Europe, il y a quelque 40 000 ans.

Depuis l'Eurasie, ces traces de modernité culturelle passent par le Proche-Orient, il y a environ 100 000 ans, puis peuvent être suivies en Afrique jusque vers 80 000 ans (les plus anciens fossiles d'hommes modernes datent de quelque 200 000 ans).

Pour autant, entre 40 000 et 35 000 ans avant notre ère, peu de temps après l'arrivée des premiers hommes anatomiquement modernes en Europe, les figurines et les instruments de musique faisaient incontestablement partie du fonds culturel européen.

La place de la musique se manifeste notamment avec des flûtes taillées dans l'ivoire et témoignant d'une maîtrise parfaite. Neandertal ne serait donc pas du tout de la fête contrairement à ce que prétend La Recherche et d'autres tentatives récentes de l'identifier à nous.

Les découvertes du Jura souabe indiquent que l'homme anatomiquement moderne de l'époque aurignacienne avait développé une diversité culturelle comparable à celle des sociétés ultérieures. Les Néandertaliens qui, au Paléolithique moyen, occupaient la plus grande partie de l'Europe ne sont pas allés aussi loin. C'est pourquoi nous pensons que la présence de nos ancêtres de l'âge de pierre a poussé les Néandertaliens, peu nombreux, vers l'extinction, non seulement parce que Homo sapiens fabriquait des armes et des outils plus performants, mais aussi parce que le langage symbolique, attesté par les bijoux, figurines et instruments de musique qu'il employait, lui procurait nombre d'avantages. C'est la modernité culturelle qui est à l'origine du succès démographique de l'homme anatomiquement moderne pendant l'Aurignacien.

- Plongés dans le noir par un virus informatique ?, p72

Ce n'est que l'un des articles du mois sur la cyberguerre qui se focalise plutôt sur la mise hors service du réseau électrique (très exposé déjà aux éruptions solaires).

- Le principe de Peter, p82

La différence entre un texte humoristique et des travaux universitaires sérieux est parfois mince. Le principe de Peter est l'exemple même d'une loi dont le statut reste incertain.

Cela fait longtemps que je prends au sérieux ce qui se présentait pourtant comme un gag, faisant figurer le principe de Peter dans mon Prêt-à-penser (1993). En effet, il faut rendre compte des limites des organisations hiérarchiques et de leur bureaucratisation, ce qui explique pourquoi "tout va toujours mal", ce qui n'est pas rien !

Ici, Jean-Paul Delahaye montre que si "dans une hiérarchie, toute personne finit par atteindre son niveau d’incompétence", cela serait imputable à 2 causes : d'une part au phénomène de régression vers la moyenne (plus on monte moins on est exceptionnel), d'autre part à l'effet cliquet (une fois arrivé à son niveau d'incompétence, on est inamovible). Pour l'effet cliquet la meilleure méthode serait celle de l'armée : limiter le temps à chaque échelon (cela n'empêche pas l'armée de promouvoir des incompétents notoires en temps de paix). Pour la régression vers la moyenne, le plus efficace serait le tirage au sort.

Dans notre cas, le côté inattendu des conclusions a valu le prix Ig Nobel à l’étude italienne sur le principe de Peter qui prouve que des promotions décidées au hasard ne seraient pas absurdes dans certaines organisations hiérarchiques.

Aujourd’hui, dans de nombreux pays, les jurés des grands procès sont choisis au hasard, et il n’est pas absurde de soutenir qu’il faut faire jouer au hasard un rôle plus grand dans le choix des responsables de l’exécutif politique. Cela éviterait que le pouvoir ne soit accaparé par une classe politicienne inamovible de gens représentant assez mal l’intérêt collectif et d’accord entre eux pour éviter les réformes opposées à leurs intérêts.

En fait, l'étude italienne concluait que c'était le choix des plus mauvais pour les postes de direction qui maximisait l'efficacité globale (conformément à la régression vers la moyenne) mais avec des hypothèses absurdes.

Signalons deux autres maximes qui sont proches du principe de Peter sans reposer sur les mêmes mécanismes :

Quand un dispositif fonctionne bien, on l'utilise au-delà de ce pour quoi il était prévu, et cela jusqu'à ce qu'il ne fonctionne plus (William Corcoran, spécialiste sureté nucléaire).

C'est ce qu'on retrouve dans l'idéologie trop généralisante et dans les paradigmes scientifiques, entre autres...

Un logiciel informatique qui donne satisfaction tend à se développer et à se perfectionner jusqu'au point où plus personne n'en maîtrise la complexité... et le fonctionnement.

Cette fois, on se confronte à l'effondrement des systèmes artificiels trop complexes et devenus trop fragiles alors que les systèmes vivants sont d'autant plus robustes qu'ils sont complexes. Le point commun à toutes ces maximes, c'est qu'à continuer dans une direction, on rencontre une limite ou l'on assiste à un retournement, principe de la dialectique qui disqualifie toute position dogmatique et tout principe trop absolu.



La Recherche no 455, Un nouveau monde quantique


Dossier décevant où la "théorie de l'information" n'est que la maîtrise de la cryptographie quantique et de l'intrication comme preuve de la mécanique quantique. Le seul article intéressant est celui d'Alexei Grinbaum (La limite d'un étrange lien à distance, p52) mais difficilement compréhensible d'autant qu'il n'est pas expliqué comment "la borne de Tsirelson" est calculée. On apprend simplement que si les inégalités de Bell impliquent que la somme des corrélations quantiques soit supérieure à 2, sa valeur ne pourrait dépasser 2 x racine de 2 (environ 2,8284).

On démontre que, si les ressources cachées dans la boîte noire obéissaient à la physique classique, qui est entièrement locale, cette formule ne donnerait jamais un résultat supérieur à 2. En mécanique quantique, on dépasse cette limite. Mais pourquoi doit-on s'arrêter à la borne de Tsirelson ? Rien n'oblige a priori que la somme de quatre nombres, chacun entre +1 et -1, ne soit jamais supérieur à 2 racine de 2. Pourquoi ne pourrait-on pas obtenir la valeur 4. La valeur maximale ?

Une des explication donnée reformule les relations d'incertitude sous leur forme entropique qui mettraient une limite à la non-localité mais le fait que les mesures expérimentales ne dépassent pas 2,7252 pourrait indiquer que la non-localité serait un peu plus restreinte que ne le suppose la théorie quantique actuelle. Par contre, le recours à une sorte de théorie de l'information pour justifier une limite à la non-localité n'est guère convaincant, plutôt de l'ordre de la pétition de principe, tout au plus d'une démonstration par l'absurde.

- L'optogénétique, méthode de l'année 2010, p8

On en parle régulièrement depuis le mois d'avril de cet étonnant contrôle génétique par la lumière mais cette fois ce sont des cellules modifiées qui ont été mises dans des capsules transparentes de 400 micromètres et implantées sous la peau avant d'activer leur production de protéine par l'exposition à une lumière bleue, ce qui pourrait servir à contrôler la production de substances médicamenteuses bien qu'on soit encore loin de pouvoir transposer l'expérience des souris aux hommes.


- Un quasar lointain éclaire les débuts de l'univers, p12

Ce qui est fascinant, c'est la prétention de reconstruire avec si peu un état si ancien de l'univers, le pire, c'est que c'est peut-être vrai mais la base semble quand même fragile puiqu'on suppose qu'après une phase opaque, où la combinaison de particules chargées les avait transformé en hydrogène neutre (opaque), leur effondrement gravitationnel en étoiles aurait produit un rayonnement formant des bulles transparentes à la lumière. Or le quasar (rayonnement d'un trou noir supermassif) observé, âgé de 12,9 milliards d'années quand l'univers n'avait que 770 millions d'années, présente des pics d'intensité qui sont interprétés comme le passage de la lumière du quasar à travers ces bulles transparentes, jusqu'à calculer qu'il y aurait eu à l'époque 10% d'hydrogène neutre opaque et 90% hydrogène ionisé et d'hélium transparents...


- Des canettes de soda pour créer une "superlentille" sonore, p15

C'est plus qu'anecdotique mais démontre que la recherche sur les métamatériaux n'est pas cantonnée aux nanotechnologies.

- L'ADN maternel contrôle le développement de l'embryon, p22

Cela ne concerne pour l'instant que les plantes à reproduction sexué où c'est l'ADN maternel qui prend en charge les premières divisions cellulaires des 2 ou 3 premiers jours en inhibant par des ARNs non codants l'ADN du mâle avant de le désinhiber au stade des 64 cellules qui détermine déjà l'organisation fondamentale de la plante. On ne sait si ça s'applique aux animaux et à l'homme mais cela pourrait expliquer que le chromosome Y se soit délesté d'une partie de ses gènes ?

- L'aurignacien neandertalien ?, p25

Leur interprétation semble un peu rapide de la découverte dont on avait parlé le mois dernier d'une concomitance en Ukraine, il y a 40 000 ans, des hommes modernes et de la culture gravettienne : c'est que la culture précédente, l'aurignacien, serait celle de neandertal, prétendent-ils, ce qui le rapprocherait un peu plus de nous mais n'est pas du tout ce qu'on a vu dans Pour la Science !

- Les disques durs pollués à 90%, p32

Les disques durs de nos ordinateurs ou des serveurs sont encombrés de fichiers inutiles, résidus d'installations ou fichiers temporaires qui ne sont jamais utilisés. C'est inévitable dès lors que la complexité du système et le nombre de fichiers empêche qu'on puisse avoir un contrôle total sur ses fichiers (qu'on sache lesquels sont inutiles). On est quand même étonné des chiffres (qui doivent être très variables) de 20% de fichiers représentant 98% de l'espace disque utilisé. On est plus étonné encore d'apprendre que la solution d'effacer les fichiers inutiles d'un serveur ne serait pas souhaitable à cause de la consommation d'énergie que cela représenterait sur un gros centre serveur !

- La cyberguerre, p62

Comme on l'a vu, les Etats s'organisent et préparent leurs moyens de guerre mais pour combattre les botnets (réseaux d'ordinateurs infectés pour le spam ou les virus) le meilleur moyen serait de les infiltrer en jouant la taupe pour les tromper, comme quoi le jeu n'a pas changé du chat et de la souris...


Sciences et Avenir no 775, La vérité sur le bio


Le dossier sur le Bio, p46, est une défense de ses avantages mais, surtout depuis Fukushima, Sciences et Avenir a viré complètement écolo et anti-nucléaire, notamment sa directrice de rédaction Dominique Leglu qui aborde p74 la question du démantèlement des centrales nucléaires et de son chiffrage sous-estimé.

On peut conseiller aux "sceptiques" l'article p8 expliquant l'effondrement des Twin Towers qui ne convaincra pas les complotistes mais qui dissipe les zones d'ombres qui restaient sur le comportement des bâtiments. Cela n'empêche pas que le rôle de la CIA n'est pas clair dans cette affaire qui aurait pu être évitée si la CIA avait informé le FBI.

L'explosion d'AZF garde aussi ses zones d'ombre (p13), le scenario retenu officiellement étant possible mais peu assuré (il y avait tout de même bien des produits potentiellement explosifs).

On apprend aussi, p32, que 46 000 personnes se sont installées chaque année, entre 1999 et 2006, dans des zones inondables d'Île-de-France !

Le buzz du mois, p94, c'est la sortie du livre Bons baisers des bonobos de Vanessa Woods.




Brèves et liens



Physique


cosmologie, astronomie, physique quantique

- La nouvelle théorie de Lee Smolin : l'espace des moments

Cette théorie semble utiliser les octonions dont on parlait le mois dernier, en tout cas elle suppose 8 dimensions. On avait vu que pour représenter 3 dimensions il y avait besoin de 4 coordonnées et j'avais suggéré que pour 4 on pouvait en avoir besoin de 8. Or l'originalité de la théorie de Lee Smolin, c'est de déterminer un "momemtum space" où l'énergie constitue une dimension en soi, une nouvelle profondeur (un peu comme l'expansion pour les quaternions?). Cette reprise d'une théorie de Born (Born reciprocity) implique une courbure de l'espace des moments en fonction de l'énergie, ce qui impliquerait une relativité de la localisation des objets qui ne seraient pas à la même place selon le point de vue et l'énergie.

- Le temps n'aurait pas de fin

Je signale cette théorie car elle est d'Alan Guth mais c'est un peu du délire, ne serait-ce que du fait de se situer dans l'hypothèse folle du multivers où toutes les probabilités se produiraient. Cela n'est intéressant que comme symptôme de l'état de notre ignorance et de ce que permettent les équations. De quoi aussi évoquer Hegel et surtout Kojève, pour qui le temps doit avoir une fin, comme un livre se termine par un point final, ou toute phrase nous donnant le dernier mot. L'analogie fait penser qu'un temps qui se termine ne serait que le début d'un autre temps comme une phrase appelle une autre phrase et tous les livres définitifs n'empêchent pas l'inflation constante de livres...

- Le principe de médiocrité

Rien à voir avec le principe de Peter pour ce qui est seulement la probabilité d'être dans la moyenne. C'est une réflexion (sans mathématique) sur l'inflation et de supposés multivers qui seraient toujours en inflation et pourraient provoquer des collisions avec le nôtre. Le principe de médiocrité n'est qu'une hypothèse privilégiant le fait que notre situation correspondrait à une moyenne au lieu d'en faire une exception au nom du principe anthropique. Pour qu'un univers soit créé à partir du vide, il faut que son énergie totale soit nulle, le positif égalant le négatif et l'énergie créée étant équilibreé par la gravitation considérée comme une énergie négative (on a l'impression que l'énergie est comptée 2 fois, 1 fois comme énergie électromagnétique et une fois comme masse gravitationnelle ?). Il nous prédit qu'on serait avalé par une bulle d'univers en inflation à énergie négative nous précipitant dans un Big Crunch et pouvant arriver à tout moment. Tous cela est très spéculatif et basé sur rien, l'inflation elle-même étant plus que contestable, ce qu'on avait vu le mois dernier...

- La gravité n'est pas une émergence entropique

En 2010, Erik Verlinde avait émis l'hypothèse que la gravité (et l'inertie) ne serait pas une force comparable à la force électromagnétique mais un simple effet entropique et statistique, seulement l'étude de la gravité sur les neutrons dément cette interprétation (que j'avais critiquée).

- La matière noire, un effet inertiel de la relativité générale ?

Dans un espace non-Euclidien, il n'y a pas équivalence entre la masse gravitationnelle et inertielle, la masse inertielle apparaît augmentée de la courbure de l'espace-temps d'une valeur correspondant à celle de la matière noire supposée.

- L'évaporation des trous noirs manifesterait des dimensions supplémentaires

Si la théorie des cordes a raison, l'existence de dimensions supplémentaires devrait accélérer l'évaporation supposée des trous noirs, ce qui pourrait se détecter par la perte de force gravitationnelle sensible dans l'éloignement d'étoiles en orbite autour du trou noir.

Tout ceci reste très spéculatif mais ouvre la voie à une vérification de la théorie des cordes qui ne passe plus par un accélérateur mais par l'observation de phénomènes cosmiques qui sont inaccessibles à l'expérience, voie du futur sans doute.

- Des trous noirs entourés de nuages de poussière

L'émission de rayons X repérée dans une partie des quasars a un pic dont l'énergie équivaut à celle des rayons X balayant l'Univers dans son ensemble. Les astrophysiciens peuvent conclure que ces rayons sont émis par nombre de trous noirs, dissimulés par des nuages.

On vient d'ailleurs d'observer des rayons X attestant d'une étoile avalée par un trou noir et produisant un jet relativiste caractéristique (qui reste mystérieux pour moi) à 99,5% de la vitesse de la lumière. L'intéressant, c'est que le phénomène dure plusieurs mois alors qu'on imaginerait que ce soit beaucoup plus rapide.

Voir aussi Futura-Sciences.

- Une planète en diamant

Cette planète, située à 4000 années-lumière de la Terre, orbite autour d’un pulsar, une toute petite étoile à neutrons tournant très vite sur elle-même. Elle en fait le tour très rapidement (en 2h10 min) et se situerait seulement à 600 000 Km de son étoile, soit même pas le rayon du Soleil.

La planète est elle aussi assez petit, environ cinq fois le diamètre de la Terre, mais en revanche à une masse qui avoisine celle de Jupiter. Les astronomes pensent qu’elle est le reliquat d’une étoile, une naine blanche, dont la majorité de la matière a été aspirée par le pulsar.

«Ce qui reste est composé de carbone et d'oxygène » a déclaré le Dr Michael Keith (CSIRO), l'un des membres de l'équipe de recherche. La densité de cette planète signifie que ce matériau est certainement sous forme cristalline : en clair, elle majoritairement composé de diamant.

- Explosion d'une supernova à 21 millions d'années lumière

L'explosion devrait être visible, quoique difficilement, début septembre. Il y aurait même une deuxième supernova de l'été.

- Les neutrons deviennent carrés dans les étoiles à neutron

D’après les calculs des deux chercheurs, dans des étoiles à neutrons très massives, comme c’est le cas avec PSR J1614-2230, et donc dans certains pulsars et magnétars, la pression devient si grande que les neutrons se déforment pour devenir une sorte d’empilement de cubes. Ce serait un peu comme ont tendance à le faire des oranges empilées et tassées fortement.

Cela se produirait lorsque la densité de la matière nucléaire dans une étoile à neutrons atteindrait les 1015 g/cm3. En prenant cette forme de cube, le volume individuel des neutrons diminuerait de 24 %.

- Eruption solaire, la plus puissante en cinq ans

- Vidéo de la tempête solaire


Premières images d’une tempête solaire autour de... par sciencesetavenir

- De l’eau liquide sur Mars ?

Des chercheurs ont identifié de nouvelles marques à la surface de Mars qui pourraient correspondre à des traces d’eau liquide.

Mais cela pourrait être de la lave plutôt.

- La Lune aurait absorbé une autre lune

Il fut un temps où la Terre avait deux lunes. Les deux faces de la Lune sont très différentes, notamment l'épaisseur du manteau, ce qui pourrait venir du fait qu'après la collision ayant arraché un morceau de Terre, plusieurs lunes se seraient formées avant de fusionner.

Les 2 lunes auraient été produites par la collision entre la Terre et une plus petite planète, Théia, genre de collision qu'on observe ailleurs.

- La Lune plus jeune qu'on ne croyait

Cette nouvelle datation résulte de l’analyse d'isotopes de plomb et de néodyme trouvés dans un échantillon d'anorthosite, la plus vieille roche de la croûte lunaire (FAN, ferroan anorthosite). Cette roche s'étant révélée significativement plus jeune que les estimations précédentes, les scientifiques ramènent aujourd’hui l’âge de la Lune à 4,36 milliards d'années, quelque 20 millions d’années après la formation du Système solaire, estimée à 4,568 milliards d’années.

- Des réacteurs nucléaires compacts pour la Lune et Mars

Les réacteurs nucléaires compacts pourraient devenir la source d'énergie principale pour les bases scientifiques spatiales lunaires et martiennes, ont déclaré lundi des chercheurs américains.

Notre réacteur ressemble à une petite valise qui mesure 30 cm x 15 cm. Cette "valise" nucléaire produira environ 40 kW d'électricité sur la Lune, une quantité suffisante pour huit maisons sur la Terre".

- Jouer au billard pour détourner des astéroïdes

C'est un programme européen appelé Don Quichotte, pour nous protéger d'un astéroïde fonçant sur nous !

- Les Chinois veulent détourner Apophis de la Terre

Voir aussi physorg.

- Une ceinture d'antiprotons autour de la Terre

Les rayons cosmiques produisent des anti-protons comme dans les accélérateurs. La plupart sont annihilés mais une partie reste piégée par le champ magnétique terrestre formant une ceinture d'anti-protons autour de la Terre.

- L'expansion de la Terre n'est pas la cause de la dérive des continents

L’idée que la dérive des continents n’est pas causée par la convection mantellique mais par une croissance continue de la taille de la Terre vient de recevoir une nouvelle réfutation par un groupe de géophysiciens américains, français et hollandais. La variation moyenne annuelle est si faible qu’elle peut être statistiquement considérée comme nulle.

Dans les années 1950, cette théorie n’est pas absurde car des physiciens du calibre des fondateurs de la physique quantique, à savoir Paul Dirac et Pascual Jordan, spéculaient sur une variation séculaire des constantes de la physique, en particulier celle de la gravitation. Une lente variation de la constante de Newton, modifiant l’intensité de l’interaction gravitationnelle entre deux masses fixes, pouvait fort bien conduire à une augmentation constante de la taille de la Terre, entraînant la fracturation d’un continent primitif, la Pangée de Wegner, comme le montre l’animation.

Le résultat est tombé. Le rayon moyen de la Terre ne change pas à une incertitude de mesure de 0,2 millimètre par an.


- Le boson de Higgs brille par son absence

L'annonce du mois dernier était bien prématurée, les données prouveraient au contraire l'absence du boson de Higgs aux énergies testées, la probabilité qu'il n'existe pas se renforce bien qu'il reste des niveaux d'énergie à tester, aux limites de ce que peut faire le LHC qui a pourtant été construit pour cela ! J'ai toujours trouvé cette hypothèse arbitraire et d'ailleurs il n'y aurait rien de plus décevant que de le découvrir, son absence obligeant à reconsidérer la détermination de la masse, c'est-à-dire la portée des interactions qui pourrait dépendre du bruit notamment ou plus simplement de l'énergie (de la longueur d'onde).

Pour les tenants de la supersymétrie, la masse du Higgs devrait se situer dans la partie qui reste à explorer, proche de la masse des bosons W et Z, sauf que, pour l'instant les résultats du LHC ne semblent pas confirmer la supersymétrie...

- Compter les photons un à un et garder leur nombre

L’équipe de Serge Haroche, Michel Brune et Jean-Michel Raimond a mis au point une cavité composée de deux miroirs supraconducteurs, refroidis à une température approchant le zéro absolu (–273°C). Les photons rebondissent contre ces parois ultra-réfléchissantes au lieu d’être absorbés. Pour réaliser des mesures sur les photons piégés sans interagir avec eux, les chercheurs utilisent des atomes bien spécifiques qui n’absorbent pas l’énergie du photon. En revanche en passant dans la cavité ils sont modifiés au contact du photon et fournissent ainsi de précieuses informations sur sa présence.

Avec ce système de "lecture non destructive" des modifications d'état d'un seul atome, non seulement on peut compter les photons avec précision mais on peut en garder le nombre avec une boucle de rétroaction permettant de rajouter les photons manquants qui se seraient échappés, un équivalent du thermostat ou de la correction d'erreur qui devrait permettre de nouvelles expérimentations (ou calculs quantiques).

Voir aussi Techno-Science.

- Un cristal de skyrmions magnétique

Tony Skyrme cherchait à mieux comprendre la nature des nucléons et des forces nucléaires fortes. On savait déjà que les protons et les neutrons étaient des fermions de spin demi-entier et qu’ils échangeaient des sortes de photons, le fameux boson de Yukawa de spin entier, le pion.

À première vue, l’idée semble absurde. Comment obtenir des particules de spin ½ à partir d’états composites de particules de spin nul ?

C’est là qu’intervient le caractère non linéaire de l’équation. De même que dans un fluide, lui aussi décrit par une équation non linéaire (celle de Navier Stokes), il peut se former des tourbillons stables avec un moment cinétique, on pouvait considérer protons et neutrons comme des sortes de tourbillons dans un fluide de pions. Ces configurations, qui rappellent celles des solitons, sont aujourd’hui appelées des skyrmions.

Dans le cas présent, l’élément du cristal de Skyrme en deux dimensions n’est formé que de quinze atomes et, surtout, l’ordre magnétique apparaît spontanément sans l’intervention d’un champ magnétique extérieur.

- Rendre le vide supraconducteur avec un champ magnétique

Le fait que le vide se comporte comme des métamatériaux devrait avoir eu des conséquences sur la lumière des origines.

- Transformer des métaux en métamatériaux avec un champ magnétique

C

Des chercheurs autrichiens annoncent que même les métaux communs peuvent avoir un indice de réfraction négatif, s’ils sont placés dans un champ magnétique.

« Nous soumettons le métal à un fort champ magnétique et en l’irradiant avec précision avec de la lumière à une longueur d’onde correcte nous obtenons une réfraction négative » explique Andreï Pimenov, dans la revue EPL. Le chercheur utilise un rayonnement micro-onde projeté sur des feuilles de métal très fines. En raison des effets de résonance magnétique sur le métal, la lumière est pliée de façon drastique à la surface du métal.

- Une cape d'invisibilité pour la lumière visible

On savait rendre invisible des objets aux micro-ondes notamment mais cette fois, c'est bien l'invisibilité à la lumière qu'on obtiendrait grâce à un guide d'onde en nitrure de silicium sur un substrat nanoporeux d'oxyde de silicium qui a un index de réfraction très bas (n<1.25). Le résultat est obtenu par gravure des trous de différentes tailles dans la couche de nitrure. Le dispositif produit une invisibilité à large bande dans le spectre visible avec de faibles pertes.

- Changer le bore d'acide en base

Le Français Guy Bertrand, vient de réaliser ce qui semblait impossible : obtenir d’un composé acide qu’il se comporte comme une base.

Le nouveau borane obtenu possède une paire d'électrons supplémentaire sur l'atome de bore, il se comporte donc comme s'il présentait un excès d'électrons, c'est-à-dire comme une base au sens de Lewis. Pour le moment, les auteurs ignorent les réactions qui pourraient être catalysées par ce borane mais ce devrait être dans le domaine de la catalyse organométallique et organique, probablement au moins pour la fabrication de médicaments.


- Des transistors en diamant pour résister à la radioactivité

« Quand j'ai pris connaissance des problèmes à la centrale de Fukushima après le tsunami japonais, j'ai réalisé que les circuits en nanodiamants seraient parfaits pour les systèmes de sécurité électroniques dans les réacteurs nucléaires. Ils ne seraient pas affectés par les niveaux de radiation élevés ou les températures élevées créées par les explosions ».

On comprend tout l’intérêt des travaux menés depuis des années par Jimmy Davidson à l’université Vanderbilt concernant des composants électroniques avec des nanodiamants. Bien plus résistants aux radiations ionisantes, ils peuvent fonctionner à des températures de plusieurs centaines de degrés au-dessus et au-dessous de 0 °C.

Les chercheurs ont mis au point une technique permettant de déposer des films de nanodiamant à partir de vapeurs d’hydrogène et de méthane. Des composants électroniques peuvent ainsi être générés à des coûts dérisoires et moins d’un carat de diamant se retrouve sous la forme d’un milliard de ces composants.

- Des lasers à double photons

Ce sont des nouvelles molécules avec des électrons qui restent isolés et qui seraient capables d'absorber et de restituer 2 photons à la fois.

"Les électrons qui gravitent autour des atomes ont tendance à 'communiquer' deux par deux, c'est ainsi que naissent les liaisons chimiques. Certaines molécules (diradicalaires) comportent également des électrons isolés, ce qui leur confère des propriétés inhabituelles. Ces électrons non appariés ne restent en effet pas totalement inactifs et c'est leur 'communication' particulière, sur laquelle on peut influer, qui génère des propriétés précises".

Une telle capacité d'absorption lumineuse, grâce à son caractère non-linéaire, laisse entrevoir des applications en optoélectronique. Elle permettrait notamment de miniaturiser certains matériaux ou d'en augmenter les performances. Par exemple, le laser d'une tête de lecture de dvd "à deux photons" serait capable de lire quatre fois plus d'informations qu'un autre, de taille égale, mais "à un photon".


Climat


Climat, écologie, énergies

- Influence des rayons cosmiques sur la formation des nuages

Les premiers résultats, publiés par Nature, de l'expérience CLOUD menée au Cern (dont on parlait en juin), apportent enfin des éléments précis sur l'impact des rayons cosmiques sur la formation des aérosols - de potentielles 'graines' de nuages. Un élément clef pour le climat.

Les ions augmentent le taux de nucléation des aérosols. Cependant, cet impact est plus fort à 15 km d’altitude que dans les couches basses de l’atmosphère. A environ un kilomètre de la surface de la Terre, les trois composants habituels de la nucléation ne suffisent pas pour produire la quantité d’aérosols observée dans le monde réel, expliquent les chercheurs. Même la présence d’ions ne rétablit pas la balance. D’autres éléments entrent donc en jeu, notamment des composants organiques capables de stabiliser la nucléation. Quantifier le rôle de ces ‘contaminants’, d’origine naturelle ou anthropique, est le prochain travail de l’expérience CLOUD.

D’après l’hypothèse du Danois Henrik Svensmark (Institut national spatial de Copenhague), la couverture nuageuse est liée à l’intensité du rayonnement cosmique, qui lui-même dépend de l’activité solaire (le champ magnétique solaire protégeant la terre des rayons cosmiques).

Les résultats de CLOUD ne permettent pas de tirer des conclusions sur la formation des nuages, l’expérience n’observant que la nucléation des aérosols. «Rien ne dit que dans l’atmosphère la majeure partie de la nucléation vienne de la présence d’ions, analyse de son côté Paolo Laj. S’ajoute ensuite le problème de l’évolution de ces particules pendant plusieurs jours». La nucléation n’est qu’une étape dans le processus de condensation qui permet la formation de gouttelettes puis de nuages.

Voir aussi Futura-Sciences.

En clair, si les chercheurs ont bien montré que les rayons cosmiques favorisaient l’apparition d’aérosols (d’un facteur 10) à partir d’un mélange de vapeur d’eau, d’ammoniac et d’acide sulfurique à des altitudes de plus de 5 km, avec des températures inférieures à -25 °C, ils n’ont observé qu’une faible production pour les couches de l’atmosphère plus basses, en contradiction avec ce que l’on pensait.

Pour certains, cela prouverait que le réchauffement ne serait pas dû au CO2, ce qui est absurde. Par contre cela pourrait expliquer à la fois l'optimum du Moyen-Âge et le petit âge glaciaire limités à l'Europe à cause de changements du régime des vents liés aux rayons cosmiques (et donc aux tâches solaires) mais toute conclusion est prématurée en l'état actuel de nos connaissances, y compris le fait qui reste probable qu'on entre dans un minimum de Maunder car on vient d'observer le retour de quelques tâches solaires.

- Les éruptions volcaniques plus que le charbon chinois

On avait expliqué le ralentissement du réchauffement par l'augmentation du soufre stratosphérique attribué au charbon chinois alors qu'il viendrait plutôt, et comme toujours, de l'activité volcanique, même sans éruptions spectaculaires. Ce qui confirme qu'on est entré dans une phase plus active du volcanisme et de la tectonique des plaques.

Pour déterminer précisément l'origine et estimer l'ampleur de cette augmentation des aérosols stratosphériques au cours de la dernière décennie, des équipes de chercheurs (2) ont analysé les séries de données de concentrations d'aérosols acquises par plusieurs missions spatiales (3). Ces chercheurs ont montré que leur augmentation observée par satellite entre 2000 et 2010 était largement due à de fréquentes mais petites éruptions volcaniques injectant du dioxyde de soufre dans la basse stratosphère des régions tropicales et qu'elle s'élevait en moyenne à 5-7 % par an.

Ils ont montré que l'augmentation moyenne de la concentration des aérosols dans la stratosphère durant la dernière décennie avait induit un forçage radiatif sur ces dix dernières années d'environ - 0.1 W/m2. Or, un tel refroidissement est tout à fait significatif au regard du réchauffement induit durant la même période par l'augmentation moyenne de 0.5 % par an de la concentration du dioxyde de carbone dans l'atmosphère et estimé à + 0.3 W/m2. La présence de ces aérosols durant la dernière décennie semble donc avoir eu pour effet de diminuer la température au sol de 0.07 °C, par rapport à ce qu'elle aurait dû être en 2010.

- Le NO2 renforce le réchauffement

Le sol peut, sous l'effet couplé d'un incendie et d'une augmentation de la teneur en dioxyde de carbone, relâcher beaucoup plus d'oxyde nitreux, un puissant gaz à effet de serre, que sous l'effet des deux phénomènes pris séparément.

Le feu a stimulé la production par le sol d'un puissant gaz à effet de serre, l'oxyde nitreux (N2O), et ce durant au moins les trois années suivant la perturbation. De manière surprenante, les traitements simulant les conditions climatiques "futures", en particulier l'augmentation de la teneur en CO2 et des apports azotés, ont amplifié les effets du feu sur les émissions de ce gaz à effet de serre. Ainsi, les parcelles brûlées ont vu leurs émissions doubler, tandis que les parcelles brûlées et par ailleurs soumise à un niveau élevé en CO2 et en azote ont vu leurs émissions multiplier par six. Cette réponse est due à une stimulation de l'activité de microorganismes du sol (les microorganismes dénitrifiants) qui sont capables de respirer le nitrate dans le sol (tout comme nous respirons l'oxygène dans l'air) et, ce faisant, produisent du N2O.

- Gaz à effet de serre en hausse de 3,9% aux États-Unis

- Une prolongation du courant du Labrador en eau profonde

Un nouveau courant marin vient d’être identifié entre l’Islande et le Groenland. Froid et profond, il déverse de l’eau polaire dans l’Atlantique nord et participe ainsi à la grande boucle qui permet les échanges de chaleur entre tropiques et Arctique. Une nouvelle expédition vient de partir pour en identifier la source et comprendre en quoi le réchauffement climatique peut affecter son cours.

- La fonte de l'Arctique ne serait pas si inquiétante...

Sur la durée étudiée, les résultats font apparaître quatre grandes phases où le climat a varié. La fin de la déglaciation est nettement suivie il y a 8.500 ans par une phase plus chaude appelée « optimum climatique de l’Holocène ». Les caractéristiques de l'orbite terrestre (excentricité, obliquité, précession) étaient telles que l’hémisphère nord recevait 8 % de chaleur de plus que de nos jours. Cela explique en partie des températures arctiques (et non pas globales), alors entre 2 et 4 °C supérieures aux actuelles. À cette époque, la limite de fonte estivale de la banquise était à une latitude de 83 °N, près de 1.000 km au nord de sa position actuelle. Avec ces données, la taille de la surface englacée toute l’année calculée par simulation semble avoir atteint alors à peine 50 % du minimum record de 2007. À partir d’il y a 6.000 ans, l’englacement augmente à nouveau jusqu’à un maximum il y a 2.500 ans. Puis le climat reste globalement frais durant une dernière phase caractérisée par des modifications rapides de la provenance de la glace.

Une partie de la période plus chaude appelée « optimum climatique médiéval » est nettement marquée entre 1100 et 1400 de notre ère, ainsi que le « petit âge glaciaire », plus froid, après 1400.

Svend Funder fait remarquer que le point de non-retour de la banquise au-delà duquel elle ne se reconstitue pas n’a pas été atteint avec des surfaces englacées moitié moindres que lors du minimum de 2007. Les conséquences d’un réchauffement limité semblent donc peut-être plus réversibles que prévu. Reste à savoir si le réchauffement sera limité…

On s'attend quand même à une diminution record des glaces et ce n'est bien sûr pas aujourd'hui le problème mais son aggravation dans les années à venir.

- Migrations climatiques : 17km par décennie

Avec en moyenne 17 km d’avancée par décennie (soit plus de 20 cm par heure vers le nord dans l’hémisphère nord), cette migration vers les hautes latitudes serait trois fois plus rapide que prévue !

En quittant les moyennes et en regardant en détail les données, les chercheurs ont été surpris de constater que tous les groupes (oiseaux, végétaux, insectes ou mammifères) ont un déplacement similaire. Les écosystèmes migrent. En revanche, à l’échelle de l’espèce, les mouvements peuvent être contradictoires. En vingt ans, un petit passereau, la bouscarle de cetti (Cettia cetti) s’est par exemple déplacé de 150 km vers le nord, pendant que le bruant zizi (Emberiza cirlus) descendait de 120 km. La réaction de chaque taxon dépend de ses exigences et capacités d’acclimatation à un nouvel environnement.

- El Niño favoriserait les conflits armés

C'est une corrélation statistique assez nette sans véritable explication.

- Un fleuve souterrain sous l'Amazone

Des scientifiques brésiliens ont découvert un fleuve souterrain qui coule sous l'Amazone, à 4.000 mètres de profondeur.

Grâce à cette découverte les chercheurs ont conclu que "la région amazonienne possède deux systèmes d'écoulement d'eau : le drainage fluvial à la surface qui forme l'Amazone et le flux des eaux souterraines à travers des couches sédimentaires profondes", qui forme le fleuve baptisé "Hamza".

"Il est probable que l'écoulement de ce fleuve souterrain d'eau douce soit responsable de la faible salinité de la mer dans la région de l'embouchure de l'Amazone".

Sciences et Avenir conteste cette présentation :

Une rivière souterraine coule-t-elle sous l'Amazone, l'immense fleuve brésilien? Pas exactement, même si des chercheurs affirment avoir découvert un important système hydrologique.

Cependant ce flot n’est pas une rivière ou un fleuve à proprement parler –malgré le terme de «fleuve souterrain» employé par les chercheurs eux-mêmes pour présenter leurs travaux- mais plutôt un écoulement d’eau à travers un milieu poreux.

- Fertiliser l'océan avec du fer pour absorber le CO2

Des expériences décevantes avaient montré qu'il ne servait à rien de fertiliser l'océan avec du fer, notamment par manque d'autres nutriments mais l'histoire du climat semble prouver le contraire les périodes froides se caractérisant par de plus grandes quantités de fer, ce qui suggère de reprendre les expériences sur une plus large échelle (cependant, il ne semble pas que ce soit réversible?).


- La Nasa parie sur l'hydrogène métallique

- Stocker la chaleur solaire dans du sel fondu

- Une verrière photovoltaïque qui garde la fraîcheur

L'appareil est constitué d'une matrice de lentilles en verre qui concentrent la lumière solaire directe sur étroites, bandes opaques de cellules photovoltaïques en arséniure de gallium et de germanium.

- Un solvant plus efficace pour récupérer le pétrole des sables bitumineux

On n'échappera donc pas à leur exploitation et à la prolongation déraisonnable de l'ère du pétrole.

- Transformer le sucre en butane

- Convertir l'énergie des pieds en électricité

Des niveaux de puissance beaucoup plus élevées qu'avec le piézoélectrique pourraient être produits avec des flux microscopiques de gouttelettes de métal semblable au mercure (Galinstan). Un tel dispositif d'électro-mouillage "inversé" dans les chaussures produirait jusqu'à 10 watts (il suffirait d'une prise usb dans la chaussure pour alimenter un mobile).

Voir aussi Technology Review.

- Les data centers de moins en moins énergivores

Entre 2000 et 2005, les data centers mondiaux ont vu leurs dépenses énergétiques exploser. L’expansion de l’Internet et l’informatisation de la société devaient aboutir à un doublement de leur consommation de 2005 à 2010. Or le phénomène s’est ralenti sur cette période (56% d’augmentation).

L’émergence de technologies informatiques et la virtualisation des serveurs (Cloud) ont contribué à la diminution de leur nombre et de ce fait à la baisse de consommation énergétique.

Google serait responsable de moins de 1% de l’électricité utilisée par l’ensemble des Datas centers. Au niveau mondial, la consommation de la firme est également minime, elle ne représente que 0.1% de l’utilisation totale d’électricité. Google étant plus que discret ces dépenses, ces données restent des suppositions extrapolées à partir des informations de l’entreprise.


- En Dordogne, on roule à la graisse de canard !

Contrairement aux agrocarburants de première génération, la valorisation des déchets gras ne concurrence pas les cultures destinées à l'alimentation humaine.

Ce sont ainsi près de 1.500 tonnes de déchets gras qui pourraient être valorisés chaque année dans le département, de quoi produire environ un million de litres de biodiesel. Pour réaliser la transformation, Jules Charmoy a sa recette : « dans un estérificateur, on chauffe la graisse à 120° pour éliminer l'eau. On réduit ensuite à 65°, on met de l'alcool et de l'hydroxyde de potassium. On agite pendant une heure, on laisse décanter : au fond, la glycérine se forme avec, au-dessus, le biodiesel ».

Même avec l'accord des douanes, le mélange final dans le réservoir ne doit pas dépasser 30 % de carburant « maison » pour 70 % provenant d’un produit pétrolier classique.

L'intérêt n'est à l'évidence pas d'ordre économique quand le coût de production atteint 1,11 euro le litre contre 0,92 centime pour le gasoil agricole. Pour eux, l’important est de montrer qu’il est possible de transformer certains déchets en ressources locales et de produire un agrocarburant qui ne cause pas de nouveaux problèmes écologiques.

- Dans 6 mois, de la viande de laboratoire

On avait parlé de la possibilité de produire des steaks synthétiques en cultivant des cellules animales au lieu de tuer des animaux, la commercialisation pourrait être assez rapide. Si le goût n'est pas trop mauvais, ce serait une bonne nouvelle pour l'écologie car la viande rouge nécessité trop de ressources.

Voir aussi The Telegraph qui précise que le premier steak synthétique aura tout de même un prix de revient supérieur à £200,000 !

Futura-Sciences apporte ces précisions sur le bilan écologique attendu :

  • une réduction de la consommation d'énergie de 45 % ;
  • une réduction des émissions de gaz à effet de serre de 96 % ;
  • une réduction de la superficie qui doit être utilisée de 99 % ;
  • une réduction de la consommation d'eau de 96 %.

- Faire pleuvoir avec des lasers

Lorsque l'air est humide, des lasers pourraient déclencher la pluie en créant de l'acide nitrique. On pourrait aussi utiliser les lasers pour empêcher la pluie...

- Une machine à fabriquer de l'eau

Baptisée "The Drought Master", cette machine aspire l'air humide pour le condenser, puis laisse repartir le gaz pour ne retenir au final seulement l'eau, qui est ensuite filtrée pour être prête à boire. "Cette eau ne provient pas du sol mais uniquement de l'air" explique Terry LeBleu. "Nous avons des océans d'eau à notre disposition dans l'air, tout ce qu'il y a faire c'est de parvenir à la capturer", poursuit-il.

Afin de parvenir à fabriquer de l'eau avec ce système ingénieux, il faut brancher le Drought Master sur une prise secteur et attendre simplement que la machine fasse le reste! Elle peut ainsi produire cinq à sept litres d'eau claire par jour, tout à fait propre à la consommation. Elle ne contient ni métaux comme le zinc ou le cuivre, ni de bactéries. Terry LeBleu affirme même que la compagnie chargée d'analyser la qualité de son eau a pu la comparer à de l'eau distillée stérilisée.

- Dépolluer l'eau en produisant de l'électricité

Des chercheurs chinois ont justement réussi un pas dans le sens du traitement « utile », puisqu'il produit de l'électricité. Il s'agit d'une sorte de pile à combustible photo-catalytique. L'énergie lumineuse dégrade la matière organique et génère au passage des électrons qui passent à travers la cathode : l'électricité est ainsi créée. Leur procédé utilise de plus la lumière naturelle plutôt que des UV.

Par contre les usines biologiques de traitement de l'eau rejettent trop de protoxyde d'azote.


- Sanofi-Aventis pollue

En moyenne, environ 60 % des poissons vivant en aval de l’usine présentaient à la fois des caractères sexuels mâles et femelles, contre 5 % en amont.

- Un maïs OGM cible d'un insecte auquel il devait résister

Un insecte vorace que combattent depuis longtemps les cultivateurs de maïs en Amérique du Nord se régale d'une variété répandue d'OGM conçue pour aider à éradiquer cette chrysomèle.

- L'uranium enrichi au laser

Après des années d'échecs, une entreprise américaine teste cette technique qui fait craindre de nouveaux risques de prolifération.


Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

- Les composants de la vie viennent bien de l'espace

Dans ces nouveaux travaux, les chercheurs de la Nasa ont analysé des échantillons de douze météorites riches en carbone, dont neuf qui ont été récupérées en Antarctique. Ils ont constaté la présence d'adénine et de guanine, qui forment l’ADN.

Ce n'est qu'une confirmation de ce qu'on savait au moins depuis 2007 (confirmé déjà en 2008), renforçant l'hypothèse de la "panspermie" ou plutôt que les composants de la vie sont les mêmes partout dans l'univers car, s'il est possible que des bactéries aient traversé l'espace, il est plus probable que la vie se recrée à chaque fois à partir des mêmes bases ou presque. Si la création de la vie est locale, il peut y avoir des variations dans ses constituants mais dans une gamme limitée. On a l'illustration encore une fois qu'il ne suffit pas d'avoir un esprit critique, "ouvert" à la diversité des formes de vie pour avoir raison. La vie est d'une diversité infinie mais ses constituants sont à peu près toujours les mêmes, permettant justement cette diversité.

S'il est important de trouver de l'adénine dans les météorites, c'est que sa synthèse est très difficile et ne paraît pas pouvoir être spontanée alors que c'est une molécule clé, intervenant dans l'ADN et l'ARN mais aussi dans l'ATP fournissant l'énergie de la cellule. On a trouvé d'autres éléments comme des acides aminés dans des météorites mais une partie a dû être synthétisée sur place. A partir de là, des ARNs ont pu se constituer, jusqu'à former des ribosomes qu'on retrouve dans toutes les cellules aussi et donc peut-être sur les autres planètes ?

Voir aussi Futura-Sciences.

- Confirmation du monde ARN à l'origine de la vie

Il semble de plus en plus probable que ce soient bien des ARN autocatalytiques qui soient à l'origine de la vie bien qu'il soit très difficile de synthétiser l'ARN et qu'il a peut-être été précédé de précurseurs plus faciles à produire (TNA, PNA ou ANA), notamment avec du phosphate. Il se pourrait aussi que cela se soit produit dans la glace où l'ARN est plus stable.


- De l'importance des ARN non codants

Chez l'Homme par exemple, les gènes codants ne représentent que 2% du génome, laissant un immense réservoir de séquences dont le rôle n'a encore jamais été caractérisé avec certitude.

Le développement des techniques de séquençage à très haut-débit a par la suite dévoilé que la quasi-totalité du génome est transcrite de manière pervasive, générant de multiples familles d'ARNs non-codants de taille variée, dont l'immense potentiel régulateur reste à découvrir. De récentes études ont montré que certains de ces ARNs non-codants jouent un rôle clé dans la carcinogénèse, en tant que suppresseurs de tumeur ou oncogènes.

L'équipe d'Antonin Morillon du laboratoire Dynamique de l'information génétique: bases fondamentales et cancer a été l'une des premières à avoir décrit, chez la levure bourgeonnante Saccharomyces cerevisiae, la régulation épigénétique exercée par deux grands ARNs non-codants instables impliqués dans le contrôle de la prolifération des transposons et de l'expression de gènes.

En effet, Plus de 1 600 ARNs non-codants y ont été identifiés, augmentant d'environ 30% la connaissance globale des gènes de la levure. Ces ARNs ont été appelés "Xrn1-sensitive unstable transcripts (XUTs)", du fait de leur capacité à être dégradés essentiellement par la nucléase cytoplasmique Xrn1. Les chercheurs ont également prouvé que ces ARNs sont transcrits en anti-sens des gènes et peuvent, dans certains cas, en contrôler l'expression via un mécanisme faisant intervenir une histone méthyle transférase.

Voir aussi Technoly Review sur le rôle des grands ARNs non codants, appelés lincARNs, dans le développement de l'embryon et ci-dessus.

- La vie la plus ancienne sur les plages ?

Ce sont seulement les plus anciennes traces de vie qu'on connaît (3,43 milliards d'années!) qui seraient très semblables à des bactéries avec des coques en silice qu'on trouve actuellement en couches noires sous les surfaces de sable fin mais l'environnement était très différent à l'époque, notamment par l'absence d'oxygène remplacé par le soufre. Ce qui est intéressant, c'est surtout de trouver un véritable fossile vivant qui semble très proche de ces bactéries originelles, bien qu'il ait dû forcément évoluer depuis ces temps reculés mais cela ne veut pas dire qu'il était le premier organisme vivant ni que la vie serait née sur une plage.

Voir aussi Sciences et Avenir. Futura-Sciences est beaucoup plus critique.


- Les mêmes contraintes conduisent aux mêmes évolutions

Les vers du genre Caenorhabditis – ainsi que de nombreux nématodes – ont un cycle de vie un peu particulier. Au stade larvaire, ils sont capables de détecter s’ils vont devoir lutter pour accéder aux ressources alimentaires, à l’image du quorum sensing chez les bactéries, grâce à des phéromones envoyées par leurs congénères. Si ceux-ci sont en nombre important ou si les ressources sont faibles, ils vont se plonger dans un état larvaire spécial, appelé larve dauer, qu’ils peuvent garder plusieurs mois et pendant lequel grand nombre de leurs fonctions se bloquent, réduisant à peu de chose leur consommation d’énergie. Ils peuvent ensuite revenir à la forme adulte quand l’environnement est moins hostile ou moins concurrentiel.

Mais les scientifiques ont observé que certaines populations de Caenorhabditis elegans faisaient fi des signaux envoyés et passaient directement au stade adulte. En effet, cela peut leur conférer un avantage, puisque malgré la forte densité, les ressources alimentaires en laboratoire sont toujours suffisantes.

Les scientifiques ont découvert que cette adaptation était le fruit de la perte de deux gènes responsables de la synthèse et du fonctionnement d’un récepteur aux phéromones émises par les vers.

Ils ont découvert que pour C. briggsae aussi, la perte d’un gène conférait cette capacité et en le comparant aux deux gènes perdus par C. elegans, ils se sont rendu compte qu’ils étaient le fruit de l’évolution d’un gène commun appartenant à leur ancêtre. En conclusion, alors qu’une centaine de gènes sont responsables du déclenchement du stade dauer, c’est le même gène qui a été modifié chez ces deux espèces.

Ce n'est pas une loi générale, seulement une probabilité mais qui rejoint les phénomènes de convergence pour montrer que le rôle du hasard n'est pas si grand ou plutôt qu'il n'a qu'une fonction variationnelle d'exploration des possibles mais que les formes du vivant et la logique de l'évolution sont presque entièrement déterministes, à partir du résultat, du réel, des contraintes effectives, de l'environnement, ce qui confirme aussi que la vie ailleurs ne serait pas si différente...

- De l'importance de la biodiversité

Le recul de la biodiversité à l'échelle mondiale fait craindre un déclin des services que les écosystèmes fournissent aux populations, notamment sur le plan de la production alimentaire, du stockage de carbone et de l'épuration de l'eau.

Aujourd'hui, en examinant les espèces végétales des prairies, des chercheurs ont constaté que la plupart des espèces étaient importantes, au moins une fois, pour le maintien des services écosystémiques. En effet, divers ensembles d'espèces étaient importants selon l'année, le lieu, les services et le scénario de changement global (p. ex. changement climatique et évolution de l'utilisation des sols). En outre, les espèces nécessaires pour fournir un service pendant plusieurs années n'étaient pas les mêmes que celles essentielles à la prestation de services multiples pendant une seule année. "Autrement dit, la biodiversité est encore plus importante qu'on ne le croyait auparavant pour le maintien des services écosystémiques".

Plus il y a d'espèces, plus le recyclage est efficient et résiste aux fluctuations climatiques ou environnementales. C'est l'illustration du principe contre-intuitif que plus un système naturel est complexe et plus il est résistant (à l'inverse des systèmes artificiels). Ceci dit, une réserve marine a montré une augmentation de diversité de 463% en 20 ans depuis l'arrêt de la surpêche.

Ce n'est sûrement pas l'argument principal pour préserver la biodiversité mais il est un fait qu'on trouve des substances thérapeutiques dans les insectes, comme on l'a vu plus haut, et que, par exemple, des plantes tropicales pourraient traiter le cancer des ovaires.

- 8.7 millions d’espèces sur Terre

C'est la nouvelle estimation du nombre total d'espèces sur la Terre. Elles se divisent en 6,5 millions d'espèces terrestres et 2,2 millions dans les profondeurs des océans.

86% de toutes les espèces sur terre et 91% de celles des mers sont encore à découvrir, à décrire et à cataloguer.

Voir aussi Futura-Sciences.

- La sixième extinction de masse menace un quart des mammifères

Un constat : la pression croissante des activités humaines sur l’environnement dépasse de loin les efforts de protection entrepris. La perte de biodiversité s’accélère, les menaces principales étant l’extension des terres agricoles et la déforestation qui détruisent l’habitat naturel des animaux, ainsi que les prélèvements trop importants (chasse) et l’introduction d’espèces invasives.

Centrée sur les mammifères, l’étude montre qu’un quart des 5.339 espèces recensées est menacé de disparition. Pourtant, ils constituent le groupe le mieux protégé grâce à plusieurs espèces emblématiques dont la disparition touche le public. Parmi eux, les animaux insectivores comme les tatous, les fourmiliers, ou certains primates sont les plus menacés.

On arrivera sans doute à sauvegarder quelques spécimens dans des réserves qu'on espère seulement d'assez grande taille mais les politiques de protection s'avèrent efficaces; ainsi on assiste au retour de la morue.

- Un film avec des nanopores accélère les boîtes de Petri

- Pas de bactéries à l'arsenic

En 2010, des chercheurs de la Nasa avaient découvert une bactérie capable de se développer en utilisant l'arsenic. Rosie Redfield, une chercheuse canadienne, a décidé de répéter ces travaux contestés afin d'y déceler les erreurs, et de publier ses recherches sur un blog, relançant ainsi le débat sur la science ouverte.

Selon les résultats de Rosie Redfield, les bactéries ne se sont pas nourries d'arsenic, mais bien du peu de phosphate présent dans le milieu riche en arsenic où elles vivaient. Cette faible quantité de phosphate est suffisante pour le développement des bactéries, contrairement à ce que pensaient Felisa Wolfe-Simon et ses collègues.

On vous l'avait bien dit !

- Voir l'interaction des protéines et de la membrane

De nombreux échanges de substances et de nutriments ont lieu au niveau de la membrane des cellules. Des chercheurs de l'EPFL ont développé une méthode permettant de mieux les observer, en comptant avec une grande précision les protéines qui s'y trouvent.

Cette recherche se base sur les informations de très haute résolution fournies par une technique bien particulière de microscopie à fluorescence appelée PALM (Photo Activated Localization Microscopy). Mise au point il y a à peine cinq ans, cette technologie a révolutionné le domaine de l'imagerie moléculaire. Elle fonctionne sur le principe du captage de la lumière émise par certains corps à l'échelle nanométrique, que ce soit de manière naturelle ou après avoir été combinés à une substance fluorescente (fluorochrome).

Une fois son échantillon biologique placé sous son microscope, le chercheur va "allumer" les molécules une à une par une série de flashs successifs. L'ensemble des clichés ainsi réalisés formeront une image d'une très grande précision, qui permet de localiser davantage de protéines à de très petites échelles.

- La communication universelle entre bactéries

On avait déjà parlé des filaments reliant les bactéries mais l'étonnant, c'est que cette communication directe entre bactéries par nanotubes ne se limite pas à une espèce mais ferait partie d'une communication universelle avec toutes les autres bactéries, échangeant des molécules aussi bien que des séquences d'ADN, bien avant tout organisme multicellulaire.

Les chercheurs ont découvert, étonnés, que plusieurs cellules étaient en effet reliées entre elles par des sortes de filaments. Ces structures tubulaires de quelques dizaines de nanomètres de diamètre pour quelques centaines de nanomètres de long sont en fait plus proches de tuyaux : émis par une cellule, ils se chargent de conduire spécifiquement à une autre cellule les molécules porteuses d’une information, génétique ou chimique.

Les microbiologistes ont alors voulu en savoir plus : ils ont cultivé ensemble différentes espèces. Là encore, il y a eu formation des conduits et échange de molécules entre Bacillus subtilis et Staphylococcus aureus, ainsi qu’entre Bacillus subtilis et Escherichia coli pourtant très distantes dans l’évolution. Par cette expérience, les chercheurs ont donc réussi à mettre en évidence une communication ciblée intraspécifique et interspécifique chez les bactéries.

- Les formes multicellulaires seraient plus efficaces pour digérer le glucose

Les champignons unicellulaires peuvent prendre des formes multicellulaires comme dans les candidoses, ce qui leur donnerait un avantage sélectif dans l'efficacité de la digestion des sucres.

On avait vu au mois de juillet que ces organismes multicellulaires étaient constitués "non pas bien sûr par regroupement de cellules isolées mais par des divisions cellulaires incomplètes, laissant les cellules attachées. Ensuite, le fait d'être sélectionnées comme un tout permet les spécialisations de cellules qui ont toutes le même patrimoine génétique".

- Des plantes broutées multiplient leur ADN

En réalité, pour les variétés chez qui on observe le rebond de croissance, la plante se lance après l’agression dans une opération de multiplication à tout va de ses chromosomes, sans pour autant diviser ses cellules. Résultat, au lieu de leurs dix chromosomes de départ, les cellules du cultivar Columbia peuvent en contenir plus de trois cent vingt !

Plus d’ADN implique un noyau plus gros. La cellule doit suivre et devenir plus volumineuse, ce qui, à terme et sur l’ensemble des cellules, finit par augmenter la taille de la plante.


- Les plantes nourrissent les champignons qui leur fournissent du phosphore

La symbiose entre les plantes et les champignons correspond à un échange de nutriments contre des glucides. Les nutriments du sol (ici l'azote N et le phosphore P) sont captés par le champignon. Les atomes de phosphore forment le polyphosphate (Poly-P) qui est capable de fixer l'arginine, formée à partir de l'azote. Les polyphosphates passent la barrière champignon-plante puis ils sont traités par la plante. Le carbone (C) fait le chemin inverse, de la racine au champignon, où il participe à la formation de la chitine.

C’est en suivant le trajet des atomes de carbone présents dans l’atmosphère (l’atmosphère expérimentale était composée d’un isotope de carbone pour pouvoir traquer les atomes) que les chercheurs ont ainsi pu voir la quantité de carbone offerte aux champignons en fonction de leur niveau de coopération. Cette technique a permis de mettre en évidence que quand les plantes sont en symbiose avec deux ou trois champignons, ceux qui ont un niveau de coopération plus élevé (donc qui fournissent davantage de nutriments à la plante) récupèrent plus de carbone de la plante.

- Un supergène pour les ailes de papillon

Le séquençage et l'analyse de la variation de l'ADN ont montré que le supergène existe en plusieurs versions, définies par différents ordres de gènes le long du chromosome, chacun associé à différentes formes mimétiques. Cette variation de la structure de ce chromosome entre les individus empêche le mélange des caractères entre générations, et explique ainsi que soit conservée la coordination des motifs colorés sur l'aile.

En étudiant un papillon amazonien qui "imite" plusieurs espèces vénéneuses très différentes, les chercheurs ont révélé la coexistence, chez ces insectes, de trois types chromosomiques, correspondant à trois types mimétiques différents. Au niveau de cette région chromosomique, les scientifiques ont montré qu'un bloc d'une trentaine de gènes s'est trouvé immobilisé, au cours de l'évolution, par des phénomènes d'inversions (des régions d'ADN qui se retrouvent en position inversée chez différents individus), supprimant le processus naturel de mélange génétique entre générations. De cette manière, de nombreux gènes sont hérités en bloc et produisent des papillons d'apparence totalement différente. De tels regroupements coordonnés, appelés supergènes, gouvernent de nombreuses autres adaptations, comme la variation de forme des fleurs chez les primevères, le camouflage chez les papillons de nuit ou bien les motifs et formes de coquilles chez certains escargots.

Voir aussi Sciences et Avenir.

- Chez le mille-pattes, une paire de pattes se transforme en organe sexuel

La conversion des pattes exige d'abord leur régression dans le segment VII, à leur place apparaissent les gonopodes tandis que l’exosquelette se réorganise pour former un sac contenant les gonades et un apodeme ou s’inséreront les muscles volumineux requis pour exploiter les gonopodes.

C'est donc à juste titre qu'on appelle cela un membre.

- Les fourmis prennent la couleur de ce qu'elles mangent

- Un robot-abeille parle aux abeilles

C'est un test de notre compréhension du langage des abeilles. Le robot-abeille qui a effectué devant une ruche la danse supposée indiquer une nouvelle source de nourriture abondante n'a réussi qu'à faire repartir les abeilles vers leur dernier lieu de butinage, ce qui laisse supposer que les abeilles ne tiennent compte des nouvelles coordonnées que si leur ancienne ressource est épuisée (ou le robot n'a pas réussi à se faire comprendre) mais on peut désormais entrer en communication avec les abeilles et tester leurs réactions.

- L'apparition des mâchoires chez les vertébrés

Ces galéaspides, des poissons sans mâchoires, vivaient au Viet Nam, comme en Chine, il à 400 millions d'années. Leur crâne (à gauche), vient de livrer ses secrets, montrant qu'il préfigure la structure de celui des vertébrés à mâchoires.

Les cavités qui, à l'intérieur du crâne de ces poissons, logeaient le cerveau, l'oreille interne, les yeux et les organes olfactifs étaient nettement séparées de l'hypophyse, comme chez les futurs vertébrés à mâchoires. Son anatomie interne préfigurait donc l'apparition des mâchoires chez les vertébrés.

- Une anguille véritable fossile vivant du temps des dinosaures

Une nouvelle espèce d’anguille très primitive vient d’être identifiée. L’étude des individus capturés l’année dernière dans un archipel du Pacifique Ouest montre qu’il s’agit d’une forme ancestrale qui aurait survécu sans évoluer depuis plus de 200 millions d’années.

Baptisé Protoanguilla palau, le poisson possède en effet des caractéristiques uniques : certaines ne sont retrouvées que chez les anguilles modernes alors que d’autres, comme sa grande tête et son corps assez ramassé, le rapprochent des formes fossiles du Crétacé. Mais la surprise vient du fait qu’il présente également d’autres traits morphologiques, considérés comme primitifs par rapport aux formes aussi bien actuelles que fossiles.

- Les Plésiosaures vivipares

Comme les femelles (mesurant 4,7m) ne donnaient naissance qu'à un seul rejeton et déjà de grande taille (1,6m), on suppose qu'elles devaient lui prodiguer des soins maternels, d'autant qu'ils vivaient en groupe. On peut aussi penser que de par sa grande taille, le nouveau-né n'avait pas besoin de protection, ou que le groupe assurait cette protection ? Une attitude maternelle est d'autant plus douteuse (pas impossible) que ce sont des reptiles et que leur cerveau était minuscule bien qu'étant un animal grégaire.

Voir aussi Sciences et Avenir et Futura-Sciences.


- L'évolution à l'envers : un alligator dans un oeuf de poule

En manipulant arrêtant le développement des oeufs de poule, on peut remonter dans le temps et retrouver les caractéristiques de leurs ancêtres, ce qui confirme que l'ontogenèse reproduit la phylogenèse et qu'il y a inhibition plus que destruction des anciens gènes.

- Un aspirateur à poulets

C'est insupportable comme on traite les poulets, sans doute l'élevage le plus industrialisé. Ici, on les aspire pour les mettre dans des cages...

- Les oiseaux chauds lapins vieillissent plus vite

Des chercheurs ont remarqué que les oiseaux mâles outardes qui ont les formes les plus extravagantes afin de séduire les femelles, souffrent également d'un vieillissement biologique accéléré et ont une « fenêtre » de reproduction plus étroite que les rivaux. Ces oiseaux-là (Chlamydotis undulata) qui vivent dans l'hémisphère sud, passent six mois à parader comme des fous devant les femelles du coin. Ceux qui se font les plus beaux produisent le sperme de meilleure qualité lors de l'accouplement.

Oui, mais voilà : cet avantage à un inconvénient. Une fois la période de « jeunesse » passée, ils éjaculent moins (en volume) et ont plus de spermatozoïdes décédés ou anormaux.

On peut ainsi commencer à se demander si, chez l'animal, la sénescence n'a pas un lien direct et important avec la sélection sexuelle.

Voir aussi Futura-Sciences. Par ailleurs, les oiseaux femelles préféreraient les mâles aventureux...


- Sous le regard de l'autre

Par exemple, deux mâles en compétition deviennent encore plus agressifs si une femelle les regarde (voir graphique ci-dessus). De même, un mâle mis en présence d’une femelle tentera moins de parader et de s’accoupler si une autre femelle observe la scène. Plus étonnant encore, si l’observatrice n’est pas une femelle lambda mais la conjointe du mâle, ce dernier diminuera encore plus ses comportements de parade extraconjugale.

« On a déjà observé des espèces où la femelle augmente ses copulations extraconjugales après avoir vu son mâle perdre un combat. Ça pourrait également être le cas en cas d’infidélités chez le canari, propose Davy Ung. Ou bien on pourrait assister à une réduction de l’investissement parental de la femelle trompée, qui se traduirait par une réduction de nutriments dans la composition des œufs ».


- L'ancêtre des mammifères et marsupiaux

C'est une créature ressemblant à une souris qui est votre ancêtre. Il vivait en « Chine » il y a 160 milliards d'années. Ce petit mammifère poilu vivait durant l'ère du Jurassique et a donné les primates par évolution. On a trouvé un fossile très bien préservé et c'est le plus vieil animal trouvé qui donnait naissance à ses petits directement. A partir de cet animal, on a eu deux lignées séparées ; celle à laquelle nous appartenons et les marsupiaux.

Juramaia, tel est son nom maintenant, était un peu plus proche des mammifères comme nous (avec placenta) que de ceux à poches (marsupiaux).

- Des embryons de souris transparents

De quoi mieux étudier le développement des embryons.

- Le poison du rat à crête

Quand il est attaqué, le rat à crête se tord sur lui-même, mâchonne et oint sa pelisse de salive. Pourtant le corps de l’animal ne produit pas naturellement de toxine. Les chercheurs sont tombés des nues quand ils ont découvert d’où venait le poison : le rongeur, comme une sorcière de contes de fées, le concocte !

Il ramasse puis mâchonne furieusement l’écorce d’un arbuste, Acokanthera schimperi, dont le nom vernaculaire signifie « arbre à flèches empoisonnées ». Pas de doute sur l’emploi que les chasseurs d’Afrique de l’Est faisaient, eux aussi, de ce buisson : ils enduisaient leurs flèches d'une décoction de cette plante pour aller chasser l'éléphant et le gros gibier. L'écorce de l'arbrisseau renferme en effet un poison puissant, l’ouabaïne, qui conduit rapidement à l'arrêt cardiaque.

Voir aussi Pour la Science.

- La toxoplasmose rend les rats amoureux des chats

Chez le rat parasité (D), la réaction normale d'évitement liée à l'odeur de chat est court-circuitée et masquée par l'activation anormale des zones responsables de l'attirance sexuelle.

Des travaux précédents ont montré que le parasite se fixait préférentiellement dans les zones cérébrales du système limbique contrôlant les émotions associées aux stimuli de prédation (la peur) et d’attirance sexuelle.

L'odeur détectée au niveau du bulbe olfactif est transformée en signal nerveux transmis à l’amygdale puis à l’hypothalamus. Ces centres cérébraux vont s’activer de deux manières différentes pour déclencher très rapidement la bonne réaction, l’évitement pour l’odeur de chat et l’approche pour l’odeur de la femelle.

Or, chez les rats infectés par le protozoaire, la réponse est biaisée : l’odeur de l’urine de chat va activer les zones sources de l’attirance sexuelle, comme l’odeur d’une femelle le fait chez le rat sain !

Pour les chercheurs, le coupable est bien sûr le parasite, qui a besoin de l’intestin d’un félin pour se reproduire sexuellement et boucler ainsi son cycle de vie complexe. Il détournerait à son profit deux émotions puissantes, l’attirance sexuelle et la peur, pour faciliter la rencontre entre une proie et son prédateur.

Au-delà des relations entre rats et chats, la toxoplasmose est aussi un parasite humain mais l’infection est généralement asymptomatique. En France, plus de la moitié de la population est infectée, en général à cause de la consommation de viande mal cuite ou du contact avec la litière des chats. Si les conséquences chez l’être humain ne sont vraiment graves que pour le fœtus chez la femme enceinte, plusieurs études récentes proposent que le parasite puisse jouer un rôle dans l’adoption de conduites à risques, le déclenchement de la schizophrénie ou de troubles obsessionnels compulsifs.

Ce qui est fascinant dans ces parasitages relativement courants, c'est la simplicité d'un mécanisme aboutissant à des manipulations mentales et des comportements, bien loin de ceux qui identifient la psyché avec la complexité. On retrouve le même contraste dans les drogues où une simple substance chimique modifie complètement les états de conscience.

- Un éléphant va chercher un cube pour atteindre sa nourriture

Rien de si extraordinaire...

- Les gros cerveaux des mammifères liés à leur endurance

Il faut savoir en effet que les mammifères ont des plus gros cerveaux que les autres animaux de mêmes tailles. De plus, les primates ont de plus grandes facultés intellectuelles que les autres mammifères et parmi les primates, les humains ont la palme.

On s'est demandé pourquoi et ont a émis des hypothèses sérieuses : améliorer le traitement de l'information visuelle ou permettre de grandes interactions sociales.

Pour des espèces mammifères assez éloignées les unes des autres, celles qui ont de hautes capacités pour l'exercice d'endurance ont de « gros » cerveaux.

Les humains sont très performants en endurance par rapport aux animaux de grande taille qu'ils chassent. Une des tactiques classiques des tribus est de les rattraper après des jours de "course", lorsque les animaux sont épuisés.

On a vu cependant que la taille du cerveau pouvait dépendre des capacités visuelles et il est bien connu que ce sont les espèces sociales qui ont les plus gros cerveaux. On pourrait donc plutôt faire l'hypothèse que les capacités d'endurance sont une condition préalable pour avoir un gros cerveau qui consomme de grandes quantités d'énergie mais que les capacités du cerveau ne sont pas pour autant "physiques" mais dédiées à la vision et aux relations sociales ?

- Un gros cerveau ne serait pas forcément lié à un intestin plus court

L'examen des singes à "gros" cerveau ne montre aucune corrélation avec un raccourcissement de l'intestin.

Cela ne prouve pas grand chose car nos cerveaux sont bien plus gros, et c'est un fait que notre intestin est plus petit, nous donnant une silhouette plus élancée que les singes. L'hypothèse reste valide de la nécessité de changer de régime (viande, cuisson) pour faciliter la digestion mais on peut penser que la réduction de la taille de l'intestin n'a été possible que dans un second temps. Ce qui est gênant avec cette hypothèse, cependant, c'est qu'elle fait remonter le feu et le cuit à des époques très reculées où les preuves matérielles manquent mais une étude ci-après fait bien remonter la cuisine à 2 millions d'années.

- L'ancêtre de l'homme et du chimpanzé

Le crâne fossilisé provient d’un singe mâle Ugandapithecus Major, lointain cousin des grands singes d’aujourd’hui qui peuplaient cette région il y a environ 20 millions d’années.

Un premier examen du fossile a établi que le singe, un herbivore grimpant aux arbres, était âgé d’environ 10 ans à sa mort et avait la taille d’un chimpanzé mais le cerveau de la taille (plus petite) de celui du babouin.


- L'altruisme des chimpanzés

Une expérience prouverait que des chimpanzés sont capables d’une véritable générosité, préférant donner de la nourriture à un congénère plutôt que de manger tout seul, sans qu’il y ait un avantage immédiat.

Les chercheurs ont observé un autre comportement, tout à fait inattendu, en réponse à l'attitude du partenaire. Si celui-ci se manifeste bruyamment au moment du choix, pour inciter l’acteur à choisir le jeton du partage, l’effet sera plutôt négatif. L’acteur aura justement moins tendance à faire ce choix. Tandis que si l’autre se montre calme et simplement observateur, alors l’acteur sera plus enclin au choix prosocial.

- Homo Erectus faisait cuire ses aliments

Les scientifiques ont estimé le temps que passent l’Homme moderne et les primates non-humains à se nourrir. L’évolution et la taille du corps peuvent expliquer une différence, mais certainement pas le fossé observé : quand le chimpanzé passe près de la moitié de son temps à s’alimenter (48 %), l’Homme n’y consacre pas 5 %.

En diminuant la durée des moments consacrés à s’alimenter, la cuisson a, pour les chercheurs, permis d’allouer plus de temps à d’autres activités, sociales, d’artisanat ou de chasse.

Chez l'Homo erectus, selon l'équipe, le temps serait du même ordre que celui de l'Homme moderne. Pour les chercheurs, la seule explication est qu’un fort changement a eu lieu entre le moment où la lignée conduisant à l’Homme a divergé d’avec les grands singes. Ce bouleversement étant la préparation des aliments. Ils sont alors partis à la recherche d’indices anatomiques permettant d’en préciser le moment. C’est la variation de taille des molaires qui leur a fourni la réponse.

La transformation des aliments avant de les consommer se serait donc généralisée à partir de 1,9 million d’années environ avant le présent, conjointement ou juste avant l'apparition d'Homo erectus qui devient ainsi le premier des cuisiniers.

Les preuves semblent fragiles, ne reposant que sur l'atrophie des molaires alors que cela reculerait la maîtrise du feu aux dates les plus anciennes envisagées, bien au-delà des 500 000 ans habituels mais il faut avouer que cela semble assez cohérent et daterait notre séparation des singes de ces temps reculés, bien avant le langage narratif car si la cuisine ne nécessite pas le langage, se suffisant de l'imitation, c'est déjà une vie qui n'est plus animale. On peut comprendre dès lors qu'on puisse supposer des croisements entre Erectus et Sapiens lui transmettant des adaptations locales, Erectus étant déjà humain. Reste qu'il faudra une nouvelle rupture, bien plus récente (entre 70 000 et 50 000 ans), sans doute l'acquisition d'un langage narratif, pour enclencher l'histoire humaine et coloniser le monde entier.

- Les Denisoviens hybrides de Neandertal et Sapiens ?

Par ailleurs, on nous explique que le croisement avec Neandertal aurait permis l'hégémonie de sapiens par l'acquisition d'un nombre important d'adaptations au climat européen ou asiatique (maladies, ensoleillement). C'est vraisemblable mais n'a rien de si exceptionnel en soi et ne peut expliquer la révolution culturelle à l'origine de la colonisation du monde puisqu'on suppose aussi l'acquisition d'adaptations locales des Homo erectus. L'explication est trop générale, ne tenant pas compte non plus du fait que cette hybridation avec Neandertal semble bien avoir été exceptionnelle sinon unique. Cela n'empêche pas qu'une peau plus claire était sans doute une condition préalable de l'expansion humaine, pas forcément une condition suffisante qui semble plutôt liée à un niveau de civilisation supérieur.

- La grotte Chauvet en 3D


Cave of Forgotten Dreams, par Werner Herzog... par Pole_Projet_Chauvet

La grotte des rêves perdus, un documentaire de 90 mn sur la grotte Chauvet signé Werner Herzog et tourné en 3D vient de sortir en salle.

Ce n'est pas aussi coloré que Lascaux mais presque aussi impressionnant. La position des peintures rupestres, inaccessibles et loin du jour, suggère une fonction d'initiation peut-être réservée aux chamans ? On ne peut en tout cas mettre sur le même plan les peintures rupestres des aborigènes australiens destinées à fixer la mémoire avec ces représentations mouvantes et envoûtantes qui prennent vie sous la lumière tremblante d'une torche en s'enfonçant dans les entrailles de la Terre, voyage vers l'enfer symbolisant notre mort au monde avant la renaissance initiatique dotée de nouveaux pouvoirs. Bien sûr, on ne pourra jamais savoir mais il faut passer par les analogies qui ne sont pas si trompeuses pourvu qu'il y ait plusieurs points de comparaisons.

- Le chien domestique depuis plus de 33 000 ans

Le squelette d’un canidé découvert dans une grotte de Sibérie, repousse à 33.000 ans les débuts de la domestication du chien.

Mais le chien de l’Altaï n’est pas le grand-père des toutous modernes. Ce serait plutôt le témoin d'une des multiples tentatives de domestication, qui aurait avorté, fauchée dans son élan par l’arrivée de conditions climatiques très rudes il y a 26.500 ans. Pour les paléontologues ce changement climatique appelé dernier maximum glaciaire aurait imposé aux communautés humaines de la région un retour à plus de nomadisme. Et cette mobilité aurait empêché les interactions prolongées entre mêmes groupes d’animaux et d’humains, condition nécessaire à une coévolution modifiant en profondeur la morphologie des canidés pour donner une nouvelle espèce, le chien.

Le crâne russe montre donc qu’il y a 33.000 ans, la cohabitation rapprochée avec les Hommes sédentaires a déjà bien commencé à transformer des loups en chiens compagnons. Mais ce n’est que 14.000 ans plus tard, avec le retour de conditions climatiques plus clémentes, que la lignée des chiens modernes pourra s’établir définitivement.

Cela montre aussi que la sédentarisation n'a pas commencé avec le néolithique, le nomadisme étant plutôt contraint que naturel à l'homme mais on constate aussi que tout était à peu près acquis autour de 40 000-35 000 ans comme l'avait déjà prouvé la grotte de Chauvet, les tout début devant dater de 60 000-50 000 ans où, selon Richard Klein, apparaît "le changement comportemental le plus radical que les archéologues aient jamais étudié".

- Une momie faite de différents individus

Cette momie anglaise de l'âge du bronze (-1000 ans BC) est composée de 3 individus dont 1 homme et 2 femmes.

- Toutânkhamon était caucasien

D'après des généticiens suisses, un grand nombre d'Européens de l'ouest sont apparentés au plus célèbre des Pharaons. On pense que c'est une personne sur deux dans cette région. Ces scientifiques spécialistes en génétique ont réussi à reconstruire le profil ADN du jeune pharaon qui est monté sur le trône à l'âge de 9 ans. Les résultats ont montré que Toutânkhamon appartenait à un groupe génétique nommé haplogroupe R1bla2 ; 50 % des gens d'Europe de l'Ouest appartiennent à ce groupe et partagent donc un ancêtre commun. Par contre, chez les Égyptiens, ce groupe ne constitue que 1 % de la population. Chez les Espagnols et les Anglais, c'est 70 % ; 60 % chez les Français.

On pense que l'ancêtre commun vivait dans le Caucase il y a 9500 ans de cela : c'est probablement la diffusion de l'agriculture qui a étendu ce groupe génétique. On ne sait pas toutefois comment Toutânkhamon a hérité de cela.

C'est sûrement par l'intermédiaire des Hyksos qui régnaient sur l'Egypte avant Ahmosis et la XVIIIème dynastie dont Toutânkhamon est le dernier représentant. Ceci dit, sa momie est noire mais c'est sans doute un effet de l'embaumement ?

- Le vieillissement s'arrête à 90 ans

En fait, ce serait un phénomène universel, aussi bien chez les mouches que chez les humains, passé un certain âge, la mortalité chute. Un modèle mathématique relie l'âge où le vieillissement s'arrête et l'âge où s'arrête la reproduction. L'explication tiendrait au fait que la sélection naturelle n'agit plus sur ce troisième âge, ce qui expliquerait à la fois le vieillissement et sa fin. Je crois plutôt à la sélection de groupe par l'environnement au moins du pourcentage qui peut atteindre le grand âge mais ce n'est pas incompatible avec le déclin adaptatif. Le fait que l'agriculture permette de vivre plus vieux et donc aux vieux de se reproduire aurait réintroduit la sélection naturelle, favorisant ceux qui peuvent vivre plus longtemps mais à condition qu'ils adoptent les mêmes modes de vie que leurs ancêtres ! La thèse est douteuse au regard du mode de vie de ceux qui deviennent centenaires mais il reste probable que, plus on vieillit, moins on serait adapté aux modifications de nourriture depuis l'âge de pierre, et notamment au régime végétarien des agriculteurs...

- L'intelligence génétique à 50% ?

Selon eux, il a été mis en évidence une corrélation indéniable entre les capacités des personnes du point de vue des deux types d’intelligence générale et leur bagage génétique, même s’il n’est pas possible de relier dans les détails ces aptitudes aux gènes des personnes. Au moins 40 à 50 % de ces différences auraient une origine génétique, comme il est expliqué dans un article donné en lien ci-dessous.

Toutefois, deux des auteurs principaux de l’étude, les professeurs Ian Deary et Peter Visscher, indiquent que : "Ces résultats laissent aussi beaucoup de place pour les influences environnementales et des interactions entre les gènes des personnes et leurs environnements".

- Faire le vide pour rendre le cerveau disponible à l'apprentissage

La mémorisation dépend de l'état du cerveau et notamment d'une réduction de l'activité de la zone autour de l'hippocampe, comme s'il fallait faire le vide pour accueillir de nouvelles informations.


- La sensibilité au stress acquise dans la petite enfance

"Nous ne pouvons affirmer que l'augmentation du volume que nous avons observée est le résultat d'une exposition à long terme à des soins de qualité moindre. Mais nos travaux démontrent que les volumes des amygdales des enfants qui grandissent avec une mère déprimée sont plus importants."

"La taille plus importante des amygdales pourrait servir de mesure de protection et accroître la probabilité de survie", mentionne la Dre Lupien. "Il est possible que les amygdales jouent un rôle protecteur grâce à un mécanisme qui produit des hormones de stress connues sous le nom de glucocorticoïdes. Les chercheurs ont noté que le niveau de glucocorticoïdes chez les enfants de mère déprimée qui ont participé à cette étude augmentait notablement lorsqu'ils faisaient face à des situations inhabituelles, signe d'une réactivité accrue au stress chez ces enfants. Chez les adultes qui ont grandi dans un environnement comparable à celui de ces enfants, le niveau de glucocorticoïdes est plus élevé et la réaction est plus intense lorsqu'ils participent à des tests de stress en laboratoire.

- Plasticité de la plasticité synaptique

De très nombreuses études ont analysé les mécanismes moléculaires et cellulaires de la plasticité synaptique, en prenant comme modèle les synapses excitatrices de l'hippocampe, qui utilisent le glutamate comme neurotransmetteur. La libération de ce neurotransmetteur au niveau des synapses entraine l'activation de récepteurs du glutamate de deux types, les récepteurs AMPA et les récepteurs NMDA. (...) De manière schématique, les récepteurs NMDA, du fait de leur forte perméabilité au calcium, sont essentiels à l'induction de la LTP, mais ne sont pas sujets à potentialisation. Les récepteurs AMPA sont quant à eux, les cibles principales de cette plasticité: leur nombre s'accroît dans la zone post-synaptique, entrainant une augmentation du signal post-synaptique. Les processus mis en jeu sont complexes et font intervenir phosphorylation par la calmoduline kinase II, exocytose et stabilisation des récepteurs AMPA par des protéines d'ancrage au niveau post-synaptique.

Alors que la grande majorité des synapses glutamatergiques suivent les mêmes mécanismes de LTP, certaines synapses n'apparaissent pas compétentes pour exprimer cette plasticité en conditions basales. C'est le cas des synapses entre les neurones du gyrus denté et les cellules pyramidales de CA3, qui constituent le premier niveau de traitement des informations corticales dans l'hippocampe. Dans un travail antérieur, l'équipe de Christophe Mulle à l'IINS a démontré que ces synapses, appelées "fibres moussues hippocampiques", présentent une forme de plasticité qui se traduit par une augmentation durable des récepteurs NMDA, en réponse à de brèves stimulations des afférences mimant un patron commun d'activité physiologique des neurones pré-synaptiques. En revanche, ce protocole n'induit aucune LTP des récepteurs AMPA, malgré le renforcement de la réponse NMDA. Cependant, les chercheurs montrent aujourd'hui que si les synapses hippocampiques sont préalablement amorcées par une potentialisation des réponses NMDA, elles deviennent alors aptes à obéir aux mécanismes conventionnels de la LTP, comme les autres synapses glutamatergiques. On parle ici de métaplasticité, ce qui renvoie à la notion de "plasticité de la plasticité synaptique".

La découverte de ce phénomène suggère que certaines synapses ont un fonctionnement relativement figé, mais que suite à un amorçage permis par la métaplasticité, elles deviennent compétentes, pendant un temps donné, pour exprimer la plasticité synaptique. Les scientifiques tentent à présent de comprendre quelles sont les situations comportementales dans lesquelles un conditionnement préalable du réseau permet à cette importante connexion synaptique d'être engagée dans un processus de plasticité et donc de mémoire.

- Des neurones numériques

IBM a développé de nouveaux microprocesseurs qui fonctionnent un peu comme des neurones, notamment du fait que chaque transistor est doté d'une mémoire et peut renforcer ou changer ses connexions. Si les performances sont encore relativement faibles, la consommation électrique serait bien moindre que pour les microprocesseurs normaux.

Voir aussi Techno-Science, Gizmodo et Technology Review.


- Vaginale "et" clitoridienne

L'imagerie par résonance magnétique révèle qu'il y a bien 2 zones du cerveau correspondant l'une à la jouissance vaginale, l'autre à la jouissance clitoridienne mais, en plus la stimulation des seins serait reliée à la jouissance vaginale. Voir aussi cet article.

Santé


génétique, traitements, nutrition, hygiène

- Vous n'avez plus que 12 ans à vivre

C'est le niveau de cathepsin S et donc d'inflammation qui permettrait de prédire l'espérance de vie ou plutôt le risque augmenté de cancer et de crise cardiaque.

- Le BCG contre les maladies inflammatoires

Plusieurs modèles expérimentaux de souris ont révélé l'efficacité d'un traitement contre les maladies inflammatoires chroniques de l’intestin (MICI), à partir d'un dérivé du BCG. Une avancée à confirmer avec des essais cliniques mais qui pourrait permettre de réaliser un traitement contre la maladie de Crohn par exemple.

Ce dérivé du BCG cible les lymphocytes T régulateurs. Autrement dit, les cellules qui « ainsi que leur nom l’indique, vont réguler le système immunitaire afin d’éviter qu’il ne s’emballe, comme c’est le cas dans de nombreuses maladies inflammatoires » nous précise Gilles Marchal, principal auteur de ce travail. L’objectif est en quelque sorte d’en mobiliser un nombre important, avant que ces cellules ne migrent vers les foyers inflammatoires.


- Nouvelle technique de vaccination contre l'hépatite C

Un VLP chimérique est constitué d'un virus (ici à gauche, en l'occurrence un rétrovirus infectant la souris), dont on a retiré les protéines de surface (en vert) et le génome. Cette base est alors recouverte de protéines prélevées sur l'enveloppe du VHC (en rouge). Injecté dans un organisme, ce faux virus déclenchera la réponse du système immunitaire dirigé contre les molécules de surface du VHC.

Le rétrovirus de souris inactivé utilisé pour ce vaccin expérimental mime très bien un véritable virus enrobé et les protéines à sa surface se trouvent dans la configuration qu’elles ont naturellement quand elles baignent dans ces couches de lipides. C’est pourquoi le VLP est à priori plus efficace que des nanoparticules sur lesquelles on aurait fixé les mêmes protéines.

Voir aussi Techno-Science.

- Tuer toutes les cellules infectées par un virus

Presque tous les virus produiraient des ARN de plus de 30 bases alors que les mammifères n'en produisent pas de plus de 23 bases, ce qui permettrait de se débarrasser par apoptose de toutes les cellules infectées en utilisant un système de défense existant, la protéine kinase R (PKR) à laquelle est ajouté une protéine déclenchant l'apoptose. Cette chimère est appelée dsRNA-activated caspase oligomeriser (DRACO).

On perd du coup la capacité de ciblage. Ce qui est peut-être le plus inquiétant, c'est que tous les virus ne sont pas pathogènes, certains étant très utiles, intégrés à notre génome ou pour se débarrasser de bactéries ou de cellules cancéreuses. Reste que dans de nombreux cas, cela pourrait stopper des infections dangereuses, l'application envisagée aux rhumes ou à la grippe étant plus contestable.

Voir aussi Futura-Sciences et Techno-Science.

- Un vaccin contre presque toutes les grippes

- La grippe porcine provoquerait des narcolepsies

Au printemps de l'année dernière, le nombre de cas de narcolepsie à Beijing, en Chine, avait été multiplié par trois, ce qui pourrait être dû à l'épidémie de grippe porcine de l'hiver précédent.

L'idée que la grippe provoque la narcolepsie s'inscrit dans la théorie que le trouble du sommeil est déclenchée par la réaction du système immunitaire aux infections des voies respiratoires.

- Avancée vers un vaccin contre le SIDA

- L'adjuvant des vaccins rejette l'ADN hors des cellules

En effet, il apparaît que, lorsqu'un vaccin contenant de l'alun est injecté, le contact avec l'alun pousse certaines cellules du corps à relâcher leur propre ADN. La présence de cet ADN à l'extérieur des cellules, un endroit où il ne se retrouve pas en conditions normales, agit alors comme un stimulant du système immunitaire et favorise fortement la réponse au vaccin.

L'alun, un sel d'aluminium, est actuellement l'adjuvant de loin le plus largement utilisé. Développé au milieu du 20e siècle, l'alun a largement démontré son efficacité et la bonne sûreté de son utilisation. C'est pourquoi on le retrouve dans de nombreux vaccins. Des dizaines de millions de doses d'alun sont ainsi administrées chaque année, et chaque personne dans nos sociétés occidentales a probablement reçu de l'alun au moins une fois dans sa vie. Pourtant, l'alun a été développé de manière relativement empirique ; la façon dont il aide le système immunitaire à répondre aux vaccins n'était pas bien comprise jusqu'aujourd'hui.

- Vaccin contre les champignons à base de levure de boulanger

L’injection de levure de boulanger à des souris permet de les protéger contre plusieurs infections fongiques, comme l’aspergillose qui touche les individus présentant un déficit immunitaire.

« Nos résultats suggèrent que la composante qui induit la protection se trouve dans la paroi cellulaire de la levure. De plus, ce vaccin protège aussi contre l'infection due à trois autres champignons Candida, Cryptococcus et Coccidioides. »

- Une bactérie modifiée pour tuer le bacille pyocyanique

Lorsqu'elle détecte la présence du bacille, la bactérie modifiée produit une toxine qui la tue avant de se suicider elle-même. C'est le genre d'expérience qui peut mal tourner...

Voir aussi The Telegraph.

- Un virus modifié pour tuer les cellules cancéreuses

Il suffirait d'une injection pour supprimer toutes les métastases d'un cancer. En fait on n'obtient pour l'instant qu'une rémission mais on ne fait qu'imiter ainsi le virus du rhume qui lui aussi s'attaque préférentiellement aux cellules cancéreuses déconnectées d'un système immunitaire qui ne les protège plus.


- L'électroperméabilisation contre le cancer

Cette technique physique de vectorisation appelée électroperméabilisation, consiste à injecter une molécule d'intérêt thérapeutique (molécule anticancéreuse, ADN, ARN) dans un tissu et à administrer des impulsions électriques qui perméabilisent les membranes plasmiques, permettant ainsi l'entrée des molécules dans les cellules.

Les chercheurs sont parvenus à transférer par électroperméabilisation des ARNs interférents fluorescents dans le cytoplasme de cellules cancéreuses ciblées. L'observation en temps réel au niveau de la cellule unique a permis de décrypter le mécanisme biophysique à l'origine de cet électrotransfert. Ils ont tout d'abord prouvé l'efficacité du champ électrique à vectoriser l'ARNi au sein de la cellule cancéreuse et l'aptitude de ce dernier à inhiber le gène cible, une fois arrivé à destination. Les scientifiques ont également montré que le champ électrique agit à la fois sur la perméabilisation de la membrane plasmique des cellules et sur la poussée électrophorétique des molécules chargées. Ils ont ensuite observé que la cinétique de transfert des ARNs interférents est compatible avec la création de "structures transitoires de perméabilisation", qui impliquent un mécanisme spécifique des propriétés physico-chimiques (charge et taille) des molécules injectées.

- La rapamycine contre le cancer

Le centre national du cancer de Singapour (NCCS) vient de traiter 18 patients avec une combinaison de deux médicaments usuels: avastin, une substance anti-cancéreuse, et rapamycin, un immunosuppresseur utilisé dans les rejets de greffes du foie et du rein. L'utilisation simultanée de deux médicaments permet de limiter l'adaptation de la tumeur au traitement et ainsi d'être plus effectif.

Si je le signale, c'est parce qu'on avait parlé plusieurs fois (O8/09, 11/09, 07/11) de la rapamycine comme elixir de jouvence (comparable aux restrictions caloriques) et que donc, cela permet aussi de lutter contre le cancer, confirmant que les cancers sont bien largement "provoqués" par l'âge.

- Efficacité des chiens pour détecter le cancer du poumon

Voir aussi Techno-Science.

- Des vaisseaux sanguins pour éliminer les tumeurs

En menant une étude clinique sur près de 150 patientes souffrant d'un cancer du sein, les scientifiques ont découvert la présence d'un type particulier de vaisseaux sanguins, appelés HEV, dans les tumeurs. En temps normal, ces vaisseaux HEV - pour High Endothelial Veinule - sont présents dans les ganglions lymphatiques (2) où ils constituent la porte d'entrée pour les lymphocytes arrivant par le sang.

Cancer du sein: pour la première fois, des vaisseaux sanguins très spécifiques ont été découverts dans les tumeurs. Ces vaisseaux facilitent l'accès vers les cellules cancéreuses de certains globules blancs: les lymphocytes tueurs, et entraînent ainsi une destruction efficace des tumeurs.

En menant une étude clinique sur près de 150 patientes souffrant d'un cancer du sein, les scientifiques ont découvert la présence d'un type particulier de vaisseaux sanguins, appelés HEV, dans les tumeurs. En temps normal, ces vaisseaux HEV - pour High Endothelial Veinule - sont présents dans les ganglions lymphatiques où ils constituent la porte d'entrée pour les lymphocytes arrivant par le sang.

Voir aussi Futura-Sciences.


- Des lymphocytes T modifiés contre la leucémie lymphoïde chronique

Des médecins américains sont parvenus à induire une rémission complète de la leucémie lymphoïde chronique (LLC) chez deux patients. Pour cela, ils ont attaqué la maladie en employant des lymphocytes T – des globules blancs qui jouent un rôle fondamental dans la réponse immunitaire – particuliers. Ces derniers en effet, avaient été… « reprogrammés génétiquement » !

« Les lymphocytes T expriment un récepteur artificiel qui reconnaît spécifiquement les cellules leucémiques ».


- La caféine contre le mélanome

En effet, elle serait capable de ralentir le développement des cellules endommagées par les rayons ultraviolets du soleil. D'après les chercheurs, ce ralentissement s'explique par le fait que la caféine inhibe une enzyme, nommée "ATR". Or l'ATR est justement la protéine responsable de la croissance du mélanome, et donc du cancer.

- La pigmentation de la peau recréée in vitro

Des chercheurs français sont parvenus à obtenir in vitro des mélanocytes, les cellules qui donnent cette coloration brune à notre peau.

Pour Marc Peschanski et ses collaborateurs de I-Stem/Inserm d’Évry, tout a commencé en 2009 lorsqu’ils sont parvenus à reconstituer de l’épiderme à partir de cellules souches. Dans le prolongement de ce travail, ils viennent aujourd’hui de créer « une population pure et homogène de mélanocytes capables de produire de la mélanine et de s’intégrer à l’épiderme ».

- Une pilule pour bronzer

Des scientifiques ont découvert qu'il suffit d'un petit implant sous la peau pour donner à cette dernière un joli bronzage qui tient durant 3 mois. Aucune exposition (soleil ou cabine) n'est nécessaire. La capsule n'est pas plus grande qu'un grain de riz. Elle stimule la production de mélanine. La mélanine est un pigment naturel produit lorsque notre peau réagit à l'agression des UV.

- Une pilule contre les coups de soleil

Grâce à une protéine produite par les coraux, il pourrait y avoir d'ici 5 ans des pilules pour se protéger du soleil.

Voir aussi Futura-Sciences.

- L'Ecstasy contre le cancer

On connaissait déjà l'efficacité de la MDMA contre certains cancers (leucémie, lymphome, myélome), en modifiant la molécule cet effet anti-cancer serait multiplié par 100.

Voir aussi Futura-Sciences et Gizmodo.

- Nicotine contre Parkinson

Ainsi, l'ajout de faibles concentrations de nicotine (de 0,1 à 30 micromoles par litre) aux cultures protège les neurones dopaminergiques normaux, mais pas ceux dépourvus du récepteur alpha-7. Cela prouve que la nicotine empêche la mort des neurones dopaminergiques en stimulant ce récepteur.

En outre, les neurobiologistes ont montré que l'activation de ce récepteur stimule l'activité électrique des neurones dopaminergiques et l'entrée d'ions calcium dans leur cytoplasme. S'ensuit alors l'activation d'une voie de survie, un processus intracellulaire favorisant la survie des cellules, mettant en jeu la calmoduline, une molécule qui régule le calcium intracellulaire, et la phosphatidylinositol 3-kinase. Ces observations corroborent des travaux antérieurs qui suggéraient qu'une perte d'activité électrique associée à un déficit en calcium pouvait être à l'origine de la dégénérescence de ces neurones.

Par ailleurs, ce serait une protéine, a-synuclein, qui serait la cause du Parkinson.

- L’addiction, une maladie cérébrale chronique à part entière

L’addiction est bel et bien une maladie chronique du cerveau, selon une nouvelle définition de la Société américaine de médecine de l’addiction (American Society for Addiction Medicine), destinée à aider proches et soignants à mieux comprendre les enjeux de son traitement.

Cela est vrai qu’il s’agisse d’alcool, de drogue, d’addiction au jeu ou de troubles du comportement alimentaire, précisent les auteurs de cette nouvelle formulation. Et comme pour les autres maladies chroniques, troubles cardiaques ou diabète, le traitement de l’addiction est une affaire de longue haleine.

La nouvelle définition ne contredit pas les recommandations standard fondées sur ces symptômes, mais vient spécifier que "le problème comportemental est le résultat d’un dysfonctionnement cérébral".

C'est indéniable mais le fait d'étendre avec raison l'addiction au jeu devrait suggérer qu'on devrait l'étendre à l'amour (le sexe, l'argent, le pouvoir, etc.), sans parler des cabines UV, avec pour conséquence qu'il y a des maladies dont on ne veut pas guérir (If there is a cure for this, I dont want it, Diana Ross). D'accord pour la médicalisation de ceux qui le demandent, pas pour l'hygiénisme.

- Le sel aggrave le déclin cognitif

Une étude canadienne montre qu'un régime trop riche en sel, associé à un mode de vie sédentaire, peut intensifier le déclin cognitif des personnes âgées.

L'étude a par ailleurs montré que le déclin cognitif s'arrêtait lorsque les participants adoptaient un régime faible en sodium.


- Du sang neuf pour un cerveau neuf

Le pape Borgia qui buvait du sang de nouveaux nés avait donc raison, rien de tel pour régénérer les neurones : du sang de vieilles souris dans des souris jeunes entraîne une inflammation du cerveau et la dégénérescence des neurones alors que du sang de jeunes souris les régénère ! la substance incriminée pourrait être "CCL11" !

- La solitude dangereuse pour la santé

Encore un vice dont il faudrait me guérir ! La solitude est mise sur le compte d'une hypersensibilité sociale qui mène à une trop grande méfiance (le misanthrope maudit l'hypocrisie des relations humaines) mais l'atrabilaire solitaire ne fait pas de vieux os.

- Le stress fait vieillir et attaque l'ADN

Des niveaux élevés d'adrénaline font baisser le niveau de la protéine p53 qui protège l'ADN des cancers. Un stress prolongé fait donc vieillir et favorise les cancers. Le lien avec les cheveux blancs n'est pas très clair...

Ceci dit, il y a paraît-il un traitement anti-rides très efficace et pas cher combinant 2 produits différents à 3€ chacun. Il ne faut pas en attendre de miracles mais j'aime bien l'image (trompeuse) :

- Une nouvelle cible contre le stress, la dépression, l'addiction

Chez les souris exposées au stress, une protéine appelée p38α mitogen-activated protein kinase (MAPK) influence le comportement des animaux, contribuant à l'apparition de symptômes associés à la dépression et à l'augmentation du risque d'addiction. Les chercheurs ont démontré que p38α MAPK est activé par certains récepteurs sur les neurones et participe à la régulation de la sérotonine. La sérotonine est un neurotransmetteur impliqué dans la régulation de la température du corps humain, du cycle de sommeil, de la douleur ou encore du comportement. Exposées au stress, le cerveau libère des hormones qui interagissent spécifiquement avec certains récepteurs sur les neurones. En retour, les neurones induisent la sécrétion de p38α MAPK qui interagit avec les transporteurs de sérotonine dans les cellules afin de diminuer la quantité de sérotonine disponible dans le cerveau.

En inhibant spécifiquement la protéine p38α MAPK dans les cellules capables de libérer de la sérotonine, les souris exposées au stress ne montrent plus de signes dépressifs ou de signes d'addiction confirmant le rôle crucial de cette protéine dans ces phénomènes.

Le plus intéressant ici, c'est le lien enfin trouvé entre stress et diminution de la sérotonine, c'est-à-dire de la résistance au stress à mesure que celui-ci perdure, incitant à rompre la confrontation pour se replier sur soi, ce qui doit, entre autres, favoriser les hiérarchies sans risquer des blessures trop graves.

- Orexine, la molécule qui donne le moral

Lorsque vous êtes malade, de nombreux symptômes se développent. En général votre moral est en corrélation avec maux de tête et nez qui coule. Ne pas avoir le moral et parfois bien pire que le rhume en lui-même.

C’est votre corps qui crée ce sentiment de malaise. Il emploie toutes ses ressources pour lutter contre les microbes qui vous assaillent. Dans notre cerveau, il y a tout un tas de neurones responsables de la production d’une hormone appelée Orexine. Elle intervient dans le contrôle de l’appétit, de l’éveil, le désir d’activités … bref plus simplement l’entrain et la motivation. Et figurez-vous qu’au moindre signe de maladie, nos neurones en arrêtent la production (les lâches …). Inévitablement, on en arrive au phénomène du « J’aurais mieux fait de rester couché ».

Oregon Health and Science University a découvert ainsi de nouvelles propriétés à un médicament déjà sur le marché. Leur solution ? Prendre de l’orexine.

Le manque d'orexine est considéré comme responsable de la narcolepsie et de l'endormissement après les repas (glucose) mais un excès pourrait provoquer de l'anxiété voire des états de panique.

Par ailleurs une étude chez la souris semble montrer que les probiotiques réduisent l'anxiété mais c'est un sujet controversé.

- Le sport contre la dépression

Pour les personnes n'ayant pas d'antécédents familiaux de maladies mentales, les auteurs ont montré qu'une forte dose de sport améliorait significativement le statut clinique des patients dépressifs jusqu'à la rémission de la maladie.

A la fin de l'étude, presque 30% des patients de chaque groupe ont vu leurs symptômes dépressifs disparaître complètement, et 20% supplémentaires ont obtenu une amélioration significative de leur état sur la base d'une évaluation psychiatrique. De plus, les exercices faits de manière modérée sont plus efficaces chez les femmes ayant des antécédents familiaux de maladies psychiatriques alors que les exercices soutenus sont plus profitables aux femmes n'ayant pas d'antécédents. En ce qui concerne les hommes, ce sont les exercices réalisés de manière intensive qui leur apporte le plus grand bénéfice.

- L'autisme pas si génétique que ça

Cette recherche s'est concentrée sur 192 paires de jumeaux (54 vrais et le reste de faux). La surprise fut de voir qu'un plus grand nombre de faux jumeaux partageait des caractéristiques d'autisme que les vrais jumeaux. Or, les faux jumeaux ne partagent que la moitié des gènes ; ainsi, lorsque de vrais jumeaux sont autistes, on soupçonne que d'autres forces que la génétique sont en action.

Ces chercheurs pensent donc que, grosso modo, l'autisme dépend pour moitié de facteurs génétiques et l'autre moitié de facteurs environnementaux. D'autres études semblaient dire que l'âge du père et de la mère sont un facteur environnemental important. De tous les risques, celui d'être un garçon est le plus grand...

- Les gènes de la sclérose en plaque (système immunitaire et vitamine D)

C'est une confirmation, sauf qu'au mois de Mai des chercheurs avaient prétendu que ce n'était pas une maladie auto-immune, ce que l'étude génétique contredit.

Un grand nombre de gènes identifiés par ces travaux jouent un rôle essentiel dans le fonctionnement du système immunitaire, en particulier dans la fonction des cellules T (un type de globules blancs responsable de la réponse de défense contre des pathogènes) ainsi que dans l'activation des interleukines (médiateurs des cellules immunitaires). Fait intéressant, un tiers des gènes identifiés dans cette recherche ont déjà été impliqués dans d'autres maladies auto-immunes (telles que la maladie de Crohn et le diabète de type 1), indiquant un processus immunitaire commun à ces pathologies.

Parmi les gènes identifiés aujourd’hui, deux sont impliqués dans le métabolisme de la vitamine D, fournissant des pistes supplémentaires sur un lien possible entre les facteurs de risque génétiques et environnementaux.

Voir aussi Techno-Science et Futura-Sciences.

- La pilule rend moins sensible aux détails

Le prise d'hormone change le fonctionnement cognitif, notamment cela rendrait la mémoire des détails moins importante que la mémoire de l'action principale...

- Trier les ovules en fonction de leur activité lors de la fertilisation

L'activité de l'ovule augmente et se dirige vers l'endroit où le sperme a pénétré la cellule. la rapidité et la précision de la direction sont les signes de bonne santé augurant des chances de succès. Cela permettrait d'améliorer le tri des ovules lors de fécondations in vitro.


- Un test de paternité pendant la grossesse

Avec une simple prise de sang maternel, des tests génétiques de paternité peuvent désormais être effectués durant la grossesse, dès la douzième semaine, soit à une période ou il est encore possible, dans certains pays, d’avoir recours à une interruption volontaire de grossesse. Les résultats seront fournis en cinq jours.

Il n’en coûtera que 1.625 dollars, soit un tout petit peu plus de 1.100 euros. Le tout adressé par courrier aux services de DNA Diagnostics Center à Fairfield (Ohio).

- Le verre du soir empêche le sommeil paradoxal

- Contre les traitements préventifs

Les médicaments prescrits à titre préventifs ont souvent plus d'inconvénients que de bénéfice pour la santé mais ces postures dénonciatrices trop globales et qui ne sont pas basées sur des études précises manquent de nuances, notamment la prise d'aspirine est sûrement bénéfique pour la qualité de vie des personnes âgées même si elles créent des mini hémorragies. L'irresponsabilité des laboratoires pharmaceutiques est concurrencée par l'irresponsabilité de ceux qui les dénoncent...

- L'optogénétique pour contrôler les battements de coeur

- Un tatouage électronique pour surveiller l'activité électrique du corps

De quoi permettre de suivre des patients et d'alerter de leur rechute.

Ce système microélectronique se plaçant sur l'épiderme, d'une épaisseur moindre que celle d'un cheveu, est inclus dans un film de polyester.

Voir aussi Sciences et Avenir, Technology Review, Techno-Science et Futura-Sciences.


- Un "plâtre" high-tech en néoprène

L'intérieur est en néoprène et il est possible de le retirer grâce à une simple fermeture éclair afin de le nettoyer.

Doté d'une multitude de capteurs électromyographiques, ce "plâtre" analyse sans cesse l'activité mulculaire et nerveuse qui entoure l'os fracturé. Cet examen permanent envoie régulièrement les données, ainsi qu'une évaluation de rétablissement sur un site internet via une connexion sans fil. Le site permet par la suite aux médecins de consulter cette analyse et de communiquer avec le patient, ce qui évite les déplacements de ce dernier pour une consultation.

Le logiciel sait suggérer l'adaptation des exercices proposés au patient en fonction des résultats obtenus (ceci afin de garder les muscles entourant la fracture assez actifs pour faciliter le processus de guérison).

- Un radar portatif "inoffensif" pour remplacer la radiothérapie

D'ici quelques années, les médecins pourront utiliser un radar portable permettant un examen aussi inoffensif que le rayonnement d'un réfrigérateur. Il ne sera plus nécessaire de se rendre à l'hôpital pour vérifier l'état d'une fracture. D'après Tor Sverre Lande de l'Institut d'informatique de l'université d'Oslo (UiO), cette technologie sera moins coûteuse et l'appareil en question sera aussi petit qu'un smartphone.

Contrairement à la radiothérapie, les radars à courte portée n'ont pas d'effet secondaire. (...) La découverte du groupe de recherche du Dr Lande est une sorte de puce électronique qui rendra possible le développement d'un radar à courte portée pour des usages médicaux.

Tor Sverre Lande explique que la technologie mise au point permettra une précision au millimètre (contre quelques centimètres actuellement). Cette puce électronique est ainsi la première assez rapide (10 fois plus rapide que les ordinateurs d'aujourd'hui) pour pouvoir capturer la réflexion des ondes radar sur des distances aussi courtes.


Technologie


biotechnologies, nanotechnologies, énergie, informatique, robotique

- Une mousse stable 6 mois jusqu'à 60°C

Les chercheurs de l'Inra, du CEA et du CNRS ont étudié ici une molécule tensioactive particulière, l'acide gras 12-hydroxy stéarique, issue de l'huile de ricin. Pour disperser cette molécule initialement insoluble dans l'eau, ils lui ont ajouté un sel. Ils ont ensuite démontré les propriétés très avantageuses de ce tensioactif: même en faible quantité, il produit une mousse abondante et, surtout, stable pendant plus de 6 mois, contrairement aux tensioactifs classiques qui ne stabilisent les mousses que quelques heures. Les chercheurs ont observé et expliqué ce phénomène par microscopie et diffusion de neutrons

- Des transistors biologiques avec des nanofilaments bactériens

Un groupe de chercheurs américains a découvert que les protéines synthétisées sous forme de nanofilaments par des bactéries étaient aussi conductrices que le métal. Présentée comme un changement de paradigme en biologie, cette découverte pourrait révolutionner la bioélectronique et la nanotechnologie.

L’espèce Geobacter sulfurreducens produit des protéines formant des filaments de 3 à 5 nanomètres de diamètre et pouvant s’étendre jusqu'à des dizaines de micromètres de longueur. Ces nanofilaments forment des biofilms microbiens et, à leur grande surprise, les chercheurs ont constaté qu’ils pouvaient conduire l’électricité (comme des métaux) sur une longueur de quelques centimètres. C’est la première fois que l’on découvre un matériau biologique se comportant comme un métal, on croyait jusqu’à présent que de tels biofilms devaient se comporter comme des isolants.

Or, Geobacter peut se développer sans problème sur une électrode, au lieu d’un morceau d’oxyde de fer. Les chercheurs ont profité de ce fait pour fabriquer un dispositif, avec des électrodes en or et un biofilm, qui se comporte comme un transistor s’ouvrant et se fermant sous l’action d’une différence de potentiel. Remarquablement, la conductivité du biofilm peut être elle aussi contrôlée par un simple changement de température. On est donc en présence d'un nouveau type de transistor organique.

Nous pouvons maintenant examiner un éventail de nouveaux nanomatériaux conducteurs qui sont vivants, naturels, non toxiques, plus faciles à produire et moins coûteux que ceux artificiellement produits par l'Homme. Ils peuvent même nous permettre d'utiliser l'électronique dans l'eau et des milieux humides. Cela ouvre des possibilités intéressantes pour des applications en biologie et pour la production d’énergie qui n'étaient pas possibles auparavant.

- Un "metafluide" avec de l'ADN

Les métamatériaux destinés entre autre à des capes d'invisibilité sont difficiles à obtenir pour la lumière visible car il faut des structures de l'ordre de 10 nanomètres, ce qui pourrait être obtenu par des ADN s'autoreproduisant et couvrant des nanoparticules d'or.

- Du graphène pour polariser la lumière

Grâce aux propriétés optiques à large bande induites par sa structure à énergie exceptionnelle, le "polarizer graphènes" présente une largeur de bande supérieure. En fabriquant des "polarizers graphènes" qui combinent les avantages du coût faible (moins de quelques euros), du caractère compact, d'un temps de relâchement ultra-court et d'une large gamme d'opérations possibles, les chercheurs pensent que ce matériel permettra de nouvelles architectures pour des communications optiques sur puces ultra-rapides.

Cette découverte ouvre la voie à une nouvelle physique: dans les prochaines années, les chercheurs en photonique, plasmonique et nano-sciences dans cette structure de "graphène polarizer" auront un nouveau terrain pour tester leurs idées et méthodes vers des appareils photoniques-plasmoniques tout en carbone.

Des puces optiques guidant la lumière sont un pas important vers des ordinateurs optiques.

- Un DVD capable de traverser les siècles, gravé dans la pierre

Un DVD ordinaire, à gauche, avec sa couche de colorant organique, qui peut se fissurer au fil du temps et être altérée par des températures élevées et l'humidité, et un M-Disc lui aussi en coupe à droite. La nouvelle couche de stockage de données est entièrement composée de matériaux inorganiques, dont des métaux et des métalloïdes. Cette couche reste solide même à 500 °C, et elle reste stable en présence d'oxygène, d'azote, d'eau et autres produits chimiques nocifs.

La durée de vie des DVD se mesurent en décennies, ce qui n’est pas suffisant pour des archivages de données à long terme comme dans le secteur médical ou pour certaines entreprises. La solution est peut-être le M-Disc de la société Millenniata. Quasiment gravé dans la pierre, il serait capable de traverser les siècles...

Le principe de gravure est identique à celui des DVD actuels mais c'est le matériau dans lequel est gravée l'information (sous forme de petits trous) qui est différent. Sa nature n'est pas précisée, si ce n’est qu’il est inorganique et serait l’analogue de la pierre. L’information qui y est gravée à l’aide d’un laser de forte puissance et l'information est inscrite ainsi sous une forme bien moins sensible à l’humidité et à la température que sur un CD ou un DVD ordinaires.

Remarquablement, le M-Disc peut être lu par tous les lecteurs de DVD existants. En revanche, la gravure nécessite un appareil spécial.

Voir aussi Gizmodo et Techno-Science.

- Une mémoire 3D en verre

Une société lithuanienne a découvert une nouvelle technique de stockage des données en utilisant un laser femtoseconde pour créer des voxels, c'est-à-dire des sortes de pixels 3D, dans un bloc de verre.

En créant des structures périodiques planes de taille nanométrique dans un bloc de verre, les voxels précédemment cités, les chercheurs peuvent donc transformer un faisceau laser polarisé linéairement qui traverse ces structures en une sorte de tourbillon de lumière. Cette lumière polarisée radialement a de multiples applications, allant de la manipulation optique d’objets de la taille d’atomes à de l’imagerie haute résolution et peut-être même à la création d’accélérateurs de particules miniaturisés.

Comme sous-produit indirect, les chercheurs se sont donc rendu compte qu’ils pouvaient utiliser les voxels pour obtenir de véritables mémoires de verre, insensibles à l’humidité et à des températures de plusieurs centaines de degrés.

Voir aussi Technology Review.

- Des écrans photovoltaïque pour smartphone

La première application des cellules photovoltaïques transparentes.

D'autres font un peu la même chose grâce à la polarisation d'écrans LCD (voir aussi Techno-Science).

- Des alimentations électriques par USB

- Utiliser les interférences pour accélérer les communications sans fil

L'idée est intéressante d'utiliser plusieurs émetteurs à la fois et d'utiliser les interférences du signal pour des transmissions beaucoup plus sûres et rapides puisque ne devant plus se protéger des interférences. Cela permettrait aussi de créer une sorte de bulle autour de chaque récepteur et donc de multiplier la bande passante par autant de bulles qu'il y a de récepteurs. Cette technologie DIDO (distributed input distributed output) qui favorise une multiplication de petites antennes plutôt que de grandes antennes-relais exige cependant de grandes puissances de calcul et ne marche pas pour des utilisateurs trop proches mais il suffirait de pouvoir basculer d'un mode à l'autre.

Pour plus de précisions voir ici.

- Les perspectives de la réalité augmentée

La possibilité de retrouver, à partir de la position GPS, les images du quartier où l'on se trouve permet de transfigurer la ville.

- Des claviers virtuels sensitifs pour remplacer les vrais claviers

- La télévision qui vous regarde

En fonction de ce qu'on regarde, des propositions pourraient être faites...


- Passer les vitesses du vélo par la pensée

Ce vélo vous permet de changer les rapports de vitesse en fonction de vos ondes cérébrales.

Avant de pouvoir utiliser ce vélo, quelques réglages sont inévitables. Il s’agit simplement de faire un étalon de votre pensée cérébrale, comme si vous utilisiez un cardio. On prend votre rythme cardiaque au repos pour pouvoir constater les accélérations ou ralentissements. Ce vélo fonctionne de la même façon. Ainsi, un casque va capter vos ondes cérébrales puis les transmettre au cerveau électronique situé sur la machine.


- Un robot qui raisonne

Le groupe japonais Hasegawa a présenté à l'institut technologique de Tokyo un robot capable de réaliser son propre raisonnement lorsqu'il doit résoudre une nouvelle tâche. Ce robot a été par conséquent nommé SOINN (Self-Organising Incremental Neural Network).

Il utilise ses expériences passées pour deviner le mieux possible quoi faire. Il est capable de « sécher » et demandera alors de l'aide ou encore pourra apprendre une nouvelle tâche qu'il mémorisera. Le robot peut être connecté au web et pourra l'apprendre aux autres robots qui demandent aussi de l'aide.

- L'exosquelette de Sarcos

- New York-Los Angeles en 15mn ?

Ce drone qui ne décolle pas comme un avion est lancé par une fusée Minotaur IV d’Orbital Sciences, qui doit l’amener sur une trajectoire supersonique. L’engin accélère alors jusqu'à Mach 20, soit plus de 20.000 kilomètres à l'heure !

Avec ce programme, les États-Unis souhaitent se doter d’un engin capable de relier n’importe quel point du globe en moins de deux heures pour répondre à un besoin militaire de réponse rapide (Prompt Global Strike).

Pour l'instant, le contact a été perdu après 20 minutes de vol !


- En ballon à 36km de haut

Le fondateur de zero2infinity a pensé à un ballon géant nommé Bloon d’un diamètre de plus de 120 mètres qui permettrait d’atteindre une altitude de 36 kilomètres.

- D'une tour de 1km

Voir aussi Futura-Sciences.

- Earthship, des maisons de récupération

En 1994, un village un peu particulier abritant aujourd’hui une centaine d’habitants a vu le jour. Ces derniers ont tous un point commun, ils vivent dans des habitats durables d’un nouveau genre : des Earthships. Littéralement, Vaisseaux de la Terre, les Earthships ne ressemblent à aucune maison traditionnelle. En pénétrant ici, on est tout de suite frappé par l’esthétisme extérieur des bâtiments. Des culs de bouteilles et des canettes soigneusement empilés forment des murs scintillant au soleil. Encastrés dans du ciment et ornées d’adobe, ils se marient au bois et aux larges fenêtres qui parent les façades. En continuant la route, on tombe sur trois nouvelles maisons en construction. Autour du chantier, pas de pelleteuse ni bétonneuse, mais une équipe d’une dizaine d’hommes, et à leurs côtés, une montagne de pneus, de bouteilles et de canettes.


<- Revue des sciences précédente | Revue des sciences suivante ->
copyleftcopyleft 

31 réflexions au sujet de « Revue des sciences 09/11 »

  1. @michel martin.

    Votre lien est très à propos.Il est très important d’être attentif à cette mémoire autant personnelle que culturelle dont les mots restent porteurs. Exemple lorsqu’on parle de biens, de services, de patrimoine « immatériels », il faudrait Ne pas oublier comment différentes qualités furent dénotées ou connotées par ce terme (le surnaturel, le spirituel, l’éthéré, l’incorporel, l’intouchable, l’impalpable) par référence soit aux idées (Platon ) soit aux anges ( Thomas d’Aquin ) avant de faire référence soudainement à la fin du XXeme siècle à certaines formes d’activité environnant la production de marchandises dans le système capitaliste. Voilà que l’on entend améliorer la rentabilité (augmenter les rentes) et résoudre la question du chômage par les « activités immatérielles » Le terme s’applique, et il faut bien le dire improprement, à tout travail de conception, de recherche, d’innovation, aussi bien qu’à la gestion des ressources humaines, au marketing, etc. Parallèlement le terme s’applique aussi aux nouvelles technologies informatiques lesquelles modifient radicalement le rapport de l’activité de conception avec la matière et l’énergie. Moins de matières premières et économie d’énergie, par chance au moment où l’on prend conscience de ce qu’elles se font de plus en plus rare. On peut parler de techniques douces Ces nouveaux outils informatiques, par ailleurs, accélèrent radicalement au processus historique, sur le temps long, de dématérialisation des procédures de mise en mémoire collective des informations, des connaissances, des savoirs- faire entre les hommes. Depuis la gravure dans l’argile au néolithique jusqu’à la numérisation actuelle.

    Soit une moindre dépendance à l’égard des techniques dures anciennes, qui nous tient encore très loin de l’idéalité immatérielle. Comme dit Jean Zin dans son livre en ligne « le sens de la vie » i en tête de chapîtres : si « nous ne sommes pas des bêtes », de m^me « nous ne sommes pas des anges ».

  2. Je vais faire hurler les thuriféraires qui portent l'encensoir de votre philo mais ...

    L’illusion technologique engendre dans votre pensée la négation logique de l’entropie écologique : impossible d’être toujours plus nombreux au niveau de vie toujours meilleur avec toujours moins d’impact écologique individuel dans un espace physique fini aux ressources limitées non connecté à d’autres espaces et ne recevant qu’une énergie (solaire) non utilisable directement.

    Il faut être conscient que le progrès technique n’a pas " inventé " d’énergie. Il nous a permis d’accéder plus vite aux ressources fossiles que la nature avait mis plusieurs dizaines de millions d’années à constituer. Il nous a permis de consommer (de gaspiller ?) plus rapidement le capital de la planète.

    Les économistes, à force de ne comptabiliser la richesse que dans les produits du travail et de ne valoriser les ressources naturelles qu’au prorata des efforts réalisés pour les obtenir ont commis une grande erreur. Ils ont tout simplement négligé le monde réel.

    Malheureusement la nature même d’une difficulté ou d'un problème n’est pas indépendante de son ordre de grandeur. Paracelse l’avait depuis longtemps compris, lui qui professait dès le 16ème siècle : " c’est la dose qui fait le poison ".

    Imaginons d’un coté un monde significativement moins peuplé, disons moins de un milliard d’habitants et de l’autre un monde significativement plus peuplé, disons 12 ou 15 milliards d’habitants (ce n’est pas absolument exclu).

    Et maintenant, en toute bonne foi, demandons-nous dans lequel de ces deux mondes avons-nous le plus de chances de résoudre les grands problèmes que sont : la pollution, la déforestation, le changement climatique, la paix, la disparition des espèces, l’emprise urbaine sur les espaces vierges et la promiscuité permanente dans laquelle nous nous installons ?

  3. @Tartiflade :

    Pour revenir à 1 milliard, vous faites comment, il faudra bien mettre au point des virus pour parvenir aussi à une telle extermination sur le court terme.

  4. Si nous sommes aussi nombreux a arrivés à la conclusion, moins 80% d'homme nous donnerait un sursis.
    Cela n'est qu'un sursis et non une solution mais de toutes façon il n'y a que des sursis et aucune issus..
    Personnellement je pense que la planète nous a en gestion et qu'il va bientôt falloir rembourser les emprunts, climatique, énergétique, alimentaire, sanitaire, imaginer 7 milliards de pompe à chaleur suffit pour faire un gros soupir !
    Laisser faire et ne plus être entier pour en sauver son essence.

  5. A ce propos et pas si hors-sujet que cela ...

    L'anosognosie : le top, la sociophrésie : la crême !

    La sociophrésie se rencontre dans de nombreux troubles neurologiques, elle fait souvent suite à un accident vasculaire cérébral (AVC) et est souvent brutale et immédiate. Elle fait suite à une exposition prolongée dans un milieu sociologique défavorable inhibant l’état de conscience du sujet et son esprit critique sur la place et les buts même qui l’occupent au sein de cette société. L'une des fonctions cognitives du patient sera touchée mais ce patient ne s'en rendra pas compte pour autant. L'exemple de l'homonégligence pour sa descendance est caractéristique : un patient homonégligent ne fera plus attention au destin humain qu’il entretient, mais plus largement à la Nature comme son environnement voire à lui-même. Il ne se préoccupera alors que de sa cravate bien droite, de sa voiture bien propre et d’un bon antivirus sur son ordinateur … Il cognera plus rarement son côté gauche aux embrasures de porte, son côté droit pour les baies vitrées, sans pour autant en prendre conscience.

    La sociophrésie peut être envisagée d'une manière plus aisément compréhensible lorsque l'on se penche sur certains discours politiques, notamment, de type schizophrène : si, au début de leur maladie, les patients se rendent tout à fait compte qu'ils souffrent de problèmes amnésiques, l'évolution de la schizophrénie et de ces troubles amnésiques est telle qu'une sociophrésie progressive va apparaître : les patients vont littéralement oublier qu'ils oublient faisant par là même oublier ceux qui pensaient croire jusqu’à admettre ensemble qu'ils se sont tous trompés. Les souvenirs de leurs déficiences amnésiques vont s'effacer, de même que tout souvenir des autres types de difficultés cognitives. Peu à peu, le patient entrera dans un état de non-conscience de son trouble.

    Démence et maladie d'Alzheimer Santé mentale

    Les journaux français font aujourd'hui des hypothèses sur la maladie qui sous-tend les symptômes dont est atteint Jacques Chirac, notamment la perte de mémoire. Symptômes qui le rendent l'ancien président, qui aura bientôt 79 ans, inapte à assister à son procès qui doit s'ouvrir mercredi.

    Ces symptômes, résume Libération, pourraient résulter des suites d’un accident vasculaire cérébral (AVC), l'ancien président ayant été hospitalisé pour un AVC en 2005 alors qu’il était encore à l’Élysée), d’une démence vasculaire ou d'une maladie neurodégénérative comme la maladie d'Alzheimer.

  6. @pch : Effectivement l'histoire de la petite fille sourde d'Henri Laborit est parlante et ce qui est difficile à penser c'est le dualisme de la matière et de l'immatériel où le monde des signes recouvre le monde des choses et nous ouvre à l'universel tout en restant dépendant de sa matérialité (langage ou médias : le message est le média). Il y a cependant une grande différence de la matérialité du langage qui opère par division d'une totalité (dichotomie) et dépend du chemin parcouru (histoire) avec la matérialité des choses. Je suis de plus en plus matérialiste mais de la matérialisation de l'immatériel et des limites de la rationalité autant que des limites matérielles (écologie) et des processus matériels (flux, système, forces sociales). Le langage structure donc notre pensée, lui donne existence pour les autres comme pour moi, aussi bien que l'état du corps et de ses hormones, ce qui ne l'empêche pas d'accéder à l'universel de la science du moins dans son horizon historique, véritable processus d'universalisation. Ce qu'il faut penser, c'est le passage de l'adaptation à l'adaptabilité qui définit le système nerveux et donc la capacité de s'abstraire de son environnement et d'en changer comme de traverser le temps, le déracinement commençant dès l'origine de l'évolution tout en n'étant jamais achevé, gardant une certaine pesanteur qui nous cloue au sol et nous enferme dans notre époque, d'une langue et d'une culture comme tout horizon.

  7. @manu : Je suis d'accord avec presque tout ce que dit Anselm Jappe, notamment sur le fait qu'il ne suffit pas de critiquer le néolibéralisme mais qu'il faut pousser la critique jusqu'au capitalisme et au salariat. Cependant, je suis assez loin de ses positions politiques que je considère idéalistes et de l'ordre de la déviation criticiste, se trompant dans l'ordre des causes. La voie de l'alternative que je défends est bien plus concrète, tout comme mon analyse de la crise comme analogue à celle de 1929 marquant la fin d'un cycle de Kondratieff et le début d'un autre. Voir la critique que j'ai faite de son livre :

    http://jeanzin.fr/20...

  8. @Tartiflade : Il y a au moins deux erreurs qui justifient cette position barbare, une erreur assez commune sur l'entropie et que je m'emploie à réfuter par le vivant tout simplement qui en triomphe depuis si longtemps, l'autre erreur consiste à balayer d'un revers de main une énergie solaire qui est pourtant notre carburant depuis les débuts de la vie et nous sauvera la vie une nouvelle fois puisque le soleil nous dispense bien plus d'énergie qu'il ne nous en faut. A partir de fautes de raisonnement comme ceux de Malthus (la population n'augmente pas de façon géométrique ni la production de façon arithmétique) on serait près à exterminer ses semblables. En fait, on a les moyens de vivre à 10 milliards même s'il faudra se serrer un peu et qu'on pourrait souhaiter être moins nombreux, de même qu'on aurait les moyens de régler les problèmes écologiques, ce sont les moyens politiques qui manquent, les famines ont des causes politiques comme l'a montré Amartya Sen.

    J'ajoute que, hélas, il n'a pas fallu attendre qu'on soit 1 milliard pour détruire notre environnement et exterminer tous les grands mammifères hors d'Afrique, l'anthropocène commençant bien avant le néolithique.

  9. Question stupide !! non du tout !!

    Le PIB n'est pas un cumul mais une valorisation des entrées et sorties, Le PIB ne peut avoir une valeur nul mais ramené par habitant il peut être presque rien...!
    Nous pourions fabriquer des millions de cailloux si un idiot nous les achettes au prix d'or alors le PIB décolle...
    Le PIB est une mesure de la valeur de l'ensemble des biens et services produits sur le territoire d'un pays donné au cours d'une période donnée.

    Mesure de la valeur...! qui et quoi fait la valeur !

    Nous ne sommes pas dans une quantité de mouvement mais dans son efficaité

  10. J'ai beaucoup lu Jean-Marc Jancovici au début de mes recherches sur le climat avant de m'apercevoir de ses limites, notamment son aveuglement sur le nucléaire et sa sous-estimation assez aberrante du solaire. C'est à cause de lui que Nicolas Hulot a dit, après Fukushima, qu'on l'avait trompé !

    Occasion de souligner encore une fois à quel point il est difficile de s'entendre sur un diagnostic avant même de pouvoir s'entendre sur les solutions. Dans les sciences, c'est l'expérience qui tranche, en politique, l'expérience est souvent catastrophique et coûte très cher...

  11. si toute entreprise qui émet des gaz à effet de serre (c'est-à-dire toute) devait obligatoirement inclure dans ses comptes une "provision pour remise en état future du climat", dont la limite supérieure est infinie, il est facile de voir qu'avec un niveau approprié - et pas plus stupide qu'autre chose - de valorisation du risque futur, plus aucune entreprise ne fait de bénéfice. Le résultat de n'importe quelle entreprise est donc, aujourd'hui, conventionnel..voir du vol

    Voila qui confirme une maxime, profits des uns pertes des autres...l'autre peut être la nature qui à force de recevoir des doses non significatif en deviennent significatif.

    Le système capitaliste actuel est un poison dosé comme un traitement homéopathique où l'effet cumul change la dose..

  12. Il est certain que la dose fait le poison mais tout le reste est sophisme et formules creuses, de l'ordre de l'incantation vaudou. Encore une fois, plutôt que de s’enivrer de grands principes et de visions apocalyptiques, il vaudrait mieux des solutions qui ne soient pas purement imaginaires et n'exigent pas la conversion de l'humanité entière à nos pauvres certitudes. Il n'est pas vrai qu'il n'y aurait que des échanges à somme nulle où l'autre perd forcément ce qu'on lui prend.

  13. " Il n'est pas vrai qu'il n'y aurait que des échanges à somme nulle où l'autre perd forcément ce qu'on lui prend "

    Prend = guerre, avoir = capital
    La Suisse aurait-elle des ressources cachés et la Libye que du sable.. !
    On ne prend pas on achète des avoirs, la question n'est pas prendre mais avoir et la question est qui " a " les ressources ?

    Voila une chose que j’entends souvent pour justifier l'abus de profit...d'où vient la croissance avec le principe d'équivalence !

    Pour qu'il n'y est pas perte les deux ne doivent pas faire partire du même ensemble Terre !
    Avec un ET l'ensemble est ci grand que l'echange est vraiment mais vraiment non significatif au point que ci ET perd sa planète nous ne le sentirions même pas !

    Le profit / perte est proportionnel à la quantité / masse échangé, hors l'échange ce fait en vase clos donc aucune perte aucun profit sauf pour les deux points qui valorisent les échanges !
    Physiquement:
    Il est possible pour le point de tout perdre par la mort la faillite et de tout gagné avec la vitesse, la vitesse n'est ce pas l'obligation d'accélération constante pour ateindre la vitesse de la lumière c celle d'un trou noir qui est peut être notre but..!

    Désolé pour les formules creuses et sophismes, mais j'ai des principes qui font loi.

  14. Elle me plaisait bien l'idée que la gravitation serait une propriété émergente, alors je tique un peu quand je lis qu'elle aurait été "réfutée". Si l'on avait mesuré la dérive des continents aux débuts de la théorie éponyme, à une époque où elle était encore la risée des scientifiques, on serait arrivé à la même conclusion qu'Archil Kobakhidze : "the results exactly match the predictions of traditional" théorie, celles des continents immobiles...

  15. @Jean Zin :

    Ce qui m'avait surpris chez Jancovici, c'est qu'il soutenait qu'une meilleure redistribution à partir des classes sociales les plus riches n'aurait aucun effet social et économique.

    Il est vrai qu'encore maintenant, on ne sait toujours pas définir qui est riche en France, 50000, 100000, 150000 ou 500000 euros annuels ?

    J'aurai tendance à penser que 150 000 euros de revenu annuel, ça mérite une taxe supplémentaire. On en est à 500 000 euros, taxe, qui plus est, exceptionnelle.

  16. Il y a au moins deux erreurs qui justifient cette position barbare, une erreur assez commune sur l'entropie et que je m'emploie à réfuter par le vivant tout simplement qui en triomphe depuis si longtemps

    Je ne comprends pas. On ne peut pas juger deux états historique distinct à l'aune d'une prétendue capacité du vivant à résoudre les problèmes de l'entropie. Et que faire, alors, du cas des civilisations disparues ?

    En insistant trop lourdement sur la plasticité de la vie, sur son adaptabilité, on en vient à ne plus pouvoir concevoir la mort. On peut se demande si la théorie ne sert pas ici à se renvoyer à soi-même la négation d'une mort inéluctable.

    L'autre erreur consiste à balayer d'un revers de main une énergie solaire qui est pourtant notre carburant depuis les débuts de la vie et nous sauvera la vie une nouvelle fois puisque le soleil nous dispense bien plus d'énergie qu'il ne nous en faut.

    Le soleil produit de l'énergie, non de la matière. Il ne peut pousser plus d'herbe sur terre que la masse matérielle des constituants chimiques nécessaire à un tel processus.

    A partir de fautes de raisonnement comme ceux de Malthus (la population n'augmente pas de façon géométrique ni la production de façon arithmétique) on serait près à exterminer ses semblables.

    Vous me prêtez des propos que je n'ai pas tenus. Drôle de façon de circoncire le dialogue à des caricatures. J'ai affirmé qu'un espace physique fermé aux ressources conséquemment limitées ne peut pas supporter les besoins grandissants de sociétés toujours plus demandantes.

    Mais au fonds, vous n'avez pas répondu à la question. La question n'était pas de savoir à partir de combien d'hommes la planète sera entièrement dévastée (vous semblez placer la barre à 10 milliards), mais dans quelle monde est-il souhaitable de vivre. L'horizon d'une urbanité totale dans la promiscuité de l'habitat collectif, est-ce là ce qui vous paraît souhaitable ?

    Parce qu'enfin de compte, une théorie ne dit rien si elle ne dit pas les stades qui lui semblent souhaitable d'atteindre. Ce que l'on demande à la philosophie, ce n'est pas le sens des courants, c'est la bonne inclinaison du gouvernail.

  17. @Tartiflade :

    "Ce que l'on demande à la philosophie, ce n'est pas le sens des courants, c'est la bonne inclinaison du gouvernail."

    Si vous ne connaissez pas le sens des courants, et des vents, je doute que vous connaissiez la bonne inclinaison du gouvernail et des voiles.

    Ou alors vous n'avez jamais gouverné un bateau...ce que je vous recommande d'essayer à titre d'instruction.

  18. Ce qui est amusant avec les soi-disant "sceptiques", c'est qu'ils sont bardés de certitudes en béton et le site pensée unique mérite plus son nom que la communauté des chercheurs qu'ils attaquent (car il est un peu facile de citer Hulot ou Al Gore alors que la grande majorité des chercheurs confirment le réchauffement anthropique sans qu'on puisse du tout parler de pensée unique pour leurs travaux très divers).

    Pour ma part j'ai toujours critiqué le GIEC, ses tendances bureaucratiques et la courbe en cross de hockey, ce n'est certes pas la vérité révélée, mais les théories adverses sont beaucoup plus simplistes. J'ai aussi toujours fait référence à la théorie reliant les tâches solaires à l'optimum du Moyen Âge comme au petit âge glaciaire, sauf que, jusqu'à nouvel ordre ces modifications climatiques étaient limités à l'Europe car la modification de la couche nuageuse change le régime des vents (c'est le genre de données que les sceptiques genre Allègre ignorent allègrement!). Il n'est pas question pour moi de défendre un point de vue comme si moi j'avais la vérité révélée, je rends compte des travaux sur le sujet et j'attends juste des preuves un peu plus solides qu'on irait vers un refroidissement du climat, ce qui serait une bonne nouvelle, en effet, sauf que ma crainte et l'essentiel de mes critiques au GIEC, c'est qu'on minimise trop les phénomènes non-linéaires et les risques d'explosion de la bombe méthane qui a déjà fait pas mal de ravages dans le passé. Rien à voir avec les théories du complot de sceptiques persuadés qu'on leur ment. La seule chose qu'on peut espérer, c'est qu'on progresse rapidement sur ces questions difficiles.

    On est certes très désemparé avec ces phénomènes qui nous dépassent par leur complexité et les durées en jeu. Rien ne manifeste mieux les limites de notre savoir, limites qui ne sont pas une excuse pour être irresponsable et faire comme si on ne savait rien pour continuer comme avant même si on fonce dans le mur. L'impossibilité de trancher entre opinions contraires est pourtant bien notre expérience quotidienne que ce soit entre théories scientifiques ou économiques comme entre idéologies politiques voire entre religions (dont aucune n'est vraie...).

  19. @Crapaud Rouge : Il y a un tas d'idées séduisantes en physique qui ont été réfutées. On sait aussi que des théories réfutées ont pu être réhabilitées plus tard avec d'autres données mais, sauf à travailler dessus expérimentalement, les convictions n'ont rien à faire en science. Ainsi, j'ai la conviction qu'on ne peut expliquer la masse avec le boson de Higgs mais si on le trouve je devrais bien l'admettre. Je répète que dans cette revue des sciences, je ne fais que sélectionner des news que je ne peux absolument pas cautionner, n'ayant aucune compétence pour cela. Libre à vous de les contester si vous en avez les moyens.

    Pour ma part, la gravitation dans son invariance m'a toujours semblé très éloignée d'une entropie qui est statistique. On revient toujours à cette question de l'entropie sur laquelle il n'y a pas de consensus alors que c'est la loi la plus fondamentale de la physique. Il y a pourtant plusieurs théories qui avaient donné des versions plausibles d'une gravitation émergente, notamment la théorie holographique mais, il me semble bien que dans ce cas, on ne devrait pas pouvoir mesurer la force de gravitation sur un neutron isolé ?

    J'ai tenté de réduire l'énergie à l'entropie, ce qui est sans doute trop audacieux, mais pas la gravitation qui serait plutôt le contraire.

  20. @Tartiflade : Le progrès de l'adaptabilité est pourtant bien le simple effet de l'évolution sur les longues durées, menant au développement cognitif (la plasticité neuronale). Cela n'empêche pas que j'ai fait un texte sur les limites de la plasticité humaine mais si la mort est inéluctable, en effet, la vie en triomphe (presque) toujours, c'est cela l'évolution où la mort fait partie de la vie et la vie ne se limite jamais à l'individu (comme le sens s'inscrit toujours dans un langage commun). Il y a donc bien des morts et des civilisations disparues, ce qui ne nous empêche pas d'être toujours là. Surtout, dans le texte "de l'entropie à l'écologie" j'essaie de montrer qu'on ne surmonte l'entropie que par l'information et la réaction (action locale) ainsi que par le recyclage, sur le modèle du vivant (ce qui implique effectivement des destructions créatrices comme le montre René Passet dans son grand livre).

    Il y a, je crois, un sentiment de l'entropie qui peut pousser à la panique et au suicide par une sorte d'emballement qui mène à toutes les exagérations. Je déplore que tout un pan de l'écologie se réclame de Georgescu-Roegen qui ignore le vivant dans sa lutte contre l'entropie, ce qui est un comble pour des écologistes, et surestime une entropie matérielle que la biosphère réfute. Il faut dire que l'écologie, c'est justement la confrontation avec l'entropie anthropique, mais ce n'est pas en réduisant la population qu'on y arrivera, ce que nous sommes bien incapables de faire sinon par des méthodes barbares et injustifiables. Si j'ai cité Malthus, c'est pour montrer comme de faux calculs peuvent paraître assez convaincants pour mener à des conclusions inacceptables.

    A priori, on ne peut savoir si la Terre peut nourrir 10 milliards d'habitants, ce qui est supposé le maximum qu'on devrait atteindre mais cela pourrait être moins (car c'est le développement qui réduit la population alors que c'est la médecine et l'hygiène qui l'augmentent dans les populations pauvres). J'étais assez inquiet de la question agricole, comme tous les écologistes, mais il semble qu'il y ait un consensus désormais sur la possibilité de le faire, y compris avec une agro-écologie, ce qui ne veut pas dire qu'on évitera les famines.

    En tout cas, on n'a pas le choix, c'est ça notre monde où l'on n'aura pas le choix non plus : il faudra bien réduire nos consommations matérielles et se serrer les coudes. Il ne suffira pas cependant d'une simple décroissance, le même en moins, mais d'un système de production alternatif relocalisé. Il est on ne peut plus injuste de prétendre que je me contente d'analyser le désastre alors que je suis un des rares à proposer des dispositifs on ne peut plus concrets (à partir desquels je peux critiquer les discours qui ne servent à rien). C'est une erreur cependant de s'imaginer qu'on devrait dire chacun dans quel monde idéal on voudrait vivre, c'est tout au plus de l'ordre de la religion supposée réaliser nos désirs, on ne choisit pas le monde dans lequel on naît, tout ce qu'on peut faire et à quoi se résume la politique, c'est de tirer parti des potentialités du moment, favoriser le meilleur, éviter le pire, c'est la richesse des possibles qu'il ne faut pas confondre avec la richesse de l'imaginaire...

    En tout cas, sur ce point précis de la promiscuité, oui, je crois qu'on n'y coupera pas même si ce n'est pas du tout ce que je trouve désirable, moi qui fuit le monde dans une campagne solitaire. Je suis d'ailleurs en train d'écrire un article sur les grandes villes pour "Critical Studies in Peer Production", comment en faire des villes vertes, mais ces commentaires me prennent trop de temps et je n'arriverais pas à l'écrire à ce rythme...

  21. @com9
    L’amateur d’art que je suis doute amicalement d’une réponse qui reproche à la nécessité d’une matérialité durable des supports du signifié de « garder une certaine pesanteur qui nous cloue au sol et nous enferme dans notre époque, une langue et une culture comme seul horizon »
    L’étonnant, c’est de pouvoir trouver une justification de mes doutes dans les fresques de la grotte Chauvet ! Le film (et la reconstitution qui en permettront la visite interdite pour des raisons de conservation) me plonge comme à l’intérieur d’une mémoire organique géante. 50.000 ans après les artistes, nous pouvons en effet par l’imagerie moderne nous promener à l’intérieur d’un corps vivant . Et moi-même étais encore, lors de la publicité autour du film, occupé à la lecture attentive de votre livre en ligne « Le sens de la vie ». Bien que ne sachant plus rien de la signification symbolisée par ces fresques, j’y vois toutefois la représentation subjective d’un biotope extérieur disparu, tel qu’intériorisé sur la membrane interne d’une matrice matérielle que je ressens comme « sensible », par l’entité vivante d’un groupe d’humains dotés des mêmes capacités génétiques que nos plus grands peintres occidentaux, et dont la culture contingente nous est inaccessible. Perte du signifié immatériel donc, sans doute depuis assez longtemps, mais une pérennité inouïe du signifiant, jusqu’à nous au XXIeme siècle. A propos du même problème des liens du sujet vivant avec son Umwelt ! Les techniques évoluent, mais les questions posées restent les mêmes.

    Au disque dur des ordinateurs, support de nos spéculations en réseaux à l’ère du cognitif immatériel, il est à craindre qu’il manque l’assurance d’un support signifiant durable, comme pour l’expression plastique de la grotte néolithique, des tombeaux égyptiens, des temples grecs, ou des peintures plus actuelles de Rothko ou de Soulages. Par contre la tablette numérique pourra libérer l’élève de sixième d’une charge quotidienne de 12 kilos de papier dans son cartable!
  22. Non, il n'y a pas de "reproche" à rester ancré dans la matérialité sans laquelle il n'y a effectivement pas d'art, il faut que la matière résiste et, nous ne sommes pas des anges, il n'y a aucun sens à adopter le point de vue de Sirius. C'est seulement la constatation d'une contradiction vivante, de ce que Hegel appelle notre inadéquation à l'universel qui est notre maladie mentale, et de la dialectique entre une tendance universalisante (pensée globale), une pensée qui progresse par l'abstraction, et la situation concrète qui seule lui donne sens (action locale). Je suis un matérialiste de l'immatériel, y compris de la langue et je reconnais les limites de notre adaptabilité écologique, ce qui n'empêche pas que depuis le premier foyer l'humanité s'abstrait de son environnement pour se créer son monde propre, celui de son habitat et de sa domestication. Il est difficile de tenir les deux bouts de ce qui nous tient au sol et nous élève au ciel des idées, c'est justement ce que l'art incarne et si le Bien ni le Bon n'existent vraiment, le Beau se caractérise par son existence même, sa matérialité.

    J'avais mis une vidéo de Lascaux qui était aussi impressionnante donnant effectivement l'impression de pénétrer dans les entrailles de la terre comme dans un corps vivant. Si le sens de ces peintures nous reste obscur comme d'une langue inconnue, du moins nous savons avec certitude que c'est un langage au-delà de sa matérialité immédiate.

  23. Je ne lis pas tout, mais les virus semblent avoir un rôle.

    Sinon, la 3D d'organe me parait intéressante. Fonction et structure...

Les commentaires sont fermés.