Newsletter 07/07

Temps de lecture : 101 minutes

Leonard de VinciRevue des sciences du mois de juillet 2007

  • Bloquer le diabète
  • Ecouter les ondes gravitationnelles
  • Neurones et cannabis
  • Le geste précède la parole
  • Les ondes et le cerveau
  • Voir avec la langue
  • Les trous noirs n'existeraient pas !
  • Première vidéo d'un trou noir !
  • Flaques d'eau sur Mars ?
  • Voir à travers un mur avec l'axion ?
  • L'emballement de l'effet de serre
  • Un monde sans pétrole ?
  • Les neurones des éponges
  • Dangers du RoundUp
  • Espoirs pour traiter le Parkinson
  • Le cholestérol ne bouche pas les artères
  • Retrouver les mitochondries de sa jeunesse
  • Le cannabis contre les allergies
  • L'homme au sang vert
  • Biologie synthétique : les premiers pas
  • Alimentation électrique sans fil
  • Thermo-acoustique : refroidir en produisant de l'électricité !
  • Calculateurs moléculaires
  • Technologies pour les pauvres...

- Un univers à notre mesure ?

Compte-rendu du livre de Leonard Susskind "Le paysage cosmique", où il discute du principe anthropique rendu nécessaire par la conjonction de la théorie de l'inflation (des univers-bulles) et d'une constante cosmologique qui ne peut être nulle ainsi que de la théorie des cordes qui semble rendre possible 10 puissance 500 types d'univers (!). Il défend aussi la théorie holographique et un curieux dédoublement entre ce qu'on peut observer de l'extérieur et de l'intérieur d'un trou noir ! A lire absolument.

- Le sens de l'évolution

A partir d'une critique de la présentation de la théorie de l'évolution dans "Pour la Science" par Pascal Picq : la sélection naturelle comme "causalité descendante", l'information comme énergie vitale, rôle de la finalité en biologie, complexification, optimisation, l'homme comme sommet de l'évolution (passage de l'évolution à l'histoire, c'est-à-dire à l'évolution technique).

- Signalons que Science et Vie a fait un hors série sur l'histoire de la Terre, pour s'étonner que l'épisode de la Terre boule de neige n'ait pas du tout la même explication que celle donnée par une récente étude finlandaise qui met en cause l'excès d'oxygène alors que l'article dit le contraire...

Pour le reste, j'attire l'attention sur le système qui permet de "voir avec la langue" et sur la controverse des trous noirs (avec la première vidéo du trou noir de notre galaxie). Il est curieux de voir comme ce mois-ci plusieurs médicaments se révèlent avoir des vertus méconnues plus importante que leur destination initiale. On est dans la réutilisation de l'existant plus que dans la pure innovation. C'est aussi le véritable début de la biologie synthétique... Sinon du côté du climat les mauvaises nouvelles s'accumulent toujours, hélas !


Pour la Science no 357, La musique de l'univers


Pour la Science

- La disparition des poissons subventionnée, p8

Le montant des subventions à la pêche dans le monde est de 32 milliards par an (dont 1/4 sous forme de réduction sur le prix du fuel) à comparer au montant total des prises qui est de 80 milliards ! Ceci alors que le nombre d'espèces en danger a presque doublé, entre 2000 et 2006, passant de 144 à 238 menacés d'extinction et de 452 à 682 vulnérables ! Dans la liste on trouve la morue, le thon, le requin, le dauphin (qui n'est pas un poisson).

Les gros poissons éliminés, la pêche commerciale exploite les plus petits, sardines, harengs, anchois, puis les invertébrés, poulpes et crustacés.

En fait, on cumule les effets pervers de la concurrence et des subventions : du fait de la concurrence on répète la tragédie des communs qui n'appartiennent à personne et si je pêche moins ce sont les autres qui vont en profiter, du fait des subventions des espèces non rentables car habitant les grands fonds, ce qui exige plus de fuel, deviennent rentables et sont pêchées intensivement alors qu'elles se reproduisent beaucoup moins vite dans ces environnements difficiles...

Depuis Bernard de Mandeville et sa Fable des Abeilles (1714), nous pensons qu' "un politicien habile, en manipulant adroitement des vices privés, peut en faire des vertus publiques" : ainsi, ce ne serait pas en cherchant à contrecarrer l'avidité des hommes, mais en la suscitant et en la canalisant, que l'on ferait avancer la société. Il me semble que si l'on atteint les limites des ressources de la planète, on atteint aussi les limites de cette manière de faire.

- En symbiose avec le virus de l'herpès, p29

On avait déjà découvert avec émerveillement le rôle des virus dans la vie (invention de l'ADN, maintien de la biodiversité, vecteur de communication des gènes, extermination des cellules cancéreuses), on découvre maintenant qu'un virus dormant, comme celui de l'herpès, peut renforcer le système immunitaire dont il fait donc partie intégrante :

L'équipe de E. Barton a montré que les herpèsvirus dormants stimulent la production de l'interféron gamma et l'activation des macrophages, deux acteurs clefs du système immunitaire qui permet de lutter efficacement contre les bactéries.

(On peut penser aussi que le virus se réveille quand le corps est affaibli, pouvant donner le coup de grâce ?)

- Bloquer le diabète, p30

L’inhibition de l’interleukine-1-bêta, une molécule du système immunitaire, soulage le diabète de type 2.

En 1995, il y avait déjà 135 millions de diabétiques dans le monde, 177 en 2000, et il devrait y en avoir plus de 300 millions en 2025. En France, ils sont déjà environ deux millions. L’équipe de l’endocrinologue Marc Donath, de l’Université de Zurich, cherche depuis dix ans comment contrecarrer ce fléau : elle vient de tester avec succès un moyen de bloquer la progression de la maladie.

Dans le diabète le plus répandu – le diabète de type 2 –, la consommation excessive de nourriture, tout particulièrement de sucres, conduit à l’épuisement progressif, voire à la mort des cellules productrices d’insuline : les cellules bêta des îlots de Langerhans du pancréas. En l’absence d’insuline, la concentration de sucre dans le sang est excessive, ce qui a des conséquences délétères sur diverses fonctions vitales. Les cellules bêta meurent (cela a été établi récemment) dès le début de la maladie, mais elles ont aussi la capacité de proliférer. C’est pourquoi M. Donath soutient que si l’on parvenait à bloquer la destruction des cellules bêta, la prolifération serait suffisante pour normaliser la glycémie. Les endocrinologues ont ainsi montré que la molécule interleukine-1-bêta joue un rôle crucial dans la mort des cellules bêta, dont elle déclenche l’apoptose (la mort cellulaire programmée).

Or on dispose déjà de bloqueurs de l’interleukine-1- bêta, dont l’effet est relativement long. Peut-être pourrait-on traiter le diabète de type 2 par une piqûre tous les mois (voire tous les trois mois). Plusieurs sociétés pharmaceutiques étudient plus précisément cette nouvelle piste de traitement du diabète dit gras, qui touche particulièrement les personnes en surpoids.

- Les sons de l'espace-temps, p32

Les ondes gravitationnelles n'ont jamais été observées, on n'est même pas sûr qu'elles existent ni le graviton qui est supposé en être la particule médiatrice comme le photon l'est pour la lumière. Ces ondes seraient des déformations de l'espace-temps !

Les ondes gravitationnelles sont émises quand de grandes masses accélèrent ; la lumière est émise quand de minuscules charges électriques accélèrent. Il s'ensuit que les ondes gravitationnelles ont des fréquences beaucoup plus basses que la lumière.

Cependant, les ondes gravitationnelles qui ont parcouru un long trajet pour arriver jusqu'à nous ne déforment que très peu l'espace-temps ; elles n'entraînent qu'un très faible étirement par unité de longueur, inférieure au rapport de la taille d'un trou noir sur son éloignement. En d'autres termes, l'espace-temps est le milieu le lus raide qui soit : même une énorme quantité d'énergie ne crée que de minuscules vibrations.

Lors du passage d'une onde gravitationnelle, l'espace est étiré dans un sens puis dans l'autre. Cela signifie que la distance entre les objets varie. Pour un étirement relatif donné, l'allongement ou la contraction des distances sont d'autant plus importants que la distance entre les objets est grande. C'est pourquoi, pour mettre en évidence des ondes gravitationnelles, les physiciens cherchent à mesurer de minuscules variations de distance entre des objets éloignés. L'interférométrie laser, technique sensible à de minuscules modifications portant sur un long trajet lumineux est donc parfaitement adaptée.

Ce détecteur franco-italien appelé Virgo et qui vient d'être mis en route n'a encore rien détecté, pas plus que son homologue américain LIGO. Les probabilités qu'un événement suffisamment énergétique se produise assez près pour être détecté sont assez faibles. On met plus d'espoir dans un système de satellites, LISA qui ne sera pas lancé avant une dizaine d'années mais sera capable de mesurer "des distances très supérieures à la distance terre-Lune avec une précision très supérieure à la taille d'un atome !". On espère alors "entendre" des collisions de trous noirs ainsi que, beaucoup plus hypothétique, des cordes cosmiques !

Pendant un long moment, les trous noirs en orbite émettent des "sons" presque constants, comme une seule note de violon qui ne devient que lentement plus aiguë. Puis, juste avant que les trous noirs ne fusionnent, la note devient subitement à la fois plus aiguë et plus forte, comme le final d'un virtuose. Enfin, après la fusion, le son décroît rapidement, comme les réverbérations dans une grande salle de concert.

Il y a au moins un type d'objet nouveau relevant des cordes qui, s'il existe, doit émettre un rayonnement gravitationnel détectable : les "supercordes cosmiques", objets microscopiquement minces, mais astronomiquement longs, qui pourraient se former à partir de minuscules cordes quantiques (...) Tandis que l'univers poursuivait son expansion, les cordes se sont démêlées et ont circulé en tout sens pratiquement à la vitesse de la lumière; en se croisant et en se recombinant, elles auraient engendré des boucles fermées. Or ces objets ne disparaissent pas facilement et sont relativement stables : la seule façon pour ces boucles de perdre de l'énergie est d'émettre des ondes gravitationnelles, et le calcul de l'intensité de ces ondes montre que, dans certains scénarios suggérés par la théorie des cordes, elles seraient aisément détectables par un instrument tel que LISA.


La Recherche no 410, Spécial cerveau


La Recherche

- La réalité quantique, p11

L'article n'est pas clair, faisant état d'une expérience faite par des Autrichiens (Gröblacher) et qui serait proche de celles menées par Alain Aspect démontrant la non-localité (paradoxe EPR) mais qui démontrerait cette fois que "les propriétés des particules n'existent pas tant qu'elles n'ont pas été mesurées". Ce qu'on croyait déjà acquis...

- Une suite de Fibonacci, p12

En chauffant un mélange à une température supérieure au point de fusion de l'argent mais inférieure à celui de l'oxyde, "lorsque la température diminue, on observe la formation d'aspérités (...) dont la répartition en spirales est décrite par une suite de Fibonaci" qui s'obtient en faisant la somme des deux nombres précédents (1,1,2,3,5,8,13, etc.).

- Les émissions de CO2 s'envolent, p14

Toutes les revues du mois sonnent le signal d'alarme et répètent ce dont on avait déjà fait état le mois dernier : au lieu de se réduire les émissions s'envolent et le réchauffement s'annonce bien pire que les prévisions du GIEC ! L'augmentation de température est plus forte que prévue, l'absorption du CO2 par la mer diminue, les précipitation sont plus importantes (ayant augmentées de 6% au lieu de 1 à 3% croyait-on !). Les incertitudes restent très grandes mais il semble plutôt qu'on va vers le pire. L'augmentation du CO2 serait surtout dû à la dégradation du "rendement carbone" et notamment par la substitution du charbon au fuel. Il n'y a pas que la Chine qui est en hausse. "En Espagne et en Irlande par exemple, les émissions ont crû de 40% depuis 1990" !! (voir aussi les brèves sur le climat)

- L'origine des cyclones atlantiques, p15

Vous connaissez l'histoire du papillon à Tokyo qui déclenche un ouragan à New York ? C'est un peu exagéré mais, par contre, il se pourrait qu'un orage en Afrique déclenche un cyclone en Floride ou à la Nouvelle-Orléans comme le cyclone Katrina !

"Il provoque une turbulence. Cela perturbe les ondes qui se développent dans le grand courant atmosphérique circulant d'est en ouest au-dessus du continent africain". Quand elles arrivent une semaine plus tard sur l'océan Atlantique, certaines de ces ondes perturbées se creusent en dépressions tropicales,en tempêtes, voire en cyclones.

- Des émissions de méthane il y a 55,5 millions d'années, p16

Plutôt une confirmation qu'une découverte, le "maximum thermique Paléocène-Eocène" (PETM) qui a duré 200 000 ans a bien débuté par des éruptions volcaniques entre le Groenland et la Grande-Bretagne (Îles Féroé) mais n'aurait pu provoquer un tel réchauffement si cela n'avait provoqué d'abord la libération du méthane contenu dans les roches puis celle des hydrates de méthane contenues dans la mer et dans les glaces (si c'est ce qui nous attend, il y a de quoi s'inquiéter...).

Ces hydrates ont été déstabilisés par l'augmentation de température due aux émissions de CO2 des volcans nord-atlantiques. Le méthane s'est alors échappé et a réchauffé encore plus l'atmosphère de l'époque. C'est un bel exemple de rétroaction positive.

- Neurones et cannabis, p19

Un nouveau rôle pour les récepteurs aux cannabinoïdes. On savait déjà que le cannabis endogène servait à "l'inhibition rétrograde", à l'apprentissage comme au déconditionnement (voir dans les brèves leur rôle dans l'inflammation). On découvre qu'ils servent aussi à la construction du cerveau :

Plus précisément, ils guident les axones dans leur quête d'autres neurones auxquels se connecter. Ce phénomène concerne en particulier les neurones dits "GABAergiques". L'extrémité de leur axone, le "cône de croissance", possède beaucoup de récepteurs aux cannabinoïdes. Lorsque ce cône arrive dans une zone riche en cannabinoïdes et que ses récepteurs sont activés, il change de direction.

- Après décodage de l'ADN du génome de Néandertal, la séparation entre lignée humaine et néandertalienne est repoussée à 800 000 ans. p 20

- Le "tombeau d'Hérode" récemment découvert ne serait que celui de son fils... p 21

- Parler avec les mains, p22

Une étude sur des bonobos et chimpanzés semble montrer que les grands singes "parlent avec les mains" et que donc le geste précède la parole (les autres hypothèses ont été les cris, le chant, les sifflets ou les claquements de dent).

Il existe même des différences entre groupes de bonobos, donc une sorte de variation "culturelle" dans la gestuelle.

La gestuelle est plus indépendante du contexte et moins stéréotypée que les autres moyens de communication, vocalises et mimiques, qui sont réservés quasi exclusivement à des situations bien délimitées.

Ce travail renforce l'hypothèse de l'origine gestuelle du langage, qui repose déjà sur un faisceau d'arguments : les zones cérébrales activées par les gestes chez les singes sont les mêmes que celles du langage chez l'homme ; seuls les hominidés communiquent avec des gestes ; l'émergence spontanée de langages des signes chez des humains privés de parole, etc.

- Les ondes et le cerveau, p37

Du dossier sur le cerveau, qui ne m'a pas passionné, je ne retiendrais que l'indication de l'effet des ondes électro-magnétiques. On ne peut dire que les ondes n'ont pas d'effet, même s'il est peu probable qu'elles provoquent des cancers comme on le craint à tort sans doute. On sait qu'elles augmentent la perméabilité des cellules mais réduisent l'inflammation, que les micro-ondes font augmenter la température interne et qu'elles perturbent la mémorisation, mais, selon la fréquence, elles peuvent augmenter ou réduire l'excitabilité des neurones. En fait, lorsque la fréquence est proche de celle du sommeil lent (1 Hz) on diminue l'excitation et quand elle est proche de l'éveil (5 Hz) on l'augmente. Les ondes lentes favoriseraient aussi la mémorisation (transfert entre l'hippocampe et le cortex). Voir, dans les brèves les mises en garde du Criirem.

Ajoutons, même si cela n'a rien à voir, que l'activité spontanée constante du cerveau qui consomme 20% de l'énergie du corps servirait à équilibrer dynamiquement les neurones excitateurs et inhibiteurs, ce serait aussi une façon d'ajuster sans arrêt ses estimations et de se projeter dans le futur.

Ainsi l'équilibre peut-être considéré comme un avantage nécessaire, mais coûteux en énergie, de la fonction cérébrale.

Cela prouve que ces systèmes sont toujours prêts à interagir. Alors (...) ils ne serviraient pas seulement à répondre, mais aussi à anticiper nos besoins en fonction d'expériences passées.

- Voir avec la langue, p82

C'est le plus étonnant : un appareil dentaire qui permet d'avoir un circuit imprimé sur le palais relié à une caméra. En mettant la langue dessus, on finit par voir des formes, pas aussi bien qu'avec les yeux, mais c'est quand même très étonnant et des chirurgiens utilisent ce système pour se guider sans regarder l'écran de contrôle ! Cela confirme que la vision est reconstruite par le cerveau (elle est fonction de l'intentionalité qui vise l'objet et du déplacement du corps), ce qu'on peut constater en mettant des lunettes qui inversent l'image mais qu'on voit de nouveau à l'endroit après un temps d'adaptation...

Le décryptage de cette information nécessite au départ un effort de concentration de la part de l'utilisateur : il doit comprendre comment les picotements distribués à la surface de sa langue l'informent sur l'objet à percevoir. Mais après quelques heures d'entraînement, le raisonnement conscient disparaît. L'usager ne perçoit plus de stimulations tactiles mais il distingue l'obstacle comme étant devant lui. La perception est d'ailleurs si nette que si la caméra zoome soudainement sur l'obstacle pour en agrandir l'image, l'utilisateur cherche à l'éviter en se protégeant de son bras.

- Les systèmes complexes, p107
Hervé P. Zwirn, Odile Jacob

Rien de nouveau, oubliant semble-t-il l'interaction avec d'autres systèmes pourtant si déterminante pour la structuration interne (la prétendue auto-organisation). En tout cas, il distingue ces composants des systèmes complexes :

Le holisme : on ne peut isoler les parties d'un système sans le modifier ; il faut donc le prendre comme une entité entière. L'auto-organisation : les interactions internes permettent au système de s'organiser, et de ce fait de nouvelles propriétés vont émerger. L'adaptabilité : les systèmes ont des capacités d'adaptation et d'évolution liées à leur auto-organisation. Les transitions de phase : une perturbation continue d'un composant entraînera une modification brutale du système entier.

Il en explique les outils qui permettent leur étude : les automates cellulaires et les réseaux neuronaux, les algorithmes d'optimisation (recuit simulé, algorithmes génétiques), la notion d'agent adaptatif.



Brèves et liens



Physique


cosmologie, astronomie, physique quantique

- L'Univers dans 3000 milliards d'années

Assez peu fiable et prématurée, c'est l'hypothèse d'une dilution dans l'espace par accélération de l'expansion de l'univers qui isolerait les galaxies comme des îles perdues sans liaisons avec les autres partis de l'univers, inspirant cette réflexion :

« Nous vivons à une époque spéciale de l’histoire de l’Univers, la seule pendant laquelle nous pouvons vérifier par l’observation que nous vivons pendant une période très particulière de l’histoire du cosmos » , et ils ajoutent « Nous pouvons nous sentir particulièrement favorisés de pouvoir observer tellement de choses que de futures civilisations ne seront pas capables de connaître, mais, en suivant la même logique, nous pouvons nous demander quels aspects importants de l’Univers nous sont aujourd’hui et pour toujours cachés. Ces réflexions nous conduisent à une sorte d’humilité cosmique ».

- La voie Lactée: une galaxie paisible mais rare

Le caractère exceptionnel de notre galaxie explique le caractère exceptionnel des conditions propices à une évolution de la vie sur une longue durée.

En comparant notre Galaxie avec les autres galaxies spirales, les chercheurs démontrent que le contenu en étoiles et le rayon du disque de la Voie Lactée sont bien inférieurs à ce que l'on observe pour les autres galaxies. Le halo de notre Galaxie est aussi exceptionnel: les étoiles qui le composent sont âgées et particulièrement pauvres en éléments lourds. L'équipe explique ces particularités par le fait que notre Galaxie a subi très peu de rencontres ou de fusions avec d'autres galaxies depuis les derniers 10-11 milliards d'années.

- Une étoile à neutrons qui émet comme un trou noir des faisceaux de particules

Les trous noirs ne sont pas les seuls objets de l'Univers à expulser de puissants jets depuis leurs pôles. Des étoiles en fin de vie qui se consument peuvent aussi en émettre, et les faisceaux de particules qu'elles génèrent rivalisent voire surpassent ceux engendrés par les trous noirs.

De nombreux jets ont été détectés en association avec des trous noirs, mais celui de Circinus X-1 est le premier faisceau détecté en rayons X associé à une étoile à neutrons.

- Théorie: Et si, en réalité, les trous noirs n'existaient pas ?

La notion standard de trou noir inclut un "horizon des événements" au delà duquel rien ne peut s'échapper. Mais une étude nouvelle suggère que la matière qui s'effondre ne puisse jamais devenir suffisamment dense pour former cet horizon des événements,et que c'est en fait une "étoile noire" qui se formerait.

Ils ont constaté que la gravité de la masse s'effondrant commence par perturber le vide quantique, en produisant ce qu'ils ont appelé un rayonnement de "pré-Hawking". Ce rayonnement réduit alors la quantité masse/énergie totale de l'objet - de sorte qu'il ne devient jamais assez dense pour former un horizon des événements et un véritable trou noir. Selon Vachaspati, "les trous noirs n'existent pas ; il y a seulement des étoiles qui tendent à devenir des trous noirs sans jamais y parvenir."

Ces "étoiles noires" ressembleraient beaucoup à des trous noirs, indique Vachaswati. Du point de vue d'un observateur éloigné, la gravité déformerait l'écoulement apparent du temps de sorte que la matière tombant vers l'intérieur ralentisse. Et lorsqu'elle parviendrait à l'endroit où l'horizon devrait se situer, la matière s'étiolerait, sa lumière serait étirée sur des longues longueurs d'onde si grandes par la gravité de l'objet qu'elle en deviendrait pratiquement indétectable.

Mais parce que le rayonnement de pré-Hawking empêcherait la formation d'un trou noir avec un véritable horizon des événements, la matière ne s'évanouirait jamais complètement. Et comme aucune information ne serait plus séparée du reste de l'univers, le paradoxe de l'information perdue n'existe plus.

L'idée fait cependant face à l'opposition de la part d'autres physiciens théoriques. "Je suis en total désaccord" affirme le Prix Nobel Gerard 't Hooft de l'université d'Utrecht aux Pays Bas. "Le processus décrit ne peut en aucune façon produire assez de rayonnement pour faire disparaître un trou noir aussi rapidement." Selon lui, l'horizon des événements se forme bien avant que le trou ne s'évapore. Steve Giddings de l'université de Californie à Santa Barbara, est également sceptique: "Des résultats déjà bien compris sont apparemment en conflit avec cette hypothèse", dit-il.

- En vidéo : preuve directe d'un trou noir au centre de notre Galaxie

Alors même que leur existence est mise en cause, voilà que, pour la première fois, on aurait une vision "directe" du trou noir au coeur de notre galaxie ! Enfin, il n'est pas si évident que ça de voir ce qui se passe ! C'est juste le fait qu'on voit une étoile se mettre à tourner autour de rien de visible, cela pourrait donc tout aussi bien être une "étoile noire". Certains prétendent d'ailleurs que les véritables "trous noirs" empêcheraient même les supposés gravitons de s'échapper hors du trou noir, tout comme les photons, ce qui ferait qu'ils n'auraient aucun effet gravitationnel et seraient donc indétectables ! (sauf que la déformation de l'espace temps se fait forcément sentir au-delà). En fait, j'ai toujours eu l'impression que l'hypothèse des gravitons était contradictoire avec celle de la déformation de l'espace, mais tout cela reste bien incertain... Vivement des expériences qui nous éclairent !

    Cette animation vidéo a été réalisée par succession d'images obtenues du centre de notre galaxie entre 1992 et fin 2002. Elle montre, d'abord sous deux valeurs d'agrandissement, le mouvement des étoiles entourant Sagittarius A. La troisième séquence montre très nettement la trajectoire de deux d'entre elles, ainsi qu'une orbite complète de l'étoile S2 autour du trou noir. Bien que ce dernier restera à tout jamais invisible par définition, ce document est considéré comme la première observation directe d'un trou noir, ce qui en fait à la fois un document historique et d'une valeur scientifique considérable.

Le pas récemment accompli au télescope Yepun du VLT (Very Large Telescope), équipé de NaCo et de Sinfoni, deux systèmes complémentaires d'optique adaptative, est certes une découverte majeure, mais marque aussi une des étapes les plus importantes de l'histoire de l'Astronomie. Car pour la première fois, un trou noir a été mis en évidence par l'observation directe, performance inimaginable il y a seulement quelques années.

Lorsqu'un astre, ou de la matière provenant de celui-ci, parvient à la limite du champ attractif d'un trou noir et y est absorbé, il se produit une conversion rapide de l'énergie gravitationnelle associée. La matière chutant vers le trou noir s'échauffe et rayonne intensément, d'abord en ondes radio, puis en infrarouges, puis en lumière visible, en UV et ensuite en rayonnement X. L'équipe observant en infrarouge le 8 mai 2003, c'est donc ce rayonnement qui avait été aperçu.

- De la matière à 99.9997% de la vitesse de la lumière

A l'aide du télescope robotisé REM (Rapid Eye Mount) de 60 cm de l'Observatoire de l'ESO à La Silla au Chili, des astronomes sont parvenus à mesurer pour la première fois la vitesse d'explosions connues sous le nom d'éclats de rayons gamma. Selon leurs résultats, la matière s'y déplace à plus de 99,999% de la vitesse de la lumière.

"La matière se déplace avec une vitesse qui ne diffère de celle de la lumière que de trois pour un million", commente Stefano Covino, co-auteur de l'étude. "Des particules isolées dans l'univers peuvent être accélérées à de plus grandes vitesses encore, c'est-à-dire avec des facteurs de Lorentz beaucoup plus grands, mais il faut bien se rendre compte qu'ici, c'est l'équivalent d'environ 200 fois la masse de la Terre qui a acquis cette incroyable vitesse."

- Possibles images de flaques d'eau à la surface de Mars

Que d'eau, que d'eau ! Après avoir douté de la présence d'eau sur Mars, puis en avoir trouvé des traces, puis une immense calotte glacière, voilà qu'il y aurait de l'eau liquide... donc de la vie ?

Cette analyse reste encore très controversée, principalement à cause de la faible épaisseur de l'atmosphère de Mars et des fortes températures qui forceraient de l'eau liquide à se vaporiser quasi instantanément, mais des conditions particulières pourraient expliquer ces observations.

- ExoMars : l'Europe conforte ses ambitions martiennes

La définition de la mission ExoMars de l'Agence Spatiale Européenne vient de prendre un tournant décisif, et revoit ses ambitions à la hausse avec l'augmentation significative de sa charge utile.

Le nouveau projet prévoit l'abandon du satellite relais, la totalité de l'engin spatial se posant sur le sol de Mars, ce qui permet d'en augmenter considérablement les possibilités. Celui-ci se compose d'un atterrisseur mobile (rover) de 205 kg, comprenant 16,5 kg d'instruments scientifiques, 30 kg de GEP (Geophysical & Environmental Package) et un système de forage du sol (taupe). Mais le concept exige aussi une profonde modification du système d'atterrissage, à base d'airbags d'un type nouveau.

- L'inversion des champs magnétiques a 100 ans

Enfin, c'est la découverte de cette inversion par Bernard Brunhes qui a 100 ans et qu'on peut lire dans les couches de sédiment !

Sinon, les inversions se font tous les 700 000 ans en moyenne (la dernière il y a 780 000 ans), conformément à l'expérience Von Karman Sodium (VKS), le rapport entre la durée de l'inversion et la polarité stable est de 1%. Nous sommes dans une période d'inversion mais il ne semble pas que les animaux (ou les humains) aient beaucoup souffert des inversions précédentes (sauf les oiseaux peut-être) alors que la disparition du champ magnétique nous expose pourtant aux radiations cosmiques mais selon Jean-Pierre Valet cela nous protégerait plutôt d'épisodes volcaniques catastrophiques. Par contre, il se pourrait que nos ordinateurs deviennent inutilisables comme pendant un orage magnétique...

Jean-Pierre VALET, après avoir rappelé que la découverte des inversions du champ magnétique terrestre avait donné lieu à la mise en place d'une chronologie, nous a montré que les périodes où l’on a constaté de grandes extinctions, comme les limites Crétacé-Tertiaire et Permien-Trias, étaient accompagnées d’une stabilité inhabituelle du champ magnétique de la Terre, qui maintenait son orientation beaucoup plus longtemps qu’en moyenne. Malgré le caractère aléatoire associé aux durées des polarités du géomagnétisme, une telle corrélation semble difficilement s’expliquer par une coïncidence. Comme le champ magnétique de la Terre tire son origine des mouvements de convection dans le noyau, et que les phénomènes des Trapps sont expliqués par des instabilités thermiques à l’interface manteau-noyau générant la remontée de panaches de matière chaude à l’origine de points chauds, cette observation est vraiment fascinante.

- Voir à travers un mur avec l'axion ?

On est dans le très hypothétique. Si "l'axion" existait, ce qui n'a rien d'évident mais pourrait expliquer la matière noire, on pourrait "voir" à travers le soleil ou à travers un mur !

Rappelons que l’axion est une particule très légère, se couplant faiblement avec la matière, qui a été proposée dans les années 70 pour résoudre certains problèmes phénoménologiques dans la théorie des interactions fortes, la QCD.

Lorsqu’un champ magnétique est suffisamment fort, un photon assez énergétique peut être converti en axion et inversement. Une idée proposée pour les produire et les détecter est d’envoyer un rayon laser dans une zone où règne un fort champ magnétique juste devant un mur. Une partie des photons se changerait alors en axions qui, du fait de leur faible couplage avec la matière, traverseront le mur sans aucun problème pour pénétrer juste après dans une seconde région possédant, elle aussi, un champ magnétique intense. Un processus de conversion inverse se produirait et le laser éclairerait donc une zone située derrière le mur !

Cette expérience est en accord avec les prédictions donnant une certaine constante de couplage de l’axion avec le champ électromagnétique. Le problème est que, si l’on admet bien l’existence de cette particule avec ce couplage, on entre en conflit avec les données sur la matière noire. Si cette dernière était vraiment composée de cette particule, elle se couplerait avec la matière ordinaire beaucoup plus fortement que ce qui est observé. Pire, le télescope à axions CAST, du CERN, aurait dû détecter ceux en provenance du Soleil depuis longtemps !

- Téléportation par satellite pour bientôt ?

Dans l'expérience qui vient d'être réalisée, des paires de photons polarisés et intriqués ont été produits à l'observatoire Roque de los Muchachos. Pour chaque paire, un des photons était mesuré sur place alors que son jumeau était transmis à 144 km de là vers la station terrestre optique de Teneriffe de l'ESA, utilisée comme récepteur. Une suite aléatoire de nombres définissant une clé pour la cryptographie était alors générée et transmise de façon totalement sûre.

Robert Ursin, de l'université de Vienne, déclare que cette expérience démontre la possibilité de transmettre certaines informations sensibles par satellite par ce procédé, notamment des codes de sécurité.

- Zoom sur les supraconducteurs à haute température critique

Juste un pas de plus dans la compréhension et la maîtrise de la supraconductivité de céramiques baptisées cuprates à des températures plus chaudes que les -135° actuels.

C’est une découverte surprenante que viennent de faire des chercheurs de l’Université de Princeton. En utilisant un microscope à effet tunnel pour observer les détails des distributions de charge à l’échelle nanométrique, ils ont découvert que des îlots de zones restées dans un état supraconducteur existaient pour les cuprates même au-dessus de la température critique à laquelle l’appariement des électrons en paire de Cooper cesse. Une découverte qui pourrait nous rapprocher d’une technologie basée sur la supraconductivité à température ambiante.

- Le LHC : pas avant le printemps 2008

C'est une confirmation de ce qu'on savait depuis qu'un aimant s'était cassé ! L'année 2008 devrait apporter des éléments déterminants (bosons de Higgs, axion, supersymétrie, trous noirs, dimensions cachées, etc.) ! En attendant, on peut voir des vidéos sur le LHC.

La date de mise en service du LHC vient officiellement d’être repoussée, il faudra attendre le printemps 2008 d’après le porte-parole du laboratoire de physique des particules le plus célèbre du monde, le CERN.

On nous assure que l'hypothétique production de trous noirs ne comporte aucun risque. C'est effectivement le plus probable, et ce qu'on m'avait déjà répondu, mais on ne peut tout de même en être tout à fait sûr à 100% puisqu'on n'est même pas sûr de pouvoir produire des trous noirs, ni même qu'ils existent !

Le LHC peut théoriquement produire des trous noirs, mais... microscopiques ! Leur énergie serait la même que celle des collisions, s'évaluant donc en quelques...moustiques. Ne pouvant générer une force gravitationnelle suffisante pour attirer de la matière, à l'instar de leurs cousins géants de l'espace, ces mini trous noirs n'existeront qu'un instant fugace. A vrai dire, la Terre est bombardée depuis sa formation – environ 4,5 milliards d'années - par des rayons cosmiques (particules) provenant de l'espace et dont les énergies sont bien supérieures à celles produites dans le LHC. La Terre n'a de toute évidence pas été endommagée par tous les mini trous noirs qui auraient dû être créés naturellement !

Climat


- Emballement de l'effet de serre

Désespérant, rien à dire... (le charbon en serait responsable en partie, voir plus haut).

« Il est clair que nous sommes dans la fourchette la plus haute des scénarios du Giec. Soit, entre quatre et six degrés d’augmentation de température moyenne. » Philippe Ciais, Laboratoire des sciences du climat et de l’environnement.

Publiés dans la revue de l’académie des sciences américaines Pnas les travaux conduits par l’Australien Michael Raupach dans le cadre du « Global Carbon Project », chargé d’établir le cycle du carbone à l’échelle planétaire, constatent l’accélération foudroyante des émissions de C02 lors des cinq premières années de ce siècle. « La croissance, note cette étude à laquelle six laboratoires ont participé, a été plus grande que les scénarios liés aux énergies fossiles les plus intensifs développés par le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). »

- Le climat de la Terre approche un «point de basculement»

Les gaz à effet de serre ont, selon des recherches menées par des scientifiques de la NASA et du Columbia University Earth Institute, amené la situation climatique près de points critiques de basculement, signifiant des conséquences potentiellement dangereuses pour la planète. A partir d’une combinaison de modèles climatiques, de données satellites et paléoclimatiques, les chercheurs concluent que la calotte glaciaire de l’Antarctique Ouest, la couverture de glace de l’Arctique, et les régions procurant des sources d’eau fraîche ainsi que l’habitat aux espèces étaient menacés par un réchauffement global continu.

Les points de basculement surviennent durant le changement climatique lorsque le climat atteint un état tel que de puissantes réactions allant s’amplifiant sont activées par un simple réchauffement additionnel modéré.

On a vue effectivement que c'est ce qui s'était passé lors du "maximum thermique Paléocène-Eocène" !

- Suie et particules assombrissent la neige et augmentent le réchauffement

Explication d'une fonte de l'arctique plus importante que prévue signalée le mois dernier (les nouvelles vont vite!).

Le pouvoir réfléchissant de la neige est modifié par les dépôts de suie en provenance des tuyères de réacteurs, des rejets de fumées et des feux de forêts, le rayonnement infrarouge en provenance du Soleil est mieux absorbé et entraîne le réchauffement du sol.

La vitesse de l'accroissement de la température est en constante accélération, car les incendies de forêt qu'elle favorise augmentent la quantité de suie dans l'atmosphère.

C'est la première fois que les effets des feux de forêt dans l'hémisphère nord est pris en compte et que l'on étudie leur impact sur l'épaisseur de la neige. En effet, alors que ces dépôts provoquent une fonte des parties supérieures du manteau neigeux, seule l'eau s'évapore, la poussière et les impuretés retombant sur les couches inférieures pour continuer le processus. Ce cycle fait monter les températures dans les régions polaires d'environ 3°C et cela peut durer quelques saisons, affirment les scientifiques.

Zender pense que les décisionnaires pourraient utiliser ces résultats pour développer des règlements visant à atténuer le réchauffement global. La limitation des émissions industrielles de suie et le passage aux carburants sans émission de scories rendront à la neige une partie de la luminosité perdue.

- Etrange disparition d'un lac glaciaire au Chili

Le lac ci-dessus a disparu, sans doute par fonte de glaces qui formaient un bouchon...

Là où se trouvait une immense étendue d'eau recouverte d'icebergs, et où des circuits touristiques étaient régulièrement organisés en raison de la majesté des lieux malgré la difficulté d'accès, on n'aperçoit plus qu'un immense cratère de 30 mètres de profondeur, au fond duquel se perdent encore, un peu ridicules, quelques icebergs égarés.

- Les "puits de carbone" remis en cause

Ce diagramme montre qu'environ la moitié du carbone provenant de l'activité humaine est absorbé par les océans et la terre, bien que le taux précis en soit considérablement modifié d'année en année, pour des raisons encore inconnues.

Les estimations communément admises jusqu'ici considéraient que les forêts de l'hémisphère nord de notre planète absorbaient 2,4 milliards de tonnes de carbone par an, tandis que les forêts tropicales, au contraire, étaient la source de 1,8 milliard de tonnes de carbone en raison de leur surexploitation. Mais selon l'équipe précitée, toutes ces observations étaient entachées d'une erreur fondamentale, car elles résultaient exclusivement de mesures effectuées au niveau du sol.

Et de fait, des analyses d'échantillons d'atmosphère prélevés depuis 27 ans par des avions en 12 points représentatifs de la planète montrent des résultats bien différents. Ceux-ci réduisent la quantité vérifiée d'absorption des forêts de l'hémisphère nord à 1,5 milliard de tonnes, tandis que les forêts tropicales se voient créditées d'un chiffre d'émission de CO2 réduit à 100 millions de tonnes.

- Les précipitations tropicales liées à la fonte des glaces polaires

Une bonne nouvelle pour l'Afrique ? Le Sahara pourrait reverdir mais on est là dans les incertitudes du réchauffement climatiques dont la complexité rend impossible de véritables prévisions...

Des scientifiques de Kiel viennent de montrer que des modifications climatiques aux pôles ont des répercussions directes et rapides sur la température et les précipitations en régions tropicales: une augmentation de la température polaire est suivie d'une forte pluviométrie tropicale alors qu'à l'inverse, lorsque les températures chutent brusquement au Pôle Nord, l'Afrique manque d'eau.

- Un bon coté de la dérive des icebergs

Pas de quoi en faire un plat, mais c'est la seule "bonne nouvelle" sur le sujet, de quoi limiter un tout petit peu les dégâts peut-être !

Selon une nouvelle étude, les icebergs à la dérive dans l'Antarctique pourraient contribuer substantiellement à la production et à la rétention de carbone organique dans l'océan Austral. Le réchauffement climatique mondial a notamment pour effet d'augmenter la production d'icebergs par les glaciers recouvrant l'Antarctique. La taille de ces icebergs peut varier de quelques mètres à plusieurs centaines de kilomètres.

- Tout laisse penser que l'offre mondiale de pétrole s'épuisera plus vite que prévu

Difficile de se faire une idée des réserves de pétrole. D'un côté il semble certain qu'on n'est pas près d'en manquer, surtout si le prix augmente ce qui rend exploitable du pétrole difficile à extraire. De l'autre, il est encore plus certain que si la consommation continue à augmenter, cela ne pourra durer très longtemps et il y aura au moins des pénuries temporaires. Le catastrophisme de la "fin du pétrole" semble déplacé alors que c'est le trop plein de pétrole qui nous menace, mais il faut bien tout de même l'envisager pour accélérer le passage à des énergies alternatives, si possible renouvelables... Hélas, ce n'est pas le plus probable et la substitution par le charbon s'avère encore plus catastrophique. En tout cas, il est hautement souhaitable que le baril de pétrole atteigne les 100$ pour que ces énergies renouvelables deviennent rentables. Il faut donc bien attirer l'attention sur le manque de pétrole à plus ou moins long terme au moins pour en augmenter le prix !

Le Rapport Statistique sur l'Energie Mondiale, publié hier par BP, semble montrer que le monde a encore assez de réserves "prouvées" pour répondre, au rythme actuel, à 40 années de consommation. Cette affirmation, basée sur des chiffres officiels rapportés, a une fois de plus fait reculer la date où l'on estime que le monde sera asséché.

Cependant, des scientifiques, emmenés par le Oil Depletion Analysis Center (le centre d'analyse sur la diminution du pétrole), dont le siège est à Londres, disent que la production globale de pétrole doit atteindre son apogée dans les quatre prochaines années avant d'entrer dans un déclin rapide qui aura des conséquences massives pour l'économie mondiale et la manière dont nous vivons.

Le rapport de BP montre que la demande mondiale de pétrole a cru plus vite ces cinq dernières années que dans la deuxième moitié des années 90. Aujourd'hui, nous consommons en moyenne 85 millions de barils par jour. Selon les estimations les plus conservatrices de l'Agence Internationale à l'Energie ce chiffre montera à 113 millions de barils/jour d'ici 2030.

"Le problème est que l'on est passé de 79 millions de barils par jour en 2002 à 84,5 millions en 2004. On grimpe de deux à trois millions barils/jour chaque année", a-t-il déclaré au New York Times. "C'est comme l'ensemble d'une nouvelle Arabie Saoudite tous les deux ans. Cela ne peut pas durer indéfiniment."

Une réduction aussi petite que 10 ou 15% pourrait paralyser les économies dépendantes du pétrole. Dans les années 70, une réduction de seulement 5% a causé une augmentation de prix de plus de 400 %.

- Une algue toxique tropicale s'invite en Méditerranée

Probablement favorisée par le réchauffement des mers, la propagation d'une micro-algue toxique en Méditerranée commence à inquiéter les services sanitaires français. Après avoir provoqué diverses incommodations et difficultés respiratoires en Italie et en Espagne depuis trois ans, Ostreopsis ovata s'invite à présent au large de Marseille, où elle a déjà été signalée en juillet 2006.

Biologie


évolution, cerveau, écologie

- A l'origine du cerveau : les éponges de mer !

Le génome des éponges de mer possède un nombre important de composantes en commun avec celles intervenant dans le fonctionnement des synapses humaines. Une partie de l’origine du système nerveux se trouve donc être très ancienne et remonte au moins à l’apparition des éponges il y a presque 600 millions d’années.

On croit généralement que les premiers neurones et synapses sont apparus il y a un peu moins de 600 millions d’années chez des animaux comme les cnidaires, qui existent toujours car ils sont représentés aujourd’hui par les Hydres, les méduses et les anémones de mer. Un autre groupe d’animaux, qui est le plus vieux existant encore, est justement celui des éponges, apparu avant celui des cnidaires. Bien que ne possédant pas de système nerveux, il était intéressant d’étudier le génome de ces animaux, suffisamment anciens et ayant peu évolué pour conserver des informations sur la base de l’arbre de l’évolution.

Le séquençage du génome des éponges effectué par des chercheurs du UCSB's Institute for Collaborative Biotechnologies a d’abord révélé que beaucoup des gènes impliqués dans le fonctionnement des synapses étaient déjà présents dans le patrimoine génétiques des éponges. Ce qui veut dire que l’origine même de ce patrimoine doit être plus ancienne encore que 600 millions d’années, probablement même avant les premiers animaux.

La seconde surprise, bien plus étonnante, est que la structure des protéines des éponges suggère de probables interactions entre elles, très similaires à celles qui se produisent dans les protéines intervenant au niveau des synapses humaines et même celles des souris.

- Gigantoraptor : dinosaure géant aux pattes d’oiseau

Ce poulet géant prouve que les plumes ont précédé le vol, servant d'abord à la régulation thermique.

Quelque part entre le tyrannosaure et l’autruche, avec cinq mètres de hauteur et son bec crochu, ce Gigantoraptor, découvert en Chine, surprend beaucoup les spécialistes.

Ce dinosaure à l'allure redoutable courait sur deux fines pattes hautes de deux mètres et son long cou pouvait hisser à près de 5 mètres de hauteur la petite tête munie d’un gros bec crochu. A l’arrière de son corps, une longue queue fortement musclées rappelait celle des tyrannosaures. Du bec au bout de la queue, l’animal mesurait huit mètres.

- Controverse sur l'évolution des mammifères

Il y a contradiction entre la paléontologie qui date les mammifères de l'époque de la disparition des dinosaures (65 millions d'années) alors que la génétique les fait remonter à 100 millions d'années. La différence pourrait s'expliquer par une évolution génétique accélérée au moment de leur apparition qui daterait bien alors de la fin des dinosaures, période de conditions extrêmes.

Selon les paléontologues, l’apparition des mammifères placentaires serait intervenue dans l’hémisphère nord il y a seulement 65 millions, c’est-à-dire juste au moment de la disparition, entre autres nombreuses espèces, des hégémoniques dinosaures qui dominaient la plupart des écosystèmes depuis plus de 150 millions d’années.

Pour la génétique (...) les monotrèmes (comme les actuels ornithorynques) seraient apparus il y a 168 millions d’années et les marsupiaux (comme les mammifères d’Australie, dont le kangourou) il y a 148 millions d'années. Quant aux placentaires, tous les grands ordres répondaient déjà présents il y à 75 millions d’années après une période de diversification située entre 100 et 80 millions d’années. Du point de vue de la géographie, les indices de la génétique situent l’apparition des placentaires dans l’hémisphère sud.

Guillaume Lecointre et Hervé Le Guyader (dans le livre Classification phylogénétique du vivant, éditions Belin) soulignent que les placentaires se sont diversifiés très rapidement, ce qui rend difficile l’interprétation des séquences d’ADN.

- La bipédie pourrait avoir commencé dans les arbres

Ce n'est pas la véritable bipédie mais seulement ses prémices : toute évolution se fait sur une base préexistante, mais comme on dit que l'humanité commence par les pieds (qui libère les mains entre autres) plus que par le cerveau, c'est un point important...

En observant des orangs-outangs sauvages, une équipe de chercheurs a trouvé que la marche sur les deux jambes pourrait s'être développée chez des singes arboricoles relativement anciens plutôt que chez des ancêtres plus récents de l'Homme qui auraient déjà gagné la savane comme le suggère la théorie actuelle.

En étudiant les déplacements d'orangs-outans dans la nature, Susannah Thorpe et ses collègues de l'Université de Birmingham ont trouvé que la marche debout en utilisant les bras pour garder l'équilibre, ou "marche assistée par les mains", a pu offrir à nos ancêtres arboricoles plusieurs avantages pour se déplacer dans les branches plus fines et souples des arbres.

- Neuropsin: la différence linguistique entre l'homme et le chimpanzé

Le génome humain et celui des chimpanzés sont presque identiques, ils diffèrent seulement de 1,2%. Pourtant il existe une différence considérable entre les capacités mentales et linguistiques de ces deux espèces.

Une étude menée par les chercheurs de l'Académie Chinoise des Sciences a prouvé l'existence d'une protéine, la Neuropsin, dans le génome humain. Dirigée par le Dr. SU à l'Institut de Zoologie de Kunming, les scientifiques ont analysé l'ADN de différentes espèces de singes et d'hommes.

La protéine Neuropsin, qui joue un rôle dans l'apprentissage et la mémoire, est exprimée seulement dans les systèmes nerveux centraux des humains. Elle est absente chez nos cousins les chimpanzés et les orangs-outans. Parce que ces deux espèces ont divergé de nos ancêtres humains il y a respectivement 5 et 14 millions d'années, on peut en déduire que le type II de cette protéine est spécifique aux humains et que sa présence est survenu il y a 5 millions d'années environ.

- Le noyau subthalamique intègre les fonctions motrices, cognitives et émotionnelles

Le centre du cerveau ? Le poste de pilotage ?

Les chercheurs, sur la base des connaissances qu'ils ont de l'organisation du noyau subthalamique, ont démontré comment ce noyau, bien que de très petite taille (10 x 6 x 3 mm), peut recevoir et traiter des informations de nature différente : des informations motrices (ce qui explique l'efficacité de la stimulation cérébrale profonde dans le traitement des signes moteurs de la maladie de Parkinson), des informations cognitives, c'est à dire le contenu sémantique, social et intellectuel de nos comportements, et des informations émotionnelles qui colorent invariablement en plus ou en moins chacun de nos comportements.

La très petite taille du noyau subthalamique et le très peu d'espace existant entre les quatre contacts de l'électrode démontrent que cette zone du cerveau associe très finement les trois aspects de nos comportements pour aboutir à un comportement parfaitement adapté du point de vue moteur, social et affectif. Lorsqu'on agit sur ce noyau et selon la localisation exacte de l'électrode, on modifie l'une ou l'autre des informations qu'il traite et ainsi l'un ou l'autre des aspects, moteur, social ou affectif, de notre comportement.

- Dans les champs d'OGM, les mauvaises herbes font de la résistance

100 millions d'hectares de plantes OGM ont été cultivées dans le monde en 2006, dont 75 % partagent la même caractéristiques : elles sont résistantes au glyphosate (RoundUp), un désherbant total. Mais un constat alarmant vient d'être révélé : les mauvaises herbes deviennent, elles aussi, résistantes au glyphosate.

Non seulement les OGM ne tiennent pas leurs promesses et leur dissémination est inquiétante mais le désherbant qu'elles favorisent est dangereux et pas seulement pour les abeilles ! Selon Sciences et Vie le RoundUp aurait aussi des effets toxiques sur les cellules embryonnaires et les tissus placentaires humains, provoquant des fausses couches en perturbant la synthèse d'oestrogènes à des doses 10 000 fois moins concentrés que dans la version commerciale... (p41)

- Les pesticides ralentissent la croissance des plantes

L'utilisation de pesticides, et en particulier de certains produits phytosanitaires, ralentit la croissance des plantes en empêchant la fixation de l'azote et freinant considérablement la fabrication des acides aminés qui leur sont indispensables.

Les plantes vivent en effet en symbiose avec des bactéries spécifiques, les rhizobiums, qui fixent l'azote atmosphérique de l'air et l'emploient dans le processus de fabrication des acides aminés nécessaires à leur développement et à leur croissance. Or, les chercheurs ont constaté au cours de multiples expériences in vitro que plus de 20 substances couramment employées en agriculture se lient aux récepteurs des rhizobiums et les empêchent de communiquer avec la plante, réduisant la fixation d'azote. Suivant l'équipe scientifique, cela expliquerait pourquoi, notamment, le soja voit sa croissance ralentir, même en présence de doses importantes de fertilisants.

C'est le B.A.BA de l'écologie... Une raison de plus pour généraliser une agriculture biologique qui a fait des progrès considérables et pourrait désormais se substituer à l'agriculture chimique en arrêtant de dégrader les sols et l'environnement !

Santé


génétique, traitements, nutrition, hygiène

- Pesticides et Parkinson
Le Monde, 01/06

Une étude menée sur 959 patients par l’université d’Aberdeen, en Ecosse, conclut que l’exposition à des pesticides accroît le risque de contracter la maladie de Parkinson.

Même si le facteur majeur reste la présence dans la famille de personnes atteintes.

Un fort niveau d’exposition augmente le risque de 39 %, et un faible niveau de 9 %.

La Parkinson Disease Society remarque que cette recherche confirme « que la maladie de Parkinson n’est pas causée par un facteur unique, mais plutôt par une combinaison entre la prédisposition génétique et les facteurs liés au milieu ».

- Parkinson : l'espoir de la thérapie génique
Le Figaro, Le Parisien 22/06

Pour la première fois, 11 malades ont bénéficié d'une injection d'un gène dans le cerveau pour lutter contre la maladie de Parkinson.

Des chercheurs américains de l'université Cornell, à New York, ont décidé de produire un virus contenant le gène d'un enzyme indispensable à un neurotransmetteur, le gaba (l'acide gamma-amino-butyrique), dans l'objectif d'inhiber l'activité du noyau subthalamique, qui aurait un lien avec les symptômes de la maladie.

Ils ont choisi 11 patients âgés en moyenne de 58 ans, atteints d'une maladie de Parkinson sévère et, par voie chirurgicale, ils leur ont injecté le virus modifié dans le fameux noyau subthalamique.

L'objectif était de montrer la faisabilité et l'innocuité de cette démarche. Mission accomplie : la procédure a été bien tolérée par les patients, sans complication ni effet secondaire.

Pour ce qui est de l'efficacité, les auteurs concluent qu'un an après l'intervention, une petite amélioration des symptômes est observée, avec, à l'imagerie cérébrale, une certaine normalisation de l'activation des réseaux cérébraux.

Le Pr Jean-Michel Heard (Institut Pasteur Paris) déclare que "ces travaux sont très intéressants. Ils sont la suite de travaux expérimentaux menés chez le rat depuis 1998. Le virus vecteur du gène utilisé ici a la particularité d'avoir été vidé de ses gènes et de ne pas induire de réponse immunitaire et donc de rejet".

Le Pr Marc Peschanski, de l’Inserm, remarque pour sa part que « les résultats cliniques apparaissent très limités, les améliorations observées n'étant en fait pas très éloignées des fluctuations naturelles de la maladie. D'autres essais avec des doses différentes de virus modifié sont nécessaires », indique le spécialiste.

Les responsable new-yorkais de l’étude voient dans ce « premier pas encourageant » une base de travail pour élaborer des modèles de thérapies géniques pour diverses maladies neurodégénératives.

- Parkinson : une piste thérapeutique ?

Une piste importante à ne pas négliger avec un médicament déjà existant (pour l'hypertension) :

Dans ces derniers travaux, James Surmeier a tenté de prouver l’origine de la mort cellulaire des neurones dopaminergiques, élément essentiel à la compréhension et la guérison de la maladie de Parkinson.

Ses derniers travaux, basés sur la souris, avaient permis de mettre en évidence la corrélation entre la production de la dopamine et l’action d’un « pace maker » autonome. L’activité de ce dernier sur la production de dopamine est contrôlée par des canaux ioniques contrôlant la diffusion intra- et extracellulaire de calcium. Or, c’est l’entrée massive de calcium dans la cellule qui provoque la mort de cette dernière. Les neurones dépendent ainsi de plus en plus des ions Ca2+ pour produire des signaux électriques et présenter une activité.

L’équipe de Chicago a utilisé un agent qui bloque de manière spécifique les canaux calciques, l’isradipine, commercialisé pour le traitement de l’hypertension artérielle sous le nom de ICAZ. Il s’est avéré que cet agent, plusieurs heures après le blocage des canaux à calcium, agit sur les neurones puisque ceux-ci retrouvent une activité pacemaker normale. Selon le Pr Surmeier, ceci est un « exemple fascinant de plasticité ». L’isradipine permettrait de « rajeunir » les cellules dopaminergiques et de relancer ainsi leur activité.

- Un antibiotique « parviendrait à tuer des cellules cancéreuses »

Un autre médicament dont on découvre de nouvelles propriétés importantes.

Un antibiotique utilisé dans le traitement de la teigne, des champignons et des dermatites de la peau parviendrait à tuer des cellules cancéreuses !

C’est la découverte étonnante révélée par le centre allemand de recherche sur le cancer de Heidelberg .

Ce principe actif, la griséofulvine, s’attaque au cancer sans affecter les cellules saines et pourrait devenir rapidement une nouvelle option thérapeutique.

- Transmettre des gènes grâce à la rage !
Le cerveau des souris perméable à la thérapie génique, Le Monde 20/06

Plusieurs équipes de biologistes américains et sud-coréens, coordonnées par Premlata Shankar et N. Swamy Manjunath, de l'Institut de recherches biomédicales (Harvard Medical School, Boston, Massachusetts), ont annoncé, sur le site de Nature, avoir réussi, chez la souris, à délivrer une forme de thérapie génique au sein du tissu cérébral à partir d'une simple injection intraveineuse

Ils expliquent qu'un peptide de 29 acides aminés constitutif du virus de la rage peut servir de vecteur, depuis le sang jusqu'au cerveau, à un fragment spécifique d'acide ribonucléique dit "interférent"

Il s'agit là d'un travail remarquable. Les ARN interférents sont à la fois des molécules à fort potentiel thérapeutique et des outils majeurs pour comprendre les phénomènes biologiques en inhibant l'expression des gènes.

Les auteurs ont découvert un moyen efficace de délivrer ces molécules dans le cerveau par simple injection intraveineuse. Or, il faut savoir que le fait de parvenir à cibler un tissu, ce à quoi s'emploie ce travail, est le Graal de la thérapie génique.

- Création de cellules souches à partir de peau de souris
La Croix 7 juin

Selon Cell Stem Cell et Nature, « 3 équipes de chercheurs, 2 américaines et 1 japonaise, ont produit chez la souris l’équivalent de cellules souches embryonnaires en insérant 4 gènes dans des cellules de peau, sans détruire d’embryons ».

Les scientifiques de Harvard, Cambridge et Kyoto soulignent que la procédure expérimentale suivie au cours des travaux ne convient pas pour traiter des maladies et ils ne savent pas encore si elle pourrait être reproduite avec succès sur des cellules humaines.

- L'hormone de croissance augmente les cellules souches dans le cerveau

La GH stimule la gliogenèse. Selon la force du signal GH sur les cellules souches du cerveau, on aura différenciation préférentielle des précurseurs soit vers la lignée astrocytaire (fort signal GH, peu de SOCS2), soit vers la lignée neuronale (faible signal GH, beaucoup de SOCS2). Au plan moléculaire/cellulaire, les auteurs montrent que seulement quelques cellules souches (3 sur 100.000) expriment le GHR, mais chacune est capable de se multiplier et de former ce que l'on appelle une "neurosphère", à savoir un agrégat de cellules neuronales qui ne se forme qu'en présence des facteurs de croissance ad hoc. Confirmant ces données, les cellules souches issues de souris déficientes pour le récepteur GH ont une capacité réduite à former ces neurosphères. Enfin, lorsque l'on injecte de la GH dans le cerveau de la souris, on augmente le nombre de cellules souches dans le cerveau.

- Le cannabis soignerait-il les allergies ?

Le rôle du cannabis dans les allergies et les inflammations n'a rien de nouveau, les très petites doses ayant un effet anti-inflammatoire bien connu. C'est juste une confirmation par des souris dépourvues de récepteurs CB1 et CB2. Cela pourrait relancer l'utilisation du cannabis dans les allergies, notamment sous forme d'onguents contre les allergies de la peau mais on peut penser aussi que la consommation de cannabis peut dérégler le système et provoquer des allergies à plus long terme. (Ajoutons, ce qui n'a rien à voir, que le cannabis pourrait aider à lutter contre le cancer de la prostate. Des dérivés synthétiques dépourvus d'effets psychotropes sont à l'étude).

Ces souris hypersensibles avaient une particularité : de leur génome avaient été retirés deux gènes codant pour deux récepteurs, appelés CB1 et CB2, spécifiques d’une famille de substances appelées cannabinoïdes, présentes dans le cannabis et à l’origine de ses effets psychotropes. Le corps lui-même produit des endocannabinoïdes, aux rôles mal connus. Le hasard a peut-être mis les scientifiques sur la piste de l’un d’eux et qui toucherait à la régulation des phénomènes inflammatoires. La surprise n’est pas totale car on connaît depuis longtemps les vertus médicinales du cannabis contre les inflammations, mises à profit jusqu’à ce que l’usage de cette plante soit interdit.

Il apparaît donc clair que les cannabinoïdes produits par le corps interviennent au début d’une réaction inflammatoire pour éviter qu’elle ne s’emballe et ne devienne plus dangereuse pour l’organisme que la présence de l’allergène lui-même.

Quelles possibilités médicales en tirer ? Il y a peut-être là un moyen de lutter contre des allergies si graves qu’elles deviennent invalidantes. Une piste possible serait celle d’un médicament qui retarderait la diminution d’endocannabinoïdes survenant quelque temps après une inflammation, les maintenant plus longtemps à un niveau élevé. Une autre serait d’en revenir à des pratiques révolues et de produire, sous forme d’onguent, un extrait de cannabis ou des cannabinoïdes artificiels à appliquer sur la peau.

- Grippe aviaire : l'enjeu crucial de la vaccination
Les Echos, Le Parisien 27/06

Le temps médiatique est court, c'est le temps de l'oubli où une information chasse l'autre mais le temps de la science (et des virus) est plus long : ce n'est pas parce qu'on n'entend plus parler de la grippe aviaire que l'alerte serait passée. L'épidémie semble toujours aussi inévitable même si on ne peut dire quelle année elle se déclenchera, bientôt sans doute...

Près de 122 pays ont rapporté des cas d'oiseaux sauvages ou d'élevage infectés par le H5 N1. Cela fait maintenant 4 ans que ce virus tourne dans le monde. Désormais, on ne pourra plus maîtriser l'épizootie et il faudra s'habituer à vivre avec.

Cette variante «humanisée» ouvrirait la porte à une catastrophique pandémie généralisée. Une hypothèse jugée «inévitable» par les chercheurs réunis à Toronto.

Selon les modélisations des épidémiologistes, le virus devrait faire le tour de la planète en une centaine de jours maximum. Entre la première apparition de la souche fatale (qui naîtra probablement dans un pays d'Asie) et l'arrivée du premier pic de malades en Occident, il ne s'écoulera pas plus de 200 jours.

De toute façon, il n'y aura pas assez de vaccins pour tout le monde. Dans le meilleur des cas, la capacité de production mondiale cumulée de toute l'industrie des vaccins est de l'ordre de 900 millions de doses par an.

- Trop de Sumatriptan rendrait le sang vert !
Le Figaro 11/06, voir aussi Futura-Sciences

La stupeur de médecins de Vancouver quand ils ont tenté de poser un cathéter à un patient aux symptômes dignes de Mr Spock.

Dans The Lancet, ces médecins de l’hôpital Saint-Paul de Vancouver (Canada) racontent la peur bleue qu’ils ont ressentie, en voulant poser un cathéter dans l’artère d’un homme de 42 ans, avant de l’opérer : le sang de ce patient était vert foncé, comme une pelure d’avocat.

Ce patient faisait déjà l’objet de toutes les interrogations, dans la mesure où il était traité pour avoir développé un syndrome des loges (pathologie rare atteignant le plus souvent les muscles des membres inférieurs), après s’être endormi agenouillé.

Les médecins ont immédiatement fait un prélèvement sanguin pour tenter de comprendre le mystère.

Le patient avait de la sulfhémoglobine dans le sang, c’est-à-dire un dérivé de l’hémoglobine formé par réaction chimique avec certains composés industriels et/ou certains médicaments.

Le Dr Flexman a supposé que ce phénomène avait été provoqué par un médicament contre la migraine, le sumatriptan, que le patient avait pris en quantité supérieure à la posologie.

Le sang du patient a retrouvé une couleur normale une fois le traitement interrompu.

- Une araignée "fait mieux que le Viagra®"
Courrier International, numéro 865

Depuis peu, les services médicaux brésiliens voient affluer plus ou moins discrètement des victimes de morsures de Phoneutria nigriventer, qui présentent une séquelle pour le moins inattendue : des érections répétées qui se prolongent pendant des heures et des heures ».

La piqûre de l’araignée brésilienne paraît très intéressante, car elle intervient très en amont de la réaction en chaîne responsable de l’érection.

Les rats auxquels on a injecté le venin présentaient systématiquement une augmentation considérable de la pression sanguine dans le membre viril et libéraient davantage d’oxyde nitrique, l’élément déclencheur de l'érection.

- Retrouver les mitochondries de sa jeunesse par l'exercice

Intéressant car c'est à la fois la confirmation de l'importance des mitochondries dans le vieillissement et de l'importance de l'exercice non seulement pour se maintenir en forme mais pour rajeunir !

De nombreuses études ont suggéré que le dysfonctionnement mitochondrial était impliqué dans la perte de masse musculaire et les troubles fonctionnels communément observés chez les adultes âgés.

Les recherches indiquent, chez les adultes plus âgés, une diminution de la fonction mitochondriale avec l’âge. Cependant, l’entraînement physique a provoqué un remarquable retour de l’empreinte génétique à des niveaux similaires à ceux des adultes plus jeunes.

Les chercheurs se sont dits surpris par les résultats. Ils s’attendaient à observer des expressions de gènes stables. Un tel renversement des niveaux d’empreintes génétiques donne crédit à la valeur de l’exercice non seulement en tant que moyen d’améliorer l’état de santé mais aussi de renverser le processus de vieillissement, ce qui constitue une incitation supplémentaire à s’adonner à l’exercice avec l’âge.

- L'activité intellectuelle réduit le risque d'Alzheimer

On s'en doutait sans en être sûr mais l'activité intellectuelle réduirait significativement le risque de déclencher la maladie :

A âge égal, l’étude fit la preuve qu’une personne cognitivement active avait 2,6 fois moins de risques de déclarer une MA qu’un sujet inactif.

- Le cholestérol ne bouche pas les artères
Le Monde 13/06

C’est ce que déclare le cardiologue Michel de Lorgeril, qui « dénonce » dans Le Monde une « médecine automatisée, focalisée sur les médicaments ».

Le quotidien rappelle en effet que selon les derniers chiffres de la CNAM, « les statines occupent le deuxième rang des dépenses pharmaceutiques », et note qu’« en 2003, une étude de la CNAM pointait une "énorme dérive par rapport aux recommandations" et estimait que 40 % des prescriptions n'étaient pas légitimes "en l'état des connaissances scientifiques" ».

Le Monde publie ainsi un entretien avec le spécialiste, qui vient de publier un ouvrage sur le sujet (« Dites à votre médecin que le cholestérol est innocent, il vous soignera sans médicament », aux éditions Thierry Souccar).

La "théorie du cholestérol" dans sa forme actuelle n'est qu'un château de cartes. Dès qu'on utilise son sens critique et qu'on analyse scientifiquement les données de biologie expérimentale, d'épidémiologie et des essais cliniques randomisés, tout s'écroule.

Le risque de mourir d'un infarctus n'est pas proportionnel au niveau de cholestérol dans le sang et le faire baisser ne réduit pas le risque de mourir d'un arrêt cardiaque.

De nombreux chercheurs (…) s'opposent à cette course folle d'une médecine préventive focalisée sur une guerre inutile contre le cholestérol. Mais cette parole est confisquée et l'industrie surfe sur cette vague sans aucun contre-pouvoir.

Cette "théorie" arrange tout le monde : l'industrie pharmaceutique et l'agrobusiness, les laboratoires d'analyses, les fabricants de kits de mesures, mais aussi les médecins qui peuvent trouver un avantage à cette médecine automatisée et rémunératrice ; et enfin les patients auxquels on a fait croire qu'ils seraient ainsi protégés sans faire d'effort.

On peut avoir un cholestérol jugé haut et vivre longtemps sans infarctus. (…) Absurdes également sont les concepts de bon et de mauvais cholestérol. Les maladies cardio-vasculaires sont complexes et multifactorielles et il faut accepter l'idée que ce sont des maladies du mode de vie déterminé par nos conditions d'existence .

Les essais récents testant les statines sont sévèrement biaisés et les résultats publiés sont fragmentaires, parfois incohérents, et ne permettent pas une analyse lucide de leurs effets réels .

- Le rôle immunomodulateur des vitamines D

Le rôle de la vitamine D est sans arrêt réévalué depuis quelque temps bien qu'un excès soit dangereux et qu'il semble que la vitamine D naturelle produite par le soleil sur la peau soit bien préférable à l'apport extérieur alors que l'exposition au soleil peut donner des cancers de la peau...

On avait un peu oublié le rôle de la vitamine D dans la lutte conte les infections : les infections sont fréquentes chez les rachitiques, et c'est de l'héliothérapie dont on faisait bénéficier les tuberculeux avant l'avènement de la streptomycine.

On sait maintenant que la vitamine D intervient sous la forme de son métabolite actif (1,25 D3) à différents niveaux de l'immunomodulation : présentation des antigènes par les cellules dendritiques, effet sur les productions d'IL-1, IL-6, IL-8… (...) Cet effet constitue un élément important de l'immunité antibactérienne innée.

La boucle semble bouclée. Mais bien au-delà, c'est l'interférence de la vitamine D avec la pathogénie des maladies autoimmunes qui est évoquée, et son rôle préventif dans le diabète sucré, les thyropathies auto-immunes, et aussi le cancer. Tout ceci a d'autant plus d'importance que sont mis au point des analogues qui différencieraient les effets métabolique, immunomodulateur, anticancéreux de la vitamine D… La vitamine D est une molécule d'avenir.

- L'Aspartame cancérigène

Ce n'est pas une découverte. On sait que l'aspartame est légèrement cancérigène même si des études liées aux fabricants prétendent le contraire. Les dangers du sucre étant bien supérieurs ce n'est pas une raison pour se passer d'aspartame si on ne peut se passe de sucre mais c'est au moins une raison pour en limiter la consommation car les risques augmentent avec es doses. L'originalité de cette étude de fortes doses, c'est qu'elle se base sur les effets à plus long terme que les études précédentes.

Des chercheurs italiens ont récemment publié dans le journal «Environnemental Health Services » une nouvelle étude montrant que l'Aspartame pourrait causer des leucémies, des lymphomes et des cancers du sein chez les rats.

Morando Soffritti de la Fondation Ramazzini à Bologne Italie, (http://www.ramazzini.it) et des collègues ont testé l'Aspartame chez les rats qu'ils ont laissé vivre jusqu'à ce qu'ils meurent naturellement.

Leur étude de plus de 4000 rats a montré qu'une vie passée à absorber de hautes doses de cet édulcorant accroissait la possibilité de développement de plusieurs types de cancer.

Jacobson a dit que tous les chercheurs des études précédentes tuaient les rats à l'âge de deux ans. Permettre aux rats de vivre plus longtemps peut être une meilleure façon d'estimer le risque naturel de cancer.

Source Reuters repris par http://www.smh.com au 26/06/07
Traduction Mireille Delamarre pour http://www.planetenonviolence.org.

- Cancer: les effets du ginseng et des graines de lin

L'évaluation des traitements alternatifs donne une place au ginseng (1g par jour) contre la fatigue et aux graines de lin contre le cancer de la prostate mais établit que d'autres produits comme l'aile de requin n'ont absolument aucun effet...

- La pollution intérieure affecte la santé
Les Echos 12/06

Les chercheurs commencent à interpréter les données de la première campagne de mesure des polluants dans les logements français réalisée par l'Observatoire de la qualité de l'air intérieur entre 2003 et 2005.

L'Inserm a affirmé le lien entre la pollution de l'air des logements et l'asthme et la rhinite.

Les chercheurs ont comparé la présence de polluants prélevés dans les habitations et la santé des occupants des 486 foyers sélectionnés. Les statistiques ont révélé que les deux maladies respiratoires sont plus fréquentes en présence de composés organiques volatils.

L'asthme, en particulier, est associé avec le n-undécane, un hydrocarbure émis par le white-spirit ou les colles pour sols, et l'acroléine, un aldéhyde présent dans les fumées de cigarette et en cuisine.

Les mesures de la campagne ont montré que le formaldéhyde est désormais le polluant à cibler en premier. Ce composé organique se trouve dans toutes les pièces des logements et 22 % des habitations dépassent la valeur maximale proposée au niveau européen.

Sa toxicité est connue : l'OMS l'a classé en 2004 parmi les cancérigènes avérés.

Pour le moment, seuls le monoxyde de carbone, l'amiante, la fumée de cigarette ou le radon font l'objet de réglementations. Le même travail sera mené sur les moisissures, que l'on retrouve dans de nombreuses pièces trop humides. Elles sont considérées comme de puissants allergènes.

L'Observatoire de la qualité de l'air intérieur va également concentrer ses efforts sur les enfants. A la fin de cette année, des enquêtes seront lancées sur leurs autres lieux de vie que sont les écoles et lieux de garde.

- Trop d'aromates peut nuire

Apparemment, les substances aromatiques provoquent la libération de sérotonine par les cellules des muqueuses stomacale et intestinale. Or cette molécule influence les contractions intestinales et la sécrétion de sucs gastriques. Les substances aromatiques pourraient donc être à l'origine de constipations, diarrhées, voire d'inflammations de l'intestin.

- Luc Montagnier : pour une médecine préventive

La prise d'antixoydants est vitale contre les maladies dégénératives mais devrait se faire sur ordonnance après des analyses précises. Hélas, les vitamines n'intéressent pas les laboratoires qui ne peuvent les breveter !

Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie

- Un projet de bactérie synthétique fait l'objet de demandes de brevet
Le Monde 13/06

Le Monde constate que Craig Venter, « le chercheur-entrepreneur américain qui a mené la course au séquençage du génome humain et qui avait été le premier à souhaiter breveter des fragments d'ADN, dès 1992, soulevant une polémique internationale, reste à la pointe de l'innovation et de la controverse ».

Une équipe issue de son Venter Institute à Rockville (Maryland) vient de déposer des demandes de brevet, aux Etats-Unis et au niveau mondial, pour ce qui serait la première bactérie synthétique jamais créée.

Mycoplasma laboratorium devrait produire de l'éthanol ou de l'hydrogène, espèrent ses concepteurs.

L'initiative de Craig Venter et des inventeurs - parmi lesquels figure le Prix Nobel 1978 de médecine, Hamilton Smith - est vivement critiquée par l'ETC Group, une association basée à Toronto, qui exerce sa vigilance sur les technologies avancées.

Pat Mooney, porte-parole de l'ETC Group, a déclaré que « Venter et ses collègues ont franchi une frontière sociétale, et le public n'a même pas eu l'occasion de débattre des implications sociales, éthiques et environnementales de la vie synthétique ».

L’association « demande aux organismes de protection intellectuelle de rejeter la demande de brevet ».

Axel Kahn, de l’Institut Cochin, remarque que « synthétiser une bactérie fonctionnelle est un projet scientifique intéressant en soi, un objectif légitime », mais n’est « pas d'accord » quant à breveter le produit de telles recherches.

- Transférer un génome d’une espèce de bactérie à une autre
Libération 30/06

Une équipe américaine menée par Craig Venter a réussi à transférer un génome d’une espèce de bactérie à une autre.

Une manipulation radicale qui constitue un tournant dans une recherche démiurgique : créer une bactérie inédite en lui greffant un génome fabriqué sur mesure afin qu’elle remplisse une fonction tout aussi inédite.

Les chercheurs ont implanté le génome d’une espèce de bactérie (Mycoplasma capricolum) dans le cytoplasme d’une autre espèce (Mycoplasma mycoïdes) qu’ils avaient vidé de son propre génome. La bactérie receveuse s’est divisée et a généré des bactéries de l’espèce capricolum.

A terme, le but de l’institut de Venter est de créer des micro-organismes capables de résoudre les problèmes énergétiques et environnementaux du XXI ème siècle : fabriquer de l’hydrogène en fermenteur, dégrader le CO2, dépolluer les sols.

- Les algues: un biocarburant 30 fois plus énergétique que le colza ?

Il s'agit donc d'évaluer la viabilité à la fois technique et économique d'une telle filière de production pour un marché potentiel évalué à 17 millions de m3 en Europe d'ici 3 à 4 ans.

Nous devons déterminer, entre plusieurs millions, une espèce spécifique d'algues très productrice de lipides, qu'elle soit d'eau de mer ou d'eau douce.

- Des voitures électriques équipées de batteries à base de nanotechnologies !

Ce ne sont pas encore les batteries à base de nanotubes de carbone mais déjà un très important progrès dans ce domaine qui en avait bien besoin. Altairnano a développé des batteries dont les électrodes sont constituées de nanostructures (lithium titanate spinel oxide ou LTO) à la place des électrodes en graphite, ce qui améliore considérablement les performances et la durée des batteries Lithium-Ion (plus de 20 ans!), tout en réduisant largement le temps de charge (10mn). Ces batteries peuvent fonctionner aussi à n'importe quelle température. Du coup, les voitures électriques deviennent enfin viables malgré une autonomie qui reste relativement faible.

Si vous habitez en Californie, vous pourrez acheter vers la fin de l'année un SUV (Sport Utility Vehicle) électrique équipé des batteries développées par Altairnano. Le futur SUV aura une autonomie de plus de 160 km à une vitesse supérieure à 150 km/h. La production devrait être de 500 véhicules pour 2007 et 6.000 véhicules pour 2008. Le prix d'achat n'est pas encore connu mais le coût de fonctionnement étant très bas et ne nécessitant pour ainsi dire aucun entretien, cela devrait être un investissement très rentable et un bon succès commercial (pour les administrations au moins).

- Economiser 65% d'énergie dans un système de chauffage

Information importante : il suffirait de mettre un additif dans l'eau des radiateurs pour améliorer les flux dans les canalisations, ce qui permettrait d'économiser plus de la moitié de l'énergie de chauffage !

L'équipe a injecté un tensioactif (le LSP-01A de LSP Cooperative Society) avec une concentration de 0,5% afin de réduire la résistance entre l'eau et la paroi des tuyaux, créant ainsi un flux laminaire. L'ajout de tensioactif diminuant les pertes dans les canalisations, la puissance électrique consommée par la pompe a été réduite de 65% à débit égal.

- L'utilisation des LED pour l'éclairage public

Prévu depuis quelque temps car les LED consomment très peu d'électricité, le problème c'est que ça chauffe...

Cette option technologique pourrait permettre rapidement une réduction de 25 à 50% de la consommation énergétique dédiée à l'éclairage public. Cependant ce type de système pose un problème d'ordre thermique : l'intensité lumineuse nécessaire pour l'éclairage public avoisine les 12.000 lumens, alors qu'une ampoule domestique de 60 W produit environ 800 lumens, avec les déperditions de chaleur que cela suppose. L'échauffement des modules reste donc problématique.

- Les LED rouges et vertes les plus brillantes au monde

Ces diodes ont une puissance efficace de 12W et sont deux à trois fois plus brillantes que des LED traditionnelles. Six de ces diodes génèrent une luminosité égale à une lampe traditionnelle de 60W mais avec une consommation dix fois moins importante. De plus, leur durée de vie, environ vingt ans, est beaucoup plus grande que celle les lampes fluorescentes standard.

- Aviation : des turboréacteurs écologiques à supraconducteurs !

Un turboréacteur électrique serait non seulement plus silencieux mais aussi nettement moins polluant (...) Un tel turboréacteur serait d'ores et déjà réalisable avec des turbines électriques classiques, sauf que la taille des aimants nécessaires pour produire une poussée équivalente à un turboréacteur à kérosène serait telle, que le poids de l’appareil serait multiplié par 5, et avec un rendement inférieur en plus.

Par contre, avec un mécanisme fonctionnant avec les supraconducteurs à haute température critique déjà connus, on aurait des avions non seulement moins polluants mais plus efficaces, plus légers et plus silencieux.

- Thermo-acoustique : refroidir en produisant de l'électricité !

A gauche, la première partie du dispositif transmet la chaleur à une structure en pile qui se met à vibrer, générant une onde sonore. C’est l’effet thermo-acoustique. Dans la seconde partie de l’appareil (schéma de droite), ce son met en vibration un cristal piézo-électrique qui produit un courant électrique.

Transformer la chaleur en son, puis le son en électricité : voilà une idée pour rafraîchir les processeurs et perfectionner les cellules photoélectriques.

Pour sa démonstration aux journalistes, Orest Symko a coutume d’en approcher une allumette ou un briquet : l’engin se met à faire du bruit et génère de l’électricité. Selon ce scientifique, c’est là une nouvelle manière de produire du courant à partir de la chaleur, par exemple celle produite par un réacteur nucléaire, mais ce serait aussi une possibilité de tirer un meilleur profit de l’énergie de la lumière et même de produire du froid.

A l’intérieur d’un ordinateur, ce refroidisseur thermo-acoustique serait bien plus efficace que l’actuelle combinaison d’un radiateur (en fait un convecteur) et d’un ventilateur. Mais voilà : ce procédé à base d’onde sonore… fait du bruit. Orest Symko lui-même qualifie ce vacarme d’« impressionnant ». Mais il est persuadé qu’on peut l’étouffer et, par ailleurs, travaille sur une version générant des ultrasons.

- L'alimentation électrique sans fil: enfin une réalité ?

Ce n'est pas si nouveau, les RFID sont déjà alimentés par les ondes qu'ils reçoivent, et ce n'est pas quelque chose qui peut vraiment se généraliser car il faudrait des ondes trop puissantes mais cela peut être utile pour recharger les portables sans fil. Ici, c'est juste une ampoule qui s'allume ! Futura-Sciences s'imagine qu'on pourrait s'en servir pour transmettre de l'énergie entre des panneaux solaires en orbite et la Terre, mais on n'en est pas là !

La solution est alors d’utiliser non pas un champ électrique oscillant sous forme d’ondes radios mais bien plutôt de créer un système d’ondes magnétiques stationnaires à l’aide d’une bobine de cuivre. Cela a plusieurs avantages :

* le couplage d’un champ magnétique oscillant avec un organisme vivant est beaucoup plus faible et donc moins nocif ;

* La perte d’énergie par rayonnement est fortement réduite car seule une autre bobine conçue pour être en résonance avec la fréquence d’oscillation du champ magnétique sera capable de « pomper » l’énergie du système d’ondes stationnaires. De plus, celui-ci reste localisé dans l’environnement immédiat de la première bobine.

Les chercheurs, qui sont parvenus à allumer une ampoule de 60 W placée à deux mètres d'un émetteur sans fil, affirment que leur système pourrait être réduit à une échelle raisonnable pour permettre la recharge de nos appareils portables sans perte de rendement.

En suivant leur théorie, ils ont élaboré une paire d'antennes de cuivre de forme annulaire. L'une d'elles est reliée à une alimentation en électricité, et sur l'autre, située deux mètres plus loin, est branchée une ampoule 60 W. Alimentée en courant alternatif, la première antenne génère un champ magnétique "couplé par résonance" à la seconde et qui, de ce fait, y induit un courant. Ce courant, selon l'équipe du MIT, a parfaitement allumé l'ampoule avec un rendement de transmission de 40%, ainsi que leur théorie le prévoyait.

- Réduire les fluctuation quantiques pour les nanotechnologies

Une des limitations des nanotechnologies est constituée par les fluctuations quantiques responsables notamment de "l'effet Casimir" qui a pour effet d'attirer deux plaques métalliques très proches. On a découvert qu'on pouvait réduire au moins de moitié, voire inverser cet effet en plongeant les plaques dans un liquide (l'éthanol par exemple). L'avenir des nanotechnologies c'est donc peut-être des manipulations d'atomes dans l'alcool ! Cela permettrait aussi de faire des mesures plus précises.

L’effet des deux plaques est de modifier le type de modes d’oscillations des fluctuations du champ électromagnétique, qui deviennent alors différentes en longueurs d’ondes par rapport à l’extérieur des plaques. Au final la densité d’énergie moyenne entre les plaques est différente de celle régnant à l’extérieur et une force apparaît tendant à rapprocher les deux plaques.

L’intérêt pour l’effet Casimir a été relancé lorsqu’on s’est aperçu qu’à part des effets hypothétiques en gravitation quantique, que ce soit en cosmologie ou en liaison avec les trous noirs et les trous de vers, il devrait se manifester très concrètement dans le cadre des nanotechnologies. La conception des nanomachines devrait en effet tenir compte de l’apparition de ce type de forces.

- Encore les nanotubes de carbone, mais compressés !

A gauche, des nanotubes de carbone qui ont poussé naturellement. A droite, les mêmes nanotubes après une étape de densification : le diamètre s’est réduit de 25 fois.

Imaginer une nouvelle génération de puces électroniques, améliorer le rendement des piles à combustible ou concevoir des dissipateurs de chaleur beaucoup plus efficaces : les créateurs des faisceaux densifiés de nanotubes sont enthousiastes sur les applications potentielles de leur bébé, attendu depuis longtemps par les théoriciens.

L’avantage d’une densification d’un faisceau de nanotubes de carbone est connu des théoriciens depuis longtemps. On sait notamment qu’il conduirait mieux l’électricité. Ses propriétés mécaniques seraient bien sûr considérablement améliorées mais aussi la conductivité thermique.

L’échéance leur semble encore lointaine – plusieurs années au moins - mais la piste suivie serait la bonne.

- CeBIT : Meccano lance un robot, Spyke

Il arrive en septembre à un prix de 249 euros. Il autorise la télésurveillance par internet, il prend des photos, retrouve son socle de recharge seul. Il intègre un détecteur de mouvement, un micro, un haut-parleur, et il transmet ses images en wifi à l'ordinateur maître.

- Calculateurs moléculaires

Des chercheurs de Harvard et Princeton développent actuellement des calculateurs biologiques, petits dispositifs implantables capables de faire apparaître les caractéristiques et le comportement des cellules humaines.

L'information produite par ces "calculateurs ou automates moléculaires", faits entièrement d'ADN et d'ARN, permettra de détecter aussi bien l'activité des gènes en général que la présence de gènes mutants. L'ARN constituera l' "entrée" ou input du "calculateur", les molécules produites constituant la sortie ou output. Dans les deux cas, les signaux correspondant devraient être facilement identifiables en laboratoire. Les calculateurs cellulaires pourront ainsi mettre en évidence l'activité de gènes multiples. ou permettre des actions thérapeutiques visant spécifiquement des cellules malades.


Animation (anglais)

- Une mémoire en diamant pour l'informatique quantique

La solution trouvée par les chercheurs a consisté à manipuler, par laser, le spin des électrons d’atome d’azote constituant les impuretés du diamant. Comme il existe un couplage entre le spin de ces électrons et celui des noyaux de carbone 13 constituant jusqu’à 1 % des noyaux du diamant, les chercheurs ont pu manipuler quelques-uns de ces noyaux et ainsi ouvrir la porte au stockage de l’information quantique.

- Des interférences atomiques pour les ordinateurs quantiques

A priori rien de très nouveau, juste un pas de plus vers l'ordinateur quantique, mais l'article est intéressant. Après un creux suite à la mise en place de leur nouveau site, Futura-Sciences revient dans la course...

Les chercheurs pensent pouvoir effectuer des calculs quantiques avec les atomes neutres manipulés dans le réseau optique et ainsi explorer des voies menant vers des ordinateurs quantiques.

Cela permet aux chercheurs de vérifier leurs prédictions sur le nombre et l’état des atomes dans le réseau optique. C’est une étape importante pour voir si l’on peut faire et surtout contrôler des calculs quantiques avec de tels réseaux d’atomes piégés.

Rappelons que l’espace de phase d’un système de N particules est un espace à 6N dimensions, 3N pour les positions et 3N pour les quantités de mouvement. C’est dans cet espace qu’existe une onde se propageant et dont l’amplitude élevée au carré donne la probabilité d’observer des particules avec une position donnée. Cette considération est déjà suffisante pour se rendre compte à quel point la description des mouvements des particules dans l’espace et le temps en mécanique quantique est beaucoup plus subtil et indirecte qu’en mécanique classique.

- Le contrôle du couplage qubits: avancée vers l'ordinateur quantique

Après le premier qubit au monde en 1998 ("quantum bit" soit l'équivalent d'un bit informatique dans sa version quantique) basé sur des semiconducteurs, puis la première porte logique au monde à base de 2 qubits sur semiconducteurs en 2003, l'équipe a démontré, pour la première fois, que l'on pouvait contrôler la force de couplage entre deux qubits à l'aide d'un circuit simple.

Pour faire une opération de calcul quantique, il faut être capable de manipuler l'état quantique de plusieurs qubits au cours du temps. Une telle entreprise implique de pouvoir manipuler soit des qubits individuellement, soit deux qubits en même temps pour une opération logique, mais aussi d'être capable de démarrer ou d'arrêter le couplage entre deux qubits. Pour cela, l'équipe a utilisé un troisième qubit entre les deux autres capable de fonctionner comme un transformateur non linéaire activant ou désactivant le couplage entre les deux qubits. Le tout se contrôle par la simple impulsion d'une micro-onde.

- Un cerveau en silicium

Contrairement à d'habitude, ce n'est pas une simulation logicielle mais matérielle du cerveau, à base de puces électroniques qui reproduisent le comportement des neurones..

On enregistre la vie électrique des cellules avec le Patch-Clamp (à droite) qui reproduit l'effet de la transmission synaptique (à gauche). Le comportement des cellules est simulé à l'aide de batteries, de transistors, et d'un condensateur qui sont intégrés à un circuit électronique.

- Un ordinateur chinois avec des baguettes

MADE in China est un ordinateur qui vise l’immense marché chinois en reprenant les idéaux communistes de l’Empire du Milieu. L’ordinateur est partagé : sans processeur, sans carte graphique, sans carte son mais toutes opérations seraient effectuées en ligne par un fournisseur d’accès… Et le disque dur, les données personnelles des utilisateurs? Chez le fournisseur d’accès aussi bien sur…

Made-in-China n’est pas un ordinateur mais un terminal avec tout ce que cela apporte : un minimum de liberté d’action pour l’utilisateur et un maximum de champ d’action et de répression pour le fournisseur d’accès.

C’est pire du point de vue de l’interface où notre étudiant en design propose la métaphore des baguettes en lieu et place de la souris.

- Passer à des terminaux plus écologiques

Voilà qui mériterait un article plus complet rejoignant le projet indien d'un ordinateur à 10 $ qui serait plutôt un terminal !

Les micros sont trop puissants ! Puisque vous n’utilisez que 5 % de leur puissance, remplacez-les par un terminal. Ce sera plus économique et meilleur pour la planète ! C’est en substance ce qu’explique le gouvernement britannique.

Utiliser un ordinateur avec 1 Go de mémoire, un processeur double cœur à 4 GHz et une carte graphique 3D pour relever son courrier électronique est aussi peu écologique que grimper dans un 4x4 pour aller acheter une baguette à la boulangerie du coin de la rue.

La solution préconisée est radicale : remplacer les micros par des terminaux. Ces « clients légers », selon l’expression des informaticiens, s’opposeraient aux « clients gras » (fat clients) que sont devenus nos micros.

On pourrait par exemple stocker ses images sur un serveur distant, comme on peut déjà le faire aujourd’hui sur un site comme Flickr. Le réseau Internet fournirait alors de la puissance informatique comme le réseau électrique distribue le courant. Atul Hatwal, membre de Green Shift Task Force, affirme que ce terminal ne consommerait que 2 % de la puissance d’un micro ordinaire et que sa fabrication réclamerait 75 % d’énergie en moins.

Cet argument écologique est sans doute une première pour soutenir l’idée du terminal mais il est aussi avancé par les constructeurs d’ordinateurs eux-mêmes qui sentent le vent tourner en leur défaveur.

Pat Gelsinger, directeur général du Digital Enterprise Group d'Intel avance des chiffres impressionnants. Selon lui, en 2010, la Climate Savers Computing Initiative aura réduit l’émission de dioxyde de carbone « autant que le retrait de onze millions d’automobiles ou l’arrêt de vingt centrales au charbon de 500 mégawatts ».

- EyeOS : et si on se passait de système d'exploitation ?

Tout cela ressemble surtout à Google pack ? Je ne vois pas en quoi on se passerait de système d'exploitation ne serait-ce que pour se brancher sur Internet ! En tout cas c'est dans la même logique que celle de transformer les ordinateurs en terminaux.

Déjà présenté en version bêta il y a un an, EyeOS en est à sa version finale, la 1.0. D'emblée, y sont disponibles entre autres un navigateur de fichiers (eyeFiles), un calendrier (eyeCalendar), un traitement de texte (eyeDoc), un navigateur (eyeNav), une calculatrice (eyeCalc) et un jeu d'échec (eyeChess). Vous pouvez tester vous-même ce petit univers sur le site de l'éditeur.

EyeOS peut aussi prendre place sur un serveur personnel et permettre ainsi le travail collectif, en réseau ou via l'internet, en téléchargeant le pack gratuit.

- Des zones industrielles pour l'informatique !

Le problème des centres informatiques, c'est qu'ils consomment beaucoup d'électricité et que ça chauffe. Il suffit de se mettre en bordure d'un fleuve et d'un barrage hydro-électrique pour diminuer la facture !

Ce seront les zones industrielles du XXIe siècle, sans ouvriers et reliées par fibre optique. Elles commencent tout juste à s'étendre près des grands barrages hydroélectriques du nord-est des Etats-Unis.

Avec plusieurs coups d'avance, Google tente de contourner la difficulté par la géographie. L'entreprise vient d'édifier dans l'Oregon, au bord du fleuve Columbia, le précurseur des grands centres de données à venir, avec leurs dispositifs d'évacuation de l'air chaud bien visibles. En amont du site, un barrage hydroélectrique fournit aux ordinateurs une source d'approvisionnement ininterrompue et bien moins chère que dans les centres urbains. Bientôt Microsoft et Yahoo ! implanteront leurs propres installations près d'autres barrages, plus au nord.

"Au moment d'acheter du nouveau matériel, le coût de sa consommation électrique est en train de s'imposer comme un critère plus déterminant que la puissance de calcul"

- Du son dans le papier

Bof...

Paper Four (voir la vidéo de présentation), est un projet de papier parlant, mené par le “Réseau de la science des fibres” de l’université Mid Sweden à Sundsvall en Suède. Grâce à des encres conductrices, sensibles à la pression, et des hauts-parleurs imprimés, couplés à un ordinateur qui contient les fichiers audios (mais ceux-ci pourraient demain être intégrés à des puces électroniques), il est désormais possible d’entendre les affiches parler. Les chercheurs suédois estiment que ce papier “pervasif” pourra un jour prochain envahir les emballages de nos produits, livres et magazines…

- L'appareil qui prend des photographies à travers les rideaux

Ce n'est qu'un début...

Les laboratoires de NHK au Japon ont mis au point un appareil photo "ondes" capable de prendre une photo à travers de la fumée, du brouillard et même des rideaux. Les ondes émises par l'appareil traversent les éléments interceptant la lumière comme de la fumée, et peut aussi percevoir une vague forme de ce qui se trouve derrière un rideau ou la silhouette d'une personne se tenant derrière un écran.

La caméra utilise des ondes électromagnétiques spéciales d'une bande de 60 GHz baptisée milli-onde par analogie aux micro-ondes. A la manière des radars, l'antenne émettrice pointe vers le sujet, puis émet l'onde et reçoit sa réflexion pour pouvoir en tirer l'information de la scène à photographier.

- Mobiles hybrides GSM / Wi-Fi : mise en garde du Criirem

Mise en garde importante contre la téléphonie wifi :

Alors que les téléphones mobiles fonctionnent dans les fréquences de 900 et 1800 Mhz (1900 Mhz aux Etats-Unis), la partie Wi-Fi de plus en plus associée travaille en ondes pulsées sous 2450 Mhz, soit exactement la fréquence utilisée par les fours à micro-ondes, optimale pour provoquer l'agitation des molécules d'eau et l'émission de chaleur.

Michèle Rivasi affirme que "lors de l'usage d'un téléphone Wi-Fi, ou la proximité quotidienne avec un point d'accès, les expositions au Wi-Fi s'additionnent et peuvent provoquer, dans la durée, des réactions biologiques". Elle cite entre autres fatigue accrue, migraines, sensation de chaleur, et même insomnies, et s'interroge sur l'impact de ces micro-ondes sur l'eau contenue dans la peau, ou sur le liquide céphalo-rachidien dans lequel baigne le cerveau, aux premières loges lors de l'utilisation d'un tel appareil.

- Technologies pour les pauvres

Il y a beaucoup d'illusions dans ces technologies (Design for the Other 90 %) qui prétendent en finir avec la pauvreté et restent souvent trop chères encore, voire dangereuses, mais il y a quelques idées intéressantes.

* SolarAid un appareil auditif utilisant l’énergie solaire;

* StarSight, à la fois lampadaire d’éclairage public et borne wifi fonctionnant à l’énergie solaire; (j'en ai déjà parlé)

* Q-Drum, une roue qui permet de transporter 50 litres d’eau en remplacement des traditionnels et peu ergonomiques calebasses et bidons; (bonne idée)

* Motoman, un accès internet par moto et satellite… (Internet en différé)

De son côté, Amy Smith préfère le système D. Avec ses étudiants du MIT, elle travaille sur ce qu’elle qualifie de “technologies appropriées“, ou “de transition“, dont l’objectif est de s’adapter aux usages, cultures et matériaux des pays émergents.

Elle évoque ainsi l’utilisation de saris pliés en quatre pour filtrer l’eau, ou encore l’adaptation de la méthode de désinfection de l’eau par irradiation solaire (SODIS) par ses étudiants. Plutôt que d’utiliser des bouteilles plastiques qui, sous l’action conjuguée de la température et des ultra-violets, détruit les micro-organismes pathogènes, ils proposent tout simplement d’utiliser des sacs en plastique, plus facilement transportables, qui peuvent être commercialisés aux touristes, et qu’ils ont breveté afin d’en garantir la distribution gratuite dans les pays émergents.

Elle raconte également comment le fait de mettre des légumes frais dans un pot, lui-même placé dans un autre pot, permet de les maintenir au frais, et donc de continuer à les vendre aussi cher même à la fin de la journée, alors qu’en règle générale, les marchands doivent baisser leurs du fait du réchauffement. La technologie sert donc, non seulement à garder les aliments en meilleure condition, mais aussi à gagner de l’argent.

- Monnaies virtuelles pour une "économie de l'attention"

Seriosity propose de réduire la surcharge d’information (ou infobésité) et de changer la façon dont les gens travaillent ensemble, en s’inspirant de l’une des principales dynamiques des jeux multijoueurs : l’argent.

Son “économie de l’attention” repose en effet sur une monnaie virtuelle attachée aux e-mails sortants afin d’inciter les répondants à les traiter en priorité, qui permet donc aux utilisateurs de sérier les tâches et courriels les plus importants, mais aussi de récompenser ceux qui les ont aidé, ou dont les idées se sont avérées particulièrement brillantes, et donc aussi de s’enrichir et d’espérer pouvoir faire partie des meilleurs éléments.

- Des économistes ont planché à Istanbul sur le bonheur

Rien de bien neuf, on sait que l'inégalité est un facteur de tension y compris pour les riches, mais avoir des enfants ferait baisser le sentiment de bien-être, sans doute d'être débordé et d'avoir le sentiment de ne pas s'en sortir...

Plus de mille économistes et statisticiens réunis à Istanbul par l'OCDE ont planché du mercredi 27 au samedi 30 juin sur cette question et sur les moyens d'introduire la notion de bien-être au coeur des instruments d'évaluation du progrès humain.

A la tête d'une Base de donnée mondiale sur le bonheur (World database on Happiness), le professeur Ruut Veenhoven, de l'université Erasmus de Rotterdam, a déjà compilé des données de 95 pays.

On y constate que les gens les plus heureux sur terre sont les Danois, avec un indice de satisfaction de 8,2 sur 10, que les plus malheureux seraient les Tanzaniens (3,2), les Etats-Unis se classant 17e, la France 39e, la Russie 84e.

"Les pays heureux sont ceux qui sont riches, avec une économie compétitive, ils sont démocratiques, bien gouvernés (...), ce sont ceux où règnent l'égalité des sexes et la tolérance, où les gens sont libres de rechercher le mode de vie qui leur convient le mieux", explique le chercheur.

Au niveau des individus, l'universitaire souligne que les personnes mariées sont généralement plus heureuses que les célibataires mais que l'indice baisse avec la naissance d'enfants, que les hommes profitent plus de l'émancipation féminine que les femmes elles-mêmes, que le bonheur a tendance à baisser quand le niveau d'éducation est plus élevé.

- Découverte de parures vieilles de 82 000 ans

La découverte de petits coquillages marins perforés, dans la grotte des Pigeons à Taforalt (Maroc oriental), a mis en évidence une utilisation plus ancienne que prévu des objets de parure dans le nord de l'Afrique. Datant de 82 000 ans, ces ornements figurent parmi les plus anciens au monde. Sachant que ces objets sont, avec l'art, les sépultures et l'utilisation de pigments, parmi les indices les plus concluants de l'acquisition d'une pensée symbolique et de capacités cognitives modernes, cette étude amène les chercheurs à réviser leurs thèses sur l'origine de l'homme moderne.

Bien longtemps, il a été admis que les plus anciennes parures, alors datées autour de 40 000 ans, provenaient d'Europe et du Proche-Orient. Mais, depuis la découverte, en Afrique du Sud, de parures et d'ocres gravées âgés de 75 000 ans, cette idée est remise en cause.

- Sauvetage du royaume de Kouch avant inondation

Le Royaume de Kouch est l'appellation donnée par les Egyptiens antiques au territoire qui s'étendit au sud de leur pays dès l'Ancien Empire. Il connut une longévité exceptionnelle et ancre ses racines dans les cultures néolithiques du Soudan actuel et de la Nubie égyptienne.

Aujourd'hui, des équipes d'archéologues soudanaises, anglaises, allemandes, polonaises, hongroises ou américaines, se pressent pour exploiter au maximum les restes encore enfouis de cette ancienne civilisation du royaume de Kouch, avant que la région soit définitivement inondée par la mise sous eau du barrage de Méroé, situé en aval de la quatrième cataracte du Nil, et qui formera un immense lac artificiel de 160 kilomètres en déplaçant plus de 50.000 personnes.

Les fouilles ont aussi permis de découvrir plus de 90 tombes réalisées dans le style de Kerma, décorées de céramiques, et qui démontrent que Hosh el-Geruf se trouvait bien dans la sphère d'influence de la capitale kouchite.

1 879 vues

Laisser un commentaire