- Les biotechnologies à portée de tous...
- Un bioordinateur dans la cellule
- Des mutations génétiques contrôlées par laser
- La lumière à la place du WiFi
- L'empire de Google
- Le local dans le monde numérique
- La communication télépathique pour les militaires
- Les exosquelettes arrivent...
<- Revue des sciences précédente | Revue des sciences suivante ->
Revues : Pour la Science - La Recherche
Brèves : Physique - Climat - Biologie - Santé - Technologie
Beaucoup de tout ce mois-ci avec rien qui se dégage vraiment. Les véritables débuts commerciaux de la cryptographie quantique ne sont qu'une confirmation, tout comme l'arrivée des exosquelettes ou la théorie métabolique du cancer, de même que les échanges de savoir dans l'antiquité. La bioinformatique non plus n'est pas vraiment une nouveauté. Tout de même on peut gamberger sur la possibilité de communiquer par télépathie, d'effacer des souvenirs ou de mettre les manipulations génétiques à la portée de n'importe qui. Sinon, il apparaît de plus en plus que les virus font parti de la régulation des espèces, comme une part extérieure de notre génome. On peut bien se rassurer en se disant qu'on n'a pas dépassé cette année, relativement froide, les records de l'année dernière, mais on n'en était pas loin quand même. Heureusement, on pourrait arriver à se passer des énergies fossiles d'ici 2090 nous assure Greenpeace...
On trouvera une version éclatée en plusieurs articles de cette revue des sciences sur le site du GRIT-Transversales : physique - climat - biologie - santé - technologies.
Pour la Science no 373, Sons & Musique
- Le Vésuve, un volcan strombolien ?, p14
Il se pourrait (ce n'est pas sûr) que le Vésuve ne soit plus de type explosif catastrophiste (éruptions rares mais dévastatrices) et se rapproche du Stromboli (éruptions fréquentes mais peu importantes), ceci parce que sa chambre magmatique serait passée de 7km à 3km de la surface. Ce qu'il faudrait savoir, c'est surtout si le supervolcan situé juste à côté ("champs phlégréens" ou campi flegrei), où les romains situaient les portes de l'enfer, ne risque plus d'exploser ce qui aurait des conséquences bien plus grandes au niveau de l'Europe si ce n'est de la planète...
- Le dos vert après le billet vert ?, p33
Retenons surtout qu'Ivar Ekeland pense inévitable un effondrement du dollar étant donné l'énormité des sommes injectées. "Et quand le dollar ne vaudra plus rien, qu'est-ce qui le remplacera ?".
- Un cafard peut-il vivre sans tête ?, p38
Cela est vrai : leur corps survit ainsi plusieurs semaines.
Un couple de cafards a ainsi vécu plusieurs semaines dans un bocal.
La tête du cafard isolée survit aussi. Elle fonctionne pendant quelques heures et agite ses antennes dans tous les sens jusqu'à ce qu'elle n'ait plus d'énergie.
Les caractéristiques physiques d’un insecte font que sa tête n’est pas un organe aussi vital que pour un mammifère.
En effet, la tête ne sert pas pour respirer à l'insecte qui respire par les pores de sa peau (si l'on peut dire), qu'il n'y a pas de circulation sanguine et que le système nerveux n'est pas centralisé mais réparti en ganglions dans tout le corps.
- La circulation des savoirs astronomiques dans l'antiquité, p140
Les échanges de savoir entre sages de différentes cultures expliquent sans doute une certaine unité des traditions "ésotériques" et de ce qu'on appelle la "philosophia perennis" dont l'astrologie constitue une part essentielle, au fondement de la rationalité du monde et qu'on retrouve partout. Les connaissances astronomiques sont sans doute largement préhistoriques et on peut être étonné du caractère relativement tardif de l'astronomie babylonienne, mais il ne suffisait pas de pouvoir en faire le relevé par écrit, il fallait que la durée des observations laisse apparaître des lois, ainsi qu'un progrès des mathématiques sans doute. En tout cas, c'est ce qui fait tout l'intérêt de suivre la diffusion des données astronomiques de Babylone jusqu'en Chine, la circulation souterraine des idées, même avec des retards qui peuvent se compter en siècles, voire en millénaires, prouve que notre évolution cognitive était déjà planétaire, surtout depuis l'invention de l'écriture, et que l'unité de l'humanité était déjà effective, en esprit du moins, derrière les diversités apparentes (les Grecs l'ont reconnu explicitement d'Hérodote à Platon).
Depuis le Néolithique, les civilisations humaines, loin de vivre isolées, ont échangé des objets, des ressources, mais aussi des idées et des savoirs.
Les racines des savoirs astronomiques se trouvent en Mésopotamie. Parmi les plus anciennes observations qui nous sont parvenues, certaines relatent les apparitions héliaques de Vénus. Elles datent du règne d’Ammi-Saduqa (vers 1646 à 1626 avant notre ère), roi de la première dynastie de Babylone et arrière-petit-fils de Hammurabi. La Mésopotamie a par la suite livré la plus longue série d’observations astronomiques jamais réalisée : débutées durant le règne de Nabonassar (–746 à –733), elles se sont achevées sous l’Empire Parthe (après –60). La durée de ces observations, près de 700 ans, explique que l’astronomie de Babylone ait servi de base à l’astronomie grecque et arabe (...) Dès avant le Ve siècle avant notre ère, le système de notation des positions planétaires a été standardisé selon les 12 signes du zodiaque, qui découpent la voûte céleste en secteurs de 30 degrés. Ce système de notation, très pratique, était facile à utiliser et c’est ce qui peut expliquer son passage chez les Grecs. La préférence babylonienne pour les nombres sexagésimaux, c’est-à-dire les nombres divisibles par 60, est par ailleurs à la base de l’usage grec de diviser le cercle en 360 degrés.
Les premières observations égyptiennes sur les apparitions héliaques de Sirius, l’étoile du Chien, sont antérieures à celles de Babylone : elles remontent à la septième année du règne de Sésostris III (vers –1870). De même que les astronomes-prêtres babyloniens ont séparé le ciel en 12 signes du zodiaque, les scribes égyptiens ont divisé le ciel en 36 secteurs, nommés « décans ». La première division céleste égyptienne apparaît dans le tombeau de Senmut, qui a vécu durant le règne d’Hatchepsout (–1478 à –1457). Cet usage ne renvoie pas à la tradition babylonienne des nombres sexagésimaux, mais aux 36 « semaines » égyptiennes de dix jours.
Ce furent les scribes égyptiens qui, pour la première fois, divisèrent la journée en un jour et une nuit de 12 heures. Le premier texte à le confirmer a été trouvé en 1889 par Ernesto Schiaparelli dans le tombeau d’Amenemhat, un fonctionnaire qui mourut sous Thoutmosis Ier (vers –1500). Cette division de la journée en 24 heures s’est perpétuée jusqu’à aujourd’hui. En outre, les astronomes de l’Antiquité préféraient le calendrier égyptien de 365 jours, jugé plus facile à utiliser pour le calcul des grands cycles, que les calendriers lunaires avec plusieurs mois intercalaires, comme le calendrier babylonien. Ainsi, le zodiaque donnait aux astronomes les repères standardisés d’origine babylonienne pour établir les positions des étoiles, et le calendrier égyptien constituait la mesure standardisée des durées astronomiques.
Un autre indice de la circulation des savoirs provient des Grecs de l’Antiquité, qui se prétendaient souvent les héritiers de traditions diverses : babyloniennes, égyptiennes, et même perses et indiennes. Il est difficile d’estimer la fiabilité de leurs écrits. Cependant, l’analyse récente au scanner à rayons X du mécanisme d’Anticythère, un calculateur astronomique du IIe avant notre ère, a révélé que l’astronomie grecque d’avant Ptolémée était plus avancée que ce que les modernes pensaient.
- L'épuisement de la terre, p 160
Daniel Nahon, Odile Jacob, 2008, 236 pages
Savez-vous que la surface de sols cultivables de la Terre représente 22 pour cent de celle des terres émergées, c’est-à-dire seulement 50 fois celle de la France ? Et si la principale menace sur notre environnement n'était pas le réchauffement climatique, mais l'épuisement des sols ? D. Nahon rappelle que le soubassement essentiel de notre civilisation et de toutes celles qui l’ont précédée est le sol cultivable. Or personne, sinon les scientifiques qui l’étudient – les pédologues – n’a conscience que ce soubassement s’use plus vite que la nature ne le reconstitue. L’auteur veut donc sonner l’alarme.
Le dernier chapitre explique que la coïncidence de la diminution de la surface des sols (érosion, stérilisation par salinisation ou bétonnage…) et de l’augmentation de la population mondiale nous conduit à de nouvelles famines. Il est grand temps de prendre des mesures correctives pour protéger les sols.
La Recherche no 424, Si le boson de Higgs n'existait pas
- Les virus des profondeurs, p17
Plus on descend dans les profondeurs océanes, plus les virus interviennent dans la mortalité des bactéries. Ils sont responsables de 16% de cette mortalité dans les sédiments côtiers, de 64% entre 160 et 1000 mètres, et de 89% au-delà.
C'est une découverte que je trouve extraordinaire car elle me semble prouver que les virus font partie du génome d'une espèce dont ils assurent la régulation, en particulier en fonction du nombre qui provoque une explosion de la virulence à partir d'un seuil de densité. Les fonds marins étant très pauvres en nutriment un développement incontrôlé peut rendre le milieu stérile alors que la multiplication des virus non seulement limite le nombre de bactéries mais permet de nourrir les bactéries survivantes avec les restes des bactéries infectées. Il se pourrait que si les autres espèces ont moins de virus participant à leur régulation, c'est peut-être que cette régulation est intégrée au génome puisque les dernières études sur le ver Caenorhabditis elegans semblent montrer que sa durée de vie est génétiquement programmée.
- La lente invention du néolithique, p18
Des travaux récents suggèrent que la domestication des plantes s'est sans doute étalée sur des milliers d'années, au lieu de la transition rapide, en quelques siècles, qui prévalait jusqu'alors.
C'est effectivement un changement de paradigme mais on sait depuis peu qu'il y a eu une longue période pré-néolithique au moins dans la région du Sahara lorsque ce n'était pas du tout un désert encore mais une terre luxuriante. Le passage de la cueillette à l'agriculture aurait été très progressif. Il n'empêche, qu'à un moment (à l'occasion d'un déluge ou de toute autre catastrophe) s'est coagulée une nouvelle façon de vivre, une nouvelle civilisation, une nouvelle représentation du monde, de nouvelles religions...
- Les débuts de l'ère viking, p18
Il est intéressant de constater que ce n'est pas le progrès technique ni la pression démographique qui explique les invasions viking, leurs bateaux militaires ayant 4 siècles lorsqu'ils commencent leurs pillages et leur expansion. Comme toujours ce n'est pas la technologie mais la politique et la logique de puissance qui est déterminante. Ainsi, c'est plutôt l'effet de la menace de Charlemagne qui les aurait poussés en retour à s'unir et se hiérarchiser, dans un second temps seulement à utiliser leur nouvelle puissance pour s'enrichir en pillant le voisinage et gagner en prestige ou en troupes supplémentaires.
- Nous inventons une autre physique, p 38
Interview de Christophe Grojean
Pour ma part, je n'arrive pas à croire au Higgs qui me semble pure invention alors que la masse devrait dépendre simplement de l'énergie ! Une des raisons de ne pas croire au Higgs, c'est que son spin devrait être nul, ce qu'on n'a jamais vu (pas plus que le spin 2 du supposé graviton). On n'a que des spins 1/2 (fermions : électron, quarks) ou 1 (photon). Par contre, de même que 2 fermions peuvent faire un boson (1/2 x 2 = 1), une combinaison d'hypothétiques "techniquarks" pourrait avoir les propriétés du Higgs qui ne serait donc plus une particule élémentaire mais un objet composite. Plus spécifiquement, la théorie qu'il élabore se passe du Higgs en supposant une dimension supplémentaire, la masse résultant de la façon dont la particule rebondit sur ses bords.
- Laurent Schwartz, la conception métabolique du cancer, p60
Cela fait longtemps que des voix isolées ou des "médecines alternatives" en avaient fait l'hypothèse (que j'ai reprise dans "La dégénérescence de l'homme" récemment) mais c'est désormais un homme du sérail, le cancérologue Laurent Schwartz (pas le mathématicien!), qui tente de convaincre ses pairs que c'est l'inflammation qui est déterminante dans le déclenchement des cancers. En tout cas, c'est ce que semble démontrer le caractère cancérigène de l'amiante. Ce n'est pas qu'il n'y ait pas de mutations génétiques, il y en a tout le temps, c'est que l'inflammation chronique est favorable à la prolifération des cancers débutants (en fait, je pense qu'il y a sûrement certaines mutations en cause malgré tout, comme celle du gène anticancer p53, mais l'inflammation serait déterminante dans la plupart des cas).
De nombreux cancers commencent par une bronchite chronique, une cirrhose du foie, voire une simple irritation chronique telle que causée par l'amiante. Les tissus enflammés sont chauds et douloureux, ils consomment une quantité accrue de nutriments et en particulier de glucose. Cette idée n'est pas neuve. Dès 1920, des chercheurs allemands comprennent le métabolisme cellulaire. Parmi eux, Otto Warburg, un des grands biochimistes d'alors, futur prix Nobel, observe que les cellules tumorales consomment une plus grande quantité de glucose que les cellules normales et produisent un excès d'acide lactique. En d'autres termes, elles fermentent. Pourquoi ? Parce qu'il y a un blocage dans les cellules cancéreuses : elles ne tirent que très peu d'énergie du glucose qu'elles consomment. Pour obtenir la même quantité d'énergie qu'une cellule normale, elles doivent consommer 18 fois plus de sucre. Ce dernier n'est pas complètement dégradé. Les déchets de combustion incomplète du glucose s'accumulent et réagissent entre eux. La cellule grossit et en grossissant, elle se divise. Le cancer serait donc une maladie métabolique.
Une équipe canadienne a récemment testé l'effet d'une molécule le dichloroacétate ou DCA, sur les cellules cancéreuses. Cette molécule stimule une enzyme au sein de "l'usine" énergétique de la cellule, la mitochondrie. Testée in vitro, elle a provoqué la mort des cellules cancéreuses et in vivo, chez le rat, elle a limité la croissance des tumeurs.
J'avais fini par douter des potentialités du DCA, n'ayant plus aucune nouvelle depuis plus d'un an, au point de retirer mon article sur le sujet mais, non, les recherches se poursuivent et ce que disait l'article reste apparemment pertinent.
- Un robot très curieux, p76
En construisant un robot uniquement motivé par la nouveauté comme proposé par diverses théories, nous avons constaté qu'il passait son temps à regarder les feuilles d'un arbre tombant une à une, "fasciné" par leur imprédictibilité. Cela lui ôtait toute disponibilité pour un apprentissage : il fallait un mécanisme supplémentaire (désir de progresser).
Rappelons que La Recherche a ouvert un blog des livres assez intéressant, avec pas mal de critiques de livres plus ou moins scientifiques. On aimerait tout de même que ce soit un peu plus de sélectif et une division par catégories au moins.
Brèves et liens
Physique
cosmologie, astronomie, physique quantique
Des chercheurs de l'Université McGill de Montréal ont découvert un nouvel état de la matière, un cristal d'électron quasi-tridimensionnel, dans un matériau très similaire à ceux utilisé dans la fabrication de transistors modernes. Cette découverte pourrait aider le développement de nouveaux dispositifs électroniques.
En travaillant avec un des matériaux semi-conducteurs les plus purs jamais fait, ils ont découvert le cristal d'électron quasi-tridimensionnel dans un dispositif refroidit à des températures ultra basses, 100 fois plus froide que celle de l'espace intergalactique. Le matériau a ensuite été exposé au champ magnétique continu le plus puissant qu'on puisse générer sur terre.
- Courber la lumière sans miroirs
Les chercheurs de l'Institut d'électronique fondamentalede Paris1, en collaboration avec le Groupe d'étude des semi-conducteurs à Montpellier2, ont mis au point un nouveau type de cristaux photoniques, dits "à gradient", formés par une succession de grilles métalliques. Ils viennent donc de démontrer leur capacité à courber la lumière.
Les tiges verticales forment une maille à motif carré à l'entrée du cristal, progressivement déformé en rectangle jusqu'à l'autre bout. Lorsque la lumière pénètre dans le cristal, elle se courbe grâce aux interactions électromagnétiques avec les tiges, comme pour éviter les obstacles sur son chemin.
- Premier réseau de cryptographie quantique
Le premier réseau de communication utilisant la cryptographie quantique a été testé avec succès à Vienne.
Ce réseau emprunte plus de 200 km de fibres optiques standards déjà installées dans la ville. Il est constitué de six nœuds reliés entre eux par huit liens longs de 6 à 80 kilomètres.
La technologie est donc au point mais souffre encore de quelques défauts. Les clés ne peuvent voyager dans les fibres sur plus de 100 kilomètres. Les débits sont encore lents, identiques à ceux d'un modem des années 80 (quelques milliers de bits), ce qui interdit de la transmission vidéo cryptée en direct.
Voir aussi Futura-Sciences.
- Amélioration de la vitesse en cryptographie quantique
L'équipe a démontré que des clefs quantiques pouvaient être envoyées le long d'une fibre optique de 20 kilomètres avec un débit supérieur à 1 Mbit/s.
La cryptographie quantique n'était jusqu'ici possible à travers les réseaux en raison de la nécessité de partager la bande passante des clés entre de nombreux utilisateurs différents; celle-ci restait tout simplement trop faible, typiquement moins de 10 kbit/s pour 20 kilomètres de fibre. Shields et ses collègues ont réussi à l'amplifier jusqu'à 1,02 Mbit/s en améliorant les dispositifs à semi-conducteurs utilisés pour détecter les photons uniques qui composent des clefs quantiques. (Il est ici essentiel d'employer des photons uniques sans quoi une oreille indiscrète pourrait "écouter" les photons excédentaires sans indiquer sa présence).
"La 'distribution de clés quantiques' a certainement devant elle un futur radieux", ajoute Shields. "Je pense qu'elle devrait être commercialisable dans les trois à cinq années à venir, et qu'elle pourrait devenir une norme pour la sécurité de l'information dans tous les réseaux de transmission."
- Prix Nobel pour brisures de symétrie
Le prix Nobel de physique 2008 récompense des travaux visionnaires dans le domaine de la physique des particules faisant intervenir la notion capitale de symétrie brisée. Les trois lauréats sont tous d’origine japonaise même si l’un d’entre eux, Yoichiro Nambu, a été naturalisé Américain. Le deux autres récipiendaires, Makoto Kobayashi et Toshihide Maskawa se sont illustrés, tout comme Nambu, par leurs travaux sur la théorie des interactions nucléaires.
Nambu fut le premier à proposer que les interactions nucléaires fortes devaient être décrites par une théorie des champs de type Yang-Mills avec le groupe de Lie SU(3). C’est exactement ce que Gell-Mann et d’autres reprendront des années plus tard dans le cadre de la chromodynamique quantique. Yoichiro Nambu est donc le père de la notion de couleur pour les quarks.
La théorie de la brisure de symétrie dans le domaine des particules élémentaires de Nambu n’était cependant pas conforme aux règles de la relativité restreinte et c’est justement pour remédier à ce défaut que Peter Higgs, François Englert et Robert Brout introduiront simultanément et quelques années plus tard le fameux mécanisme de Higgs-Englert-Brout, que l’on suppose être à l’origine des masses du modèle standard.
C’est lui qui démontra le premier, bien que simultanément avec Léonard Susskind, que la fameuse amplitude de Veneziano pour le modèle dual des hadrons pouvait être interprétée comme une excitation d’une corde.
Les 2 autres s'intéressèrent à la découverte d’une autre symétrie brisée en physique, la violation CP.
Ils découvrirent que cela n’était possible que s'il existait non pas trois types de quarks comme on le pensait à l’époque mais six, rangés en trois familles.
- Des astronomes émettent des doutes sur la matière noire
Jusqu’à présent les observations favorisent toutes le modèle de la matière noire froide, dit encore le Cold Dark Matter model ou CDM (une petite composante de matière chaude n'est pas exclue cependant). Le problème est que dans ce scénario de croissance hiérarchique, les galaxies évoluant au cours de l’histoire de l’Univers par collisions et fusions en série, une très grande variété devrait en résulter sans aucune corrélation entre les caractéristiques des galaxies comme leur taille, leur luminosité, leur couleur et leur masse.
Or, un groupe d’astronomes avec à leur tête Mike Disney de l’Université de Cardiff, l’un des découvreurs de la contrepartie optique du pulsar du Crabe en 1969, vient de publier le résultat de statistiques portant sur les caractéristiques de près de 200 galaxies découvertes initialement dans le domaine radio, à l’aide du radiotélescope de Parkes, et examinées ensuite dans le domaine optique avec le Sloan Digital Sky Survey (SDSS).
A première vue, ce qu’ils ont découvert est en contradiction avec le modèle CDM car des corrélations importantes ont été découvertes entre 6 paramètres décrivant des galaxies aussi diverses que les elliptiques, les spirales etc. Parmi ces 6 paramètres, on trouve la masse d’hydrogène neutre, la masse totale qui tient compte d’une hypothétique composante sous forme de matière noire, la luminosité, etc. Selon les chercheurs, il suffirait d’un seul paramètre pour fixer tous les autres même s’ils ignorent encore sa nature. Comme dans le cas des étoiles avec leurs rayons et leur température, il s’agit probablement de la masse de la galaxie.
Normalement, on l'a dit, la croissance chaotique des galaxies dans le modèle CDM ne devrait pas permettre ce genre de corrélations mais les tenants du modèle de la matière noire froide affirment qu’il est encore trop tôt pour en arriver à des conclusions aussi extrêmes. En effet, les preuves indirectes de l’existence de la matière noire obtenues dans le cas des collisions d’amas de galaxies ne se balaient pas d’un revers de la main.
Pour détecter les mystérieuses particules de matière noire, une équipe de chercheurs canadiens explore une piste prometteuse et originale : à l'aide d'une chambre à bulles, il serait possible... de les entendre.
Il s’agirait de particules neutres n’interagissant que très faiblement avec la matière normale et probablement uniquement par l’attraction gravitationnelle.
Lorsqu’une particule de matière noire pénètre à l’intérieur d’une de ces gouttes et entre en collision avec un noyau, l’énergie qu’elle dépose va se répartir dans la goutte et, plus précisément, provoquer la transition de phase du liquide en vapeur. Le phénomène s’accompagnera d’une émission sonore.
- Ecouter les cordes cosmiques
Jamais entendu parler de ces cordes cosmiques associées à la brisure de symétrie du Higgs avant...
Mesurant jusqu'à plusieurs milliards d'années-lumière, les cordes cosmiques (à ne pas confondre avec les supercordes cosmiques) sont des objets pour l'instant théoriques. Leur existence est déduite du mécanisme de brisure de symétrie associé au boson de Higgs dans le cadre des théories de Grande Unification. Selon un chercheur américain, elles pourraient signaler leur présence dans l’Univers par de brusques bouffées d’ondes radio. Certaines ont peut-être déjà été observées…
Comme Kibble l'a montré, le refroidissement ultra-rapide de l’Univers causé par son expansion devait s’accompagner de sortes de condensations d’énergie sous forme de longs filaments plus fins qu’un proton et pouvant s’étendre, des centaines de millions d’années plus tard, sur des distances proprement cosmologiques, se comptant en milliards d’années-lumière.
Ces cordes cosmiques, comme on appelle ces filaments, pouvaient servir de germes de surdensités pour amorcer la formation des amas de galaxies.
Les cordes cosmiques sont dynamiques et, tout comme leur cousines les supercordes cosmiques dont nous ne dirons rien ici, elles peuvent claquer en émettant des ondes gravitationnelles. Mais il s’agit d’une signature là aussi difficilement observable. En revanche, elles sont, elles, supraconductrices. Elles pourraient donc générer d'intenses bouffées d’ondes électromagnétiques.
Tanmay Vachaspati de la Case Western Reserve University à Cleveland, Ohio, vient de publier un article dans lequel il suggère que les émissions électromagnétiques des cordes cosmiques ne sont pas seulement décelables par des bouffées de rayons gamma mais aussi grâce à des ondes radio, susceptibles d’être émises.
Remarquablement, Duncan Lorimer et ses collègues ont observé l’année dernière une brusque bouffée dans le domaine radio qui devait être générée à une distance cosmologique et à laquelle aucune galaxie ne pouvait être associée. Elle a duré environ une milliseconde et le pulse d’ondes radio était centré sur la fréquence de 1,4 GHz. Ce genre d’observation et son occurrence dans le temps sont justement conformes aux calculs de Vachaspati et le chercheur s’interroge donc.
- Les galaxies elliptiques, nées de collisions géantes
Les galaxies elliptiques seraient le résultat de la collision puis de la fusion de deux galaxies spirales. C'est ce que tend à confirmer une étude conduite par simulation informatique par une équipe d’astrophysiciens français.
- L'explosion d'une supernova à l'origine du système solaire
Comment la nébuleuse protosolaire a-t-elle formé notre système planétaire ? Par effondrement, certes, mais pourquoi celui-ci s'est-il produit ? Depuis longtemps, les astrophysiciens pensent qu'un coup de pouce, ou plutôt une onde de choc, l'a déclenché. L’hypothèse d’une supernova était soutenue par la cosmochimie des météorites, mais pas du tout par des simulations numériques... jusqu’à aujourd’hui !
En effet, la nébuleuse à l’origine du Soleil et de son cortège de planètes était trop peu massive et surtout trop peu dense, si on la compare aux observations dans la Galaxie, pour s’effondrer d’elle-même. L’hypothèse d’une onde de choc augmentant sa densité était donc évoquée et l’explosion d’une supernova au voisinage de la nébuleuse semblait une excellente explication.
Dans tous les modèles examinés sur ordinateur par les chercheurs, l’onde de choc heurte un nuage de la masse du Soleil, composé de poussières, d'eau, de monoxyde de carbone et d'hydrogène moléculaire. Les températures peuvent atteindre 1.000 K et grâce à l’introduction d’un nouveau mécanisme de refroidissement, le nuage peut s’effondrer. Environ 100.000 années plus tard la nébuleuse protosolaire est devenue 1.000 fois plus dense qu'auparavant, et après 160.000 ans, un protosoleil est là, au cœur d’un nuage devenu un million de fois plus dense.
- Le soleil vient d'ailleurs...
Des simulations sur la formation et l’évolution du disque galactique montrent désormais que, dans les galaxies du type de la Voie Lactée, les étoiles telles que le soleil peuvent migrer sur de grandes distances. Se trouverait dès lors modifiée l’idée selon laquelle il existe des parties de galaxies, appelées zones habitables, plus favorables à la vie que d’autres.
Les recherches indiquent par conséquent que lorsqu’il s’est formé il y a 4,59 milliards d’années, soit environ 50 millions d’années avant la Terre, il a pu être soit plus proche, soit plus éloigné du centre de la galaxie, au lieu de se situer à mi-chemin en direction du bord extérieur, comme actuellement.
Les étoiles migrantes aident par ailleurs à comprendre un vieux problème qui concerne le mélange chimique des étoiles dans l’environnement de notre système solaire, connu depuis longtemps pour être l’endroit d’un plus grand mélange que ce qu’offriraient des étoiles demeurant là où elles sont nées. En réunissant des étoiles en provenance de différents lieux, l’environnement du soleil est devenu un lieu plus divers et intéressant
Les nouvelles images ont été prises au milieu de l'été lunaire, lorsque que suffisamment de lumière solaire diffuse de la paroi interne au sommet du cratère pour l'éclairer faiblement. Les températures au fond du cratère devraient être inférieures à 90 kelvins, assez froides pour qu'il y ait de la glace. Les images ne montrent pourtant aucun éclat particulier qui trahirait la présence de glace pure. Il n'y a donc peut-être pas de glace du tout
Voir aussi Futura-Sciences.
- Coucher de soleil sur Osiris
Une équipe INSU-CNRS de l'Institut d'astrophysique de Paris (CNRS, Université Pierre et Marie Curie) a obtenu le premier spectre optique complet d'une exoplanète, HD209458b. Cette géante gazeuse étant très proche de son étoile, elle subit une évaporation et il a été proposé de la surnommer "Osiris". Réalisé à partir des données du télescope spatial Hubble, il couvre tout le domaine optique de l'ultraviolet jusqu'à l'infrarouge. En analysant la lumière de l'étoile vue à travers l'atmosphère de sa planète, les astronomes ont ainsi pu déterminer la structure de cette atmosphère. Ils ont noté la présence d'hydrogène et de sodium et éventuellement des oxydes de vanadium et de titane. Le sodium se répartit en plusieurs couches comme les nuages sur Terre, tout étant plus abondant à basse qu'à haute altitude. Par diffusion, le ciel est pourpre et l'étoile au coucher par absorption est cyan.
Climat
- Les records de 2007 n'on pas été battus
La publication de l’édition 2008 de l’ « Arctic Report Card » récapitule les observations sur le réchauffement constaté en 2007. L’augmentation des températures de l’eau, de l’air - jusqu’à 5° - des terres, l’ampleur de la fonte de la banquise et des glaciers, font de 2007 une année exceptionnelle à plus d’un titre.
Si le réchauffement se poursuit, il le fait à une vitesse moindre que dans les années 1990 en raison de la variabilité naturelle, indiquent les chercheurs.
Le réchauffement climatique se superpose à des cycles naturels de réchauffement et de refroidissement, et une phase chaude durant les années 1990 est venue ajouter à l’élévation de la température due aux gaz à effet de serre. Aujourd’hui, avec une phase plus froide dans certaines régions, la hausse des températures a ralenti, mais M. Overland dit qu’il s’attend a ce qu’elle accélère à nouveau lors du retour du prochain cycle naturel de réchauffement.
Interrogé sur l’effet d’une augmentation du rayonnement solaire sur le climat de la Terre, Jason Boîte du Byrd Polar Research Center, estime que bien que cette cause soit importante, une augmentation du rayonnement solaire ne compte que pour environ 10% dans le réchauffement de la planète.
- Le désert s'accroît dans la mer
Les plus grand déserts ne sont pas sur Terre mais sous l’eau. Les espaces océaniques où la faune et la flore sont presque absentes s’agrandissent encore plus vite que prévu par les modèles les plus pessimistes.
L’apparition de ces déserts est l’une des conséquences du réchauffement climatique, et particulièrement de celui des océans, qui entraîne une baisse des concentrations en oxygène dissous dans les eaux et crée de vaste zone où la vie ne plus se développer. L'extension des zones mortes, dont le rythme de croissance atteint près de 5% par an, dans l'environnement aquatique apparaît désormais comme une menace majeure pour les écosystèmes au niveau mondial.
- Un nouveau gaz à effet de serre nous menace
La quantité de trifluorure d’azote (NF3) dans l’atmosphère est quatre fois plus importante que ce qu’on avait estimé, ont montré Rey Weiss et ses collègues. Or le trifluorure d’azote est doté d’un pouvoir de réchauffement 17.000 fois plus élevé que le dioxyde de carbone.
Utilisé au cours de la fabrication des écrans plats à cristaux liquides, des circuits intégrés pour les ordinateurs ou encore des cellules photovoltaïques, le NF3 est venu remplacer les PFC (hydrocarbures perfluorés), qui participent eux aussi à l’effet de serre.
- Un monde sans carburants fossiles possible d'ici 2090
D'ici 2090, le monde pourrait se passer des carburants d'origine fossile en consacrant des milliers de milliards de dollars à une "révolution" qui imposerait les énergies renouvelables, affirment Greenpeace et le Conseil européen de l'énergie renouvelable (EREC).
L'énergie solaire, la biomasse - les matières organiques susceptibles d'être des sources d'énergie -, les énergies géothermique ou éolienne pourraient donc être imposées d'ici la fin du siècle pour enrayer le réchauffement climatique.
Jusqu'en 2030, période sur laquelle se concentre tout particulièrement l'étude, il faudrait consacrer 14,7 billions de dollars à cette révolution énergétique.
L'étude préconise notamment la disparition progressive des subventions aux carburants fossiles et à l'énergie nucléaire, l'extension du système de "cap and trade", sorte de "bourse aux émissions" de GES, l'instauration d'objectifs contraignants pour le développement des énergies renouvelables, ainsi que des règles plus strictes dans la construction des voitures et des immeubles.
L'étude précise que le marché des énergies renouvelables a presque doublé entre 2006 et 2007, à plus de 70 milliards de dollars. Ces sources d'énergie pourraient représenter en 2030 environ 30% de la production d'énergie, plus du double qu'aujourd'hui, et 50% en 2050.
- Pékin propose que 1% du PIB des pays riches aille aux pays pauvres
"Il faudrait que l'assistance financière aux pays en voie de développement atteigne 1% du (PIB) des pays développés", a déclaré M. Gao lors d'une conférence de presse, "ce chiffre n'est pas très important, mais nous devons résoudre cette question au moyen de discussions".
Les fonds apportés par les pays riches permettraient aux pays en voie de développement d'acquérir des technologies "vertes" pour réduire les émissions de gaz à effet de serre, a expliqué M. Gao, selon un compte-rendu de sa conférence de presse.
"Des fonds importants doivent être investis", a dit M. Gao, "mais quand on discute de la manière dont les pays développés seront capables de financer les investissements, on n'obtient pas d'engagements matériels détaillés".
- Vers une prévision de la météo dépassant la semaine
La perspective de prévisions fiables au-delà de la semaine prouve qu'au-delà de son caractère chaotique, une meilleure compréhension des mécanismes en jeu permet une certaine prédictibilité, peut-être d'une saison sur l'autre, même si la résolution se réduit drastiquement, s'éloignant donc de la météorologie proprement dite. Il faut dire qu'à mesure que les prévisions météorologiques s'étendent dans le temps elles en viennent à se confondre avec l'étude du climat auquel on les opposait jusqu'ici. Cet entre-deux constitue un tout nouveau domaine. On peut en espérer que cela permette à terme de tester les modèles climatiques en "temps réel" presque.
Une grande partie des fluctuations de température et de précipitation sur l'Europe, de l'échelle météorologique à l'échelle climatique, est liée à l'existence de "régime de temps" sur un domaine Nord Atlantique étendu. De manière traditionnelle, on distingue quatre régimes: les régimes NAO+ et NAO- liés à la différence de pression atmosphérique (La pression atmosphérique est la pression de l'air en un point quelconque d'une atmosphère.) entre la Dépression d'Islande et l'Anticyclone des Açores, et les régimes de dorsale et de blocage (voir encart). Ce concept de régimes (approche dite "épisodique") permet d'interpréter les fluctuations météorologiques comme la transition entre deux régimes et les fluctuations climatiques comme l'occurrence privilégiée d'un régime donné sur une période donnée et ainsi de percevoir de manière plus concrète le lien météo/climat à nos latitudes moyennes. La question que se posent les chercheurs est de savoir si l'atmosphère de l'Atlantique Nord transite de manière aléatoire entre ces quatre régimes, ou bien si des conditions "extérieures" peuvent favoriser l'occurrence d'un régime particulier au détriment des autres. La faible prévisibilité déterministe de la météorologie au-delà du temps de vie caractéristique des régimes (de l'ordre de la semaine) donnerait à penser que la première hypothèse est la bonne... Pourtant Christophe Cassou vient de montrer qu'il n'en est rien.
La prise en compte de cette connexion tropique-extratropique permet d'envisager une prévisibilité plus grande en terme de probabilité de la NAO d'hiver, qui pourrait aller bien au-delà des quelques jours d'échéance traditionnellement considérés comme limite. Des tests préliminaires confirment déjà le caractère prometteur de cette approche.
Cette étude souligne combien il est important de considérer le climat comme un continuum d'échelles à la fois dans l'espace et dans le temps, et combien la séparation entre météo et climat dans sa définition classique, est de plus en plus contestable, ou en tout cas artificielle, en particulier à nos latitudes moyennes.
Biologie
évolution, génétique, biodiversité, éthologie, anthropologie, neurologie
- L'origine de la vie dans les volcans ?
Une partie des composants de la vie viennent sans doute de l'espace mais les volcans pourraient avoir eu un rôle décisif. C'est du moins ce que semblent prouver d'anciennes expériences non publiées de Stanley Miller qui seraient plus probantes que celles sensées reproduire "la soupe primitive".
Doctorant dans le laboratoire du prix Nobel de chimie Harold Urey à l’Université de Chicago, Stanley Miller voulait tester les théories biochimiques d’Aleksandr Oparine et John Haldane. Selon eux, des composants chimiques présents dans l’atmosphère primitive de la Terre –comme le méthane, le dioxyde de carbone ou l’ammoniac- auraient réagi sous l’action des rayons UV du Soleil ou des éclairs, se cassant pour former des molécules plus grosses tombant ensuite dans les océans. Au sein de cette ‘’soupe primitive’’, les molécules organiques auraient permis la formation des premières cellules vivantes.
En 1953, Miller publiait dans Science les résultats de son expérience : il avait obtenu cinq acides aminés, briques de base de la vie, composants des protéines.
C’est presque par hasard qu'on a découvert dans une boîte les fioles contenant les résidus secs de deux autres expériences menées avec un dispositif légèrement différent.
L’une de ces expériences recrée des conditions proches d’une éruption volcanique, avec jets de gaz et éclairs. Grâce aux moyens d’investigation actuelle des laboratoires, Jeffrey Bada, Adam Johnson (Indiana University) et leurs collègues ont découvert 22 acides aminés dans les résidus de cette expérience. Quant aux résidus de l’expérience publiée en 53, ils en contiennent 14, précisent les chercheurs.
Si les scientifiques ne sont plus tout à fait d’accord sur la composition de l’atmosphère primitive telle qu’elle était décrite en 1953, les nuages de gaz qui s’échappent des volcans sont proches de la recette de Miller.
J'en profite pour signaler que Scientific American discute l'hypothèse d'une chimie compétitive à l'origine de la vie, en particulier pour les ARN dont la vitesse d'assemblage détermine les formes qui s'imposent. C'est fort possible au stade prébiotique mais, de toutes façons, la vie ne commence qu'avec l'autoréplication des ARN autocatalytiques et la sélection qui en résulte orientant son évolution par l'extérieur.
- Le Nobel pour colorer le génome
Deux Américains, Roger Tsien et Martin Chalfie, et un Japonais, Osamu Shimomura, sont récompensés par le prix Nobel de chimie 2008 pour la découverte de la protéine fluorescente GFP et la mise au point de son utilisation comme marqueur. Un honneur mérité pour un travail qui a fait progresser à pas de géant notre connaissance du vivant.
- Le développement d'un embryon en vidéo
Grâce à un nouveau scanner à laser, une équipe allemande a pu suivre cellule par cellule les premières 24 heures d'un embryon de poisson, ce qui n'avait jamais été obtenu auparavant. Cette première est une aubaine pour les biologistes qui disposent désormais d'une représentation en 3D, sorte d'embryon numérique, librement consultable.
L'embryon a été suivi durant ses 24 premières heures jusqu'au stade où il comprend environ 20.000 cellules. Malgré la modestie de l'animal et le temps assez court de l'observation, celle-ci a conduit à une quantité d'informations gigantesque. L'ordinateur a dû récupérer 1,5 milliard de « voxels » par minute, un voxel représentant l'unité de volume élémentaire (un pixel en volume donc). Ce sont des téraoctets de données qu'il a ensuite fallu traiter pour reconstituer 24 heures de la formation de l'embryon d'un poisson zèbre.
- Des nouvelles images des structures du cerveau
En rouge, le corps calleux.
Ces images par "Diffusion spectrum imaging", développée par Van Wedeen au Massachusetts General Hospital, sont obtenues par une nouvelle méthode d'analyse des données d'un IRM, offrant aux scientifiques une carte des fibres nerveuses qui transportent l'information entre les neurones.
- Des mille-pattes avant l'explosion du Cambrien
Ces pas dateraient en effet de l’ère précambrienne alors que l’on considère généralement que les animaux complexes, comme les trilobites, ne se sont développés qu’au Cambrien. Auparavant, les mers auraient essentiellement abrité des organismes simples, comme les microbes.
Selon Loren Babcock, de l’Université de l’Ohio, les traces ont vraisemblablement été laissées par un petit animal ressemblant à un ver équipé de pattes, vivant au fond de la mer qui recouvrait le Nevada il y a 570 millions d’années. Ce sont les anciens sédiments marins que les géologues explorent aujourd’hui.
Voir aussi Futura-Sciences.
- Un dinosaure à plumes pour faire le beau
De la taille d’un pigeon, l'Epidexipteryx hui était un petit dinosaure bipède de la famille des théropodes, au corps partiellement couvert de plumes, à l’exception notable des pattes. Ses plumes ne lui servaient donc pas pour voler, analysent Fucheng Zhang (Académie des sciences de Pékin) et ses collègues dans la revue Nature publiée aujourd’hui. En revanche ses quatre longues plumes de queue avaient sûrement une fonction ornementale.
Voir aussi Futura-Sciences. L'esthétique est une conséquence de la sexualité qui fait juger aux apparences et sculpte les corps par le regard de l'autre, ce n'est donc pas d'hier que les mâles font la roue pour attirer les femelles (qui doivent les choisir donc) !
Une expédition scientifique a filmé pour la première fois la faune vivant à « 20 000 sous les mers ». Les poissons y sont plus nombreux et plus vivaces qu’attendu.
Ce sont des Pseudoliparis amblystomopsis, bien vivaces et évoluant en petits groupes sociaux très actifs. Ils se nourrissent essentiellement de petits crustacés ainsi que des détritus et des carcasses se déposant au fond de l’océan. Si certaines espèces de Liparidae vivent près de la surface ou dans des piscines de roches, les poissons filmés ne se trouvent qu’à plus de 6000 mètres de profondeur, au niveau des tranchées océaniques du pacifique.
- Plus d'un mammifère sur cinq est en danger de disparition
La nouvelle mise à jour de la célèbre Liste Rouge, établie par l’Union Internationale pour la Conservation de la Nature (UICN), indique clairement un danger pour la biodiversité, en particulier chez les mammifères, dont plus de 20% des espèces sont menacées. L'organisation a commencé à surveiller d'autres espèces animales et révèle un constat alarmant, mais note également que les efforts de réintroduction sont payants.
Voir aussi la dégradation des zones humides à l'est de la Méditerranée.
- Sonars militaires contre baleines : un dialogue de sourds
Les émissions des sonars à basses fréquences utilisées par l’Armée américaine peuvent provoquer la surdité temporaire des mammifères marins, les désorienter et même entraîner leur mort. Les autorités, empêtrées dans un procès, font la sourde oreille…
Pour un mammifère marin tel une baleine ou un dauphin, l’émission d’un sonar du type employé pouvait équivaloir au bruit d’un réacteur situé dans cette même pièce (le tribunal), multiplié par 2000.
Santé
génétique, traitements, nutrition, hygiène
- Le tabac impliqué dans le cancer du sein ?
Déjà mise en cause dans la croissance des tumeurs pulmonaires, la nicotine serait également impliquée dans le développement des tumeurs mammaires et la prolifération des métastases.
La nicotine viendrait se fixer sur ces récepteurs et par un mécanisme biologique complexe, accélérerait la prolifération des tumeurs mammaires.
Chang Yan Chen souligne que « les tests in vivo et in vitro montrent qu'aucune métastase n'apparaît après administration de nicotine ». Cette molécule agirait donc en combinaison avec d'autres pour en renforcer l'effet cancérigène.
A confirmer quand même...
Il faut noter aussi que le Zyban utilisé pour le sevrage tabagique peut être dangereux (ce qui semble évident puisque c'est de l'amphétamine!) même s'il n'y a eu que 25 morts sur 1 million d'utilisateurs.
- Le top 10 de la pollution mondiale
Une vaste enquête sur l’état de la pollution au niveau planétaire, réalisée par la Green Cross suisse et le Blacksmith Institute (Etats-Unis), a dressé la liste des des dix polluants ou sources de pollution les plus dangereux en 2008.
L'extraction artisanale d'or, qui utilise du mercure, extrêmement toxique, empoisonne de 10 à 15 millions de personnes chaque année travaillant dans des mines de petites entreprises.
L'eau sale : cinq millions de morts par an.
L’air intérieur pollué : l'équivalent de deux paquets de cigarettes par jour. La cause la plus significative de la pollution de l’air ambiant à l’intérieur des lieux d’habitation dans un monde en voie de développement est la combustion du charbon ou des carburants non transformés (bois, fumier animal et déchets) prélevés sur la biomasse pour le chauffage, la cuisson ou l’éclairage. On estime que plus de 80% des foyers dans les zones urbaines d’Inde et de Chine obtiennent ainsi leur énergie, et plus de 90% dans les zones rurales.
La fusion et le travail des métaux, L’industrie minière, Le traitement des déchets radioactifs, Le déversement incontrôlé des eaux d’égout, La qualité de l’air urbain, Les rejets d’acide de batterie non traité ni recyclé, etc.
- Des nanorobots pour détruire les tumeurs
En attachant des nanorobots à des bactéries sensibles aux champs magnétiques, il est possible de les guider jusqu'à la tumeur (ou l'organe voulu) grâce à un IRM (Imagerie par Résonance Magnétique). On est encore loin des applications....
- La piste des cellules germinales
Pour la première fois des chercheurs ont obtenu des cellules souches à partir de testicules humains. Elles présentent des caractéristiques identiques aux cellules souches d’embryons et pourraient être utilisées en thérapie cellulaire.
- Dangers des anti-inflammatoires en automédication
Une maladie ORL méconnue, grave et mortelle dans 7% des cas, la cellulite cervico faciale, serait due à la prise d’anti-inflammatoires.
Tout commence avec une angine ou un abcès dentaire mal soignés. En quelques heures ou jours, un tableau infectieux sévère s’installe. Le cou est douloureux, gonflé, la fièvre monte. Le diagnostic doit être posé rapidement, dans l’heure, grâce à un scanner réalisé en urgence. Car seule une intervention chirurgicale, lourde et pas toujours exempte de séquelles esthétiques, peut sauver le malade. En l’absence de traitement adapté, l’infection s’étend inexorablement et le pronostic vital est engagé. Il s’agit alors d’aller inciser largement le cou pour évacuer les abcès et éliminer les tissus nécrosés.
- Les dangers du téléphone sans fil ?
En fait il s'agit toujours de la même étude dont on ne finit pas d'analyser les données et qui confirme l'augmentation du risque d'un cancer très rare, ce qui reste un risque infime. Je reste persuadé que les véritables dangers des ondes électro-magnétiques ne sont pas les risques de cancer mais de perméabilité des cellules et de perturbations électriques ou immunitaires.
Les premiers éléments de ce travail très attendu viennent d'être diffusés. Ils plaident pour un risque notablement accru de développer une tumeur chez les utilisateurs réguliers. Le cas le plus net semble être celui du gliome. Ce cancer rare touche les cellules gliales du cerveau, c'est-à-dire celles qui entourent les neurones et dont on pense qu'elles les soutiennent. Le risque serait plus élevé chez les personnes utilisant un portable depuis plus de dix ans, avec des taux très importants, de 60 % dans les pays scandinaves, de près de 100 % en France et de 120 % en Allemagne. Pour le méningiome et le neurinome de l'acoustique, les chiffres semblent indiquer la même tendance mais sont bien moins nets.
Ces résultats ne sont pas du tout définitifs. L'analyse complète sera présentée en 2009. En l'état actuel, il s'agit tout de même de la première étude montrant un effet possible et néfaste...
- Surfer sur le net, bon pour les neurones !
Les chercheurs ont d’abord étudié l’activité cérébrale des volontaires pendant qu’ils lisaient un livre. Tous avaient alors une activité neuronale comparable, mobilisant les mêmes aires du cerveau. En revanche, au cours de la recherche sur internet, les volontaires expérimentés se sont distingués par une plus grande activité cérébrale et l’utilisation de zones du cortex (frontal, temporal et cingulé) que les novices ne mobilisaient pas au cours de ces recherches.
Cette activité mobiliserait dont davantage de circuits neuronaux que la lecture, sans doute à cause de la nécessité de faire des choix, de décider de poursuivre sur telle ou telle page web, suggèrent les chercheurs. Un peu de recherche quotidienne sur internet pourrait donc maintenir et même améliorer les fonctions cognitives et lutter contre les effets du vieillissement sur notre cerveau.
- L'excès de fer mis en cause dans le Parkinson
Un excès de fer dans les neurones serait l'un des facteurs de la maladie de Parkinson.
L’accumulation de fer entraîne un stress oxydatif qui détruit notamment les lipides et les protéines, entraînant la mort cellulaire.
- Effacer les souvenirs sélectivement
Les expériences sur la souris suggèrent qu'on pourrait effacer sélectivement de la mémoire à long terme certains souvenirs. Il suffirait pour cela de se rappeler un souvenir en même temps qu'on introduit une protéine spécifique (alpha-CaM kinase II) qui aurait la propriété d'effacer le dit souvenir. On savait déjà qu'on pouvait modifier un souvenir en s'en rappelant, mais à prendre avec des pincettes quand même...
- Connecter un seul neurone pour traiter une paralysie...
Des macaques temporairement paralysés d'un bras ont appris très rapidement à bouger leur main en utilisant une connexion artificielle entre le cerveau et le poignet. Originalité : un seul neurone suffit et on peut le choisir quasiment au hasard. Le cerveau s'en accommode. Un espoir de guérison pour des paralysies et une belle démonstration de la souplesse du cerveau.
Le système permettait à un neurone unique de commander deux mouvements musculaires selon le niveau d'activation : élevé, il déclenchait une flexion ; faible, il commandait une extension. Les mouvements de la main étaient détectés et servaient à déplacer le curseur sur l'écran, pour le même jeu que dans la première phase. Les macaques ont compris en moins d'une heure et dirigeaient efficacement le curseur dans le carré dessiné à l'écran.
L'un des intérêts de l'expérience vient du fait qu'un seul neurone suffit pour commander un – petit – mouvement. On peut espérer obtenir ainsi un signal plus simple à analyser. La grande surprise est que ce neurone peut être choisi pratiquement au hasard. Pour peu qu'il soit moteur, il sera utilisable même si, précédemment, il n'était pas du tout employé pour commander ce muscle-là. C'est le cerveau qui s'adapte et qui finit par trouver le neurone à activer pour obtenir un certain résultat.
Il n'y a rien là de si extraordinaire, sinon de pouvoir simplifier les automatismes en se basant sur un seul neurone car c'est une sorte d'application de la commande par la pensée récemment mise en oeuvre avec ces pauvres macaques ! C'est donc cette fois une commande par la pensée à son propre corps, mais on est très loin des réalisations...
Un nouveau médicament qui détecte les niveaux de glucose et d'insuline pour la délivrer sur demande permettrait de réduire le nombre d'injections quotidiennes pour les patients atteints de diabète. SmartInsulin fonctionne par concurrence entre liaisons, dans lequel l'insuline (lignes oranges) est liée à un sucre (hexagones oranges) lui-même liée à une molécule en solution qui s'accroche aux sucres (cercle bleu). Lorsque le niveau de glucose (hexagones bleus) est élevé, il entre en concurrence avec l'insuline qui se trouve libérée dans le sang en fonction des besoins.
- Un coeur artificiel en tissus organiques
Le coeur a la propriété d'être fabriqué en grande partie avec des tissus biologiques. Cela permet une meilleure adaptation mutuelle entre l'organe artificiel et le reste de l'organisme. De fait, l'utilisation de ces matériaux permet d'éviter la coagulation du sang, principal risque qu'encourrent les malades lors d'une greffe d'éléments artificiels. Battant de la même manière qu'un coeur naturel, il en reproduit fidèlement les conditions de pressions dans la circulation sanguine. Pour mener à bien la mise au point de cet organe, le professeur Alain Carpentier a fait appel à des technologies utilisées par EADS, notamment dans les industries aérospatiales.
Les premières greffes sur des malades de coeurs artificiels utilisant les technologies du prototype présenté cette semaine à la presse devraient intervenir dans un peu moins de 3 ans.
Ajoutons qu'Alain Carpentier est l’inventeur des «bioprothèses» d’origine animale. La première implantation d’une bioprothèse a été faite par ce chirurgien en 1968. Le «talon d’Achille» des bioprothèses est leur détérioration à plus ou moins longue échéance, nécessitant une nouvelle opération tous les 10 ou 15 ans. D'où la nécessité de nouveaux matériaux. Voir aussi Futura-Sciences.
- Les bienfaits secondaires des statines
Cela fait un moment qu'on pense que les bienfaits des statines dépassent la régulation du cholestérol, en voici une démonstration, et ce n'est sûrement pas le seul effet favorable supplémentaire.
Les statines en plus de leur action sur le cholestérol freineraient le processus de vieillissement de la paroi artérielle.
Les statines sont normalement indiquées pour corriger les excès de cholestérol en bloquant sa production endogène dans le foie. Leur grande efficacité leur a valu, a leur lancement, le surnom de « pénicilline du cœur ». Depuis, l’apparition de certains effets secondaires importants (perte musculaire, insuffisance hépatique) qui ont même nécessité le retrait d’une molécule (la cérivastatine) a tempéré cet enthousiasme.
Malgré tout, l’intérêt médical des statines n’est pas remis en cause et elles demeurent un outil clé dans la lutte contre les maladies cardiaques. D’autant que ces molécules ne se contenteraient pas d’agir uniquement sur le taux de cholestérol sanguin. Elles agiraient également sur les cellules qui forment la paroi interne des artères en retardant leur vieillissement.
- Des tomates OGM pour vivre plus longtemps
En augmentant certains antioxydants de la tomate (Annthocyanins), ce qui la fait devenir violette, on pourrait augmenter la vie de souris de 140 à 180 jours grâce à leur action anti-cancer. Il faut être prudent, cependant, car l'action des antioxydants semble dépendre de la dose (trop d'antioxydant pouvant avoir l'effet inverse en diminuant la production endogène).
Technologie
biotechnologies, énergie, nanotechnologies, robotique, informatique
- Les biotechnologies à portée de tous...
Voilà qui pourrait être assez effrayant, la diffusion des biotechnologies dans la population, à portée de n'importe qui, pouvant manipuler les gènes de n'importe quoi n'importe comment ! C'est peut-être inévitable mais ce serait vraiment jouer aux apprentis sorciers et prendre des risques insensés, jusqu'à preuve du contraire !
En tout cas, dès aujourd’hui, à l’ombre des grosses sociétés pharmaceutiques ou agroalimentaires, un nouvel “underground” s’active : biopunk, biologie de garage , DIYbio (DIY pour do it yourself, c’est-à-dire “faites le vous-même”), biohacking, peu importe le nom qu’on lui donne, tout un courant de docteurs Frankenstein en herbe s’active pour battre les grands laboratoires à leur propre jeu à l’aide d’outils à peine plus complexes que des ustensiles de cuisine.
Pour le célèbre astrophysicien Freeman Dyson, la création d’organismes vivants inédits pourrait bien devenir le loisir des enfants de demain, expliquait-il dans la livraison de juillet 2007 de la New York Review of Books. “Concevoir des génomes deviendra une activité personnelle, une nouvelle forme d’art comme la peinture ou la sculpture. (…) L’étape finale dans la domestication de la biotechnologie sera la création de jeux biotechs, conçus comme des jeux vidéos pour les enfants à partir de la maternelle, mais joués avec de vrais oeufs et de vraies graines au lieu d’images sur un écran. Le gagnant sera le gamin qui créera les graines engendrant le cactus le plus épineux, ou celui dont l’oeuf donnera naissance au dinosaure le plus mignon.”
Première étape, la plus facile, extraire l’ADN. De l’eau, de l’alcool et du savon devrait suffire à l’opération, quoique une version plus sophistiquée conseille aussi, surprise, l’usage de jus d’ananas ! Vient ensuite l’amplification, ou PCR. Son but est de multiplier une chaine d’ADN spécifique après extraction, afin de mieux pouvoir la manipuler. Cela demande des produits chimiques comme l’ADN polymérase ou les “amorces”, des composants spécifiques qu’on peut toujours commander en laboratoire, mais également l’usage d’un “four” particulier, capable de faire varier la chaleur de manière précise pendant différentes périodes de temps. Un tel objet coute quelques milliers d’euros, mais les bricoleurs peuvent trouver le moyen d’en fabriquer un avec un micro-contrôleur d’environ 165 euros. La troisième étape est l’électrophorèse. Elle permet de trier les brins d’ADN qu’on possède dans un tube à essai en fonction de leur taille. L’électrophorèse sert notamment à établir des empreintes génétiques. Là aussi, du matériel est nécessaire, mais la revue Make nous explique comment le réaliser avec tournevis, morceaux de carton et matériel électrique de base.
- Un bioordinateur dans la cellule
Des scientifiques de Californie ont créé des bioordinateurs moléculaires qui sont capables d'auto-assemblage de bandes d'ARN dans les cellules vivantes. Finalement, ces ordinateurs peuvent être programmés pour manipuler des fonctions biologiques à l'intérieur de la cellule, l'exécution de différentes tâches dans des conditions différentes. Une application pourrait être des systèmes intelligents de délivrance de médicaments.
"Ce que ce nouveau travail montre pour la première fois c'est la capacité à détecter la présence ou l'absence de molécules dans la cellule."
Cela ouvre la possibilité de dispositifs de calcul qui peuvent répondre à des conditions spécifiques dans la cellule. Par exemple, il pourrait être possible de développer des systèmes de délivrance de médicaments qui ciblent les cellules cancéreuses de l'intérieur par détection de gènes servant à réguler la croissance cellulaire et la mort. "Vous pouvez le programmer pour libérer de la drogue lorsqu'il y a les conditions requises, au bon moment et au bon endroit".
Les biocomputers Smolke and Win sont construits à partir de trois composants principaux - capteurs, actionneurs et transmetteurs - qui sont tous constitués d'ARN. Les capteurs sont fabriqués à partir d'aptamères, des molécules d'ARN qui se comportent un peu comme les anticorps en se liant étroitement à des cibles précises. De même, la production de composants, ou d'actionneurs, se fait avec des ribozymes, molécules d'ARN catalytique qui ont des propriétés semblables à celles des enzymes. Ces deux composants sont combinés avec une autre molécule d'ARN qui sert de transmetteur, qui est activée lorsque le capteur reconnaît une molécule chimique d'entrée, ce qui déclenche, à son tour, la production d'une molécule active.
Smolke and Win ont programmé leurs ARNs pour détecter la tétracycline et la théophylline dans les cellules de levure, produisant alors comme signal une protéine fluorescente. En combinant les composants d'ARN d'une certaine façon, les chercheurs ont montré qu'ils peuvent les amener à se comporter comme les différents types de portes logiques - éléments de circuits communs à n'importe quel ordinateur. Par exemple, un AND déclenche une action seulement lorsqu'il y a détection de la présence des deux substances, alors qu'un NOR ne produit un signal que si aucune substance n'est détectée.
- Des mutations génétiques contrôlées par laser
On pourrait à la fois réparer des génomes déficients et utiliser ces mutations contrôlées par laser pour la programmation à base d'ADN (biologie artificielle), mais on n'en est pas encore là.
En testant de multiples configurations d'ADN de synthèse, ces deux chercheurs ont mis en évidence, pour la première fois, une variabilité de la réaction du brin d'ADN selon la succession des bases. En d'autres termes, les différentes régions du code génétique ne sont pas toutes aussi résistantes à la lumière UV. « L'ADN atteint sa grande photostabilité grâce à sa structure en double hélice, conclut Friedrich Temps. Les interactions entre les bases successives et les liaisons gène entre les deux brins jouent un rôle essentiel. »
- De l'électricité à partir de cellules d'anguilles
Jian Xu cherche actuellement à réaliser ces pseudo-électrocytes à partir de membranes lipidiques artificielles. Si lui ou d’autres réussissent, on pourrait bientôt voir des implants et autres dispositifs électroniques tirant leur énergie du glucose présent dans le sang... Les chercheurs pensent en particulier à des implants rétiniens.
- Amélioration de la synthèse de méthanol
Cela fait longtemps que je pense que le méthanol est le meilleur substitut au pétrole mais sa production à partir du méthane était peu rentable nécessitant des températures de 600°. C'est donc un grand progrès d'avoir trouvé un catalyseur à base de fer permettant une oxydation du méthane à 50° seulement.
Ils ont mis au point un nouveau catalyseur de la réaction constitué de deux atomes de fer. Ce catalyseur a réussi, alors que les autres avaient échoué, à s'associer à l'eau oxygénée. Et l'espèce chimique ainsi obtenue s'est mise à oxyder le méthane avec une très grande efficacité.
Petit bémol tout de même: les chimistes ne sont pas encore parvenus à stabiliser le méthanol ainsi obtenu qui a continué à se transformer en d'autres produits chimiques.
- Des piles à combustible donnent 20 heures d'autonomie aux portables
Comme les piles à combustible utilisées dans les voitures à propulsion électrique, une DMFC produit du courant grâce à la réaction de l'hydrogène et de l'oxygène pour donner de l'eau. Mais, différence de taille, l'hydrogène n'est pas stocké dans un volumineux réservoir. Il est fourni sous forme de méthanol (CH3-OH) en solution dans l'eau.
Elle prend la forme d'une batterie pour ordinateurs portables. Pesant 370 grammes, cette pile offre – dixit Panasonic – 20 heures d'autonomie avec 200 centimètres cubes de méthanol. Quand la panne sèche s'annonce, il suffit de faire le plein...
- Les cellules solaires en plastiques passent à la production de masse
Konarka va produire 1 GigaWatt de cellules photovoltaïques en plastique souple, soit l'équivalent d'une centrale nucléaire.
- Des cellules solaires cylindriques
Ces cellules cylindriques seraient idéales pour mettre sur les immeubles.
- Une centrale solaire près de Bordeaux
Une centrale photovoltaïque de 100 kW vient d’être inaugurée à Martillac, en Gironde.
« L'énergie solaire va supplanter les autres énergies. C'est une énergie que l'on n'utilise pas assez, alors qu'elle est idéalement répartie et en quantité suffisante. Il faut savoir la capter mais et elle est inépuisable à l'échelle humaine »
De vastes champs de capteurs solaires sont parfaitement concevables à l’image des parcs éoliens, avec l’avantage d’être plus compacts, faciles à installer, moins coûteux à entretenir et offrant une meilleure résistance au vent (qu’adviendrait-il d’un champ d’éoliennes soumis à des rafales de vent de 277 km/heure telles qu’en a connues la France en décembre 1999 ?).
- Se servir du soleil pour la climatisation
Faire du froid avec la chaleur du Soleil : c'est ce que permet le climatiseur solaire, sans aucune consommation électrique ni aucune partie mobile. Idéal ou presque, ce principe reste paradoxalement peu usité. En Allemagne, une installation de grande envergure vient d'entrer en phase de test.
Imaginer se servir du Soleil dans les moments où il chauffe le plus pour faire fonctionner un climatiseur peut sembler tomber sous le sens. A l'inverse d'un climatiseur électrique, qui a d'autant plus de mal à refroidir qu'il fait chaud dehors, le modèle solaire, lui, fonctionne mieux quand le Soleil est plus fort... Techniquement, la réalisation est assez simple et fait classiquement appel à la circulation d'un fluide, comme dans un réfrigérateur, qui passe alternativement de l'état liquide à l'état gazeux dans un évaporateur et dans un condenseur. Il n'y a aucune partie mobile et l'engin ne consomme pas énergie.
Alors que les climatiseurs solaires les plus courants, dits à absorption, utilisent de l'eau et du bromure de lithium, celui-ci est dit à adsorption et utilise un fluide (qui peut être de l'eau) circulant sur un solide présentant une grande surface spécifique (une grande surface dans un petit volume), comme le charbon actif ou la zéolithe. Le système fonctionne en deux cycles distincts, le froid étant produit durant la nuit. C'est le gros inconvénient du principe de l'adsorption, qui exige un volume tampon, par exemple un réservoir d'eau.
- Les énergies renouvelables de la mer
Ce site de veille est indispensable et vraiment complet. Un peu trop même (on n'a pas le temps de tout suivre mais heureusement, il y a les lettres mensuelles). On y trouve toutes sortes de technologies pour produire de l'électricité en mer, éoliennes, hydroliennes, Waveroller, biomasse, etc. Je recommande en particulier l'article sur des récupérateurs d'énergies marines peu connus.
- Le stockage par air comprimé
Ecologique (pas de métaux lourds) et économique (durée de vie plus longue), le stockage par air comprimé n'est pas nouveau mais il est resté à ce jour peu exploité car son rendement est faible. En effet, la compression de l'air entraîne son échauffement et par conséquent des pertes thermiques, aboutissant à un rendement de l'ordre de 25% seulement.
Enayris propose un système à base non plus de piston mécanique mais de piston liquide. L'eau utilisée permet de réguler les flux thermiques et améliore nettement l'efficacité des batteries pour atteindre désormais les 60-65% (soit quasiment le rendement d'une batterie au plomb, qui est de 70%).
L'air est comprimé au moyen d'un moteur électrique couplé à un compresseur hydropneumatique et stocké dans des bonbonnes reliées les unes aux autres. Lorsqu'un besoin en électricité se fait sentir, l'air est extrait pour alimenter la même machine qui fonctionne cette fois comme alternateur.
- Des vélomoteurs à air comprimé
Il y a ceux de Jem Stansfield (ici en photo) et ceux du professeur HWANG Yean-Ren dont on sait seulement que le prototype actuel se compose d'un réservoir de 9,5 litres d'air comprimé, fixé sur le côté du véhicule et qui permet pour le moment une autonomie d'environ un kilomètre à une vitesse moyenne de 30 kilomètres par heure. L'objectif est maintenant d'augmenter le volume du réservoir par trois ou quatre ainsi que la pression de l'air qu'il contient pour obtenir une autonomie minimale de 30 kilomètres !
- Une petite voiture électrique pour jeunes
La C-Zen n'est officiellement pas une voiture mais un quadricycle. Son conducteur peut donc l'utiliser à partir de ses seize ans avec un permis B1.
Sa carrosserie en plastique est montée sur un châssis en tubes d'aluminium, complétées par un arceau. Son moteur de 12 kW, alimenté par 100 kg de batteries lithium-ion, emporte la voiture (480 kg sans ses passagers) jusqu'à 90 km/h, une vitesse limitée par construction. A 50 km/h, l'autonomie annoncée est de 160 kilomètres. Elle embarque quelques perfectionnements techniques séduisants, comme un GPS à traceur (avec autoradio compatible Ipod...) et un afficheur « tête haute », c'est-à-dire par projection sur le bas du pare-brise, indiquant vitesse et pression des pneus. A l'arrière, une caméra filme sur 160°, avec vision de nuit, et transmet les images à l'écran installé sur le tableau de bord. La clé de contact est remplacée par un détecteur biométrique, avec lequel on peut définir un groupe d'utilisateurs autorisés, ou que l'on peut désactiver, la mise en route imposant alors de taper un code.
Lancé par le ministre britannique de la recherche et piloté par une université, un projet un peu fou vise à battre le record de vitesse au sol pour atteindre Mach 1,3 à l'aide d'un véhicule à roues équipé d'un réacteur et d'un moteur de fusée...
Ce projet qui s'étalera sur trois années vise en effet à construire un véhicule terrestre supersonique capable d'atteindre 1.000 mph (miles per hour), soit, si l'on convertit exactement, 1.609 km/h. La vitesse du son au sol étant d'environ 1.200 km/h, l'engin devrait donc filer à Mach 1,3.
« Pomper une telle quantité d'un liquide volatil est une affaire incroyablement dangereuse, confie-t-il dans le communiqué de l'université Leeds. Si cela ne fonctionne pas correctement, on peut avoir une explosion à tout moment. Les efforts que subira le véhicule vont au-delà de tout ce qui a été expérimenté jusqu'à présent. (...) C'est un territoire complètement nouveau. »
Le projet est donc scientifique et technologique, constituant un excellent banc d'essai dans de multiples domaines.
- L'éclairage à diode à la place du WiFi
On l'appelle déjà Smart Lightning. Cette technique, que commence à étudier l'université de Boston, consiste à moduler la lumière émise par des diodes électroluminescentes (Led) pour transmettre des informations. Ces minuscules fluctuations seraient imperceptibles pour les yeux humains mais pourraient être détectées par des capteurs installés sur les ordinateurs ou d'autres appareils communicants. Ces Led servant aussi à l'éclairage des locaux, on disposera ainsi d'un système discret, efficace et éliminant au passage les ondes radio.
Voir aussi techno-science.
- Bientôt des écrans en plastique ?
Peu chers et peu gourmands en énergie, ces écrans en plastiques pourraient généraliser les écrans muraux.
Ils y décrivent le prototype d'un écran couleur en matière plastique basé sur un principe assez peu exploré et baptisé upconversion (UC). Son intérêt : permettre de réaliser des écrans souples de bonne taille, pour un coût modéré et consommant peu d'énergie. La technique UC est connue depuis les années 1950. Elle consiste à exciter un matériau à l'aide d'un faisceau lumineux cohérent, un laser donc, pour lui faire émettre une lumière de plus petite longueur d'onde, c'est-à-dire de fréquence plus élevée, d'où le terme anglais upconversion. Un laser dans le proche infrarouge peut ainsi déclencher une lumière visible. L'énergie d'un rayon lumineux étant proportionnelle à sa fréquence, cette conversion se paie par une puissance réémise plus faible. Plus précisément, il faut plusieurs photons excitateurs pour en réémettre un seul de fréquence plus élevée.
Dans le prototype présenté par l'équipe, dont on peut voir une démonstration (en monochrome) dans une vidéo et qui a fonctionné une centaine d'heures sans détérioration, l'affichage est obtenu par le balayage d'un rayon laser. Il y a encore loin avant la réalisation d'une version commercialisable mais les chercheurs nous promettent la possibilité d'écrans de toutes tailles et d'une fabrication très simple.
Le fabricant japonais Nec vient de présenter des prototypes d'écrans LCD offrant un affichage en 3D perceptible à l'œil nu (sans lunettes).
Sur un écran LCD classique, chaque ligne comprend une succession de pixels composés de triplets de points monochromes, ou sous-pixels, rouges, verts et bleus. Si l'on veut obtenir un effet de relief à l'aide d'un système optique créant deux images, un pixel sur deux servira à l'un des yeux et la résolution finale sera donc divisée par deux. Sur un écran HDDP (voir le schéma au bas de cet article), chaque pixel est organisé verticalement et les sous-pixels monochromes sont moitié moins grands. Sur une ligne se succèdent des points d'une même couleur, alternativement destinés à l'œil gauche et à l'œil droit. Il faut donc trois lignes pour afficher toutes les couleurs horizontalement.
- Sharp présente le plus petit tuner TV du monde
Il tient sur le bout du doigt et son poids doit se mesurer en grammes. Le VA3C5CZ933 est pourtant un récepteur de télévision dans la gamme 470 à 798 MHz et il ne mesure que 9,0 x 9,0 x 1,7 millimètres. Il répond à la norme CMMB (China Mobile Multimedia Broadcasting), destinée à la télévision numérique sur mobile, disponible en Chine dans 37 villes depuis le mois de juillet, c'est-à-dire depuis les Jeux Olympiques. Sa production de masse démarrera en décembre, pour un prix annoncé d'environ 150 euros. Ce mince téléviseur est également peu gourmand puisqu'il consomme 93 milliwatts.
- Commander le curseur par la voix
Pour aller en haut faite "ai", pour aller en bas faites "haut" ! pour aller à gauche faites "heu !", pour aller à droite faites "Hououou !". Cela ne doit pas être très pratique quand même mais peut être utile dans certaines circonstances. On peut voir une vidéo du système et même une peinture faite à la voix ! Sinon, d'autres imaginent de parler latin pour commander aux objets, l'utilisation d'une autre langue pour la magie évite effectivement les ambiguïtés avec notre langue ordinaire et de provoquer ainsi des réactions sans s'en rendre compte...
Windows Cloud, permettant de faire travailler ensemble plusieurs PC, devrait sortir d'ici quelque temps. C'est un tout nouveau domaine pour Microsoft et cela pourrait faire décoller le cloud computing. Pour l'instant le leader était Amazon avec son Elastic Compute Cloud (EC2).
- Panne de Google Apps : 24 heures sans mail ni applicatif
Une panne du service de mail Gmail proposé par Google d'au moins 24 heures a eu des conséquences importantes sur l'accès au service de courrier et au service Google Apps cette semaine.
Dans les entreprises, des administrateurs des Google Apps, service en ligne qui héberge des solutions utilisées par des entreprises, ont dû faire face à l'impossibilité d'accéder à leurs données, et les usagers de ces services ne pouvaient pas non plus les utiliser. Les emails n'étaient eux aussi pas consultables.
Notons que Google ne connaît pas la crise mais ces pannes constituent un premier revers face à Microsoft car l'externalisation sur le réseau dépend de l'accessibilité. La puissance de Google est fonction de la fiabilité du réseau alors que celle de Microsoft s'appuie sur la fiabilité du matériel. On arrivera sans doute à un compromis entre données locales et stockées sur le réseau.
- Google Street View : les villes françaises photographiées de l'intérieur
La fonction Street View est désormais intégrée à GoogleMaps. Elle montre des rues, photographiées depuis des voitures (les Google Cars), de cinq grandes villes françaises et de nombreuses autres communes.
L'utilisation est simple. Une fois sur Google Maps, il faut cliquer sur le bouton Street View pour faire apparaître les zones bleues. Ensuite, un zoom sur l'une d'elles mène aux photographies. Un mouvement de souris permet alors de déplacer la vue à 360° et même, également, un peu en hauteur ou vers le bas. Des flèches apparaissent en surimpression, servant à suivre une direction et effectuer une vraie promenade.
On peut voir certaines des images les plus insolites, parfois très indiscrètes...
- Préserver droits d'auteur et livres en ligne
L'accord signé le 28 octobre après 2 ans de négociations est selon Paul Aiken, directeur de l'Authors Guild, le "plus grand accord aux Etats-Unis dans l'histoire de l'édition". Il prévoit que Google verse 125 millions de dollars (98 millions d'euros) pour financer un registre auquel les détenteurs de droits d'auteur pourront s'inscrire pour toucher des dividendes. En échange, le moteur de recherche pourra mettre en ligne plusieurs millions de livres et documents issus des bibliothèques universitaires américaines partenaires du programme. Et les deux associations mettront fin à leurs poursuites sur la violation des droits d'auteur.
"L'accord reconnaît les droits et les intérêts de détenteurs de droits d'auteur, leur donne un moyen efficace de contrôler l'accès en ligne à leur propriété, et leur permet d'être rémunérés pour l'accès en ligne à leurs œuvres", ont déclaré les trois parties dans un communiqué. De plus, la totalité des bibliothèques universitaires et publiques américaines auront accès à un portail gratuit regroupant les textes de millions de livres épuisés.
- Le web de plus en plus concentré
Cela n'empêche pas "la longue traîne" mais la concentration du web augmente avec le nombre de sites et d'internautes, ce qui était observable depuis longtemps dans un domaine où le premier rafle tout...
“Les statistiques montrent que le trafic web est de plus en plus concentré sur les sites les plus importants, alors même que le nombre total de sites continue d’augmenter. Une récente étude a révélé que, à mesure que l’usage du web augmente chez les gens, leur activité se concentre de plus en plus sur un petit ensemble d’outils, de sites de base. (…) Plus le web décolle, plus nous sommes attirés vers de gros objets. Le centre nous tient.”
On pensait que “le web serait résistant à la centralisation”, “qu’il avait aplati le terrain de jeu des médias pour de bon”. Mais c’était une illusion. Même à l’époque de l’origine du web, la force centrifuge du web était en train de se construire. La création de liens hypertextes a été la boucle de rétroaction qui a servi à amplifier la popularité des sites populaires… des boucles de rétroaction devenues plus puissantes lorsque les moteurs de recherche comme Google ont commencé à classer les pages sur la base des liens, du trafic et d’autres mesures de popularité. Les outils de navigation qui étaient utilisés pour donner de l’emphase à l’éphémère se sont mis à le filtrer. Les routes pour s’éloigner ont commencé à nous ramener.
Cela n'empêche pas le P2P de se développer fortement...
- La géolocalisation se généralise
Jusqu’à présent, si la géolocalisation faisait miroiter ses promesses à la téléphonie mobile, elle touchait peu nos ordinateurs. Voilà qu’avec Geode, un module additionnel au navigateur Firefox que viennent de lancer les laboratoires de Mozilla, la géolocalisation de nos ordinateurs pourrait prendre un tour différent. A terme, Geode sera capable de déterminer votre position en utilisant tout type de services (module GPS externe, carte de téléphonie mobile…).
Comme on le verra aussi dans la brève suivante, il faut revenir sur l'illusion que la dématérialisation numérique annulerait le monde matériel et nous sortirait de notre lieu d'existence, voire de notre temps alors qu'il nous ouvre au contraire, sous de nouveaux modes, à notre environnement et sur le long terme. Selon le mouvement dialectique, les premières illusions, qui disent quelque chose d'un nouvel objet de connaissance, doivent inévitablement être réfutées ensuite, non sans qu'il en reste quelque chose d'ailleurs...
Le concept de “Long ici” (Long Here) fait référence au Big Here de Kevin Kelly, c’est-à-dire au fait que désormais, où que vous viviez vous êtes un petit point imbriqué dans un espace plus grand. Mais pour Greenfield, c’est bien de Long Here dont il parle, en faisant référence à l’ancrage, à la persistance d’un historique de tout lieu qu’on traverse. Chaque lieu, spécifié par ses coordonnées, possède désormais un historique, une profondeur dans le temps, accessible via sa seule localisation. Le meilleur exemple qu’on puisse en donner, ce sont les photos géotaggées qu’on accumule sur Flickr, capable de donner un véritable historique des lieux où l’on passe. Avec des cartographies sur la criminalité, comme Oakland CrimeSpotting, vous avez accès à l’historique de la criminalité d’un quartier, d’une rue, d’un immeuble.
L’autre concept qu’il évoque, le “Gros maintenant” (Big Now) fait référence à la Long Now Foundation, qui veut regarder notre évolution culturelle sur le très long terme. Le Big Now auquel nous sommes de plus en plus confrontés en est exactement l’inverse : les données en temps réel montrent le présent et la réalité tangible de la ville.
A l’heure où nos espaces urbains commencent leur transformation, apparaissent des espaces “furtifs” (qui ne peuvent pas être trouvés), “glissants” (qui ne peuvent pas être atteints), “piquants” (qui ne peuvent pas être confortablement occupés), “croustillants” (qui ne peuvent pas être saisis), “nerveux” (qui ne peuvent pas être utilisés sans être sous surveillance) pour reprendre des termes qui font références aux travaux de l’architecte-géographe Steven Flusty, auquel il ajoute le terme “brumeux” pour décrire des espaces qui ne peuvent être cartographiés ou qui n’existent pas sur votre GPS.
- Les réseaux glocaux d'innovation
Il est impossible de faire comprendre que la relocalisation est une nécessité de la globalisation, on passe pour un attardé, et pourtant, c'est l'évidence que la production reste localisée même si elle peut être éclatée en différents centres. En élargissant la concurrence à toute la planète, on ne fait que valoriser les avantages comparatifs qui sont locaux. Il y a "les régions qui gagnent". Plutôt qu'une déterritorialisation, il n'y a qu'une abolition des distances et des frontières mais c'est la réalité locale qui reste d'autant plus déterminante, ses externalités positives, ainsi que les rapports de face à face. Les explications données ici, sont un peu simplistes mais elles ont le mérite d'exister...
Ce qui caractérise ces réseaux d’innovation, c’est leur “glocalité”, c’est-à-dire quand ils composent avec des interactions à la fois locales et globales. Pour asseoir sa démonstration, Pekka Himanen produit une carte de la production globale de contenu sur l’internet qui montre combien la production de contenu est concentrée. Les Etats-Unis produisent 50 % du contenu de l’internet alors qu’ils ne représentent que 5 % de la population du monde. Même aux Etats-Unis, le contenu n’est pas produit d’une façon uniforme. Il y a quelques centres meneurs comme la Silicon Valley, New-York, Los Angeles, Boston et Chicago. 5 villes qui produisent 20 % des contenus mondiaux d’internet. Même à New-York, cette production est concentrée essentiellement sur Manhattan.
Pour expliquer ce phénomène, Pekka Himanen introduit deux concepts tirés de l’oeuvre du sociologue américain, Randall Collins : l’énergie émotionnelle et le capital culturel. C’est dans des interactions de face à face qu’on peut créer la plus forte “énergie émotionnelle”.
La vraie logique de la créativité repose sur une concentration locale qui libère le capital culturel et l’énergie émotionnelle, et qui s’auto-alimentent l’un l’autre, vague technologique après vague technologique.
Rien de bien nouveau puisque c'est ce que je martèle depuis toujours mais qui remonte au moins à l'ignorance docte de Nicolas de Cues, sinon à Socrate, et qui est même à la base de la cybernétique contrairement à ce qu'on croit ! Il est tout de même bon que ce soit redit pour dégonfler toutes les divagations sur l'extension de notre savoir jusqu'à la prétendue "singularité" d'un véritable savoir absolu bien plus délirant que celui d'Hegel ! Le fait que la connaissance dévoile l'étendue de notre ignorance constitue la réfutation aussi bien des technophiles que des technophobes.
“Même si notre connaissance est en expansion exponentielle, nos questions connaissent également une expansion exponentielle plus rapide. Tous les mathématiciens vous le diront, l’élargissement du fossé entre deux courbes exponentielles est lui-même une courbe exponentielle. Cet écart entre les questions et réponses représente la courbe exponentielle de notre ignorance.” A croire que la science est une méthode qui développe plus notre ignorance que notre connaissance.
- La communication télépathique pour les militaires
L’armée américaine vient d’accorder à l’université de Californie d’Irvine un fond de 4 millions de dollars afin de développer un système de “télépathie synthétique” qui permettrait aux combattants sur le front d’envoyer des messages directement depuis leur cerveau.
Le système consisterait en une interface neurale directe qui détecterait certaines manifestations cérébrales. En réception le contenu serait affiché en mode texte ou converti en message vocal. Le système proposé reposera essentiellement sur la détection d’ondes cérébrales (EEG).
Cela reste très primitif pour l'instant mais c'est quand même le début de la télépathie...
- Les exosquelettes arrivent...
Comme elle l’annonçait depuis plusieurs mois, Cyberdine, une entreprise japonaise spécialisée dans la robotique, vient de débuter la production en série de HAL, un exosquelette motorisé d’assistance musculaire.
D’une taille de 1,60 mètre pour un poids de 23 kg (dont 15 kg pour la partie destinée à la marche), HAL-5B est alimenté par une batterie de 100 volts qui lui assure une autonomie de 160 minutes en fonctionnement continu. L’éventail des tâches qu’il lui est possible d’accomplir est vaste, et comprend les gestes du quotidien, comme par exemple marcher, grimper ou descendre des escaliers, soulever une masse ou porter des objets lourds.
La principale innovation de HAL réside dans ses deux modes de fonctionnement, soit contrôlé par la personne soit autonome.
En mode dit de contrôle bio-cybernétique, HAL perçoit, à l’aide de capteurs répartis sur la peau, les faibles flux électriques émis par le cerveau et destinés à transmettre les ordres de mouvement aux muscles du porteur. Routées vers un microprocesseur, ces informations aident HAL à déterminer la nature du mouvement à générer, ainsi que son ampleur et la puissance adéquate à y consacrer. Le système informatique embarqué commande ensuite les unités motrices actionnant les articulations de l’appareillage, et cela avant même que les muscles véritables de l’utilisateur entrent en action. Un second mode est dit autonome, car il se base sur les informations déjà stockées dans la mémoire de HAL.
Cyberdine prévoit dans un premier temps une production en série de 500 unités par an, qui seront proposées en location aux hôpitaux, centres de soins ou maisons de repos voire les salles de sport.
- Un robot-webcam de surveillance
Voici le Rovio, la webcam dernière génération. Mobile, autonome, dirigeable à distance via internet ou le téléphone, il sera commercialisé début octobre 2008 et sera compatible avec le nouveau service "homelook" d'Orange.
Doté d'une caméra VGA montée sur une tête mobile, le Rovio envoie les sons et les images captés par sa caméra directement sur un serveur Web.
Avec le nouveau Rovio, vous ne serez plus jamais absent de chez vous : ce robot autonome monté sur 3 roues, équipé d'une caméra et d'un GPS embarqué peut en effet remplacer vos yeux et vos oreilles à distance. Il vous prévient par SMS ou sur son site internet lorsqu'il détecte tout changement. Vous pouvez aussi le diriger facilement depuis votre ordinateur, votre PC, votre PDA, votre télépone ou votre console de jeux. Enfin, il vous permet de communiquer grâce à son haut-parleur. Ce petit appareil simple d'usage et accessible, inaugure ainsi une nouvelle ère, à la fois plus pratique mais aussi un peu effrayante. Avec un prix annoncé aux alentours de 350€ et une offre couplée avec les forfaits Orange, le Rovio devrait être en vente début octobre 2008.
Voir le site de Robopolis mais aussi le petit Spykee dont on a déjà parlé.
- Une arme contre les tsunamis : l'invisibilité !
Comme on peut le voir sur la photo ci-dessous, le cylindre est constitué de 100 secteurs et de 7 anneaux concentriques réalisés avec des barreaux. L’expérience a parfaitement bien réussi et paradoxalement, un tel dispositif en déviant le mouvement des ondes pour leur faire éviter la région centrale est plus efficace qu’une barrière destinée à stopper la propagation d’une onde de tsunami. En pratique, et comme l’indiquent des simulations numériques, il suffirait d’un seul hémisphère construit sur le même schéma pour protéger une zone côtière.
Le voyage vers Mars serait un voyage sans retour, d'une part à cause de l'exposition aux rayonnement qui devrait réduire drastiquement la durée de vie, d'autre part à cause du temps nécessaire à fabriquer le carburant pour le retour. Embarquer pour Mars ce serait aller mourir sur Mars (s'y reproduire ?), quitter ce monde pour toujours...
En fait, pour la Nasa, qui vient d'obtenir une rallonge budgetaire pour ne pas se trouver distancée dans l'espace, le séjour sur Mars devrait être d'au moins 1 an, mais c'est son coût qui obligerait à une durée bien plus longue. De toutes façons, on ne sait toujours pas comment revenir, avec quel carburant ? (On pourrait imaginer que le vaisseau spatial reste en orbite, il n'y a plus qu'à le rejoindre...).
- Découverte du feu : elle daterait de 790 000 ans
On pensait jusqu'à présent que les ancêtres des hommes actuels maîtrisaient le feu depuis, sans doute, 400.000 ans. Une équipe israélienne estime qu'il faut doubler cette datation.
L'homme et ses ancêtres maîtrisent le feu depuis longtemps, comme en attestent des traces de foyers associés à des activités humaines. Cependant, l'interprétation de ces traces d'incendie est extrêmement délicate et les indices sont très ténus. Il est difficile de savoir si le feu était intentionnel et entretenu.
En Israël, sur le site archéologique de Gesher Benot Ya`aqov, au bord du Jourdain, de telles traces avaient été retrouvées et ont été datées de 790.000 ans. En 2004, Nira Alperson-Afil et son équipe avaient déjà affirmé qu'il s'agissait bien de restes de feu entretenu, mais cette analyse était contestée. La confirmation sur le terrain est devenue difficile depuis 1999, quand des travaux d'aménagement pour l'irrigation des cultures environnantes ont sérieusement endommagé ce site.
L'équipe récidive aujourd'hui dans Science. Une nouvelle analyse de l'occupation humaine à Gesher Benot Ya`aqov sur une longue période montrerait la succession de douze cultures différentes, avec, selon les chercheurs « un usage continu et maîtrisé du feu ». En témoigneraient, explique l'équipe, des silex taillés et des restes de végétaux appartenant à six espèces dont trois comestibles (olivier, orge et vigne).
Selon Nira Alperson-Afil, l'endroit était privilégié, situé sur une voie de migration entre l'Afrique et l'Europe et la maîtrise du feu aurait joué un rôle dans ces flux migratoires.
- L'innovation, véritable cause des migrations humaines ?
Selon de nouvelles études, l'innovation technologique et l'organisation sociale, plus qu'un changement environnemental, semblent avoir poussé l'homme moderne hors de l'Afrique.
Deux industries se sont développées sur un laps de temps assez bref, celle d'Howieson's Poort durant environ 5 000 ans et celle de Still Bay sur beaucoup moins longtemps, et toutes les deux au cours de la période critique où l'homme est sorti d'Afrique il y a entre 80 et 60 000 ans. De plus, l'apparition de ces industries ne semble pas en rapport avec un changement climatique connu, ce qui suggère que ces innovations n'auraient pas pour origine des facteurs environnementaux.
D'autres, comme Meave Leakey, prétendent pourtant qu'il y a bien eu une grande sécheresse à cette époque. Sinon, cela rend encore plus étonnant qu'on descende selon certaines études génétiques d'une toute petite population (2000 ?) qui aurait donc eu un avantage décisif, peut-être technologique mais qui pourrait aussi être cognitif, le passage au langage narratif par exemple puisque c'est peu après cette période qu'il y a enterrement des morts. Cela n'explique pas pourquoi ils se sont dispersés...
<- Revue des sciences précédente | Revue des sciences suivante ->
Bonjour
Michel De Lorgeril, cardiologue et chercheur au CNRS, ne partage pas l'optimisme de ses confrères au sujet des statines
http://www.lanutrition.fr/Les-st...
il semblerait que la cible à traiter soit la fraction oxydée du "mauvais cholesterol"(LDL oxydées) par une alimentation riche en anti-oxydants. Faire baisser drastiquement le cholesterol à coup de statines abaisse aussi le taux d'acides gras Omega3 en faveur des Omega6, déséquilibre à son tour délétère (pro-inflammatoire). Les choses sont plus subtiles que les informations simplistes que les laboratoires pharmaceutiques propagent...
http://www.cours.fmed.ulaval.ca/...
Pour compliquer le tout, il n'est pas sûr que les capsules d'huile de poisson protègent le coeur et les vaisseaux (diapo 47). Manger du poisson (sans métaux lourds) serait plus efficace.
Effectivement les données sur les statines sont contradictoires mais les études épidémiologiques montrent qu'elles réduisent la mortalité. Il semblerait que ce soit pour de toutes autres raisons que la baisse du cholestérol et sans doute grâce à leurs propriétés anti-inflammatoires (malgré ce qui est dit ici sur les omega3). On a les mêmes contradictions à propos des anti-oxydants ou des traitements hormonaux. Pour ma part je ne peux faire plus que donner les résultats aussi bien positifs que négatifs.
Ce sont justement une bonne partie des conclusions de ces études épidémiologiques que l'auteur, bien placé pour les éplucher puisque c'est son job, conteste quant à leur prétendu effet réducteur sur la mortalité des populations à risque. Un deuxième pavé dans la marre: en dehors du cancer du poumon, il y aurait même selon certaines études une augmentation du risque des autres cancers (du sein en particulier)
http://www.lanutrition.fr/Choles...
Malgré Michel De Lorgeril, il y a bien confirmation des propriétés anti-inflammatoires des statines abaissant le risque cardiaque de 44% et la mortalité de 21%