
- Une nouvelle physique pour les mésons?
- Climat : les 10 années cruciales
- Les structures de base de l'ARN
- Le papillon se souvient de sa vie de chenille
- Une imprimante à tissus humains !
- De l'électricité avec de la chaleur
- Robots, Paranos, Gratuité, etc.
<- Revue des sciences précédente | Revue des sciences suivante ->
Revues : Pour la Science - La Recherche - Sciences et Avenir
Brèves : Physique - Climat - Biologie - Santé - Technologie

La nouvelle la plus importante du mois, c'est sans conteste la découverte des structures de base de l'ARN, mais le plus étonnant, peut-être, c'est qu'un papillon garde la mémoire des apprentissages de sa vie de chenille. Au niveau technologique, c'est "une imprimante à tissus humains" qui est le plus incroyable, au point de sembler un poisson d'avril, tout comme le "Bureau de Modification du Temps" de Pékin ! Malgré la vague de froid au Canada, les signes d'une accélération du réchauffement continuent à se multiplier et le temps presse (les 10 prochaines années seront décisives). Il est comique de voir que ceux qui parlent de la complexité du climat pour réfuter le consensus sur le réchauffement sautent sur la première baisse de température venue pour en tirer des conclusions plus que précipitées... Il y a de véritables incertitudes, on est dans le principe de précaution, mais plus on attend et plus ce sera difficile. Le climat illustre à quel point notre rationalité est limitée, il est si difficile de se déprendre des hypothèses les plus farfelues à cause même de notre peur d'être victime du dogmatisme et de notre volonté de se montrer plus lucides que les autres !
C'est un peu trop riche déjà, aussi je ne sais si je vais continuer à rendre compte en plus des revues scientifiques, en tout cas c'est l'occasion ce mois-ci de saluer la mise en ligne de Sciences et Avenir mais surtout de mieux comprendre les propriétés anti-inflammatoires du cannabis, de discuter un peu de la théorie quantique "relationnelle" ainsi que des rapports de la technique avec l'utilitarisme (de l'invention avec l'innovation).
Pour la Science no 366, La voix d'opéra

- L’ADN poubelle, source de complexité, p22
Une étude génétique montre qu’une grande diversité de microARN est associée aux vertébrés.
La diversité des microARN est notablement plus grande chez les vertébrés, même chez le plus primitif d'entre eux, la lamproie, que chez les invertébrés. Or la plupart des microARN participent, au sein de réseaux géniques ramifiés, à la croissance d'organes caractéristiques des vertébrés, notamment le foie, le pancréas et le cerveau.
Les ARN non codants, découverts récemment, ont souvent été relégués dans l'ADN dit poubelle, car il ne code aucune protéine. Force est de constater que ces "détritus" ont été essentiels à notre propre apparition.
- Qu’est-ce qu’un biologiste aujourd’hui ?, p30

En ce début de XXIe siècle, à l’heure où la biologie triomphe dans beaucoup de domaines, il serait erroné de croire que tous les chercheurs sont, dans leur démarche, construits sur le même moule. Des présupposés épistémologiques ou moraux, différents selon les individus, viennent donner au « style de recherche » de chacun une originalité, un éclairage qui font que la façon d’aborder la science est très variée selon les tempéraments ou les positions philosophiques. Les différents « visages » des chercheurs en biologie peuvent être décrits à l’aide d’un certain nombre de clivages fondamentaux. Ces oppositions résultent de l’histoire de la discipline, mais sans doute aussi du fait que la biologie n’a pas encore de théorie unificatrice.
Ce qui est intéressant c'est de voir qu'une même division se produit à différents niveaux entre : réductionnisme et globalistes (concept), empiristes et conceptualistes (expérience), l'analytique et le synthétique (objet), la recherche comme jeu et la responsabilité sociale du savant (but), la manipulation des organismes et l'éthique animale (moyens), déterministes et partisans de l'aléatoire, voire expérimentateur et gestionnaire ou communicateur. Toutes ces positions pouvant se combiner entre elles (on peut être réductionniste et conceptualiste ou défendre le réductionnisme dans une conception synthétique, etc.).
- Les moustiquaires imprégnées, p48
Traiter des moustiquaires avec des produits insecticides et répulsifs : cette méthode de protection contre les insectes s’affirme comme un élément clef de la lutte contre le paludisme. Elle pourrait même bénéficier à l’agriculture.
- Pourquoi le piment brûle-t-il ?, p54
Bernard Calvino, Marie Conrath
La sensation de chaleur et la douleur dues au piment mettent en jeu un récepteur présent dans la bouche et la peau. Dans le cerveau, ce récepteur participe aussi aux douleurs chroniques.
Croquez un piment d’Espelette et une sensation de chaleur qui devient vite douloureuse envahit la bouche. Approchez votre main de la flamme d’une bougie : vous sentez la chaleur, puis la douleur, et la retirez rapidement. Et si vous vous cognez la tête, vous appliquez du « froid » pour soulager la douleur. Remède de grand-mère ou existe-t-il un lien entre douleur et chaleur ? Comment le piment crée-t-il une sensation « piquante » de chaleur et de douleur ? Piment et chaleur douloureuse. Quel lien ces deux stimulus ont-ils avec la douleur ?
Sous ce titre anodin, il s'agit d'un article sur l'identité des récepteurs de chaleur et des récepteurs à la capsaïcine (piment) ainsi que sur leurs similitudes avec les récepteurs des cannabinoïdes. Le lien entre cannabis, inflammation et piment n'est pas si nouveau, on en parlait déjà en 2002 et dans la revue des sciences 07/07, des souris dépourvues de récepteurs cannabiques étant plus sensibles aux inflammations. L'intérêt n'est pas seulement la mise au point de nouveaux traitements contre les douleurs chroniques ou neuropathiques qui ne sont pas soulagées par les antalgiques mais c'est aussi de mieux comprendre le mécanisme de l'inflammation qui est impliquée dans de nombreuses maladies. Ainsi, on constate qu'une faible dose de cannabinoïdes (anandamide) a bien une action anti-inflammatoire alors qu'une concentration plus forte a l'effet inverse par excitation des récepteurs internes, dont l'effet est contraire aux récepteurs externes plus facilement accessibles. Cela permet d'expliquer ce qui avait été constaté cliniquement de l'effet anti-inflammatoire de très faibles doses de cannabis (alors que l'effet pourrait être inversé pour les gros fumeurs dans l'artérite du cannabis par exemple, ce dont il faudrait tenir compte dans son utilisation contre la sclérose en plaque). On avait constaté aussi une production de cannabinoïdes accompagnant la production de dopamine, comme pour limiter les inflammations dues aux mouvements, ce qui pourrait se faire par l'intermédiaire du N-arachidonoyle dopamine qui semble un sous-produit de l'interaction de l'acide arachidonique (inflammatoire) et de la dopamine. Ce serait une façon de filtrer les niveaux acceptables d'inflammation (bruit) pour renforcer les niveaux d'alerte (signal).
Il faut retenir que les récepteurs TRPV1 et CB1 provoquent ou empêchent la pénétration d'ions calcium dans le neurone, sa décharge électrique et la libération de glutamate, que ce soit par déformation sous l'action de la chaleur ou par interaction avec des ligands (endovanilloïdes, comme la capsaïcine, ou les cannabinoïdes). En fait la capsaïcine se fixe préférentiellement sur les récepteurs de température TRPV1 (Transient Receptor Potential Vanilloïde, le TRPV1 réagissant aux températures >44°C) alors que le cannabis se fixe surtout sur les CB1 ou CB2 et c'est "piment contre cannabis" !
Le récepteur TRPV1 périphérique engendre des messages douloureux dans les neurones sensoriels et permet leur propagation de la périphérie à la moelle épinière. A l'inverse, les endocannabinoïdes naturels, ainsi que le cannabis et ses dérivés, ont des effets euphorisants.
De façon schématique, on peut dire que les endovanilloïdes (ligands) inhibent l'activité des neurones via le récepteur CB1 et les stimulent via le récepteur TRPV1. Mais ces ligands stimulent de façon préférentielle l'un ou l'autre des récepteurs selon leur concentration extracellulaire : en effet, le site de fixation des endovanilloïdes est dans le neurone pour TRPV1 (l'accès y est difficile) et en dehors pour CB1 (l'accès est facile). Le ligand atteindra d'autant mieux le récepteur TRPV1 qu'il sera présent en grande quantité.
Dans le cas d'une stimulation douloureuse d'intensité moyenne et de durée limitée, les récepteurs CB1 sont davantage stimulés ; ils limitent la libération de glutamate ; la douleur s'atténue quand la stimulation s'arrête. Au contraire, une stimulation intense et prolongée provoque dans les neurones postsynaptiques une libération importante de ligands qui diffusent facilement jusqu'à leur site de fixation intracellulaire du récepteur TRPV1 : une boucle "rétro-active" d'excitation est entretenue par ces récepteurs, le neurone sensoriel est toujours excité et la douleur persiste. Ce déséquilibre entre excitation et inhibition expliquerait en partie certaines douleurs chroniques.
Les récepteurs TRPV1 jouent aussi un rôle dans l'analgésie induite par un stress intense - on ne ressent plus la douleur quand on a très peur.
L'histoire a commencé avec la capsaïcine du piment, puis s'est poursuivie dans le domaine de la physiologie sensorielle douloureuse. Aujourd'hui, l'étroite association de TRPV1 et du récepteur cannabinoïde CB1 ouvre de nouvelles perspectives.

- L'évolution des chats, p63

L’étude de l’adn des félins du monde entier a éclairci la généalogie de ces animaux. Elle a également mis en évidence plusieurs migrations ainsi qu’au moins cinq domestications.
Nous pensons que le chat a fait l'objet d'au moins 5 domestications, toutes ayant eu lieu dans le Croissant fertile, il y a 8000 à 10000 ans, lorsque les populations humaines nomades se sont rassemblées en petits villages autour des premiers établissements agricoles.
- Les nanogénérateurs, p68

De minuscules générateurs sont capables de produire de l’électricité de façon autonome à partir du milieu environnant : de tels dispositifs équiperont bientôt des machines de taille nanométrique.
La production d’énergie à si petite échelle ouvre la voie à d’innombrables applications, tels des biocapteurs introduits dans le corps d’un patient pour contrôler de façon continue sa concentration sanguine en glucose, des capteurs de contraintes implantés dans des ponts et des bâtiments, ou des détecteurs de polluants – tous fonctionnant sans qu’il soit nécessaire de changer leurs batteries. De même, les nanorobots, les systèmes micro-électromécaniques ou des systèmes électroniques individuels portables, dits embarqués, ont besoin de sources d’énergie adaptées.
Les nanogénérateurs ne fourniront sans doute jamais assez d'énergie pour une alimentation en continu. Mais ils pourraient convenir pour des dispositifs fonctionnant par intermittence, par exemple des capteurs recueillant des données une seconde chaque minute.
- Le royaume de Shoa, p80

Connu seulement par quelques écrits, un mystérieux royaume musulman éthiopien a été localisé grâce à la découverte de trois villes en ruines. Et c’est toute l’histoire de l’islam dans la région qui est à réécrire.
Ces villes disparues sont probablement le premier témoignage matériel du royaume de Shoa, un important royaume musulman connu par les textes pour avoir dominé la région entre le 10ème et le 16ème siècle et que personne ne savait encore localiser sur une carte. Celui-ci contrôlait l'une des plus importantes voies commerciales de l'époque, entre les hauts plateaux chrétiens d'Éthiopie et les ports musulmans de la mer Rouge et du golfe d'Aden.

Situées sur l'escarpement de la vallée du Rift dans une zone (4) aujourd'hui livrée aux broussailles les plus épaisses, à environ 1300 mètres d'altitude, les villes médiévales d'Asbäri, de Mäsal et de Nora livrent mosquées, quartiers d'habitation, murailles et des bâtiments présentant encore parfois des élévations de plusieurs mètres. La région, majoritairement musulmane, est aujourd'hui habitée par des populations pratiquant l'élevage et l'agriculture et qui se disputent ce territoire. Les hauteurs où sont situés les sites anciens montrent des traces d'agriculture en terrasse mais sont à l'heure actuelle des zones de pâturage.
- Modèles, simulations, systèmes, p103
Revue d’épistémologie et d’études matérialistes N°3/2008
Sous la dir. de Jean-Jacques Kupiec, Guillaume Lecointre, Marc Silberstein et Franck Varenne, Syllepse, 2008, 338 pages
Cette série d’articles est issue d’un colloque sur le rôle de la modélisation en biologie datant de janvier 2008 et du séminaire « Explication, modélisation et simulation » organisé en 2006-2007 par l’Association pour les études matérialistes. Elle présente d’abord un tour d’horizon de l’épistémologie et des pratiques de la modélisation et de la simulation. Viennent ensuite un hommage à l’entomologiste Jean-Paul Gouteux décédé en juillet 2006, une contribution sur le statut épistémologique de la linguistique et une lecture (très) critique d’œuvres de Jacques Attali et de Joël de Rosnay.
La Recherche no 418, Mécanique quantique : l'erreur d'Einstein

- Des mitochondries sélectives, p16
Les mitochondries ne bénéficient pas de la reproduction sexuée puisqu'on n'a jamais que les mitochondries de sa mère et pas du tout de son père. Les mitochondries se reproduisent donc en se divisant, ce qui devrait favoriser l'accumulation de mutations sauf qu'il y a élimination des mutations trop importantes.
Tous les paramètres semblent donc réunis pour que les mutations s'accumulent dans les mitochondries au fil des générations. Or, ce n'est pas le cas. Comment expliquer ce paradoxe ? Selon deux équipes indépendantes, il existerait un processus de sélection des mutations de l'ADN mitochondrial, avec pour conséquence l'élimination des plus redoutables.

- Les premières bactéries à 65°C, p17
La reconstitution de la protéine EF-Tu originaire, impliquée dans la synthèse protéique de toutes les être vivants, démontre que plus on remonte dans le temps et plus elle est résistante à la chaleur.
Il y a 3,5 milliards d'années, elle aurait supporté des température de 65 à 73°C : telle aurait donc été la température des océans à cette époque.
- Les neurones de la conscience, p20
La reconnaissance, c'est-à-dire la conscience d'avoir vu une image ou un objet déjà mis en mémoire, est un phénomène de type "tout ou rien" - soit le neurone s'active, soit il ne s'active pas - tant au niveau cognitif que neuronal.
- Il suffirait de 5% d'individus "informés" pour diriger une foule importante.
- L'irréversibilité de la L-Dopa

La L-Dopa, médicament le plus utilisé contre la maladie de Parkinson, provoque des modifications définitives dans le cerveau dès la première prise.
Elle pourrait expliquer les mouvements involontaires qui touchent environ 2/3 des partients après 5 ans de traitement.
Ce qui est nouveau, c'est qu'une seule prise suffirait ! Voilà qui devrait retarder la prescription de L-Dopa pour le Parkinson et l'éviter absolument pour le symptôme des jambes sans repos qui dispose d'un autre traitement tout aussi efficace, sans parler des simples pratiques de "dopage". Serait-ce la même chose avec du Mucuna pruriens supposé en contenir, ou même avec les haricots rouges ? Cela semble bien improbable !
- Une nouvelle conception de la physique, p31

On connaît déjà au moins deux approches, ni "irréalistes", ni "idéalistes", de transformer ce désarroi en intelligibilité renouvelée.
La première consiste à tenir la mécanique quantique pour une théorie de l'information expérimentale plutôt que pour une théorie d'illusoires propriétés indépendantes. On y gagne un accès immédiat aux concepts qui pourraient permettre à "l'ordinateur quantique" de voir le jour. On y acquiert également une façon simple de comprendre le formalisme mathématique de la mécanique quantique, comme expression directe des limites fondamentales de l'information rendue disponible par l'expérimentation.
La seconde approche revient à considérer que la mécanique quantique ne décrit pas des propriétés d'objets, mais des relations entre propriétés, et cela de façon si universelle que la notion de propriété se voit escamotée par celle de relation.
Le dossier sur la physique quantique est un peu décevant. Michel Bitbol est toujours un peu obscur avec sa théorie quantique réduite à la théorie de l'information, ce qui me semble assez réducteur (si la chaleur d'un four n'est pas infinie c'est que l'énergie est quantifiée, rien à voir avec l'information), la théorie "relationnelle" de Carlo Rovelli est plus intéressante, quoiqu'elle me paraisse fausse et devrait pouvoir être réfutée par l'expérience puisqu'il prétend, contrairement au consensus, que l'intrication ne permet pas de connaître l'état d'une particule en mesurant l'autre car il n'y a pas de particule en soi mais seulement interaction entre une particule et un détecteur, interaction différente de l'autre particule avec un autre détecteur. Ce relativisme a quelque chose de satisfaisant dans la continuité de la relativité générale mais rendrait impossible l'informatique quantique, me semble-t-il ?
- https://tinyurl.com/2gwle2 : Cycle de trois conférences sur l’origine et les controverses liées à la mécanique quantique
- https://www.quantum-physics.polytech... : De nombreuses animations et une approche pédagogique pour comprendre les concepts clés de la physique quantique.
- Culture, technique et utilitarisme au néolithique, p46
Une théorie de l'invention préhistorique
A partir du fait que la céramique a été inventée bien avant de servir à quelque chose, cet article met en cause l'explication utilitariste de la technique tout comme l'interprétation marxiste traditionnelle de l'idéologie comme superstructure au profit des thèses de Jacques Cauvin d'une détermination de la technique par l'idéologie (et non le contraire). Je m'étais appuyé à l'époque (1994) sur cette thèse de l'origine religieuse de l'agriculture (La bonne mère et le taureau) pour écrire mon histoire des religion d'inspiration largement hégélienne pour le reste.
Cette revalorisation du rôle de l'idéologie ne remet pas en cause le matérialisme historique mais exige d'en avoir une interprétation "darwiniste" (bien que non gradualiste). Ainsi les catastrophes écologiques peuvent favoriser de nouvelles espèces, à partir des mutations déjà présentes et que les bouleversement du milieu ne provoquent donc pas mais dont elles valorisent des potentialités relativement neutres et sous-utilisées jusqu'ici. C'est la même chose avec la science qui ne trouve ses applications qu'assez tardivement par rapport à la découverte fondamentale. L'exigence d'une rentabilisation de la science est bien vouée à l'échec puisqu'elle doit précéder d'assez longtemps les innovations qu'elle permet, les innovations étant beaucoup plus générationnelles comme réponse à des situations communes.
C'est après-coup et sur le long terme que l'invention religieuse ou magique procure un avantage décisif de survie en constituant des stocks ou bien en semant des graminés autour des villages. Dans le vivant la causalité n'est pas mécanique mais comporte une grande part d'aléatoire qui n'est sélectionné qu'après-coup par son adaptation au milieu, causalité descendante tout ce qu'il y a de plus matérielle (ressources disponibles et reproductibilité). C'est comme cela aussi que les techniques s'imposent, par leur efficacité pratique, en premier lieu dans le domaine militaire qui ne souffre pas de discussions, mais aussi dans leurs capacités de production et de développement de la population...
Mais revenons à l'article qui montre que les premières statuettes d'argile remontent au moins à 25 000 ans, qu'il y avait des vases au Japon vers -14 000 ans BC, mais que la céramique n'a eu un rôle utilitaire qu'à partir de la fin du VIIIème millénaire. On peut dire qu'elle a fait son apparition sous la forme de gadgets ! On n'est pas forcé d'attendre autant de temps entre invention et innovation car on peut prétendre qu'une étape cruciale était franchie dès l'invention :
Avec la céramique, l'homme s'essayait à créer un matériau artificiel.
Au Proche-orient, le mouvement s'était aussi amorcé, avant la céramique, par la découverte de la chaux et du torchis.
On peut y lire sans difficulté la "continuité technique" nécessaire, selon André Leroi-Gourhan, à la définition d'un système technique. Le cas du pain avec sa chaîne opératoire si proche de celle de la céramique (broyer, mélanger, pétrir, modeler et cuire), nous montre d'ailleurs comment le nouveau paradigme a peu à peu, irrigué l'ensemble de la sphère technique.
"Cette prééminence de la pulsion domesticatrice sur la technique, André Leroi-Gourhan en a eu l'intuition dans un passage resté peu commenté du Geste et la Parole : "Le fait humain par excellence est peut-être moins la création de l'outil que la domestication du temps et de l'espace".
L'existence d'un hiatus entre leur invention et le moment où elles ont acquis un véritable poids économique est ici inhérente au processus qui préside à la naissance des espèces domestiques, qui ne peut être envisagé que comme une entreprise de longue haleine. L'impulsion initiale peut donc difficilement être comprise comme une volonté de répondre à un problème de subsistance relevant du court terme.
L'impression générale que l'on retire de cet examen des contextes d'apparition des grandes inventions de la Préhistoire récente est que la phase "gratuite" des processus de domestication est, en réalité, un préalable obligatoire au passage à des formes plus pragmatiques d'action sur l'environnement.
Voir aussi l'homo sapiens technologicus.
- L'échec des logiciels anticopie, p56
Les protections anticopie installées sur les oeuvres musicales en ligne ont échoué : elles n’empêchent pas les téléchargements pirates, tout en gênant les utilisateurs légaux. La solution ne viendra pas de la technologie.
- Des vaches génétiquement modifiées pour produire de l'insuline, p68
![]()
Sciences et Avenir no 734, Aliment et cancer

Le dossier sur la nutrition n'a rien de révolutionnaire, pas si loin que ça du livre de David Servan-Schreiber. Ce qui est révolutionnaire, c'est que la revue est maintenant intégralement en ligne (avant même d'être disponible en kiosque) ! C'est quand même mieux de feuilleter la revue plutôt que de la lire en ligne, d'autant qu'on n'a pas les images et qu'on est inondé de pubs à la place, mais c'est quand même une très bonne initiative.
- Les recommandations des experts mondiaux
- Limiter les aliments hypercaloriques
- Consommer surtout des végétaux
- Etre aussi mince que possible
- Etre physiquement actif au quotidien
- Limiter la viande rouge et éviter la charcuterie
- Limiter l'alcool
- Limiter le sel
- Pas de compléments alimentaires
- Au Québec, la nutraceutique sort de l'éprouvette

Une journée «nutraceutique»
- 1/2 tasse de choux de Bruxelles
- 1/2 tasse de brocolis (ou chou-fleur, chou)
- 1/2 tasse d'oignon (ou échalote)
- 1/2 tasse d'épinards (ou cresson)
- 1/2 tasse de soja
- 1/2 tasse de bleuets (ou framboises ou mûres)
- 1/2 tasse de jus d'agrumes
- 1/2 tasse de raisin
- 1 cuillère à soupe de tomate
- 1 cuillère à café de curcuma
- 1 cuillère à soupe de graines de lin fraîchement moulues
- 1/2 cuillère à café de poivre noir
- 3 tasses de thé vert
- 20 g de chocolat noir
- 2 gousses d'ail
- 1 verre de vin rouge
«De très nombreux travaux indiquent que les propriétés anticancéreuses du curcuma sont directement liées à sa capacité à bloquer l'inflammation», explique le Dr Béliveau. Qui a démontré, in vitro, que l'ajout de poivre décuplait l'action de la curcumine.
- Ce qu'il faut manger, ce qu'il faut éviter
- Les causes multiples du cancer
- Interview du biologiste de l'amour Jean-Didier Vincent
Les transhumains ne me font pas peur, je les prends pour des minables, des tristes, qui veulent se prolonger, être éternels, bien protégés dans leur bulle.
- Voyage au coeur d'un trou noir

Je conseille d'acheter la version avec le CD car le voyage au coeur d'un trou noir est bien plus impressionnant et surtout permet de comprendre beaucoup mieux ce qui se passe que les images fixes déjà connues d'Alain Riazuelo (notamment la réduction de l'horizon à mesure qu'on prend de la vitesse). Bien sûr on ne voit jamais le trou noir mais seulement les distorsions de son horizon. Ce qui est curieux, c'est que c'est d'un calme trompeur et que ça ne ressemble pas du tout aux images astronomiques qu'on a, avec un jet de matière et de rayonnement aux 2 pôles... Disons que c'est un trou noir qui n'est pas en activité ! A noter aussi que, pour Alain Riazuelo, la possibilité qu'un trou noir débouche sur un trou blanc et un autre univers serait très improbable bien qu'elle ne soit pas complètement impossible.
Brèves et liens
Physique
cosmologie, astronomie, physique quantique
- En bref : le LHC devrait démarrer en juillet

Si la date exacte de circulation des premiers faisceaux dans le LHC lui-même est encore inconnue, on sait déjà que des particules circuleront à partir du 21 mai dans un premier système d’accélération constitué par le Synchrotron à protons et le Super Synchrotron à protons. En sortie elles atteindront des énergies de l’ordre de 450 GeV.
- Le paradoxe de la coupure GZK ne débouche pas sur une nouvelle physique...

En 1966, Kenneth Greisen de l’Université Cornell et indépendamment Georgiy Zatsepin et Vadim Kuzmin de l’Insitut de physique Lebedev de Moscou eurent la même idée suite à la découverte du rayonnement de fond diffus (CMB) par Penzias et Wilson. Si des rayons cosmiques d'énergies suffisantes se propagent dans l’Univers, ils finiront par entrer en collision avec les photons à 2,7 K du rayonnement fossile en donnant des pions. Ainsi, il se produira une coupure dans la courbe donnant le flux de rayons cosmiques arrivant sur Terre lorsque l’on s’approchera des énergie de l’ordre de 1020 eV, celle correspondant au choc avec les photons du fond diffus.
Le détecteur de rayons cosmique HiRes de l’Université de l’Utah confirme son accord avec les observations d’un autre détecteur, celui d’Auger dans la Pampa en Argentine. La limite prédite par Greisen, Zatsepin, Kuzmin concernant les energies observables dans les rayons cosmiques tient bon. Les observations d’Agasa ne sont donc pas confirmées et il n’y a pas besoin de faire intervenir de la nouvelle physique au-delà du modèle standard.
- Les mésons B nous apportent-ils une nouvelle physique ?

Oscillations entre quarks au sein d'un méson Bs. Les anti-particules sont signalées par une barre au-dessus de leur lettre. Par échange de bosons, les quarks s (étranges) deviennent des t (top) puis des b (beaux). Les oscillations des deux quarks étant liées, le méson Bs devient un anti-Bs.
Le mois dernier on concluait à la conformité de l'asymétrie entre matière et anti-matière avec le modèle standard à partir de calculs non-linéaires. Les dernières expériences semblent pourtant constater que l'asymétrie est plus grande que celle prévue par le modèle standard, obligeant à tenir compte de nouvelles dimensions ou de nouvelles particules à la portée du LHC : enfin une nouvelle physique, appuyée sur l'expérimentation et plus seulement spéculative !
Une asymétrie dans le comportement de certains mésons B intrigue les physiciens. Selon certains, la violation de la symétrie CP observée avec ceux-ci n’est pas compatible avec les équations du modèle standard. Une nouvelle physique devrait intervenir, comme de la supersymétrie ou des dimensions spatiales supplémentaires, et elle serait donc observée pour la première fois en accélérateur.
Ces oscillations entre matière et antimatière sont responsables d’effets violant la symétrie CP dans les produits de désintégration. En clair, un peu plus de matière que d’antimatière (ou vice versa) est produite avec des nombres égaux de méson Bs et d’anti-mésons Bs initiaux. Ce que les analyses de l’équipe montrent, c’est que l’asymétrie obtenue dépasse les bornes autorisées par la matrice CKM !
Les cas enregistrés sont encore trop peu nombreux pour conclure que l’effet observé n’est pas une simple fluctuation statistique due au hasard. Les physiciens restent donc prudents mais, selon eux, le phénomène observé avait seulement 0,3 % de chance d’être un effet du hasard.
Une équipe japonaise travaillant sur la collaboration Belle vient elle aussi de publier les résultats d’études sur les oscillations des mésons B dans Nature et elle trouve à nouveau une violation CP plus importante que ne le permet le modèle standard. Tout ceci est de bon augure car ces observations signifient que les chances d’aboutir à une nouvelle physique grâce au LHC sont en train d’augmenter !
- Un méson se désintègre en proton et anti-neutron

Ce qui est troublant dans ce qui n'est qu'une confirmation du modèle standard, c'est non seulement de voir que les particules se transforment les unes dans les autres mais qu'une particule se désintègre en éléments plus lourds, qu'un quark et un antiquark peuvent se transformer en plusieurs quarks-antiquarks !
Les mésons sont des particules composées d’un quark et d’un antiquark. Les physiciens des particules de la collaboration CLEO viennent d’observer une désintégration rare d’un d’entre eux, un méson charmé. C’est une désintégration particulièrement remarquable car elle donne un proton et un anti-neutron.
Les mésons D créés par les collisions des faisceaux, possédant des énergies moyennes de 3 à 5 GeV par particule, n’existent que de façon extraordinairement fugace car, en moins d’un millième de milliardième de seconde, ils se désintègrent selon différents modes en donnant d’autres hadrons et même des leptons.
Le physicien John Yelton est parvenu, avec l’aide de ses collègues, à observer ce que la théorie prédisait depuis plus de 30 ans mais que personne n’était arriver à faire jusque-là : la désintégration de certains mésons D en un proton et un anti-neutron (l'anti-particule du neutron, neutre comme lui mais formée de trois anti-quarks).
- Un supraconducteur à haute température critique... avec du fer !

Article intéressant sur la supraconductivité à "température ambiante" (maximum 138 K et ici 26 K au-dessus du zéro absolu, loin de notre véritable température ambiante !).
Ces matériaux prometteurs étaient jusque-là confinés à des composés du cuivre mais des chercheurs japonais viennent d'en réaliser à l'aide d'un matériau basé sur du fer.
La théorie basée sur les phonons échoue complètement. En revanche, il se pourrait bien qu’une des théories alternatives proposées pour expliquer la supraconductivité des cuprates, basée sur des fluctuations de spin et qui avait finalement échoué, soit cette fois pertinente pour expliquer le cas des composées analogues aux LaOFeAs, d’après Haule. Il semble d’ailleurs que des résultats expérimentaux préliminaires du groupe de Tokyo aillent bien dans ce sens.

La spintronique se complexifie. En effet on vient de mettre en évidence que la nouvelle nano-électronique à base de nanotubes de carbone doit tenir compte des différentes combinaisons du spin de l'électron avec son orbite, les interactions de leurs champs magnétiques produisant 4 niveaux différents d'énergie selon que ces champs se renforcent ou s'annulent.

En violet, le moment cinétique orbital d'un électron tournant dans un sens, dans la paroi du nanotube de carbone, en vert le spin de l'électron. Il apparaît donc 4 combinaisons possibles responsables de différents niveaux d'énergies en fonction des champs magnétique (B) et électrique. En ordonnée, le champ électrique se traduit en fait par une différence de potentiel V entre les deux extrémités du nanotube considéré.
Profitons en pour signaler que le graphène s'impose de plus en plus comme la base d'une nouvelle (nano)électronique en remplaçant du silicium. Les fullerènes se révèlent aussi très performants dans le stockage de l'hydrogène. Sans compter les usages dans les supercondensateurs, etc. On fait de tout avec des nanotubes de carbone, même des nano-radios, c'est vraiment la mine d'or des nanotechnologies.
- Des photons "intriqués" pour améliorer notre vision des choses ?
L'imagerie quantique est limitée par le caractère probabiliste de la physique quantique qui introduit beaucoup de bruit ou de flou dans les images. L'idée, ici, c'est d'utiliser l'intrication quantique pour éliminer les photons aléatoires en certifiant les photons reçus et en rejetant les autres. Effectivement l'intrication quantique n'étant pas de nature probabiliste mais exacte et certaine, c'est une grande idée de l'utiliser pour dépasser les fluctuations quantiques. La vérification expérimentale de l'intrication a été un véritable bouleversement éliminant de nombreux délires sur l'indétermination et la causalité quantique (même s'il en a produit d'autres sur la non-localité) car on tenait là un point fixe. Ce progrès théorique se transmet désormais au niveau technique : on intrique 2 photons, on en envoie un vers l'objet à éclairer qui le reflète et lorsque l'objectif le reçoit, on vérifie s'il correspond au photon intriqué sinon on l'ignore. Ce n'est pas encore fait et on ne sait pas si le procédé pourra être assez facile à mettre en oeuvre dans l'état actuel des techniques mais c'est une idée à creuser. A noter qu'on n'élimine pas ainsi les fluctuations quantiques de l'objet à observer mais uniquement la pollution lumineuse. C'est surtout pour l'ordinateur quantique et dans les communications que cette authentification pourrait être déterminante, renforçant "dramatiquement" la fiabilité grâce au filtrage des données et la correction d'erreur.
Dans le schéma de Lloyd, un photon intriqué (appelé le signal) est dirigé sur l'objet à observer, alors que l'autre (l'auxiliaire) est conservé par le dispositif d'imagerie pour référence future. Si un photon signal est réfléchi par l'objet et revient sur l'appareil, il peut être comparé à l'auxiliaire, qui maintient la mémoire de son associé intriqué. Si l'association est vérifiée, le photon est utilisé pour établir une image de l'objet, mais si l'auxiliaire n'a aucune mémoire du photon, il est rejeté comme étant du bruit.
- Communication par satellite photon par photon

Dans la prolongation de la brève précédente, le fait d'avoir réussi à identifier le retour de photons individuels renvoyés par un satellite ouvre à des communications sécurisés par intrication quantique.
- Simulation optique d'un trou noir ou d'un trou blanc

Au-delà de la "simulation optique" elle-même, l'intérêt ici, c'est la description d'autres équivalents aux trous noirs, par exemple l'accélération d'une cascade par rapport à la vitesse maximum d'un saumon (ce qui montre qu'à l'horizon d'un trou noir il ne se passe rien de visible), ou bien des trous noirs sonores ("trous sourds"), ou bien encore un trou blanc dans un évier : au voisinage du jet d'eau, tout est calme mais passé une zone circulaire, l'horizon du "trou blanc", tout change. Les trous noirs seraient donc modélisables par des fluides.

Les caractéristiques liées aux trous noirs sont modélisables par des fluides, comme John Wheeler l’avait fort bien compris. En effet, les équations non-linéaires de la mécanique des fluides donnent lieu à des phénomènes analogues à ceux de la géométrie de l’espace-temps gouvernés eux aussi par des équations non linéaires, celles d’Einstein.

En considérant la vitesse du son comme une analogue de la vitesse de la lumière, on obtient des conditions qui ressemblent à celles d'un trou noir. On peut appliquer à l’équation du son les règles de la mécanique quantique, tout comme à l’équation de la lumière qui lui ressemble beaucoup. Il apparaît alors des quanta d’énergie sonique analogues aux quanta de lumière que sont les photons. Comme il s’agit ici de son, on parlera tout naturellement de phonons et, au lieu d’avoir un trou noir, on aura un trou sourd (on parle aussi de trou noir acoustique), susceptible d'émettre un rayonnement sonique de corps noir.
- Bilan du rayonnement fossile

Les analyses des cinq premières années d’observations cumulées du rayonnement de fond diffus (d'où le 5 de WMap 5) sont désormais à la disposition de toute la communauté des cosmologistes et des physiciens des hautes énergies. Pas de révolution en vue mais de quoi préciser de nombreux paramètres.

Les principaux résultats de WMap 5 peuvent être résumés de la façon suivante :
- la constante de Hubble vaut 70,1 km /s par Mpc (mégaparsecs) +/- 1,3 ;
- la part de la densité de l’Univers ramenée à la densité critique pour l'énergie noire est 72,1 % +/- 1,5 ;
- la part de la densité de l’Univers ramenée à la densité critique pour la matière sombre est 23,3 % +/- 1,3 ;
- la part de la densité de l’Univers ramenée à la densité critique pour la matière baryonique est de 4,6 % +/- 0,2 ;
- l'âge de l'Univers est de 13,73 milliards d'années +/- 0,12 ;
- la température moyenne du cosmos est de 2,725 K ;
- la recombinaison s’est produite 375.900 ans +/- 3.100 après la « naissance » de l’Univers observable.
- La Terre et la Lune observées depuis Mars !

Une série de plusieurs simulations informatiques réalisées par une équipe d'astronomes de l'Université de Californie de Santa Cruz montre qu'il pourrait exister une exoTerre évoluant autour d'Alpha Centauri B, une des trois étoiles qui forment le système Alpha Centauri. A 4,36 années-lumière, c'est une des étoiles les plus proches de la Terre.
Les simulations ont montré que théoriquement tout est en place autour d'Alpha Centauri B pour donner naissance à une petite planète tellurique évoluant dans la zone d'habitabilité de l'étoile. Ce qui signifie que l'eau à l'état liquide peut exister sur cette planète potentiellement habitable.
Climat
- Les stalactites racontent l’histoire des moussons et des civilisations

Les stalactites permettent de retracer l’évolution climatique d’une région, de la même façon que le prélèvement de carottes de glace.
En Chine centrale, une équipe de scientifiques chinois ont analysé la concentration d’un isotope d’oxygène dans les stalactites de la grotte de Sanbao et en ont déduit... les variations annuelles de la température et des précipitations depuis 224.000 ans. Ils ont pu ainsi estimer l’évolution des moussons sur une bonne partie du continent asiatique.
Le chercheur insiste sur le caractère exceptionnel de ces observations, qui démontrent que l’étude des stalactites et stalagmites permet de remonter beaucoup plus loin que la datation au radiocarbone, limitée à 50.000 ans. Il estime en outre que cette méthode remplacera sans doute l’analyse des carottes de glace du Groenland pour quantifier les variations climatiques.
Les résultats des recherches démontrent que la Terre a connu trois périodes où les moussons d’hiver se sont montrées particulièrement violentes, la plus marquée d’entre elles se situant entre l’an 700 et l’an 900 de notre ère. Or, cette époque correspond au déclin de la dynastie Tang en Chine et de la période Maya classique en Amérique centrale.
- Quand les bactéries font pleuvoir

Emportés par le vent, des micro-organismes peuplent l'atmosphère. A l'intérieur des nuages, ils se comportent comme des noyaux de nucléation, qui facilitent la formation de gouttes d'eau ou de cristaux de glace.
Parmi les particules trouvées dans la neige et jouant le rôle de noyau de nucléation, la quantité d'organismes vivants varie selon les endroits entre 69 et 100 % !
La première conclusion de l'article, paru dans Science, est que les bactéries jouent un rôle important dans l'intensité ou la répartition des précipitations. Leur effet, semble-t-il, est de les augmenter surtout quand la température n'est pas trop basse.
- Le Bureau de Modification du Temps des J.O. de Pékin!

Pour les Jeux Olympiques, le "Weather Modification Office" de Pékin sort la grosse artillerie (en plus des avions et des superordinateurs) pour s'assurer le contrôle de la météo !

Nous avons tenu à mentionner ces anomalies de janvier 2008 parce qu'il est important de comprendre que ce qui fait dire aux physiciens du climat qu'il y a réchauffement climatique, ce n'est jamais un mois ou une année particulière : il s'agit toujours de tendances observées sur une ou plusieurs décennies. Lorsque l'on considère de brèves périodes de temps, voire même des régions particulières, on observe des fluctuations considérables.
- La tendance à la fonte des glaciers s'accélère dans le monde entier

"Le taux moyen de fonte a fait plus que doubler entre les années 2004-2005 et 2005-2006", selon des données recueillies sur 30 glaciers de référence dans neuf chaînes de montagnes.
"Le taux moyen de fonte a fait plus que doubler entre les années 2004-2005 et 2005-2006", selon des données recueillies sur 30 glaciers de référence dans neuf chaînes de montagnes.
"Il semble qu'il y a une tendance à l'accélération (de la fonte des glaciers) sans qu'on puisse en voir la fin".
Les glaciers de montagne ne représentent que 0,24% de la cryosphère. Leur fonte totale ne ferait remonter le niveau marin que de 24 cm. Mais, situés sur l'ensemble de la planète, ils constituent des indicateurs précieux pour l'étude des changements climatiques.
- 1500 bébés phoques meurent de froid à cause du réchauffement!

La raison, paradoxalement, vient du réchauffement climatique. En effet, pour protéger du froid leur progéniture, les femelles creusent des trous dans la glace pour y installer leurs petits, qui n'ont pas encore de couche de graisse sous la peau. Or, la glace manque. La fonte est en effet très précoce cette année. Le communiqué affirme que, « selon les experts », la quantité de glace en cette époque de l'année n'a jamais été aussi faible depuis 300 ans.
Cela n'empêche pas que Le Canada autorise la chasse de 275.000 phoques cette année
- En Antarctique, le réchauffement disloque un vaste pan de banquise

Une large étendue de glace de mer, de près de 13.000 kilomètres carrés, le plateau Wilkins, vieux de plusieurs siècles, a commencé à se désagréger. Cette fonte proviendrait du réchauffement de l'atmosphère, particulièrement important dans cette région.
Pour les scientifiques de l'équipe, il ne fait aucun doute que le réchauffement global soit la cause première de cette fonte inhabituelle. En cinquante ans, soulignent-ils, l'Antarctique s'est réchauffée de 0,5 °C par décennie, le record mondial.
- Sauver la planète ne coûterait pas cher
Dans son dernier rapport, l'Organisation des pays développés (OCDE) détaille les évolutions prévisibles pour 2030. Au menu : réchauffement, biodiversité en baisse, ressources en eau raréfiées et dégâts sur la santé causés par la pollution. Egratigner le PIB de 1 % pourrait résoudre nos problèmes, affirment ces experts.
Il suffirait d'une réduction très faible du PIB (produit intérieur brut) pour obtenir un effet suffisant. D'après les experts de l'OCDE, les mesures à prendre coûteraient 1 % du PIB mondial en 2030, ce qui correspond à une baisse annuelle de 0,03 % à partir de 2008. Au lieu de gonfler de 99 %, l'économie mondiale n'augmenterait alors que de... 97 %.
Si aucune action n'est entreprise, le rapport table, pour l'horizon 2050 (et non 2030) sur une augmentation de 37 à 52 % des gaz à effet de serre, aboutissant à un réchauffement de 1,7 à 2,4 °C.
Concernant les ressources en eau, le rapport estime la situation vraiment alarmante. Sans mesure importante à prendre dans les prochaines années, plus d'un milliard de personnes de plus souffriront du manque d'eau en 2030, soit 3,9 milliards de Terriens, c'est-à-dire presque la moitié de l'Humanité.
Plus concrètement, l'OCDE milite pour une suppression de toute subvention à l'utilisation de produits d'origine pétrolière (y compris les plastiques, donc), pour une grande prudence vis-à-vis des agrocarburants et, surtout, pour une taxe carbone élevée, incitant au développement de technologies et de comportements alternatifs.

Nombre de personnes vivant dans des zones en situation de stress hydrique en 2005 (barre supérieure) et en 2030 (barre inférieure) pour les pays de l'OCDE, pour ceux du groupe BRIC (voir le texte) et pour le reste du monde (RdM). La couleur indique l'intensité du manque d'eau, de fort (vert) à aucun (jaune).
- La décennie à venir sera cruciale pour stabiliser le climat
Le Monde, 21.03

Stabiliser le climat sera beaucoup plus ardu que prévu, et les initiatives de réduction des émissions de gaz à effet de serre prises dans la décennie à venir seront cruciales. Elles détermineront s'il est possible ou non d'éviter une "interférence humaine dangereuse" avec la machine climatique, c'est-à-dire s'il est possible de maintenir une teneur atmosphérique en dioxyde de carbone (CO2) inférieure à 550 parties par million (ppm) - contre 280 ppm avant l'ère industrielle et 380 ppm aujourd'hui. Tels sont les principaux constats que dressent des chercheurs américains et canadiens dans plusieurs études récentes.
Or le temps est un paramètre cardinal. Dans la dernière édition de la revue Climatic Change, Bryan Mignone (Brookings Institution) et plusieurs chercheurs de l'université de Princeton évaluent les conséquences d'un report - de quelques années à plusieurs décennies - de la mise en oeuvre des mesures de réduction des émissions mondiales de gaz carbonique. Plusieurs cas de figure ont été examinés. Si l'on voulait par exemple atteindre l'objectif ambitieux de stabiliser la teneur atmosphérique en CO2 à 450 ppm (soit une hausse moyenne des températures comprise entre 1,5 0C et 3,9 0C), il faudrait commencer immédiatement à réduire les émissions mondiales à un rythme de 1,5 % par an.
Si l'on différait l'effort de sept ans, il faudrait, pour atteindre le même objectif, faire décroître les émissions au rythme irréaliste de 3 % l'an. "Il s'agit d'un indicateur du coût des mesures de réduction des émissions, explique Stéphane Hallegatte, chercheur au Centre international de recherche sur l'environnement et le développement. On voit ici qu'un délai, même inférieur à une décennie, peut doubler l'effort économique à accomplir, à objectif égal."
Pour se maintenir en deçà du seuil considéré comme "dangereux" par la majorité des spécialistes, c'est-à-dire 550 ppm (entre 2 °C et 5,2 °C d'augmentation moyenne de température), il faudrait commencer à réduire dès à présent les émissions d'environ 0,5 % par an. Attendre dix ans implique de réduire les émissions d'environ 1 % par an. Or les auteurs postulent qu'un taux de réduction annuel réaliste se situe autour de cette valeur. La conséquence est donc simple : si les émissions continuent d'augmenter comme elles le font pendant plus de dix ans encore, il pourrait devenir impossible de maintenir la machine climatique hors de la zone "dangereuse".
Pour parvenir à ces estimations, les auteurs ont tenu compte des effets de saturation des "puits" de carbone, en particulier de l'océan. A mesure que la température augmente, l'océan absorbe de moins en moins de carbone. Plus le temps passe, plus la température moyenne augmente et moins les émissions sont absorbées par l'océan. Aujourd'hui, 46 % des émissions de CO2 anthropiques demeurent dans l'atmosphère, le reste est absorbé. Dans dix ans, ce seront 48 % de ces mêmes émissions qui persisteront dans l'air et près de 50 % dans vingt ans...
A plus long terme, lorsque les chercheurs tentent de projeter leurs prévisions bien au-delà de 2100 - jusqu'en 2200 ou 2300 -, le constat est parfois plus radical encore. Une étude publiée dans la dernière livraison de Geophysical Research Letters conclut même qu'à terme, pour que le climat se stabilise durablement, il est nécessaire que l'économie mondiale ne rejette quasiment plus de carbone.
- Manger ou conduire, il faut choisir !

L'Agence de l'ONU chargée de la lutte contre la faim dans le monde a mis en garde l'UE jeudi contre le danger des bio-carburants ou plutôt des agri-carburants.
L'Agence estime en effet que de telles pratiques ne font que nourrir la hausse des prix alimentaires. Cette réaction est-elle quelque peu tardive alors que les 27 en ont fait un axe important de leur politique énergétique ?
- Avec les biocarburants, "il n'y aura plus rien à manger", avertit Nestlé

"Si l'on veut couvrir 20% du besoin croissant en produits pétroliers avec des biocarburants, comme cela est prévu, il n'y aura plus rien à manger", a déclaré le PDG du premier groupe alimentaire mondial.

Au dessert, l'Union européenne annoncera son idée de limiter le réchauffement à 2 °C par rapport à l'ère préindustrielle. Un autre chiffre sera évoqué, celui de la réduction des émissions de gaz à effet de serre : 10, 20, 30 ou 40 % ?
Le plat de résistance sera probablement le point de désaccord sur la manière de réduire ces émissions. Les uns veulent des actions pays par pays, voire une réflexion planétaire, d'autres préfèrent des mesures dans chaque branche industrielle.
Bonne idée les branches industrielles, cela n'empêche pas d'agir aussi au niveau des pays.
Biologie
évolution, génétique, biodiversité, éthologie, anthropologie, neurologie
- La vie semble possible sur Encelade !
C'est plutôt que la vie ne serait pas complètement impossible sous la croûte de cette lune de Saturne !

L'analyse des données acquises par Cassini lors du survol d'Encelade montre un monde où la vie est possible. La sonde a révélé la présence d'eau, de gaz carbonique et de molécules organiques dans les éjections des geysers et détecté des températures de -93 degrés Celsius, suffisamment élevées pour laisser penser que les températures sous la surface d'Encelade seraient compatibles avec la présence d'eau à l'état liquide, un des critères pour que la vie telle que nous la connaissons soit possible.
Nombreux sont les scientifiques à penser que tant qu'il y a de l'eau sous forme liquide, la vie trouvera une voie pour apparaître. Ce qui est vrai pour la planète Terre peut très bien l'être également sur d'autres régions du Système Solaire.
- Des acides aminés venus de l'espace

Ce n'est qu'une confirmation de plus de la probable origine cosmique des briques de la vie (et donc que la vie devrait être à peu près la même partout dans l'univers).
Dans ces deux météorites, les teneurs atteignent 249 ppm (parties par million), contre une moyenne de 15 ppm dans les autres météorites carbonées.
On a par ailleurs découvert un précurseur de la glycine dans l'espace (l'aminoacétonitrile).
- Découverte des structures de base de l'ARN

Découverte fondamentale ! Au lieu de s'en tenir aux interactions entre deux nucléobases voisins (Adénine-Uracile et Guanine-Cytosine étant les plus stables) ce nouveau modèle montre que tout ARN est composé d'une combinaison de 19 ensembles de 8 nucléobases stables. Les nucléotides (AGCU) peuvent être considérés comme les lettres ou phonèmes de 19 mots de 8 lettres maxi avec lesquelles sont écrits toutes les séquences de l'ARN (en fait, ce sont plutôt les briques d'un jeu de construction dans l'espace).
Contrairement à son célèbre cousin, l'acide désoxyribonucléique (ADN), formé sur toute sa longueur de deux brins complémentaires qui s'enroulent en une double hélice monotone, l'ARN n'est constitué que d'un seul brin capable de se replier en une multitude de structures complexes. Cette diversité structurale explique la multiplicité de rôles que joue l'ARN à l'intérieur de la cellule, notamment dans la régulation de l'activité des gènes.
Cette approche consiste à assembler la structure in silico à partir de motifs qui tiennent compte de l'ensemble des interactions entre un nucléotide et ses voisins, indépendamment de la séquence de l'ARN. Les bio-informaticiens de l'Université de Montréal ont ainsi pu faire une découverte primordiale: un nombre très restreint de petits motifs de huit nucléotides ou moins suffit pour reconstituer les structures des ARN répertoriées dans les banques de données expérimentales.
"Nous avons pensé que construire un langage structural à partir de mots déjà formés plutôt qu'à partir de lettres prises isolément permettrait de faire de meilleures prédictions quant à la structure qu'adopte une molécule d'ARN dans l'espace", explique François Major. "Notre hypothèse s'est avérée pleinement fondée; nous avons seulement été surpris par le peu de mots que comporte ce langage, dix-neuf pour être plus précis. Ce qui n'empêche pas que leurs différentes combinaisons dans l'espace génèrent un très grand nombre de structures tridimensionnelles.
- L'encyclopédie de la vie en libre accès
Le projet EOL, Encyclopedia of Life, est lancé. Préparé depuis plusieurs années, présenté en version de démonstration en mai 2007, il consiste à rassembler derrière un même site web (www.eol.org) toutes les informations connues sur les espèces connues, vivantes et disparues, soit 1,8 million de fiches.
- Un reptile marin de 15 mètres

Le pliosaure géant découvert il y a deux ans au Spitzberg est encore plus grand que ne le pensaient les paléontologues. Ce reptile marin qui vivait à l’époque des dinosaures, mais qui n’en était pas un, devait mesurer au moins 15 mètres de long d’après les os retrouvés lors de la campagne de fouille de l’année dernière.
- Un calmar géant plus vrai que nature au Muséum à Paris

Le premier calmar géant naturalisé au monde vient d'enrichir la collection de la Grande galerie de l'évolution du Muséum national d'histoire naturelle à Paris, grâce au recours à une technique de conservation inédite.
- Glutamate et sexualité de la mouche

Un insecte hétérosexuel peut devenir temporairement bisexuel si l'on modifie la concentration d'une substance cérébrale appelée glutamate. Et ce, même s'il est adulte ! C'est ce que viennent de démontrer des chercheurs CNRS du laboratoire "Développement et communication chimique chez les insectes" à Dijon, chez l'animal star des laboratoires de génétique: la mouche du vinaigre, baptisée savamment Drosophila melanogaster, ou drosophile.
- Le papillon se souvient de sa vie de chenille
Très étonnant, quand on voit toutes les transformations de la métamorphose !
Des chercheurs de l’université de Georgetown, Washington, ont découvert que les chenilles du Sphynx du tabac, un parasite de la plante éponyme, pouvaient être « dressées » pour éviter certaines odeurs en associant ces fragrances à des petits chocs électriques. Soumises à ce traitement, les larves mettent rapidement en place des conduites d’évitement. Comportement qui persiste après la métamorphose, lorsque les chenilles se sont transformées en papillon.
- Pourquoi le langage penche-t-il à gauche ?

"Nous avons observé que le cortex gauche présente globalement une activité électrique plus rapide (autour de la fréquence 40 Hz) que le cortex auditif droit ; lequel présente, lui, davantage d'activités d'environ 4 Hz".
Ils ont noté des oscillations rapides (40 Hz) au niveau des régions initiant les mouvements de la langue, nécessaires à la production des phonèmes ; et des oscillations lentes (4 Hz) dans les aires impliquées dans les mouvements de la mâchoire, déterminant le rythme de la parole.
- Des restes humains datant de 1,2 million d'années découverts en Espagne
Le Monde 27.03

Un fragment de mandibule et une prémolaire inférieure découverts sur le site préhistorique d'Atapuerca, dans la région de Burgos, au nord de l'Espagne, font reculer dans le temps l'arrivée des premiers humains en Europe de l'Ouest. Vieux d'environ 1,2 million d'années, ces restes sont attribués à Homo antecessor, un ancêtre possible des Néandertaliens et d'homo sapiens, par l'équipe hispano-américaine qui les a mis au jour. Les hominidés précédemment trouvés près d'Atapuerca dataient de 800 000 ans.
Santé
génétique, traitements, nutrition, hygiène
- Des souris atteintes de Parkinson traitées par des cellules souches issues de leurs clones
Le Monde 25.03

Lorenz Studler (Sloan-Kettering Institute, New York) et ses collègues rapportent, sur le site de la revue Nature Medicine, avoir greffé à des souris avec succès des neurones à dopamine dérivés de cellules souches embryonnaires provenant de leurs propres clones.
Seuls les animaux ayant reçu des cellules provenant de leur propre clone ont présenté les signes d'une efficacité du traitement, sans réaction immunologique. (…) Le procédé a échoué lorsque les neurones étaient issus d'un individu génétiquement différent.
Paul Benkimoun retient que « le recours aux cellules souches apparaît comme une perspective prometteuse pour le traitement de la maladie de Parkinson ».
- Chute de cheveux, surpoids et vieillissement

Les scientifiques se sont donc concentrés sur un segment du chromosome 3, contenant 34 gènes et semblant être le suspect numéro 1. Si encore aucun gène de cette zone ne semble avoir de lien avec les cheveux, l'un d'entre eux joue cependant un rôle dans les processus de vieillissement et un autre est impliqué dans le surpoids, trait plus courant chez les hommes présentant des chutes de cheveux que chez les hommes dont la croissance capillaire est normale.
- Des bactéries contre le cancer

On pourrait utiliser des Samonelles (responsables de la tiphoïde) génétiquement modifiés pour pénétrer les cellules cancéreuses et les détruire !
- Des virus contre les tumeurs cérébrales
Un virus génétiquement modifié permettrait de détruire les tumeurs cérébrales, y compris leurs métastases, sans nuire aux tissus sains !
- Test d'un médicament contre la sclérose en plaques
Le Monde, Le Parisien, 26.03

(crédit image https://www.sep-services.fr/®)
Le Monde indique en bref que selon un article paru dans les Pnas, « un nouveau médicament, actuellement testé sur l’homme, a permis, chez des souris, de supprimer la sclérose en plaques et d’autres maladies auto-immunes ».
Le traitement agit en stimulant le développement de cellules T, un type de globules blancs qui participe à la défense de l’organisme.
Le Parisien consacre également quelques lignes à ce « traitement prometteur » dérivé de la Copaxone, testé aux Etats-Unis par des chercheurs de l’université de Harvard.
- Test d'un vaccin contre l'hypertension
Une entreprise suisse, Cytos Biotechnology, expérimente un vaccin, prenant la forme d'un faux virus, capable de provoquer une baisse de tension en stimulant une réaction immunitaire du patient. Les premiers essais sur l'homme sont encourageants.

Le vaccin est constitué d'une construction moléculaire ressemblant à un virus (en bleu) portant des récepteurs spécifiques de l'angiotensine II, un puissant vasoconstricteur
Pour l'instant, le vaccin doit encore faire les preuves de son efficacité, de son innocuité et de son intérêt. La phase 3, portant sur un nombre de patients beaucoup plus grand, devra répondre au premier point. Quant à l'innocuité, on peut remarquer que la méthode est assez violente, consistant ni plus ni moins à provoquer une réaction auto-immune. La méthode de la vaccination devra aussi démontrer qu'elle fait mieux que les hypotenseurs habituels. Le produit actuel, par exemple, exige plusieurs injections par an. En 2005, Cytos Biotechnology avait déjà étudié jusqu'en phase 2 un vaccin contre l'obésité (voir le document PDF) mais ce projet n'avait pas abouti.

- Le virus du Sida bloqué par un gène
Activé, il empêche le virus de s'auto-assembler dans la cellule infectée. Désactivé, il rend la cellule insensible à l'action de l'interféron, antivirus naturel produit par notre organisme. Avec cette découverte, une porte s'ouvre sur une nouvelle voie thérapeutique, mais une ou deux décennies de recherches sont encore nécessaires...
- La salive pour remplacer les prises de sang

Les tests salivaires pourraient un jour remplacer la traditionnelle prise de sang. C’est en tout cas le but des trois équipes de chercheurs qui ont identifié l'ensemble des protéines contenues dans la salive.
Les protéines salivaires peuvent représenter de nouveaux outils pour le suivi des maladies puisque nombre d’entre elles sont similaires à celles se trouvant dans le sang et dont le rôle a déjà été établi notamment dans les maladies d'Alzheimer, d'Huntington, de Parkinson, les cancers du sein, colorectal et du pancréas ainsi que dans les deux types de diabète.
Des études précédentes ont déjà prouvé qu’elles constituaient un bon indicateur pour diagnostiquer les cancers buccaux ainsi que l’infection par le virus du SIDA. Dans un article, publié dans le Journal of Proteome Research, les auteurs estiment que cette liste sera bientôt élargie pour inclure des principales causes de décès comme le cancer et les maladies du cœur.
- Un collier qui surveille les médicaments ingérés

Cet appareil enregistre l'heure de la prise des pillules et rappelle les traitements à prendre.
- Une "alimentation saine" pour réduire les risques d’hypertrophie bénigne de la prostate
La Tribune 17.03

Après 50 ans, un homme sur deux est confronté à une hypertrophie bénigne de la prostate (une HBP).
Selon une étude publiée dans l’American Journal of Epidemiology, une alimentation saine réduirait davantage les risques d’HBP qu’une supplémentation en lycopène, zinc et vitamine D, très en vogue aux Etats-Unis.
En suivant durant 7 ans les habitudes alimentaires de 4.770 hommes ne souffrant pas initialement d’HBP, les chercheurs montrent qu’une alimentation riche en légumes et en protéines mais pauvre en graisses et en viandes rouges réduit significativement les risques d’HBP, et bien plus qu’un complément à base de lycopène, zinc et vitamine D.
Un régime riche en graisses, mauvais pour le cœur, est également mauvais pour la prostate puisqu’il augmente de 31 % le risque d’HBP ; inversement, un régime riche en protéines et pauvre en graisses le réduit de 15 %.
- Une nutrition correcte dans la petite enfance pour une meilleure "productivité économique à l’âge adulte" !
La Tribune 17.03

La Tribune observe qu’« une nutrition correcte dans la petite enfance a des conséquences directes en termes de productivité économique à l’âge adulte ».
Le journal explique que « c’est le constat fait au Guatemala sur près de 3 000 enfants qui ont reçu un supplément nutritionnel entre 0 et 7 ans, soit une boisson fabriquée à partir d’incaparina, une protéine d’origine végétale. Devenus adultes, (ces sujets) travaillaient un nombre d’heures plus important et recevaient un salaire moyen augmenté de 46 % ».
L’hypovitamine D toucherait un milliard d’individus dans le monde, 60 à 98% des femmes ménopausées, aux Etats-Unis 50% des adolescents, 30% des étudiants en médecine. Elle est plus fréquente en Espagne qu’en Suède et dans les pays arabes où les femmes sont voilées.
Le risque de Sclérose En Plaques serait diminué ainsi que celui de diabète insulino-dépendant si on apporte 2000 U/j la première année d’existence.
- Les nanotubes contre les fractures osseuses...

Des chercheurs japonais de l’Université de Shinshu ont étudié l’influence de l’injection de nanotubes de carbone sur la régénération des tissus osseux. Selon eux, le temps de réparation des fractures pourrait être réduit grâce à la présence de ces nanotubes... au moins chez la souris.

Bras commandé par la pensée, puce pour remarcher, redonner la vue aux aveugles, prothèses auditives, pace-maker, utérus artificiel (?!).
- L'homme enceinte attend une petite fille
Le Parisien 28.03

«Notre situation pose des questions juridiques, politiques et sociales inédites. Pour le moment, nous essuyons seulement le rejet de quelques personnes choquées par notre démarche», raconte cette semaine Thomas Beatie, dans la revue américaine gay The Advocate. Et pour cause.
En juillet prochain, ce trentenaire sera le papa d'une petite fille... qu'il aura lui-même mis au monde !
Pour comprendre cette histoire, il faut revenir quelques années en arrière, à la naissance de Thomas Beatie, transexuel né femme du nom de Tracy Lagondino.
Il y a dix ans, après une opération pour devenir légalement un homme, il épouse Nancy avec qui il vit dans l'Orégon. Le rêve d'avoir un enfant s'amenuise le jour où l'épouse devient stérile à la suite d'une hystérectomie (ablation de l'utérus). Alors Thomas propose une solution inédite : porter l'enfant.
Après avoir arrêté son traitement hormonal pour pouvoir enfanter, Thomas Beatie retrouve très vite un cycle menstruel. «Je n'avais plus eu de règles depuis environ huit ans !, s'étonne-t-il (...) Mon corps s'est régulé de lui-même au bout de seulement quatre mois».
A cette étape, le mari décide alors de tenter une insémination inédite, par l'intermédiaire d'une banque de sperme à donneurs anonymes, qui a fonctionné à la seconde tentative. La naissance est prévue pour le 3 juillet prochain.
- Comparer son génome avec ses proches...

Le site 23andMe analyse votre génome et peut le comparer à celui de vos proches...
- Schizophrénie : de nouvelles pistes génétiques
Le Figaro 31.03

Ce qui est intéressant, c'est que les anomalies génétiques ne seraient pas spécifiques et que donc les schizophrénies seraient surtout des perturbations du cerveau (où l'inflammation pourrait avoir un rôle).
Le Figaro note que selon une étude de chercheurs nord-américains publiée dans Science, les schizophrènes « sont porteurs d’un grand nombre de facteurs de vulnérabilité génétique, rares mais puissants, qui perturbent leur développement neuronal ».
Tom Walsh et ses collègues de l’université de Washington, à Seattle, ont découvert, à partir de l’ADN de 150 schizophrènes comparé à celui de 268 personnes saines, de multiples anomalies sous formes de duplications ou de délétions.
Ce type de perturbations se retrouve 4 fois plus souvent chez les patients atteints de forme précoce, avant l’âge de 18 ans.
L’étude montre que de nombreux gènes sont impliqués, mais que chaque «mutation» est différente d’un schizophrène à un autre (sauf pour des jumeaux, tous deux atteints). (…) Les «empreintes» de telle ou telle forme de schizophrénie semblent uniques pour chaque individu.

https://mindmentor.com/, c'est 5€ de l'heure...
- Pulsion de mort et jeux vidéo
Il semblerait bien que le joueur éprouve une joie secrète à voir son personnage abattu lors d’une mission. En revanche, de nombreux sujets auraient montré des signes d’émotion négative lorsqu’ils tuaient ou abattaient un ennemi, malgré, bien sûr, des signes extérieurs de satisfaction.

- Lignes à haute tension – Attention danger
Le Parisien 21.03

Lignes à haute tension, attention danger ! Le panneau posé sur les pylônes n'a jamais paru aussi juste. Des risques pour la santé sont maintenant avérés.
Un rapport sur l'impact des rayonnements électromagnétiques affirme que l'on trouve davantage de maladies graves chez les personnes vivant près des lignes à haute tension. La secrétaire d'Etat à l'Ecologie reconnaît l'existence de risques.
L'enquête menée en janvier et février par les chercheurs du Centre de recherche et d'information indépendantes sur les rayonnements électromagnétiques (Criirem), dont nous avons obtenu les conclusions partielles, affirme que l'on trouve davantage de maladies graves (dont des cancers) et des gênes dans la vie courante (irritabilité, maux de tête, insomnie) chez les personnes habitant tout près de ces lignes.
En 2001, d'autres études avaient déjà classé « potentiellement cancérigènes » les rayonnements électromagnétiques émis par les lignes à haute tension, lorsque l'on est à moins de 300 m de distance. Mais, par la suite, d'autres travaux, souvent financés par EDF, étaient arrivés à des conclusions plus rassurantes.
Technologie
biotechnologies, énergie, nanotechnologies, robotique, informatique, économie
- Une imprimante à tissus humains !

Etonnant et destiné uniquement pour l'instant au test de produits pharmaceutiques :
Les chercheurs ont créé des vaisseaux sanguins et des tissus cardiaques fonctionnels, en utilisant une imprimante "qui dispense des cellules au lieu de l'encre". C'est peut-être une brillante et prometteuse étape vers l'impression d'organes à la demande !
- Un plastique qui change de dureté à volonté

Dur au sec, mou dans l'eau : ce nouveau polymère aux propriétés changeantes pourrait inaugurer une nouvelle famille de matériaux dont les caractéristiques mécaniques seraient modifiables à volonté à l'aide d'un stimulus chimique. A l'origine de cette invention : le concombre de mer. A l'horizon : de nombreuses applications, par exemple dans la lutte contre la maladie de Parkinson !
Dans Science, ils décrivent un polymère dont l'élasticité longitudinale varie de 4.200 à 1,6 MPa, soit un facteur 2.625. «Du CD au caoutchouc mou » résume Christoph Weder. Le facteur déclenchant est l'eau et le changement ne dure que quelques secondes. Il est également réversible. Séché, le caoutchouc redevient CD. « Nous sommes maintenant capables de réaliser un matériau dont la rigidité et la résistance peuvent être contrôlées par un stimulus chimique » s'enthousiasme ce biologiste.
L'équipe envisage déjà une application dans le domaine biomédical : la réalisation d'électrodes souples pour stimuler le système nerveux. On soigne désormais certaines affections neurologiques, comme la maladie de Parkinson, à l'aide de fines aiguilles reliées à un stimulateur et envoyant un petit courant électrique dans des zones lésées. Au laboratoire, expliquent les chercheurs, il a été observé que des microélectrodes ainsi implantées fournissent un signal dégradé au bout de quelques mois. La cause pourrait être leur rigidité trop grande, qui s'accommode mal des petits mouvements parcourant nos tissus mous. Mais au moment de l'implantation, une telle électrode doit impérativement être très rigide pour permettre un positionnement précis, à bien moins d'un millimètre près. Une électrode dure au moment de l'implantation mais qui se ramollirait ensuite pourrait constituer une solution élégante à ce problème. « C'est pour cela que nous avons d'abord mis au point un polymère qui répond à l'eau » confie Christoph Weder.
- Un Japonais tente la traversée du Pacifique avec un bateau à vagues

Un marin japonais écologiste va tenter de traverser l'Océan Pacifique avec un bateau construit en partie de matériau recyclé et dont la propulsion reposera sur la force motrice des vagues.
Son bateau à deux coques, la Suntory Mermaid II, est équipé de deux espèces de nageoires à l'avant qui lui permettent d'avancer, en s'appuyant sur la force motrice des vagues.
Selon M. Horie, le mouvement ascendant et descendant de la houle permettra à son embarcation de voguer à la vitesse de trois noeuds marins (5,5 km/h).
Voir aussi Futura-Sciences. 
- Rinspeed sQuba: la voiture submersible de James Bond enfin réalité
C'est un peu n'importe quoi, le pire c'est que ça existe vraiment, les enfants s'amusent...

N'ayant pas peur de surprendre, le constructeur automobile Rinspeed prépare une voiture sous-marine pour le Salon de Genève, baptisée sQuba.
Terrestre ou marine, pour arriver à un double mode de propulsion, il faut partir d'une classique Lotus Elise et en extraire le moteur thermique. On le remplace ensuite par trois moteurs électriques, un qui sera utilisé pour la propulsion terrestre et les deux autres entraîneront les hélices.
La réalisation peut paraître étonnante, mais la voiture est un cabriolet. Le choix s'explique pour plusieurs raisons. La première est la sécurité, les passagers pouvant s'extraire facilement en cas d'urgence, alors qu'avec la pression il est quasi-impossible d'ouvrir des portières sous l'eau.
Il est vrai qu'une fois en plongée, les occupants doivent utiliser des bouteilles d'oxygène avec un masque.
Il y a une vidéo et ce ne sont pas des images virtuelles !
- le Lynx Mark I, un avion spatial miniature en 2010

Sous son allure de jet privé miniature, cet appareil biplace muni d'une fusée sera capable de décoller par ses propres moyens sur une piste puis d'atteindre 60 kilomètres d'altitude pour quelques minutes d'apesanteur.
De la taille d'un avion de tourisme, cet appareil biplace est propulsé par une fusée, alimentée en kérosène (le carburant classique des avions à réaction) et en oxygène liquide. L'engin pourrait décoller par ses propres moyens depuis une piste d'un aérodrome.
Après son décollage, le Lynx Mark I grimpera quasiment à la verticale durant trois minutes, avant l'extinction du moteur, à 42 kilomètres au-dessus du sol, pour poursuivre son vol en trajectoire balistique. Les passagers, ou plus exactement le pilote et son passager, vivront alors quatre minutes d'apesanteur pendant cette trajectoire parabolique au cours de laquelle le Lynx Mark I atteindra 60 kilomètres d'altitude. Il ne s'agit donc pas d'un vol spatial puisque la limite officielle de l'espace a été fixée à cent kilomètres. Mais on n'en est pas loin.
Plutôt des navettes car uniquement sur des trajets programmés.


A Minneapolis, 50 000 compteurs intelligents devraient permettre des économies d'énergie importantes pour les utilisateurs et permettre de privilégier les énergies renouvelables.
- Grow, le lierre solaire à l’assaut des façades

L’éolien et le solaire représentent deux formes d’énergie renouvelable parmi les plus prometteuses. Alors pourquoi ne pas les combiner ? C’est ce que vient de réaliser une entreprise new-yorkaise avec Grow, le lierre solaire.
En s’agitant, ces minuscules capteurs solaires actionnent un dispositif piézo-électrique dissimulé dans leur tige produisant de l’énergie sous la contrainte mécanique. La société Smit (Sustainably minded interactive technology), conceptrice du projet, souligne l’importance de combiner les deux sources d’énergie dans une solution qui en garantit un fonctionnement plus continu en cas de carence de l’une ou de l’autre.

- Des cellules photovoltaïques "Arc en Ciel"
Des cellules plus efficaces (30%) car sensibles à tout le spectre lumineux mais à base de quantum dots en Cadmium Selenide et de nanotubes de dioxyde de Titane.
- Thermoélectricité : comment produire du courant avec de la chaleur
Cela fait quelques mois que la piste thermoélectrique est de nouveau explorée avec des progrès significatifs mais la nouveauté ici, c'est de pouvoir passer à la production de masse car on n'est plus du tout dans le fantasme des nanotechnologies d'une construction par le bas, atome par atome, processus qui exige une maîtrise absolue et qui prend un temps infini, mais dans un processus de production classique puis de réduction en poudre nanométrique, ce qui est bien plus efficace (mais comporte sans doute les risques de l'amiante).
L'espoir grandit de pouvoir fabriquer de l'électricité à partir de n'importe quelle source de chaleur, récupérée autour d'un moteur, dans une habitation ou à l'intérieur d'une usine.
Le matériau doit très bien conduire le courant mais doit faire obstacle au flux de chaleur. Dans le cas contraire, la chaleur dégagée par le passage du courant électrique se répand dans tout le volume et vient réduire l'effet recherché. Les scientifiques veulent aussi abaisser la température minimale de fonctionnement, qui reste élevée.

Une équipe américaine du MIT (Massachusetts Institute of Technology) et du Boston College viennent d'annoncer un progrès significatif. Gang Chen, Mildred Dresselhaus (MIT) et Zhifeng Ren (Boston College) ont utilisé un matériau thermoélectrique déjà connu, du tellurure d'antimoine-bismuth, mais l'ont préparé de manière différente. Ils l'ont d'abord réduit en une poudre extrêmement fine, dont les grains ont un diamètre d'environ 20 nanomètres, qu'ils ont ensuite compressée à haute température pour former des disques et des barres.
L'intérêt du procédé est aussi sa simplicité, puisqu'il part d'un matériau macroscopique pour fabriquer une structure nanométrique. Cette approche descendante (contrairement à l'approche bottom-up, qui consiste à assembler des nano-objets) permet d'envisager une production plus facile. « Nous ne parlons plus en grammes mais en kilogrammes, s'enthousiasme Zhifeng Ren. Nous pouvons en faire des tonnes ! ».
- Des circuits imprimés souples

- Photonique : IBM fait entrer la lumière dans les processeurs

Pour faire dialoguer à haut débit les cœurs des futurs processeurs, l'une des voies explorées consiste à installer dans le processeur un minuscule réseau optique. IBM vient de présenter une première réalisation, un commutateur photonique miniature capable de gérer un flux de 1 térabit par seconde.
Ce minuscule composant, d'une surface de 5 dix millièmes de millimètre carré, peut recevoir un signal optique à l'une de ses portes et l'aiguiller vers l'une de ses trois autres portes avec un temps de commutation très faible.
D'après IBM, chaque commutateur peut atteindre un débit de 40 Gb (gigabits) par seconde, pour chaque longueur d'onde. Ce circuit, en effet, peut aiguiller simultanément plusieurs signaux lumineux à des longueurs d'onde (donc des couleurs) différentes. L'équipe affirme pouvoir atteindre ainsi un débit de 1 Tb (térabit) par seconde. L'espoir, dixit IBM, est de parvenir à transmettre cent fois plus d'informations pour une consommation dix fois moindre.
- Un prototype de nano-ordinateur pour nano-robots

Une équipe de chercheurs de l'Institut National des sciences des matériaux à l'université de Tsukuba, au Japon, a réussi à créer le plus petit ordinateur du monde composé de seulement 17 molécules.
Ce système fonctionne en parallèle, exécutant plusieurs instructions en même temps. Les composants utilisés sont des molécules de duroquinone, qui peuvent prendre quatre positions différentes. L'ordinateur lui-même est une espèce d'anneau, composé d'une molécule centrale et de 16 molécules à la périphérie. Pour envoyer une instruction, on “titille” électriquement la molécule centrale via un microscope à effet tunnel.
Une fois activée, la molécule centrale envoie son instruction simultanément aux 16 molécules périphériques (voir la vidéo de Msnbc qui explique le fonctionnement: lien). Selon l'un des chercheurs, Anirban Bandyopadhyay, cette architecture particulière, dans laquelle un élément communique simultanément avec de nombreux autres, se retrouve dans le cerveau et dans le mode de fonctionnement des neurones.
Les chercheurs ne se sont pas arrêtés là. Ils ont essayé de connecter leur petit ordinateur avec huit nanomachines, comme le plus petit ascenseur du monde, capable de s'élever ou de descendre d'un nanomètre. Ils ont ainsi pu vérifier qu'ils étaient capables de piloter des systèmes externes avec leur appareil.
Un petit panorama des tendances actuelles (rien de nouveau).

- Vers des robots “multicellulaires”

Aujourd’hui, ces “intelligences collectives” s’apparentent avant tout à des sociétés : bien que des comportements nouveaux, émergents, apparaissent au sein du collectif, chaque robot reste une entité unique à part entière.
Le nouveau projet Symbrion, lancé par l’Union Européenne, envisage d’aller bien plus loin dans l’intégration des différents agents. La métaphore n’est plus ici la société, ou la ruche, mais bel et bien l’être pluricellulaire, constitué d’une multitude d’éléments si intimement connectés entre eux qu’on ne peut plus parler que d’une seule et unique créature.
Dans un essaim, l’intelligence collective est statistique. Les constituants ont tendance à adopter un comportement spécifique en rapport avec la collectivité, mais il y a toujours des exceptions, des cavaliers seuls. Au contraire, dans un système Symbrion, tous les éléments doivent fonctionner en parfaite collaboration.
Chacune des machines est identique aux autres au départ, mais lorsqu’elle s’intègre au collectif, elle se spécialise. Par exemple, celles qui restent au contact avec l’extérieur pourront utiliser leurs capteurs pour créer une “peau”, tandis que celles à l’intérieur du “corps” cesseront d’utiliser cette fonctionnalité pour elles inutile.
- El-E, le robot qui apporte les objets

Destiné à aider les personnes handicapées ou immobilisées, ce robot va chercher un objet qu'on lui désigne à l'aide d'un pointeur laser. Ses caméras lui permettent d'opérer dans un environnement domestique, de repérer des personnes et de saisir un objet par terre, sur une table ou sur une étagère.
- BigDog, la perfection à quatre pattes !

La vidéo est impressionante, de quoi faire un peu peur devant cet extraterrestre !
- Apprendre à parler aux robots

Il s’appelle iCub, c’est un petit robot d’un mètre de haut et il sera, peut-être un jour, célébré pour être le premier androïde à avoir appris à parler grâce à des méthodes similaires à celles qu’emploient les humains.
- Des intelligences artificielles dans le monde virtuel

Quoi de mieux pour tester les capacités d'un robot d'interaction avec les autres que de tester ces capacités dans le monde virtuel.
Il ressemble à un robot mal construit et vient de faire son entrée sur Second Life. Ce n'est qu'une démonstration mais ses concepteurs, des scientifiques travaillant sur l'intelligence artificielle, veulent ainsi démontrer que leur créature virtuelle raisonne – un peu – par elle-même, réussissant un test devant lequel échoue un enfant de moins de quatre ans.
Eddie est surtout un logiciel capable, selon ses auteurs, de se mettre un peu à la place des autres. "Notre but est de construire des agents artificiels rendus plus intéressants et plus utiles grâce à la capacité d'imputer des états mentaux à d'autres agents, de raisonner en prenant en compte ces états mentaux et d'avoir – comme les avatars – des états corrélés à ceux que connaissent les humains" explique Selmer Bringsjord, à l'Institut polytechnique Rensselaer (Etats-Unis).
- Un grand écran améliore fortement la productivité au bureau

Exploiter un écran au format panoramique de 24 pouces aurait permis de réduire la durée d'exécution d'une tâche de 8 à 5h30 en moyenne.
"L'étude a révélé que l'utilisation de configurations au format panoramique ou à deux moniteurs est recommandée dans n'importe quelle situation où plusieurs documents d'informations font partie du travail habituel".
- Des lunettes pour enregistrer le film de sa vie

Il ne faut pas s'emballer, c'est n'importe quoi et a bien peu de chance de se généraliser, même si cela permettrait de retrouver ses clefs, paraît-il...
Des chercheurs de l’université de Tokyo ont imaginé d'étranges lunettes informatisées, dénommées cyber goggles, qui devraient, affirment-ils, nous éviter de perdre nos clés de voiture et tous ces objets du quotidien qui disparaissent si facilement.
- L'ordinateur du futur imaginé par les designers
C'est encore n'importe quoi et souvent un peu effrayant mais ce ne sont que des concepts qui n'existeront sans doute jamais vraiment, juste de la science-fiction...
Les ordinateurs du futur ressembleront-ils à des tasses de café, des mugs ou à des feuilles de papier synthétique ? Le concours Next-Gen PC Design, organisé par Microsoft, propose aux internautes de départager une trentaine de visions de l’informatique du futur, vue du côté de ses interfaces.

L’innovation dont on parle le plus est Momenta, « le PC pour la vie », qui se positionne lui aussi sur le créneau du LifeLog, nom que l’on donne à ces systèmes destinés à conserver la trace de tout ce que l’on fait dans la vie. Momenta se présente sous la forme d’un gros collier qui réagit aux émotions de celui ou celle qui le porte afin d’enregistrer ce qui fait battre son cœur, et donc aussi de documenter ce qui a pu lui faire peur, ou mal, qu’il s’agisse d’agression physique ou de problème de santé. Lorsque la pression cardiaque s’intensifie, Momenta archive, en vidéo, les 5 minutes précédentes, et continue d’enregistrer jusqu’à ce que l’utilisateur y mette un terme. Un module Wi-Fi lui permet de se connecter à Internet, un micro-projecteur d’afficher un bureau virtuel que l’on peut contrôler par gestes interposés.
- Surveillance intégrale par RFID

L'université de l'Etat de Washington a mis en place sur le Paul Allen Center un réseau (baptisé “écosystème”) de 200 antennes, utilisant des puces RFID, dans le but d'enregistrer les mouvements d'une cinquantaine d'étudiants cobayes et de leurs matériels (habits, gadgets high-tech, sacs, livres...).
L'idée est de mieux comprendre comment évoluent l'intimité et la confidentialité dans un tel environnement.
“Nous nous inquiétons que ces technologies soient implémentées trop rapidement, c'est pourquoi nous voulons avec ce système explorer cela dans un environnement contrôlé pour informer le public et les décideurs des questions auxquelles nous devrons faire face”.
- Les internautes sous haute surveillance… publicitaire
On s'en doutait mais l'ampleur du phénomène telle qu'elle vient d'être mesurée peut étonner : les plus grandes entreprises du Web amassent une quantité phénoménale d'informations sur la vie privée de chacun. L'objectif est de cibler au mieux les publicités qui s'affichent sur nos écrans.
Les cinq premières entreprises d'Internet – AOL, Google, Microsoft, MySpace, et Yahoo! – traitent ainsi 336 milliards d'événements de ce genre chaque mois. Le champion est Yahoo!, avec une récolte mensuelle de 111 milliards, soit une moyenne de 811 transmissions d'information par internaute !
Aux chiffres par entreprise, il faut encore ajouter ceux des partenaires ou des filiales. Ainsi, Yahoo! peut récupérer un supplément de 1.700 informations mensuelles grâce à ses accords avec différents autres acteurs, comme eBay. De même, Google s'est offert l'an dernier (pour la modique somme de 3,1 milliards de dollars) DoubleClick, une société spécialisée dans les bandeaux publicitaires et qui, depuis toujours, enregistre, en s'aidant de cookies, le parcours des internautes lisant les publicités. Quatrième de ce classement, Google atteint ainsi 578 informations par internaute et par mois. Entre les deux, le deuxième de cette liste est MySpace (1.229) et le quatrième AOL, avec 610. Derrière viennent Facebook, Microsoft et eBay.
- Les business model du web 2.0

Le capitalisme cognitif a bien peu de modèles de rentabilité, d'autant qu'internet favorise la gratuité et augmente considérablement la concentration par renforcement des externalités de réseau. Si tout est gratuit, comme dans les médias de masse, il faut trouver d'autres ressources. Les 4 modèles dominants sont : 1) la publicité, 2) les services additionnels payants (Freemium!) 3) le prélèvement de commissions sur les transactions à partir du site 4) les dons (wikipédia). On peut distinguer aussi 4 modèles d'intermédiation publicitaire (affichage de bandeaux, AdWords en fonction du contexte, les partenariats, le marketing dans les mondes virtuels).

- La gratuité est-elle l’avenir de l’économie ?
![]()
“La constante diminution des coûts de production de l’économie numérique incitera bientôt la plupart des entreprises à donner la majorité de leurs produits”. La distribution gratuite est une nouvelle forme d’économie, explique-t-il. Les choses autour de nous deviennent chaque jour moins coûteuses : grâce à la Chine et l’approvisionnement mondial, on peut obtenir un tee-shirt pour le prix d’une tasse de café. Et cette tendance est encore plus forte dans le monde de l’immatériel. Des albums aux jeux, en passant par les logiciels de Google, tout est gratuit sur l’internet. La montée de cette économie de la gratuité est tirée par les technologies qui font marcher le web.
“Il est désormais clair que tout ce que le numérique touche évolue vers la gratuité (…) D’une certaine manière, le web étend le modèle économique des médias à toutes sortes d’autres secteurs économiques.”
L’argent n’est pas la seule rareté dans cette économie d’abondance, suggère Anderson. Votre temps, votre réputation le sont aussi : “Le monde du gratuit a pour objet de capter ces nouvelles raretés, au nom d’un modèle d’affaires qui sera identifié par la suite.” Nous entrons dans une ère où la gratuité sera considérée comme la norme et non pas comme une anomalie, conclut Anderson.
“Quand la copie se généralise, vous avez besoin de vendre des choses qui ne peuvent pas être copiées”, clame Kevin Kelly. Il y a plein de qualités qui ne peuvent pas être copiées, explique-t-il : la confiance par exemple. La confiance ne peut pas être téléchargée ou contrefaite (enfin, pas pour longtemps). Toutes choses égales par ailleurs, vous préférerez toujours faire affaire avec quelqu’un de confiance. La confiance est donc un élément intangible qui a une valeur croissante dans un monde saturé. Il a plein d’autres qualités similaires à la confiance qui sont difficiles à copier et qui prennent de la valeur dans cette économie en réseau : l'immédiateté, la personnalisation, l'interprétation, l'authenticité, l'accessibilité, l'incarnation, le mécénat, la trouvabilité...
- Musique légale gratuite :
https://www.jiwa.fm/fr après https://www.deezer.com/.
- Wikipedia reçoit 3 millions de dollars pour certifier son contenu

La Sloan Foundation, une organisation à but non lucratif créée en 1934 par le PDG de General Motors, annonce qu'elle procède à un don de 3 millions de dollars à Wikimedia, une autre "fondation" qui possède Wikipedia. Ce don servira notamment à financer une nouvelle fonctionnalité de l'encyclopédie collaborative. Annoncé en 2006, cet outil permet à des "éditeurs expérimentés" de noter la qualité des articles, et valider ainsi les contenus jugés exacts.
- Yahoo rejoint Google dans l'alliance OpenSocial

Yahoo a annoncé officiellement qu'il rejoignait OpenSocial, l'initiative de Google pour attirer les développeurs et contrer Facebook. Au passage, elle prend la forme d'une association dont Google cède le contrôle. Le signe peut-être d'un rapprochement avec Google, grand concurrent de Yahoo et qui pourrait représenter une alternative à un rachat par Microsoft.
- Le P4P, une fois et demie plus rapide que le P2P ?

A gauche, le schéma des échanges selon le mode traditionnel du serveur : un émetteur (le serveur de données) envoie les informations demandées aux postes qui ont établi une communication avec lui. Les données transitent par Internet, les routeurs régionaux et les réseaux de proximité (edge network). Au centre, le P2P actuel, sans gestion (unmanaged P2P). Les échanges ont lieu sans serveurs, entre les ordinateurs eux-mêmes. Les liaisons empruntent des chemins quelconques. Un fichier demandé par un ordinateur marseillais pourra provenir de Buenos Aires même s'il en existe une version identique à Toulon. A droite, le schéma montre le P4P au travail. Les routeurs privilégient les liaisons à courtes distances. L'ordinateur marseillais recevra le fichier toulonnais et ne récupérera à Buenos Aires que les données qui n'existent pas plus près de la Canebière.
« Les résultats du test ont été phénoménaux, s'enthousiasme Douglas Pasko, responsable technique de Verizon. (...) Ce nouveau système (...) offre des téléchargements jusqu'à six fois plus rapides. En moyenne, les vitesses de téléchargement, par rapport aux autres méthodes, sont augmentées d'environ 60 % ».
On constate au passage que l'ambiance n'est plus à fustiger les échanges par peer-to-peer mais à en reconnaître l'utilité et même, pour les industriels, à chercher à en tirer profit...

- Le moral des Français atteint des planchers

Ce n'est que l'un des 15 risques qui menacent la croissance mondiale (récession, faillite des banques, des assureurs de crédit, de villes américaines, de fonds d'investissement, éclatement des bulles de l'immobilier et des prêts aux entreprises, retour de l'inflation, du chômage, etc.). On nous parle de l'effondrement de l'automobile ou des services mais bizarrement pas du principal, l'effondrement du dollar qui est la véritable menace.
- Moins de travailleurs très pauvres dans le monde
Le nombre de travailleurs extrêmement pauvres diminue depuis 10 ans. Cependant, l’évolution est plus contrastée selon les régions du monde.
Entre 1997 et 2007, le nombre de travailleurs très pauvres - vivant avec moins d’un dollar par jour - s’est réduit de 20%, soit 125 millions de personnes selon le Bureau international du travail (BIT). Un net progrès qui signifie une amélioration pour un nombre encore plus grand de personnes si l’on prend en compte tous ceux qui vivent d’un même revenu. Une évolution décisive dans la lutte contre la pauvreté au niveau mondial.
Cependant, la situation est contrastée selon les régions. Le nombre de travailleurs très pauvres a augmenté de 27 millions en Afrique subsaharienne en dix années. Mais l’emploi a encore plus progressé, du coup la proportion de travailleurs pauvres a légèrement diminué. Au Moyen-Orient le nombre augmente plus vite que l’emploi et donc la proportion de travailleurs très pauvres s’accroît. La baisse est particulièrement sensible en Asie, notamment en Asie du Sud où le nombre de travailleurs très pauvres aurait diminué de 50 millions, réduisant la part de 53 à 33 %. On notera que la part de travailleurs très pauvres a été divisée par trois dans les ex-pays de l’Est.

<- Revue des sciences précédente | Revue des sciences suivante ->

- 

Les commentaires sont fermés.