Pour la Science
La Recherche
- La réalité n'existe pas
- L'Univers est-il un ordinateur quantique ?
- L'enfant apprend à résister à ses intuitions
Physique, espace, nanos
- Une théorie de l'information physique : les constructeurs
- Un vaisseau plus rapide que la lumière dans l'hyperespace ?
Climat, écologie, énergie
- Le rôle important des tourbillons géants de l'océan
- 20% des réserves d'hydrocarbures à découvrir situées dans l'Arctique
- La réfrigération magnétique
Biologie, préhistoire, cerveau
- Le codon STOP contourné par des bactéries
- Des protéines d'algue qui contrôlent la cohérence quantique
- Une vie complexe il y a 2 milliards dannées
- L'anxiété de l'écrevisse
- La différenciation des cellules souches
- Contrôler les muscles par optogénétique
- Le langage combinerait les mots des singes et la syntaxe des oiseaux ?
- Pensée et apprentissage passent par la synchronisation des ondes cérébrale
- La conscience localisée dans le claustrum ?
- Le rôle structurant du mensonge dans la diversification des sociétés
Santé
- Alzheimer : un excès de GABA empêcherait la mémorisation
- Un dérivé de la vitamine A pour traiter le diabète de type 2
- 3 jours de jeûne suffisent pour régénérer tout le système immunitaire
- Votre ADN sur une clé USB !
- Un pacemaker alimenté par les mouvements des muscles
Techno
- Un programme qui associe concepts et images
- Piloter un avion par la pensée
- Xplorair : la voiture volante prend son envol en 2017
<- Revue des sciences précédente | Revue des sciences suivante ->
Revues : Pour la Science - La Recherche Brèves : Physique - Climat - Biologie - Santé - Technologie
- Société
Il est difficile de savoir si cette fois-ci, c'est la bonne, il y a si longtemps qu'on nous promet des voitures volantes mais la Xplorair propulsée par des thermoréacteurs ressemble vraiment à ces véhicules de science-fiction qui décollent à la verticale et pour un prix équivalent à celui d'une luxueuse limousine. Pour l'instant, à revenir sur terre, on a déjà bien du mal à se passer des moteurs thermiques mais Elon Musk, le PDG de Tesla Motors, a décidé de rendre libres les brevets de ses véhicules électriques afin de stimuler l'innovation. L'économiste Bruno Amable, souligne cependant que, contrairement à la vulgate libérale, il n’y a pas d’innovation radicale dans lequel l’Etat (on devrait dire l'armée) n’ait pas joué un rôle moteur, comme pour l'internet. Le capital-risque, supposé être l’ingrédient essentiel de tout système d’innovation, n’intervenant en général que 15 ou 20 ans après (mais il est bien décisif pour sa généralisation).
Du côté de l'énergie, on ne peut dire que les nouvelles soient bonnes par quelque bout qu'on les prenne. D'abord, il faudrait se rendre à l'évidence que, même si les coûts du solaire s'effondrent et sauf miracle (politique), l'essor des énergies renouvelables sera lent comme l'ont été les autres transitions énergétiques (charbon, pétrole, électricité). De quoi inciter à redoubler d'efforts sans se faire trop d'illusions pourtant (une étude prévoit quand même 60% d'électricité renouvelable en 2030). Si les capacités de production, par manque d'investissements ces dernières années (mais en forte hausse aujourd'hui), ont du mal à suivre une demande de pétrole en augmentation constante et que les tensions au Moyen Orient devraient pousser encore les prix à la hausse (ce qui favoriserait les renouvelables mais pour combien de temps ?), cela ne signifie pas pour autant qu'on atteindrait le pic pétrolier comme nous le répètent les mêmes imperturbablement depuis plus de 15 ans ! Sans parler du fait que l'Arctique recélerait 20% des réserves d'hydrocarbures qui restent à découvrir, on est tout aussi loin d'en avoir fini avec le pétrole de schiste dont on annonce prématurément le déclin alors qu'on avait vu le mois dernier que de nouvelles techniques d'extraction bien plus efficaces et moins coûteuses viennent d'être mises au point. Parmi les rares bonnes nouvelles, on peut citer la réfrigération magnétique qui économiserait pas mal d'énergie, mais ce n'est pas pour tout de suite non plus...
A part ça, le retour d'une sorte de grippe espagnole paraît probable mais ce n'est pas la première fois qu'on en agite la menace alors que les pesticides et notamment les neonicotinoïdes sont bien une catastrophe écologique, pas seulement pour les abeilles (voir aussi Sciences et Avenir). Sinon, contrairement à ce que laisseraient croire les scandales des suicides au travail et d'une gestion par le stress inhumaine, on serait, en majorité, plus heureux et moins stressé au travail qu'à la maison ! Si les plus malheureux sont les chômeurs, les plus heureux sont les indépendants (pourtant plus stressés) mais surtout les temps partiels choisis alors que les temps partiels subis sont parmi les plus malheureux... En tout cas, le foyer n'est pas si souvent le havre de paix qu'il devrait être, lieu supposé du repli sur le bonheur individuel ou familial. La quantification de soi devrait rendre plus évidentes ces réalités, il semble en tout cas qu'on n'évitera pas l'évaluation généralisée pour tout ce qui passe par internet où chacun devra être noté, aussi bien fournisseur que client ! Du coup, il serait presque rassurant de constater le rôle structurant du mensonge dans la société. Enfin, le bilan de la légalisation du cannabis au Colorado se révèle largement positif (pour l'économie et une baisse de la criminalité).
- Sciences
L'état de la science n'est pas si bon que ça, pas seulement l'emploi des chercheurs dramatiquement à la baisse alors qu'ils sont supposés représenter l'avenir, mais on constate aussi la confusion des esprits dont témoigne La Recherche du mois qui titre stupidement que "la réalité n'existe pas" ! On a le droit à des absurdités comme l'hypothèse à la Matrix que l'Univers serait un ordinateur quantique ou les bien connus multivers d'Everett qui violent pourtant la conservation d'énergie en supposant une folle multiplication des univers à chaque interaction. D'autres théories, tout aussi spéculatives et sans doute fausses, ont du moins le mérite de susciter la réflexion comme cette théorie de l'information physique : les constructeurs, où le possible prend le pas sur la causalité initiale. Aussi farfelu mais faisant rêver, un ingénieur a obtenu un petit financement de la NASA pour étudier un improbable vaisseau plus rapide que la lumière dans l'hyperespace.
La physique semble avoir atteint ses limites depuis quelque temps déjà, avec un modèle standard qui date et tarde à se renouveler. Ce n'est pas le cas de la biologie qui progresse à grand pas, ni de l'étude du cerveau encore balbutiante mais qui révèlent toutes deux une étonnante unité. Il était plus que raisonnable de penser a priori que les formes de vie et d'intelligence pourraient être très différentes de par tout l'univers et prendre les formes les plus exotiques mais, si nous connaissons déjà une diversité inouïe des organismes complexes sur notre vieille Terre (depuis 2 milliards d’années), l'étonnant, c'est de découvrir qu'il devrait au contraire y avoir une grande unité avec les autres planètes car les bases de la vie viendraient bien de l'espace (sous une forme lévogyre universelle) et des animaux aussi éloignés de nous que les poulpes font preuve d'une intelligence très semblable à la nôtre. La vie sur d'autres planètes peut certes recéler bien des surprises (le ribosome est-il aussi universel ?) et il y a bien sûr quand même des différences d'organisation significatives avec les céphalopodes mais la convergence en est d'autant plus étonnante. L'unité du vivant et de l'intelligence suggère que ce ne sont pas des propriétés internes mais le résultat de lois universelles, d'une géométrie de l'évolution (c'est ce qui fait que d'hypothétiques extra-terrestres qui parleraient feraient entièrement partie de notre humanité, c'est aussi ce qui fait qu'on ne devrait pas s'étonner de l'anxiété de l'écrevisse et de sa capacité à ressentir la douleur, les émotions étant la base de l'apprentissage). Il faut dire que la cognition n'est pas réduite aux organes perceptifs, au contraire l'enfant apprend à résister à ses intuitions (mais le rôle du tiers y est trop sous-estimé). Une des choses les plus étonnantes, c'est qu'on se rende compte seulement maintenant du fait que notre capacité de réflexion, et donc de changer rapidement de pensée, ne peut reposer sur les synapses, qui ont besoin de pas mal de temps pour se renforcer, mais passe plutôt par la synchronisation des ondes cérébrales. Je suis plus réservé sur l'intérêt de prétendre que le langage combinerait les mots des singes et la syntaxe des oiseaux. Par contre, on peut s'émerveiller des progrès du contrôle par la pensée qui devient de plus en plus opérationnel, jusqu'à pouvoir piloter un avion par la pensée (et des prothèses, des exosquelettes, etc.) !
Dominique Dupagne se moque, non sans raisons, de la plupart des études médicales qui ne voudraient rien dire avec des "stats à la con" sans aucune valeur et suggère qu'il faudrait les dénoncer, ce qui serait hélas un travail difficile et peu rentable. Je rappelle, comme je le fais régulièrement, que j'en suis bien incapable, même si je n'hésite pas à donner mon avis quand j'en ai un, et ne fais ici que rassembler ce qui m'a semblé intéressant des nouvelles du mois relevées sur des sites supposés fiables mais sans aucune garantie quelconque de ma part (tout cela me dépasse, surtout par les dimensions de cette revue qui excède largement les capacités d'un seul homme) ! En tout cas, ce qui m'a paru, à moi, le plus prometteur (si c'est vérifié!), c'est le rôle d'un excès de GABA qui empêcherait la mémorisation dans l'Alzheimer et pourrait assez facilement se traiter. A part ça, le fait que 3 jours de jeûne suffisent pour régénérer tout le système immunitaire semble également une assez bonne nouvelle (quoique l'habitude s'en soit perdue).
Grâce au soutien de la Mairie de Paris, les biohackers de la paillasse ont quitté leur squat pour emménager au coeur de Paris, dans le 2ème arrondissement. Je dois dire que ces manipulations sauvages des biotechnologies me semblent pleines de danger malgré le baratin éthique et démocratique du style "main à la pâte" même si ce ne sont sûrement pas eux qui feront le pire...
- Numérique
On se scandalise d'une "manipulation émotionnelle" assez bénigne de Facebook qui se voulait scientifique mais ne nous apprendra pas grand chose en confirmant l'influence de nouvelles positives ou négatives sur notre humeur. La publicité et la propagande en font déjà un usage intensif. De son côté, Microsoft lance un service d'analyse prédictive baptisé Azure ML. Le Machine Learning consiste à définir des modèles d'apprentissage à partir d'un historique de données pour ensuite prévoir une tendance ou anticiper des comportements.
On entre aussi dans le pilotage en temps réel des marchés avec le nowcasting s'appuyant sur les tendances des requêtes Google. Il est assez amusant de constater que les utilisateurs de Google s'attribuent le mérite des connaissances qu'ils tirent de leurs recherches mais n'est-ce pas la même chose quand on lit un livre ? Sinon, les cinq premiers éditeurs certifiés Glass at Work proposent des applications dans la télémédecine, l'accès aux données métiers, ou encore pour le support aux visites de musée. Une des applications déporte sur une autre écran ce que voient les Google Glass permettant de partager son expérience. La télémédecine pourrait d'ailleurs permettre de ne pas fermer les hôpitaux de province ? Après l'échec de la Google TV, la nouvelle Android TV peut se commander à la voix, via un smartphone ou une montre connectée, ce qui rend son utilisation bien plus facile. La voix se révèle une des interfaces les plus naturelles et permet aussi de commander Android auto quand on conduit.
Les objets connectés qui se multiplient ainsi se révèlent beaucoup trop facilement piratables, notamment avec l'application shogan. La meilleure solution, serait de les connecter le moins possible, juste quand nécessaire. Il y a des méthodes pour rester anonymes sur internet mais leur efficacité est limitée puisqu'on peut identifier des profils anonymes et on vient de découvrir une série d'instruments utilisés par les gouvernements pour espionner facilement les mobiles. Dans un tout autre domaine, il se pourrait que tous les bateaux soient bientôt surveillés par satellite. On entre vraiment dans la société de surveillance (et d'évaluation comme on a vu) sans qu'il y ait de réelle possibilité de s'y soustraire sauf à se couper du reste du monde. Internet est un espace ouvert où l'on est aussi visible que lorsqu'on se déplace à l'extérieur et si les réseaux sociaux peuvent être utilisés par des révolutionnaires ou des mouvements sociaux, ils sont utilisés tout autant par les Jihadistes qui ont même leur propre application android.
On peut signaler aussi un programme qui associe concepts et images ainsi que l'application Plotagon qui transforme en film un script ou un dialogue. Enfin, IBM annonce pour 2020 seulement des microprocesseurs à base de nanotubes.
Pour la Science no 441, l'intelligence du poulpe
- L'intelligence des céphalopodes, p22
Les recherches sont loin d'être terminées, mais, déjà, une conclusion s'impose : les céphalopodes sont dotés de capacités cognitives comparables à celles des vertébrés. Mémoire, apprentissage, vision, camouflage, innovation, tromperie, jeux, outils sont des facettes de leur intelligence.
Bras, ventouses, peau, entonnoir, nageoires sont contrôlés par un énorme cerveau. Ce dernier, le plus développé parmi les invertébrés, est comparable en taille à celui de certains oiseaux. Les 500 millions de cellules nerveuses du cerveau du poulpe (elles sont sans doute encore plus nombreuses chez la seiche) sont à comparer avec les 90 000 neurones du système nerveux des escargots et de la limace de mer (aplysie) ou aux 950 000 neurones du cerveau d'une abeille. Le poulpe a plus de neurones que le rat ou la souris (qui en comptent 100 à 200 millions), mais la comparaison s'arrête là, tant l'organisation du cerveau des céphalopodes diffère de celle des vertébrés.
Le cerveau des céphalopodes est situé entre les yeux et entoure… l'œsophage. Une capsule solide de cartilage le protège et fait office de « boîte crânienne ». Leur cerveau est très structuré. Certaines régions fournissent des réponses motrices simples à des informations sensorielles simples ; d'autres intègrent de multiples informations sensorielles et coordonnent des comportements plus complexes tels que la nage. D'autres encore sont impliquées dans des fonctions élaborées telles que l'apprentissage, la mémoire et la prise de décision.
Le cerveau (à droite, coupe longitudinale du cerveau d’une seiche) est fonctionnellement très hiérarchisé. Les structures sous l’œsophage (1) sont impliquées dans l’intégration primaire des informations sensorielles et la production de réponses motrices simples (comme la moelle épinière des vertébrés). Les structures de part et d’autre et au-dessus de l’œsophage (2) intègrent des informations de différents systèmes sensoriels et coordonnent des séquences comportementales plus complexes (nage, maintien de l’équilibre). Les structures les plus dorsales (3) sont impliquées dans des fonctions élaborées telles que l’apprentissage, la mémoire et la prise de décisions (comme l’hippocampe ou le cortex préfrontal chez les mammifères). [ce qui est remarquable c'est qu'une telle différence anatomique recouvre une même différenciation fonctionnelle manifestant l'unité du cognitif et son indépendance de ses incarnations singulières]
Derrière les yeux, les lobes optiques intègrent toutes les informations visuelles ; ils jouent un rôle dans de nombreux comportements d’origine visuelle, tels que les changements de coloration de la peau ou certains apprentissages visuels.
Si les céphalopodes ne voient pas les couleurs, ils ont néanmoins une vision exceptionnelle qui leur permet de distinguer d'autres propriétés des éléments qui les entourent : leurs yeux sont sensibles à la polarisation de la lumière.
Les motifs de coloration eux-mêmes sont étudiés, car ils permettent d'avoir un accès direct à la perception de l'environnement par l'animal : ils constituent une sorte de système d'imagerie cérébrale naturel ouvrant une fenêtre sur le fonctionnement du cerveau des céphalopodes.
Une des particularités des céphalopodes est l'absence de soins parentaux directs aux jeunes. Sauf chez quelques rares espèces tel le nautile, qui vit 20 ans, les individus de différentes générations ne se rencontrent jamais, car les mâles et les femelles meurent après leur unique et intense saison de reproduction. Longtemps, on a cru que les jeunes découvraient le monde après la naissance, mais de nombreuses observations récentes montrent qu'au contraire, les stimulations extérieures sont perçues très tôt dans l'œuf par les embryons de seiche.
Quelques semaines avant l'éclosion, environ deux mois après la ponte, les embryons de seiche voient leur environnement à travers la capsule de l'œuf : des seiches qui ont perçu des proies avant l'éclosion ou dans les heures qui l'ont suivie orientent leur préférence vers ces proies, même s'il ne s'agit pas de leur préférence innée. Cet apprentissage, nommé « empreinte alimentaire », permet aux jeunes seiches de ne pas choisir leur proie en faisant des essais au hasard.
Elles élaborent aussi des catégories perceptives « crabes » versus « crevettes » et généralisent les caractéristiques apprises à des proies ressemblantes, en regroupant dans la même catégorie des crabes blancs et des crabes noirs, par exemple.
- Mémoire : un effet Google ?, p46
Les gens ont depuis toujours compté les uns sur les autres pour mémoriser et retrouver les informations qui leur sont utiles. Aujourd'hui, on s'en remet souvent à Internet, ce qui influe sur la mémorisation et sur la perception de soi.
Google donne à ses utilisateurs le sentiment qu'il fait partie de leur propre boîte à outils cognitive. Les participants à l'étude percevaient un résultat de recherche comme une information non pas tirée d'Internet, mais extraite de leur mémoire. Ainsi, ils s'attribuaient le mérite d'une connaissance qui n'était que le produit d'un algorithme de recherche de Google.
L'impact psychologique de ce nouveau fonctionnement de la mémoire, à cheval entre Google et le cerveau, ne manque pas d'ironie : l'ère de l'information semble avoir créé des individus qui ont l'impression d'avoir plus de connaissances que quiconque auparavant, alors qu'ils en savent de moins en moins sur le monde qui les entoure, comme le révèle leur dépendance vis-à-vis d'Internet.
- Énergies renouvelables : l'essor sera lent, p64
Après avoir dû constater qu'on allait consommer tous les hydrocarbures fossiles jusqu'à la dernière goutte malgré un réchauffement qui s'annonce catastrophique, il faut se rendre à l'évidence que la transition énergétique sera très (trop) longue, bien qu'on en ait les capacités techniques, sauf sursaut improbable et l'engagement massif des pays les plus consommateurs dans une véritable reconversion industrielle.
La lenteur de cette transition énergétique n'est pas surprenante. En fait, elle était prévisible. Partout dans le monde, chaque transition majeure entre deux combustibles a pris de 50 à 60 ans. Un passage du bois au charbon s'est d'abord produit, puis le pétrole est devenu prédominant. Aujourd'hui, les États-Unis connaissent une troisième transition énergétique majeure, du charbon et du pétrole vers le gaz naturel. Entre 2001 et 2012, les consommations américaines de charbon et de pétrole brut ont chuté respectivement de 20 pour cent et de 7 pour cent ; dans le même temps, la consommation de gaz naturel a augmenté de 14 pour cent. Cependant, une décennie ou deux seront encore nécessaires avant que le gaz ne dépasse le charbon, qui fournit plus du tiers de l'électricité des États-Unis.
Les énergies renouvelables ne « décollent » pas plus vite que les nouveaux combustibles autrefois, et il n'y a aucune raison technique ou économique de penser qu'elles vont le faire. La demande énergétique mondiale augmente notablement, au point qu'il est déjà difficile de la satisfaire avec les sources d'énergies traditionnelles. Cela le serait encore plus avec les énergies renouvelables.
Le changement peut être plus rapide dans certains pays, mais, à l'échelle mondiale, le passage aux énergies renouvelables sera lent, en particulier si la conversion au gaz naturel se confirme. Bien sûr, il est possible qu'une technologie innovante ou une décision politique accélère ce changement. Il reste qu'en général, les transitions énergétiques prennent du temps.
Les trois transitions successives présentent des similitudes notables. Ainsi, de 1840 à 1900, la part du charbon a évolué à une vitesse voisine de celle du pétrole entre 1915 (année où il a atteint cinq pour cent) et 1975. Le gaz naturel a fourni cinq pour cent de l'énergie mondiale vers 1930 et devrait bientôt en représenter 33 pour cent. Des trois combustibles, c'est celui qui a pris le plus de temps pour atteindre 25 pour cent de la consommation énergétique : environ 55 ans, contre 35 ans pour le charbon et 40 ans pour le pétrole.
À l'échelle mondiale, les investissements et les infrastructures nécessaires pour qu'une nouvelle source d'énergie s'impose requièrent deux à trois générations, soit 50 à 75 ans.
La transition vers des énergies renouvelables pose plusieurs difficultés. La première est la quantité considérable d'énergie à produire. En 2012, les énergies fossiles ont fourni environ 450 exajoules (450 3 1018 joules) dans le monde. C'est 20 fois plus que durant les années 1890, quand le charbon a pris le pas sur le bois. Assurer la production d'autant d'énergie avec de nouvelles sources reste un défi.
Le dernier facteur qui allongera la durée de la transition est la préexistence d'infrastructures importantes et coûteuses, adaptées au système énergétique actuel : mines de charbon, puits de pétrole, gazoducs, raffineries, stations-service par millions... Même si nous disposions d'une énergie renouvelable presque gratuite, il serait économiquement impensable pour les États, les grandes entreprises ou les municipalités d'abandonner les énormes investissements consentis pour ces installations, d'une valeur estimée à au moins 20 000 milliards de dollars à l'échelle mondiale.
La façon la plus efficace d'accélérer la transition et l'abandon des sources fossiles est de réduire la consommation énergétique mondiale. Plus la demande augmente vite, plus il est difficile d'en satisfaire une part importante avec les énergies renouvelables. Des études récentes ont montré qu'aucun problème technique insurmontable n'empêche de réduire d'un tiers la consommation d'énergie, à la fois dans les pays émergents et dans les pays riches, notamment grâce à des gains en efficacité.
La Recherche no 489, la réalité n'existe pas
On peut s'inquiéter du fait que le dossier du mois témoigne d'un retard de la recherche française sur les derniers développements de la physique quantique, qui certes avait nourri toutes sortes de discours mystiques mais qui se sont pourtant largement dégonflés depuis, même s'il reste des mystères inexplicables (non-localité, superposition, corrélations). Il est très étonnant qu'on puisse prétendre encore que la Lune n'existe pas si on ne la regarde pas, comme si la décohérence et l'effondrement de la fonction d'onde étaient des phénomènes subjectifs et non pas le résultat d'interactions qui empêchent de conserver les propriétés quantiques au niveau macroscopique ! Le point de vue subjectif n'intervient qu'au niveau de l'échelle des phénomènes considérés ou ce que Gilles Cohen-Tannoudji appelle leur horizon et dont les lois différent effectivement en fonction de la taille considérée (tout comme pour la mesure des côtes de Bretagne comme l'a montrée Mandelbrot). On dira que c'est la manifestation d'une grande ouverture d'esprit ou de pluralisme alors que c'est plutôt le symptôme de l'égarement des esprits, voire de l'exploitation de la crédulité publique. Le seul intérêt de ce numéro, c'est de montrer à quel point les résultats scientifiques mettent du temps à s'imposer même aux spécialistes du domaine (Planck disait qu'il fallait attendre une nouvelle génération) et que la science n'empêche pas de délirer, très loin d'être du domaine de la certitude !
- L'essence du monde est mathématique, p24
Pour la Science de juin 2010 avait déjà donné à Max Tegmark l'occasion de développer ses théories fumeuses (et, à moi, de les critiquer). En septembre on avait rendu compte d'un de ses articles plus intéressant expliquant l'incertitude quantique par un cosmos infini (et des superpositions infinies). Ici, on a droit à une interview complaisante qui témoigne de l'incompréhension de ce que sont les mathématiques comme de ce qu'est la conscience ou bien sûr la réalité (les multivers sont plus que probables, avec sans doute quelques variantes, mais certainement pas dans la version d'Everett, encore moins comme incarnation de toutes les structures mathématiques possibles!). Les religions avaient déjà montré que des trésors d'intelligence et de subtilités peuvent être dépensés pour soutenir de telles absurdités (il semble que cela nous flatte, credo quia absurdum comme dit l'autre) !
- L'Univers est-il un ordinateur quantique ?, p50
Pour couronner le tout, il ne pouvait manquer le fantasme récurrent à la Matrix qui voudrait réduire l'univers à un grand ordinateur quantique, défendu ici par Giacomo Mauro D'Ariano qui prétend même l'avoir prouvé (!), avec toujours cette même incompréhension du concept d'information qui montre à quel point la bêtise règne encore dans les sciences les plus dures, n'ayant décidément pas peur des sophismes:
Si vraiment on ne peut pas distinguer la réalité - notre Univers - de sa simulation, cela veut dire que la réalité est la simulation.
Si l'on poursuit notre comparaison, la théorie quantique est donc une forme de science informatique, de "théorie de l'information" - ce que notre équipe a d'ailleurs prouvé en 2011. Cette idée circulait alors depuis de nombreuses années. Le physicien, John Archibald Wheeler, de l'université de Princeton aux Etats-Unis, l'avait ainsi émise une vingtaine d'années auparavant à l'aide d'une formule devenue célèbre : "It from bit", "l'être à partir du bit".
L'informationalisme [on devrait écrire informationnalisme en français] n'est pas une méthode spéculative, mais une méthode "opérationnelle". Tout est traité comme un processus, un algorithme. Pour les partisans de l'informationalisme, les entités réelles ne sont pas des "choses", ce sont des "événements".
Les événements ne se produisent pas dans l'espace-temps, ils forment l'espace-temps. En d'autres termes, l'espace-temps est notre moyen de relier les événements entre eux, de les organiser.
Cela implique de bâtir entre eux un réseau de connexions entrée-sortie. Dans une théorie causale, ces connexions sont appelées des liens causaux.
Les principales conséquences physiques de ces nouveaux principes sont au nombre de trois :
A l'échelle de Planck, c'est la relativité doublement retreinte qui est à l'oeuvre. Dans le cadre de cette théorie, la relativité ne s'applique pas qu'aux événements se produisant de manière simultanée, elle s'étend aux événements qui se déroulent au même endroit.
Deuxième conséquence : à l'échelle de Planck, tout n'est constitué que de fermions, particules élémentaires de matière. Les particules responsables des interactions entre les fermions n'apparaissent, elles, qu'à l'échelle normale.
Troisième et dernière conséquence : on peut aussi faire des prédictions de la relativité générale sans y avoir recours à l'échelle de Planck. En conséquence du principe unitaire, selon lequel toute transformation en théorie quantique est réversible, on prédit par exemple qu'une particule possède une valeur maximale jusqu’à laquelle elle ne fournit aucune information. Cette valeur correspond à la masse de Planck, soit environ 22 microgrammes (10-6g).
Bien sûr un délire peut être fécond et Wheeler était un grand physicien malgré tout mais la réalité, ça existe, elle est même très dure, c'est sur quoi on se cogne ! Certes, comme on le voit ici, on la refoule et la dénie, recouverte de toutes sortes de fantasmes et délires mais elle résiste et impose ses lois. C'est bien pour cela qu'il n'y a de science qu'expérimentale, ne pouvant se fier aux simples raisonnements logiques. La réalité qui n'existe pas, c'est celle de ces théories débiles, celle de nos représentations, des religions et des idéologies politiques, pas la réalité matérielle, celle des contraintes écologiques.
- L'enfant apprend à résister à ses intuitions, p62
Il faudrait pouvoir inhiber ces trop plaisantes illusions et déductions précipitées comme doit l'apprendre l'enfant. Olivier Houdé, dont on avait parlé en février, réduit cependant à seulement 3 capacités cognitives (qui ne seraient pas maîtrisées avant 6/7 ans) ce qui nous permettrait de construire notre rapport au réel, ce qu'on peut trouver un peut court au regard de tous nos "biais cognitifs" et à l'effort des philosophes pour nous sortir de la voie de l'opinion. En particulier, il ne faudrait pas négliger le fait que ce que nous construisons ainsi, c'est un monde commun qui passe donc par l'Autre, ce qui explique tout ce qui est dogmatisme, religions, paradigmes, préjugés, modes, etc. Il ne s'agit pas d'une expérience directe du réel mais médiatisée, en premier lieu par les parents, expérience plutôt de la séparation du réel avec notre perception immédiate et nos désirs. En effet, l'un des phénomènes les plus étranges avec l'hypnose est sans doute l'expérience mystique qui hallucine ce qu'on nous a enseigné religieusement et donne corps à de pures abstractions (dieu ou diable), nous persuadant de leur existence éprouvée (Pascal par exemple a été sujet à une telle expérience) alors même qu'elles différent complètement selon les cultures et religions. On voit que le mécanisme permettant d'accéder à une réalité objective peut mener aussi bien à recouvrir complètement cette réalité...
La question se pose notamment avec le premier principe invoqué, contre notre intuition première, celui de la supposée permanence des objets [dénoncée par Heidegger comme Métaphysique] : "la compréhension que les objets existent même s'il ne les voit pas". C'est ce que le langage renforce considérablement en amenant à l'existence un nombre infini de choses, de gens, d'institutions invisibles aux regards, sinon, comme on l'a vu, de véritables chimères. C'est d'ailleurs cette même propriété, de ne pas se fier à ce qu'on voit qui permet de croire n'importe quoi (à ne pas en croire ses yeux). On a pu constater à quel point notre crédulité nous caractérisait par rapport aux singes par exemple, qui sont vite énervés par les tours de prestidigitation jouant avec cette propriété, alors que nous nous laissons avoir avec délectation par l'illusioniste.
Le deuxième principe invoqué est la capacité de compter. Accéder au concept de nombre implique de faire abstraction de la taille ou de la longueur d'une suite de pions pour les compter, et donc de dépasser son impression visuelle. Si on retrouve chez les corbeaux déjà la capacité de compter jusqu'à 4 au moins, le langage fournit là aussi un support qui fait plus qu'en décupler la fonction, sans parler de l'écrit qui a souvent commencé par là. Ce n'est pas que le langage crée la notion de chiffre, il se contente de lui donner une plus grande portée en lui donnant un support matériel mais cela change complètement la donne.
C'est la même chose avec le troisième principe qui consiste à classer dans des catégories et qui est constitutif du cerveau, du cognitif (démon de l'analogie et de la généralisation), ce qui est bien la fonction même du langage, non pas de nommer les choses ou les gens (code ou nom propre) mais de constituer un catalogue de mots, de signifiants (métaphores) qui se définissent par leurs oppositions entre eux, division du réel qui recouvre déjà l'objet singulier de la généralité de l'Idée.
Le cognitif s'oppose donc à l'intuition comme la réflexion au réflexe, du côté de l'inhibition des réactions immédiates pour choisir une conduite adaptée qui ne tombe pas dans le panneau ! C'est la manifestation qu'on n'a pas d'accès direct à l'être et qu'on n'est libre qu'autant qu'on doit pouvoir résister à notre premier mouvement "naturel" et sortir de l'illusion d'optique originelle, tout comme il a fallu "inhiber le géocentrisme" depuis Copernic, contredisant effectivement notre perception la plus évidente (de même qu'il faut inhiber notre égocentrisme pour accéder à l'objectivité, pas seulement morale).
L'erreur de permanence de l'objet commise par le jeune bébé dépend d'un défaut d'inhibition du cerveau lié à la maturation insuffisante du cortex frontal. Plus précisément, il s'agit du défaut d'inhibition du geste initial. Ainsi, pour le très jeune enfant s'adapter au réel en comprenant qu'un objet peut être déplacé d'un endroit à l'autre, c'est être capable d'inhiber un comportement moteur inadéquat : c'est déjà "apprendre à résister".
Notre système perceptif est loin d'être parfait, générateur d'illusions, de biais cognitifs. C'est ce qui fait qu'il doit être corrigé en permanence et critiqué dans un processus dialectique de correction de la correction et de critique de la critique...
Brèves et liens
Physique
cosmologie, physique quantique, nanotechnologies
- Une théorie de l'information physique : les constructeurs
David Deutsch avait déjà écrit un livre sur "L'étoffe de la réalité" qui lui aussi défendait, à partir de l'informatique quantique, les multivers d'Everett auxquels il appliquait la théorie darwinienne de l'évolution. Comme dit plus haut, je pense ces théories complètement fausses mais les nouvelles idées qu'il défend ici méritent plus réflexion (ce n'est pas sans évoquer Heidegger et fait en tout cas gamberger, illustrant là aussi les incertitudes de la physique!).
La théorie de Deutsch repose avant tout sur un renversement de perspective par rapport à la pensée physique traditionnelle : celle-ci réfléchit avant tout à ce qui existe et se base pour cela sur deux piliers : l’état initial et les lois du mouvement. Pour Deutsch, cette fascination pour l’état initial est un reste de pensée théologique, la croyance en un dieu qui, à l’origine, aurait créé l’univers et que tout découlerait de cette création. Conséquence de cette vision des choses : il n’existe qu’un résultat possible à partir d’un ensemble donné de conditions initiales.
Au contraire, la “théorie du constructeur” s’intéresse à ce qui est possible. Il s’agit en fait d’établir une série de principes de base permettant de définir ce qui est possible et ce qui ne l’est pas. C’est donc une vision beaucoup plus ouverte que la conception traditionnelle, qui se concentre exclusivement sur l’existant.
Un constructeur est un dispositif capable, si on lui donne un input A, de produire un résultat B, et surtout, une fois cette transformation effectuée, de recommencer la même tâche. Une machine à vapeur est un tel constructeur, mais on en trouve aussi dans la nature, comme les ribosomes au cœur de la cellule, ou plus généralement, les catalyseurs dans le domaine de la chimie.
Sur le plan philosophique, les thèses de Deutsch ouvrent une révolution copernicienne “inversée”. En effet, sa théorie du “constructeur”, en insistant sur ce qui est possible et non sur ce qui est, replace la connaissance au sein des lois physiques et donne donc aux êtres humains (ou leurs équivalents sur d’autres planètes) un rôle fondamental dans la structure de l’univers. Pourquoi une révolution “inversée” ? Parce que la disparition du modèle géocentrique (et par la suite la découverte de la sélection naturelle) a placé l’homme à la périphérie du monde en en faisant une production dénuée d’importance dans l’ordre des choses, un simple effet secondaire du jeu de la physique et de la chimie. Mais cette vison soi-disant copernicienne, ce “principe de médiocrité”, comme il la nomme dans The Beginning of Infinity, est totalement faussée. En fait, la connaissance telle qu’elle s’exprime chez l’être humain possède déjà un impact sur l’architecture du cosmos : par exemple les lieux les plus froids de l’univers, rappelle Deutsch, (un millionième de kelvin au dessous du zéro absolu), sont situés dans certains labos. Donc, il existe certains phénomènes physiques extrêmes (on pourrait aussi parler de la recréation des conditions du Big Bang au CERN) qui ne peuvent qu’être artificiels. Parler de physique, c’est donc nécessairement parler des êtres qui l’étudient et de leur technologie. Un fait que la théorie du constructeur met en évidence, mais que la physique traditionnelle ignore ou considère de peu d’importance.
- Une simulation (douteuse) du voyage dans le temps d'un photon
- BICEP2 : ce n'était pas la trace de l'inflation mais seulement poussière !
Dans la conclusion, les physiciens affirment que le signal du mode B est bien présent, mais que la contribution de la poussière pourrait effectivement être plus importante qu’estimée initialement et que cette hypothèse ne peut donc être exclue par leur analyse sur l’origine du mode B.
Heureusement que ce n'était pas vrai car sinon, nous ne devrions pas exister...
- Le boson de Brout-Englert-Higgs se désintègre en particules de matière
En 1964, Robert Brout, François Englert et Peter Higgs ont proposé un mécanisme pour expliquer comment les bosons de jauge W et Z, les particules élémentaires qui transmettent la force faible, acquièrent une masse. Ce mécanisme permet également de comprendre comment les fermions, les particules qui constituent la matière, peuvent être massifs.
Le boson BEH se désintègre presque immédiatement en particules plus légères ; la nature de ces particules plus légères ainsi que la fréquence avec laquelle de telles désintégrations se produisent sont prédites avec précision dans le Modèle Standard de la physique des particules. Jusqu'à présent, le boson BEH n'avait été observé que lors de ses désintégrations en une paire de bosons de jauge, plus particulièrement en bosons Z, W ou en photons.
Le nouveau résultat publié dans Nature Physics ce 22 juin démontre que le boson BEH se désintègre également directement en paires de fermions – leptons tau et quarks b -, avec des fréquences compatibles avec les prédictions du Modèle Standard.
- Enfin une anomalie dans les données du CERN : un Z' ?
- Toujours pas de neutrinos stériles
Ces neutrinos qui interagiraient encore moins avec la matière que les autres sont nommés neutrinos stériles. Les chercheurs de l’expérience MINOS à Fermilab viennent cependant d’annoncer qu’ils n’ont observé aucun signe de neutrino stérile. Pour Justin Evans, de l’Université de Manchester, ce résultat pose de fortes contraintes sur l’existence du neutrino stérile, mais ne l’exclut pas encore totalement.
- Les champs magnétiques des trous noirs aussi puissants que leur force de gravitation
- Une exoplanète habitable à seulement 13 années-lumière
Une équipe d’astronomes a annoncé la découverte de deux exoplanètes autour d’une étoile âgée de 11,5 milliards d’années, soit plus du double du Soleil. Proche du Système solaire, la naine rouge Kapteyn serait vraisemblablement issue d’une galaxie naine désagrégée depuis longtemps. Potentiellement habitable, la superterre Kapteyn b, quant à elle, est désormais considérée comme la plus ancienne planète connue ! Si les conditions sont réunies, on peut imaginer que la vie a eu tout le temps de s’y développer…
Il faut se représenter Kapteyn b comme un astre 4,8 fois plus massif que la Terre gravitant en 48 jours seulement autour de son étoile-hôte. Quant à Kapteyn c, sa masse est plus de 7 fois celle de notre planète rocheuse et sa période orbitale est de 121 jours.
- Gliese 832c, la meilleure candidate à l’habitabilité à 16 années-lumière ?
L’exoplanète offrant la meilleure habitabilité dans notre voisinage galactique est une super-Terre en orbite autour d’une naine rouge distante de 16 années-lumière. L’équipe d’astronomes qui a fait récemment sa découverte évaluent son « index de similarité avec la Terre », ou ESI, à 0,81. La composition et la densité de son atmosphère ou encore les perturbations chroniques de son étoile peuvent néanmoins rendre cette planète inhospitalière.
Gliese 832c est une superterre, au minimum cinq fois plus massive que la Terre, qui gravite autour de son étoile en 36 jours à une distance moyenne de 24 millions de kilomètres (entre 0,13 et 0,19 UA). L’étoile Gliese 832 est, quant à elle, une naine rouge (type spectral M), moins massive (0,45 masse solaire) et moins chaude (environ 3.200 ° C à sa surface) que notre Soleil. Éloignée de seulement 16,1 années-lumière, elle est observable par tout astronome amateur de l’hémisphère sud dans un instrument pointé en direction de la constellation de la Grue (Grus).
Naviguant sur le bord intérieur de la zone habitable de son système, l’exoplanète est susceptible de recevoir un flux d’énergie comparable à celui que recueille la Terre, estiment les auteurs de cette étude. En fonction de son atmosphère, ses températures pourraient être équivalentes à celles qui règnent dans notre biosphère. Cependant, soumise à des cycles saisonniers très variables (avec des températures trop extrêmes) et dans l’hypothèse où son atmosphère est plus dense (probabilité importante pour les superterres), la planète ressemblerait alors davantage à une super-Vénus ! Ajoutons à cela que les naines rouges (en supériorité numérique dans la Galaxie) ont très mauvaise réputation car fréquemment sujettes à des sautes d’humeurs susceptibles d’affecter violemment les planètes qui les entourent…
- Check-list pour détecter la vie sur une planète
- Température (gelée ou bouillante), entre -15°C et 122°C
- Aridité (très peu d'eau indispensable pour des algues)
- Energie solaire ou géothermique
- Radiations (certains organismes en supportent beaucoup)
- Oxygène ou Azote (azote indispensable, oxygène plus évolué)
Pour des civilisations évoluées, on pourrait aussi chercher des polluants artificiels comme les gaz CFC.
- L'histoire de Mars d'après Curiosity
Si Curiosity a démontré que le site a été habitable dans un lointain passé, qui se mesure en milliards d’années, les scientifiques voudraient savoir plus précisément à quelle époque et pendant combien de temps.
Au Noachien, d’une planète d’eau et habitable dans certaines régions, Mars est devenue (progressivement ?) une planète dominée par le volcanisme et un changement climatique important à l’Hespérien. Aujourd’hui, à l’ère de l’Amazonien, la planète se caractérise par une oxydation par l’atmosphère et très peu d’activité géologique, voire pas du tout.
Dans le cratère Gale, « nous savons que de l’eau à l’état liquide s’est écoulée et qu’il y a eu les bons éléments chimiques et le bon environnement ». Il reste à déterminer combien de temps le site est resté habitable.
De bas en haut, on trouve des strates de minéraux hydratés, des strates d’argiles, des strates d’oxyde de fer, et plus haut des smectites et des sulfates.
- La Nasa teste une soucoupe gonflable pour 20 tonnes sur Mars
Composé d'une structure gonflable appelée SIAD (Supersonic Inflatable Aerodynamic Decelerator) pour la première étape de décélération et d'un parachute supersonique pour la seconde phase.
- Les 12 projets de recherche de la Nasa
Un sous-marin autonome pour explorer les océans de méthane de Titan, lune de Saturne (les hydrocarbures étant transparents aux ondes électromagnétiques), une serre sur Mars et un vaisseau spatial qui tirerait son énergie de comètes qu'il attrape pour explorer les confins du système solaire...
Voir aussi Futura-Sciences.
- Capture d’un astéroïde : l'ambitieuse mission de la Nasa prend forme
La Nasa poursuit son projet de capture d'un astéroïde pour l'amener à proximité de la Terre afin de faciliter son exploration et y envoyer gambader des hommes. Parmi les idées en lice, deux concepts ont été retenus : le « big bag », pour envelopper l'astéroïde, et les bras robotisés, pour prélever un bloc rocheux.
Avec le big bag, la Nasa se limitera à un objet d’une dizaine de mètres. Avec l’autre option, elle visera un astéroïde de 100 à 500 m de diamètre non pas pour le capturer mais pour y prélever un bloc rocheux de belle taille, d’où l’utilisation de bras robotisés.
Quelle que soit l’option choisie, l’objet sera inséré autour de la Lune sur une orbite d’une très grande stabilité (plus de cent ans) à 75.000 km de sa surface.
- Deux planètes géantes ignorées aux confins de notre système solaire ?
- Un vaisseau plus rapide que la lumière dans l'hyperespace ?
Le projet EagleWorks, un nom de code officieux, vise à créer une machine capable de déformer l’espace-temps afin de permettre à des vaisseaux de voyager dans l’hyperespace.
Il fabrique actuellement le White–Juday warp-field interferometer, une machine capable de détecter et créer des microbulles spatio-temporelles. En bref, il tente de perturber l’espace-temps et selon lui, s’il y parvient, ce sera le début d’un grand changement pour l’humanité.
Si son travail est couronné de succès, il prétend qu’il pourrait créer un moteur capable de nous emmener sur Alpha du Centaure en « 2 semaines si on se réfère aux horloges terrestres ». Le temps sera le même dans le vaisseau et sur Terre et il n’y aura aucune force à l’intérieur du vaisseau et aucun problème à gérer. L’accélération ressentie sera nulle.
Voir la vidéo, mais, contrairement à ce qui est dit, ce n'est pas vraiment la Nasa (qui ne s'y intéresse que de loin) et ce n'est pas très sérieux, du moins très spéculatif même si l'espace peut effectivement se dilater plus vite que la lumière.
- L'avion spatial expérimental IXV
Le véhicule expérimental intermédiaire européen (IXV - Intermediate eXperimental Vehicle) est arrivé aux Pays-Bas afin de subir des tests finaux en vue de son lancement au mois de novembre à Kourou.
IXV testera des technologies et des systèmes pour les futurs véhicules autonomes de l'ESA à rentrée atmosphérique.
En descendant sur sa trajectoire suborbitale, comme s'il retournait de l'orbite basse, IXV utilisera son fuselage pour générer la portance nécessaire au vol, qui sera contrôlé uniquement par des volets aérodynamiques et des propulseurs avant d'amerrir dans la région la plus isolée de l'Océan Pacifique, où il sera repêché par l'équipage du bateau de récupération.
- Modifications spectaculaires du champ magnétique terrestre
Les mesures effectuées au cours des six derniers mois confirment la tendance générale de l'affaiblissement du champ, avec les baisses les plus spectaculaires dans l'hémisphère occidental. Mais dans d'autres domaines, tels que l'océan Indien, le champ magnétique s'est renforcé depuis Janvier.
Voir aussi Futura-Sciences.
D'énormes quantités d'eau à plusieurs centaines de kilomètres de profondeur (zone de transition), qui ne se présentent bien sûr pas sous la forme d'océans souterrains mais représentent trois fois celle en surface, accréditeraient la thèse selon laquelle l'eau terrestre proviendrait des profondeurs de la planète et non de l'impact de comètes glacées.
- Le manteau terrestre contient de la pérovskite silicatée ou bridgmanite
Les cristaux de pérovskite silicatée sont un des composants majeurs des roches du manteau inférieur. Mais ce minéral, dont la présence a été déduite d'expériences en laboratoire et de l'étude des ondes sismiques, n'avait jamais été observé à l'état naturel. C'est chose faite et on vient de lui donner un nouveau nom pour honorer la mémoire de Percy Williams Bridgman, un des pionniers de la pétrologie des roches sous hautes pressions.
- Un liquide 1D de quasi-fermions (pas trop compris!)
- Vers une théorie unifiée de la supraconductivité liée à la très haute impédance
Les chercheurs n'ont pas trouvé la théorie unifiée, seulement montré qu'une même théorie pouvait rendre compte des différentes supraconductivités à basse et "haute" température quelque soit le matériau.
D'autres chercheurs ont expliqué la supraconductivité à "haute température" des cuprates par la structure des zones les moins supraconductrices avec une géométrie ondulatoire où chaque couche a une direction différente des couches au-dessus ou au-dessous.
- Canal de transmission d'un champ magnétique
Le câble magnétique créé par les chercheurs se compose d'un cylindre ferromagnétique recouvert par un matériau supraconducteur, d'une étonnante simplicité de conception, compte tenu des calculs théoriques complexes et des nombreux essais en laboratoire qu'il a dû subir. Un prototype de 14 cm a été construit transportant le champ magnétique d'un extrême à l'autre.
On avait vu en mai 2013 les premières tentatives de ces chercheurs de transmission de champs magnétiques.
- Des qubits nucléaires moins sensibles à la décohérence que les électrons
Schéma ci-contre d'un transistor quantique formé d'un ion terbium entouré de deux molécules de phthalocyanine. Le noyau de l'ion terbium (au centre) possède un moment cinétique pouvant prendre quatre valeurs. Il est utilisable pour stocker un qubit d'information comme on le ferait avec le spin des électrons.
Certains noyaux, possédant un moment cinétique, peuvent être utilisés en effet pour stocker des qubits, comme avec le spin des électrons. Ils ont l'avantage de mieux résister à la décohérence mais manipuler ces qubits imposait jusqu'ici un champ magnétique, ce qui constituait un obstacle pour la réalisation d'un ordinateur quantique. Un groupe de physiciens a trouvé une astuce permettant de se servir de champs électriques comme pour des circuits d'ordinateurs classiques.
- Des nanoparticules qui s'auto-assemblent en 1mn
Des supramolécules à base de copolymères ont été combinées avec des nanoparticules d'or pour créer des nanocomposites qui sous l'action d'un solvant se sont rapidement auto-assemblés en couches minces structurées couvrant une superficie de plusieurs centimètres carrés. La technique est compatible avec les procédés de nanofabrication actuels et pourrait déboucher sur de nouvelles familles de revêtements optiques ayant des applications dans un grand nombre de domaines, notamment l'énergie solaire, la nanoélectronique et les mémoires d'ordinateur. Cette technique pourrait également servir à la fabrication de métamatériaux, possédant des propriétés optiques remarquables.
Des nanoparticules d'or ont été incorporées dans des solutions de supramolécules pour former des films qui étaient d'environ 200 nm d'épaisseur. En utilisant du chloroforme comme solvant, des réseaux de nanoparticules organisées en micro-domaines cylindriques se sont formés.
Ils ont constaté que l'optimisation d'un seul paramètre, la quantité de solvant, permettait d'adapter précisément la cinétique d'assemblage et de produire des films minces structurés en une seule minute.
"Nos films minces d'or nanocomposites présentent une anisotropie optique fortement dépendante de la longueur d'onde et qui peut être adaptée simplement en faisant varier le traitement au solvant. Cela représente une alternative viable à la lithographie pour la fabrication de métamatériaux".
- L'invisibilité dans le brouillard
Ce n'est pas si extraordinaire puisque l'invisibilité n'est obtenue que dans un liquide opaque ou dans un brouillard épais.
Lorsque le cylindre est recouvert d'un revêtement fait d'un silicone transparent et contenant des microparticules d'un composé chimique appelé mélamine, les chercheurs ont constaté que la lumière circulait alors plus rapidement autour du cylindre, ce qui provoquait la disparition de l'ombre qu'il projette.
Climat
climat, énergies, écologie
- Le rôle important des tourbillons géants de l'océan
Des "tourbillons" géants dans l'océan, qui vont jusqu'à 500 kilomètres de diamètre, influencent le climat de la planète à une échelle insoupçonnée.
Ils se forment lorsque des courants rencontrent des obstacles comme des îles. Ces tourbillons transportent d'énormes quantités d'eau et de chaleur à travers les océans, jusqu'à ce qu'ils s'arrêtent lentement de tourner pendant quelques jours ou mois et se fondent dans l'eau environnante.
L'équipe a constaté que les tourbillons transportent autant d'eau que les plus grands courants océaniques. Ils les déplacent principalement vers l'Ouest, entraînés par la rotation de la Terre. En conséquence de quoi, plus de 30 millions de tonnes d'eau arrivent ainsi à chaque seconde sur les côtes Est des continents.
- 20% des réserves d'hydrocarbures à découvrir situées dans l'Arctique
Selon un rapport publié en 2008 par l'Institut géologique américain, l'USGS, plus de 20% des réserves d'hydrocarbures planétaires restant à découvrir sont situées dans l'Arctique.
Ce trésor à 84% sous-marin serait situé en grande partie en Russie (au large de la Sibérie occidentale et à l'extrémité orientale du pays), et attire des groupes pétroliers russes et occidentaux, tels le norvégien Statoil, ou ExxonMobil, qui a forgé l'an dernier une alliance pour extraire du pétrole dans l'Arctique avec le géant pétrolier local, Rosneft.
On a l'impression d'une malédiction, le réchauffement rendant plus accessible de nouveaux hydrocarbures qui vont aggraver le réchauffement, mais hélas, comme je me tue à la répéter aux écologistes, il n'y aura pas de pic pétrolier avant longtemps...
- La fracturation au propane plus propre ?
- Une éolienne sous licence libre
« Une éolienne capable de générer de l’énergie à partir du vent sur les sites où il est irrégulier et change souvent de direction », telle est l’invention inédite développée par AeroSeeD, un bureau d’étude industriel metzois. Adaptée aux environnements urbains tels que les quartiers résidentiels ou les zones industrielles et commerciales, cette éolienne d’un nouveau genre est capable d’orienter automatiquement ses pâles en fonction de la direction du vent.
Après quatre années de recherche et développement pour la concevoir, l’entreprise AeroSeed a finalement décidé de ne pas breveter l’invention, mais de la rendre accessible au plus grand nombre grâce au système de licence libre.
- Sharp exploite les électrons les plus énergétiques dans ses cellules solaires
Les électrons les plus énergétiques dissipent rapidement leur énergie en chaleur, ce qu'on pourrait éviter en augmentant le voltage, ce qui laisse espérer un rendement de 60%.
- Le silicium noir qui absorbe 99% de la lumière produit en une seule étape
Transmettre et stocker de l’électricité sur un câble en cuivre : c'est ce qu'est parvenue à faire une équipe de chercheurs grâce aux nanotechnologies. Une innovation qui pourrait bouleverser le design et le développement dans de nombreux domaines, à commencer par les appareils électroniques, mais aussi les voitures électriques ou encore l’aérospatial.
Pour créer ce câble-batterie, le professeur Jayan Thomas et son équipe sont partis d’un fil de cuivre qu’ils ont entouré d’une gaine hérissée de « nanobarbes » d'oxyde de cuivre qui assurent la liaison conductrice entre les couches internes et externes de leur fil supercondensateur. Ces nanobarbes ont ensuite été traitées avec un alliage or-palladium, lui-même recouvert d’oxyde de manganèse afin de créer une électrode. Il fallait encore ajouter une seconde électrode. Les chercheurs y sont parvenus en intercalant une fine feuille de plastique autour des nanobarbes et en enroulant le tout dans une gaine de métal dont la surface externe est aussi parcourue de nanobarbes. Puis ces différentes couches ont été collées à l’aide d’un gel spécial.
Grâce à cette architecture, le fil de cuivre placé au cœur du câble conserve sa capacité à faire circuler l’électricité en étant isolé des couches externes qui, elles, peuvent stocker l’énergie indépendamment.
- Une nouvelle batterie, lithium-soufre, multiplie leur capacité et baisse leur coût
Cousine plus petite du lithium-ion, les batteries lithium-soufre ont des cathodes faites principalement de soufre, un produit bon marché des déchets de la transformation du pétrole. Le soufre pèse moitié moins que le cobalt et peut contenir deux fois plus d'ions lithium dans un volume donné qu'avec l'oxyde de cobalt; ainsi, les batteries lithium-soufre ont plusieurs fois la densité énergétique des batteries lithium-ion. Mais les cathodes en soufre ont une faiblesse majeure. Une batterie lithium-soufre typique devient en effet inutile après quelques dizaines de cycles seulement, ce qui est bien trop peu.
Grâce à leur processus de fabrication de "vulcanisation inverse" qui ressemble au procédé utilisé pour fabriquer des pneus en caoutchouc, les chercheurs ont pu faire faire 500 cycles à leurs batteries optimisées en conservant plus de la moitié de sa capacité initiale.
- Réduire les engrais réduirait le réchauffement
Le protoxyde d'azote (N2O) est le 3ème plus puissant gaz à effet de serre et il est produit lorsque l'engrais en excès n'est pas métabolisé par les plantes.
- Produire du lait sans vaches serait positif écologiquement
- Produire plus de moules en recyclant plus de CO2
Le projet veut permettre de contrôler la remontée des eaux profondes à forte concentration en nutriments vers la surface. De la sorte, les phytoplanctons se développent mieux et offrent aux autres espèces de la chaine alimentaire comme les moules un environnement propice à la croissance.
Les fjords dans lesquels la remontée des eaux est contrôlée permettraient donc une croissance des moules de trois à quatre fois supérieure aux zones non contrôlées. Le Lysefjord (région du Rogaland, dans l'ouest), avec ses 4400 kilomètres carrés offre un potentiel de production de deux à trois millions de tonnes de moules, alors que l'ensemble de la Norvège cultive actuellement un peu plus de 1000 tonnes.
Le collectif d’architecte suédois Belatchew propose de construire dans nos villes des fermes à insectes aux intersections de nos rues.
- Le jaque, fruit du pauvre de 40kg qui sent mauvais mais bon pour la santé
Originaire du sud de l’Inde, le jaquier (Artocarpus heterophyllus) est un arbre portant des fruits pouvant peser jusqu’à 40 kilos. Vendu sur les marchés d’Asie, mais aussi au Brésil et dans les îles tropicales, cet aliment permet aux populations les plus défavorisées de faire la "soudure" lors des moussons, quand les légumes manquent. Il n’était jusqu’à présent jamais sorti de ce rôle.
Le jaquier aurait pourtant de nombreux atouts. Il s’épanouit aussi bien dans des régions très arrosées que dans des zones plus sèches. Le fruit contiendrait de nombreuses vitamines et il est réputé être riche en minéraux comme le phosphore, le fer, le potassium et le calcium, indispensables à l’équilibre alimentaire. Mais il a un gros défaut : il émet une odeur très désagréable.
- Des forêts de nanotubes pour récupérer l'eau dans le désert
En recouvrant des nanotubes de polymères hydrophobes en bas et hydrophiles en haut on pourrait absorber l'humidité de l'air le plus sec, jusqu'à 80% de leur poids, et la retenir (ralentir l'évaporation).
Réfrigération par désaimantation magnétique adiabatique. Un matériau paramagnétique est plongé dans un champ magnétique (H), ce qui oriente les moments magnétiques des atomes parallèlement à ce champ. Le matériau chauffe mais revient ensuite à sa température initiale T dans le champ maintenu à une intensité constante. Après une lente diminution de l'intensité du champ, les moments magnétiques s'orientent à nouveau de façon désordonnée. Cette réorganisation s'opère en prenant de la chaleur aux dépens des autres mouvements des atomes du matériau qui sont donc ralentis (refroidis). La température peut ainsi être descendue à quelques millièmes de degrés du zéro absolu.
L'effet magnétocalorique permet d’envisager des réfrigérateurs domestiques moins gourmands en énergie et n’utilisant pas de fluides frigorigènes problématiques du point de vue environnemental.
De formule HoMn2O5, le composé à base de manganèse découvert par les chercheurs contient de l’holmium (Ho, une terre rare). Ce matériau est intéressant à la fois pour sa résistance à la corrosion et pour ses propriétés isolantes, ce qui empêche les pertes d'énergie à partir de courants de Foucault induits par la variation du champ magnétique appliqué.
La découverte s’est faite par sérendipité. Les chercheurs étudiaient un effet magnétocalorique standard que l'on pouvait obtenir vers 10 kelvins quand ils ont eu l’idée de faire tourner l’échantillon de 90°C en maintenant un champ magnétique constant. La brusque baisse de température a été interprétée comme une manifestation d’un effet anisotrope du champ magnétique sur le matériau. Le phénomène est donc relié à la symétrie du réseau cristallin. On peut donc imaginer une nouvelle façon de refroidir d’autres matériaux de la même façon en les faisant tourner plusieurs fois dans un champ magnétique. L’idéal pour des applications dans la vie courante serait de disposer de cristaux magnétiques anisotropes similaires qui manifesteraient un effet magnétocalorique rotationnel important à température ambiante.
Biologie
évolution, génétique, éthologie, anthropologie, neurologie
- Origine cosmique de la chiralité des acides aminés causée par l'ultraviolet polarisé
Ce n'est que la confirmation d'une hypothèse déjà ancienne pour expliquer la quasi exclusivité des formes lévogyres d'acides aminés dans la construction des protéines (les protéines se caractérisant par leur forme ne peuvent mélanger des molécules de formes opposées). Cela implique bien une origine extra-terrestre des composants de la vie et donc la probabilité que ce soient les mêmes partout dans l'univers.
- Comment sont produites les protéines du ribosome
Chez les animaux multicellulaires tels que les humains, les ribosomes sont constitués d'environ 80 protéines différentes (79 pour les humains alors que d'autres animaux en ont un nombre légèrement différent) ainsi que quatre sortes différentes de molécules d'ARN. En 1969, les chercheurs ont découvert que la synthèse des ARN ribosomaux était effectuée en utilisant deux enzymes clés: l'ARN polymérase I et de l'ARN polymérase III. Mais jusqu'à présent, les scientifiques ne savaient pas si un système complémentaire était nécessaire à la production des 80 protéines qui composent le ribosome.
"Nous avons constaté que les protéines ribosomiques étaient synthétisées à partir de l'ARN polymérase II et d'un facteur appelé TRF2. Pour la production de la plupart des autres protéines, l'ARN polymérase II fonctionne avec un facteur appelés TBP, mais pour la synthèse des protéines ribosomales, il utilise TRF2".
- Le codon STOP contourné par des bactéries
Parmi les 64 codons existant, certains ont pour rôle de signaler la fin du gène lors de la traduction : ce sont les trois codons stop, dénommés ambre, opale et ocre. Le codage alternatif identifié par les chercheurs repose sur la réassignation d’un ou plusieurs de ces codons stop, qui sont interprétés comme codant non pas une instruction d’arrêt, mais un acide aminé.
Le décodage d’un gène s’effectue grâce à la traduction de son ARN messager en protéine, qui commence au codon start et s’interrompt lorsqu’un codon stop est rencontré. Dans l’exemple de codage alternatif ci-contre, le codon stop UAG (ou ambre) est réassigné : il n’est pas interprété comme une instruction d’arrêt, mais code l’acide aminé glutamine, qui sera incorporé à la protéine en cours de synthèse.
Les chercheurs ont montré qu’un nombre significatif de séquences correspondent à un code génétique modifié, notamment chez les bactéries d’eau douce ou issues du microbiote humain.
Les chercheurs ont aussi mis en évidence plusieurs de ces codages alternatifs chez des phages, ou virus de bactérie. Chez un phage issu d’un prélèvement lingual chez l’homme, ils ont montré l’existence d’une stratégie d’infection inédite : la « guerre des codons ». Le phage, qui réassigne le codon ambre, s’attaque à une bactérie réassignant le codon opale. En exprimant une protéine qui force l’interprétation d’opale comme un codon stop conventionnel, il perturbe l’expression des gènes de son hôte et favorise son propre codage alternatif.
- Des protéines d'algue qui contrôlent la cohérence quantique
Les cryptophytes se développent au fond de flaques d'eau, ou sous une glace épaisse, où très peu de lumière les atteint.
"La plupart des cryptophytes ont un système de captation de la lumière utilisant la cohérence quantique. Mais nous avons trouvé une classe de cryptophytes où cela ne marche pas en raison d'une seule mutation génétique qui modifie la forme de la protéine qui capte la lumière. C'est une découverte très excitante car cela signifie que nous serons en mesure d'étudier le rôle de la cohérence quantique dans la photosynthèse en comparant les organismes avec les deux types de protéines différentes".
Le rôle de la cohérence quantique serait de permettre à l'énergie de tester toutes les voies possibles simultanément pour atteindre par la voie la plus rapide le centre de réaction où l'énergie est convertie en énergie chimique pour l'organisme.
- Des micro-organismes à 2 km de profondeur sous les océans
Une équipe de chercheurs franco-allemande vient d'établir un nouveau record en réalisant un forage de 1 922 m sous le plancher océanique du bassin de Canterbury, au large de l'île Sud de la Nouvelle-Zélande, et en y trouvant de nombreuses espèces.
Les chercheurs ont réussi à identifier des représentants des trois grandes divisions du vivant: des archées, des bactéries thermophiles adeptes de la fermentation - très semblables aux bacilles et aux coques du milieu terrestre mais de plus petite taille - et aussi des microeucaryotes comme des champignons. "Avec les analyses d'ADN réalisées, nous ne pouvons pas savoir s'il s'agit d'ADN fossile, de fragments d'ADN d'organismes vivants ou bien ceux d'organismes en dormance, précise Karine Alain. Par contre, nous avons réussi à isoler et à cultiver certaines bactéries et certains champignons microscopiques issus de nos échantillons, ce qui est une première à ces profondeurs". La vie persisterait donc à des profondeurs de 2 km sous le plancher océanique, là où les températures frôlent les 100°C et les pressions les 50 MPa.
- Une vie complexe il y a 2 milliards d’années
Les traces d'une étonnante biodiversité, avec des êtres multicellulaires, datant de 2,1 milliards d'années et repérées au Gabon en 2008, viennent d'être confirmées. La poursuite de l'étude lève le voile sur un écosystème marin complexe, composé d’organismes micro et macroscopiques de formes et de tailles extrêmement variées. Ce biota aurait proliféré durant le premier pic d'oxygène atmosphérique avant de disparaître.
Jusque-là, les plus vieux fossiles d’organismes complexes remontaient à 600 millions d’années (les vendobiontes d’Ediacara en Australie) et il était communément admis qu’avant cette période, la vie sur notre planète était constituée exclusivement d’organismes unicellulaires (bactéries, algues unicellulaires...). Avec la découverte de Franceville, la vie complexe a fait un bond de 1,5 milliard d’années en arrière.
Leur analyse dévoile des organismes de texture médusaire, molle et gélatineuse. Leur forme est lisse ou plissée, leur texture est uniforme ou grumeleuse, leur matière est massive ou cloisonnée.
La structure très organisée et les tailles variées des spécimens macroscopiques (jusqu’à 17 centimètres) suggèrent un mode de croissance extrêmement sophistiqué pour la période. Cet écosystème marin complet est donc composé d’organismes micro et macroscopiques de formes et de tailles extrêmement variées qui vivaient dans un environnement marin peu profond.
Voir aussi Sciences et Avenir. D'autre part, on vient de dégager une eau enfermée dans des roches et qui daterait de cette époque et pourrait nous renseigner sur le milieu où cette vie s'est développée.
- Les plus vieux récifs animaux datent de 550 millions d'années
Découverts en Namibie, ils représentent la première preuve de l'existence d'organismes à coquilles dures à cette période.
Voir aussi Futura-Sciences.
- Un des premiers poissons du Cambrien
Metaspriggina walcotti est un des poissons les plus primitifs connus qui évoluait au Cambrien, il y a environ 505 millions d'années. C'est également un maillon essentiel qui fait le lien entre les espèces sans mâchoires et celles qui en sont dotées.
- Une météorite a causé la fin du Cambrien
- Megamastax, le premier grand prédateur, il y a 423 millions d'années
Megamastax faisait d'environ 1 mètre de long, avec une mâchoire de 16 cm de long. Il avait des dents pointues devant pour saisir des proies glissantes ou plates et des dents émoussées dans le fond pour écraser leurs coquilles dures.
Le sud de la Chine aurait été le "berceau de la vie" pour les vertébrés à mâchoires.
Megamastax faisait environ trois fois la taille des autres poissons de l'époque. Cela suggère que l'atmosphère de la Terre devait déjà être riche en oxygène, sinon Megamastax n'auraitpas pu grandir à ce point.
Voir aussi Futura-Sciences.
- L'anxiété de l'écrevisse
L'anxiété des écrevisses est corrélée à un accroissement de la concentration de sérotonine dans leur cerveau. Ce neurotransmetteur est impliqué dans de nombreuses régulations physiologiques tant chez les invertébrés que chez l'homme. Elle est libérée dans des contextes de stress et régule plusieurs réponses liées à l'anxiété, comme l'augmentation des taux de glucose dans le sang. Les chercheurs ont aussi montré qu'en injectant un anxiolytique d'usage courant chez l'humain (benzodiazépine), le comportement d'évitement de l'écrevisse est aboli. Ceci montre à quel point les mécanismes neuronaux permettant d'établir ou d'inhiber le comportement anxieux sont apparus très tôt dans l'évolution et se sont bien conservés au cours du temps.
Voir aussi le CNRS.
- La régénération des salamandres liée à la diminution de P53
La voie ERK (Extracellular signal-Regulated Kinase) représente une famille de protéines kinases dites MAPK (Mitogen-Activated Protein Kinases), qui joue un rôle important dans la progression du cycle cellulaire. Grâce à cette voie ERK, des protéines de la surface de la cellule peuvent transmettre un signal au noyau. Or, chez les mammifères, l’activation de la voie ERK stimule la prolifération cellulaire, d’où l’idée qu’elle puisse intervenir dans la régénération de la salamandre.
En utilisant des inhibiteurs de la voie ERK, les chercheurs ont montré que la voie ERK agissait en réduisant l’activité de p53, une protéine anti-oncogène, qui bloque le cycle cellulaire.
Une activation de la voie ERK permet à la cellule d’entrer à nouveau dans le cycle cellulaire en limitant l’activité de p53, en induisant des modifications épigénétiques et en inhibant des gènes spécifiques du muscle. On obtient finalement une dédifférenciation partielle de la cellule musculaire.
C'est le rôle de P53 qui me semble important dans l'affaire puisque reliant notre incapacité à régénérer nos membres à la protection contre le cancer. Ce que confirme une étude sur les cellules souches. P53 servirait aussi à chaperonner l'ATP en conjonction avec les heat shock protein (Hsp90) pour en extraire l'énergie.
- La différenciation des cellules souches
Un programme anti-bug a permis de comprendre le processus de différenciation des cellules souches, plus simple que ce qu'on pensait - mais il ne semble pas qu'ils prennent en compte les tensions physiques dont on avait vu le mois dernier qu'elles étaient tout aussi déterminantes.
Le programme des cellules souches dépendrait de seulement 16 interactions entre 12 protéines, appelées facteurs de transcription, et trois produits chimiques présents dans l'environnement.
Une autre étude montre cependant que le processus est en grande partie aléatoire bien que menant toujours au même résultat tout comme le chemin d'une bille qui roule dans un tuyau est imprévisible mais conduit inévitablement en bas. Une autre image est celle de coups de pieds désordonnés qui font tomber dans un trou.
- Transformer des cellules souches en globules rouges
Deux substances: le glucose et la glutamine dictent le chemin pour qu'une cellule souche sanguine devienne un globule rouge ou au contraire donne d'autres types de cellules sanguines.
La glutamine, l'acide aminé le plus abondant dans le sang, est indispensable pour qu'une cellule souche sanguine devienne un globule rouge, notamment car elle permet la production des nucléotides.
A l'inverse, si on empêche le glucose d'être dégradé pour fournir de l'énergie sous forme d'ATP (glycolyse), il permettra alors la synthèse des nucléotides. Ceci aura pour effet global d'augmenter la fabrication de globules rouges à partir des cellules souches hématopoïétiques (érythropoïèse).
Voir aussi Futura-Sciences.
- Les neurones parasympathiques dériveraient des cellules gliales
En étudiant le développement de la souris, des chercheurs viennent de faire une découverte majeure sur la formation du système nerveux parasympathique : ses neurones proviendraient, contrairement à ce que l'on croyait, de précurseurs de cellules gliales qui changeraient de destinée. Cette meilleure compréhension sera probablement utile pour mieux traiter des pathologies liées à cette partie du système nerveux autonome.
Les cellules gliales immatures à l’origine des neurones du système parasympathique sont particulièrement intéressantes. En effet, elles possèdent les propriétés de cellules souches et pourraient être à l’origine de différents types cellulaires : des mélanocytes (les cellules pigmentées de la peau), mais aussi des cellules de Schwann, qui protègent l’axone des neurones.
Ces neurones seraient issus de cellules gliales immatures, celles qui sont en principe les précurseurs de cellules de Schwann. Certaines d'entre elles verraient leur destin changer. Voyageant sur de longues distances dans l'embryon le long des nerfs périphériques, elles formeraient les neurones du système parasympathique.
- Contrôler les muscles par optogénétique
Les chercheurs ont étudié des souris dans lesquelles une protéine sensible à la lumière et qui favorise l'activité neuronale avait été insérée dans un sous-ensemble de neurones spinaux. Lorsque les chercheurs ont activé la lumière bleue sur la moelle épinière des animaux, leurs pattes de derrière étaient complètement mais réversiblement immobilisées.
- 90% des mutations des chimpanzés viennent du père âgé
Par comparaison, dans l’espèce humaine, 75 % des nouvelles mutations viendraient du père. De manière générale, l’âge du père influence le nombre de mutations transmises et donc l’évolution de l'espèce.
Dans les testicules, les spermatogonies, les cellules à l'origine de la lignée germinale spermatique, continuent de se diviser tout au long de la vie, contrairement aux cellules à l'origine des ovocytes de la femme. La fréquence de mutation varie donc en fonction de l’âge du père : les pères plus âgés transmettent davantage de mutations, car une année supplémentaire conduit à deux mutations en plus en moyenne. L’âge du père représenterait ainsi un facteur de risque pour certaines maladies, comme la schizophrénie et l’autisme.
Voir aussi Futura-Sciences.
- Le langage combinerait les mots des singes et la syntaxe des oiseaux ?
Des linguistes du Massachusetts Institute of Technology suggèrent que les humains ont créé le langage en associant des sons de primates (pour le sens) et des sons émis par les oiseaux (pour l’expression).
Ici, les auteurs décrivent dans leur hypothèse dite « intégrative » deux composantes du langage humain : une partie appelée « expressive » (E), liée à la structure des phrases, et une partie dite « lexicale » où se trouve la signification de la phrase (L). Par exemple, dans la phrase « est-ce que Sophie a mangé des fraises ? », la partie lexicale comprend les mots Sophie, manger et fraises. Les termes "est-ce que" et "a" indiquent qu’il s’agit d’une question sur un événement passé : c’est la partie expressive de la phrase.
La partie E du langage se trouverait dans le chant des oiseaux, par exemple dans les chants qui servent à la reproduction. Les oiseaux ont des profils types de chants mais pas de mots : ils posséderaient la syntaxe sans le sens. Cette composante E du langage exprime l’état interne du chanteur.
En parallèle, la partie L du langage existe dans les cris d’alarme des singes. La plupart des primates non humains ne chantent pas. Cependant, il existe une exception : le gibbon, de la famille des Hylobatidés, ou primates sans queue. Les gibbons chantent des chansons à la fois complexes et longues pour marquer leur territoire, attirer un partenaire ou renforcer des liens familiaux. Ceci rappelle le chant des oiseaux car ces chants expriment l’état intérieur du chanteur.
C'est sans doute un peu plus compliqué. L'intérêt de l'hypothèse, c'est de lier langage et musique.
- Les chimpanzés aiment la musique non agressive
Confrontés à une musique occidentale, les chimpanzés préfèrent s'éloigner pour aller chercher du silence. En fait, selon une nouvelle étude, ils semblent apprécier certains types de musique orientale. Explication : ils n'aiment pas les sonorités qui leur rappellent leurs comportements d'agression.
« Les chimpanzés peuvent percevoir les bases rythmiques prévisibles et forts comme une menace, étant donné que les comportements de dominance incorporent généralement des sons répétés en tapant, en cognant et en frappant des objets ».
- Les premiers Neandertals se sont différenciés par la mâchoire
Des chercheurs qui étudiaient un ensemble de crânes retrouvés dans une grotte en Espagne y ont identifié des traits dérivés des Néandertaliens, et d'autres associés à des humains plus primitifs. Ce "motif en mosaïque" étaye une théorie de l'évolution de l'homme de Néandertal qui suggère qu'il a présenté ses caractéristiques séparément et à différentes époques et non d'un seul coup.
Il y a environ 400 à 500 000 ans, au cœur du Pléistocène, des humains archaïques se sont séparés des autres groupes vivant en Afrique ou en Asie de l'Est pour s'établir finalement en Eurasie où les caractéristiques qui allaient définir la lignée néandertalienne sont apparues. Des centaines de milliers d'années plus tard, l'homme moderne, apparu en Afrique, s'est aussi installé en Eurasie. Il s'est mélangé avec les Néandertaliens, mais il y a eu une incompatibilité pour la reproduction. Ceci explique que l'homme moderne ait finalement remplacé les Néandertaliens.
Les échantillons étudiés par les chercheurs montrent des traits néandertaliens sur la face et les dents mais pas ailleurs. La boîte crânienne voisine, par exemple, présente encore des traits associés à des hominines plus primitifs.
Point crucial, beaucoup de traits liés à l'homme de Néandertal relevés par les chercheurs étaient en rapport avec la mastication. "Il semble que ces modifications étaient liées à un usage intensif des dents frontales, précise Arsuaga, les incisives présentent une grande usure comme si elles avaient été utilisées comme une "troisième main", ce qui est typique des Néandertaliens".
Par ailleurs, Neandertal n'était pas seulement carnivore comme on avait pu le prétendre mais mangeait, bien sûr aussi des plantes comme l'ont montré des analyses de ses excréments.
- Les différences entre Neandertal et Sapiens sont surtout épigénétiques
L'équipe du professeur Liran Carmel de l'Université hébraïque de Jérusalem a cherché à cartographier la méthylation des gènes chez nos proches cousins, l'homme de Néandertal et l'homme de Denisova. Les résultats sont fascinants. Même si leur génome est quasi-identique au nôtre, la différence réside dans l'expression des gènes : des milliers de séquences sont désactivées chez nos cousins et pas chez nous, ou l'inverse.
On avait déjà vu qu'une grande différence que nous avions avec les chimpanzés était une moins bonne méthylation (cause de maladies mais pas seulement) et qu'il y avait entre autres une plus grande diversité génétique des neurones chez nous par rapport à Neandertal. Il est donc bien paradoxal de vouloir effacer toutes nos différences comme le fait de manière très idéologique notamment Marylène Patou-Mathis mais cela montre aussi qu'il ne suffit pas de s'intéresser aux gènes que nous avons hérités de Neandertal (comme la résistance au froid ou le diabète).
- Les gènes de l'homosexualité
En 1993, le généticien Dean Hamer avait étudié une famille ayant plusieurs frères ouvertement homosexuels. L’étude de leur génome montra qu’ils partageaient tous une région bien particulière de leur chromosome X.
Cette année, une nouvelle étude, menée sur un panel bien plus large, a montré des résultats confortant ceux de Dean Hamer et mettant en évidence un autre gène, dans le chromosome 8. Nouvel émoi tant chez les experts que chez le grand public. Pourtant, ces gènes, ou leurs variantes – les allèles – ont déjà été mis en évidence chez les animaux – il est par exemple possible de changer la préférence sexuelle des souris…
Il ne s'agit pas de prétendre que l'homosexualité serait toujours déterminée génétiquement pouvant tout aussi bien venir d'un attachement à la mère ou tout simplement d'une rencontre gratifiante puisque, fondamentalement, nous sommes tous bisexuels (on explique classiquement une hétérosexualité exacerbée et la haine des pédés par une homosexualité refoulée), mais on ne peut nier une participation des gènes aux mécanismes sexuels comme leur influence sur nos préférences sans qu'on puisse en faire une causalité mécanique mais seulement statistiquement significative. Il n'y a en tout cas aucune raison de refouler ces études statistiques, pas plus qu'en sociologie. Une théorie de l'homosexualité animale suppose que les gènes renforçant l'attirance des mâles pour un mâle se traduit aussi par une attirance plus grande pour les mâles lorsqu'ils sont transmis à une femmelle, favorisant sa reproduction (on pourrait supposer aussi une attirance plus forte des mères pour leur fils dont les gènes qu'elles transmettent favorisent leur homosexualité).
- Pensée et apprentissage passent par la synchronisation des ondes cérébrale
Des chercheurs du MIT se sont intéressés aux ondes cérébrales enregistrées dans deux aires impliquées dans l’apprentissage : le cortex préfrontal, qui contrôle les fonctions dites exécutives du cerveau, et le striatum.
Ils ont observé que ces deux aires interagissent en synchronisant leurs ondes lors d’un apprentissage. Or, jusqu’à présent, on expliquait souvent ce processus par la plasticité synaptique, à savoir la capacité des neurones à créer et défaire des connexions entre eux.
La plasticité neuronale prend du temps et ne permet pas une grande flexibilité de la pensée humaine : « si vous pouvez changer vos pensées d’un instant à l’autre, vous ne pouvez pas le faire en créant constamment de nouvelles connexions ».
Ces synchronisations permettent, dans un second temps de l'apprentissage, de former de nouveaux circuits de communication entre le cortex préfrontal et le striatum.
Il est effectivement décisif de se rendre compte que ce ne sont pas les connexions synaptiques qui dirigent la pensée mais, comme on l'avait vu le mois dernier, c'est au contraire la synchronisation qui crée les connexions synaptiques. Par ailleurs, des synapses trop fortement liées (avec trop de bêta-caténine) nuisent à la plasticité et l'adaptabilité.
- Les synapses se renforcent quand on dort
Ce n'est pas vraiment une nouveauté et même une très vieille hypothèse mais parfois contestée et dont on aurait maintenant la preuve.
Ils ont constaté que l'apprentissage d'une nouvelle tâche a conduit à la formation de nouvelles épines dendritiques qui font passer les signaux électriques d'un neurone à l'autre - mais seulement chez les souris qu'on a laissées dormir.
C'est lors de la phase de sommeil profond qui n'est pas celle des mouvements rapides des yeux que les neurones qui étaient actifs au cours de la tâche initiale ont été réactivés, apparemment pour stabiliser les connexions nouvellement formées.
Cette poussée de croissance a continué après le réveil de la souris. Environ 5% d'épines ont été formés à nouveau dans le cortex moteur pendant une période de 8 à 24 heures après le réveil. "Nos études précédentes indiquent que près de 10% de ces nouvelles épines dendritiques devrait se maintenir au cours des semaines suivantes".
Voir aussi Futura-Sciences.
- La conscience localisée dans le claustrum ?
Aux dernières nouvelles, la conscience pourrait être localisée dans le claustrum (situé entre le putamen et l'insula) où se rassembleraient sensations et émotions. En tout cas, cette zone stimulée électriquement fait perdre conscience à une patiente éveillée mais, paradoxalement, en augmentant la synchronisation du cerveau... Trop de synchronisation nuirait donc.
- La diffusion de l'agriculture à l'Europe s'est faite surtout par la mer
Deux analyses différentes entre génomes des populations sont parvenus à la même conclusion. Tout d'abord, les agriculteurs se sont déplacés de Cappadoce en Turquie centrale vers la côte sud-ouest. De là, ils ont sauté aux îles du Dodécanèse comme Kos et Patmos en Grèce. En même temps que la colonisation du continent grec, un autre groupe s'est installé en Crète, où la première civilisation avancée de l'Europe, la minoenne, a été créée il y a 5000 ans. De là, ils se sont dirigés à l'ouest vers la Sicile et la pointe sud de l'Italie.
- 7 bras gauches dans une tombe 4000 ans av. J.-C
Au fond de la fosse, il y a d'abord un homme, battu à mort. Des coups sur la tête surtout, sur le thorax et sur l'épaule. Des coups de pics, ou de quelque chose d'approchant, en os ou en bois de cerf par exemple. Et l'homme n'a plus de bras gauche, coupé entre coude et épaule.
Des bras, il y en a justement. Juste en-dessous de lui. Les fameux sept bras gauche. Tous coupés, là aussi, entre coude et épaule. Les exécutants semblent avoir utilisé quelque chose de lourd, sans doute un genre de hache, pour trancher les os. Puis avec des outils aiguisés, ils ont sectionné les chairs et les tendons. Ils ont aussi brisé chacun des bras, et démantibulé les mains.
Puis ils les ont jetés tout au fond de la fosse. Celui de l'homme se trouve peut-être parmi eux. Mais malgré quelques ressemblances deci-delà, les anthropologues ne peuvent le certifier. En tout cas, ce sont des bras d'adulte. Sauf un, qui était celui d'un adolescent. Ou d'un enfant.
L'homme amputé n'est pas seul dans la fosse. Au-dessus de lui, les exécutants ont placé d'autres corps. Ceux-là ont leurs bras. Il y a un autre homme, deux femmes et quatre enfants. Visiblement jetés là, sans grand ménagement, et en même temps.
- Le rôle structurant du mensonge dans la diversification des sociétés
En effet, diverses études ont montré que nous mentons tout le temps, peut-être jusqu'à deux fois par jour en moyenne.
Leur modèle reflète la différence entre les mensonges «blancs», qui sont prosocial, et de mensonges "noirs", qui sont antisocial.
Cet acte de mentir est antisocial quand il tend à augmenter la différence d'opinion entre deux individus et affaiblit ainsi leurs liens mais il est prosocial quand il tend à réduire la différence d'opinion entre deux individus et renforce leurs liens.
Quand tout le monde est honnête, la société devient une masse uniforme, sans différence majeure d'opinion.
La plus grande diversité se produit quand il y a une certaine quantité de tromperie. Dans ce cas, les mensonges blancs renforcent les liens alors que les mensonges noirs les affaiblissent et cette tension permet à la diversité de s'épanouir.
Santé
traitements, nutrition, hygiène
- Alzheimer : un excès de GABA empêcherait la mémorisation
L'excès de production de GABA par les astrocytes inhibant la formation de synapses dans l'hippocampe serait une conséquence des plaques amyloïdes qu'il ne suffirait pas cependant de supprimer alors que des substances anti-GABA restaurerait rapidement les capacités de mémorisation.
- L'entropie du cerveau augmente avec l'âge
L'entropie des hommes serait inférieure avant 50 ans mais supérieure à celle des femmes après.
- Un miARN marqueur des tendances suicidaires liées au glutamate
- La psychiatrie passe à la génétique
Les progrès de la génétique et de la connaissance du cerveau, notamment grâce à l'optogénétique, fait passer la psychiatrie des neurotransmetteurs aux neurones eux-mêmes et leurs anomalies génétiques, première révolution psychiatrique depuis 50 ans.
- Différence d'action des médicaments psychotropes entre hommes et femmes
Les médicaments sont testés principalement sur les hommes, moins sujets aux perturbations hormonales, alors que leur effet peut être très différent chez les femmes qui sont par exemple plus sensibles aux opioïdes, ont plus de difficulté à cesser de fumer et rechutent plus facilement "en particulier au milieu du cycle menstruel, lorsque le glucose dans le cerveau est le plus faible. Le glucose est nécessaire pour le self-contrôle".
Les femmes répondent mieux aux anti-dépresseurs comme le Prozac alors que les tricycliques sont plus adaptés aux hommes mais éliminent moins les substances dans leur sang.
En outre, les estomacs des femmes sont moins acides que ceux des hommes et si les ISRS peuvent être du coup absorbés plus rapidement, ce qui peut augmenter leur toxicité, la graisse plus abondante du corps des femmes peut aussi stocker plus de psychotropes dans leur corps.
Leur estomac étant moins acide les femmes peuvent sentir plus rapidement et plus fortement les effets des anxiolytiques.
- Autisme : la piste des pesticides
Une étude montre que l'exposition des femmes enceintes aux pesticides augmente fortement le risque de donner naissance à un enfant autiste.
Une femme enceinte qui vit près d’une ferme utilisant certains pesticides a un risque 66% plus élevé de voir son enfant naître autiste.
Google s'est engagé au contraire dans la recherche sur les causes génétiques de l'autisme et une mutation génétique (CHD8) vient d'être associée à un type d'autisme.
- Passer la barrière hémato-encéphalique avec des microbilles et des ultrasons
De quoi faire pénétrer des médicaments directement dans le cerveau.
On peut aussi utiliser les ultrasons pour délivrer directement dans les tumeurs des substances anti-cancéreuses, encapsulées dans un gel (alginate) qui se reconstitue aussitôt.
- Délivrer des substances dans le cerveau avec un laser
Les chercheurs ont encapsulés la dopamine dans un liposome attaché à une nanoparticule d'or. Puis, ils ont utilisé une impulsion laser femtoseconde comme source d'énergie. L'énergie est absorbée par la nanoparticule d'or et ensuite transférée au liposome, ce qui provoque son ouverture et la libération de dopamine. La durée et donc niveau de dopamine libérée peuvent être contrôlés avec précision par l'intensité et la durée de l'impulsion laser. Les chercheurs ont également montré que les liposomes ne sont pas détruits par le laser. Par conséquent, la libération de la dopamine, ou de tout autre produit chimique contenu dans le liposome, peut être répétée à volonté.
- Des anticorps de chameau plus simples pour des nanoparticules anti-cancer
L'intérêt de ces anticorps de chameau ou de lamas, destinés à se lier aux cellules cancéreuses (au récepteur du facteur de croissance épidermique ou EGFR), c'est qu'ils sont plus simples et plus faciles à produire que les autres anticorps, n'étant constitués que de 2 protéines "lourdes" alors qu'il faut normalement y ajouter 2 autres protéines "légères". Cela permet aussi d'avoir des nanoparticules plus petites (10 nanomètres).
- Des nanofibres de cellulose pour filtrer les virus
La fibre de cellulose a été choisie en raison de sa facilité d'utilisation, de son faible coût, et de son inertie biologique, autant de critères qui en ont fait une candidate idéale pour une utilisation industrielle. La cellulose est également connue pour être hydrophile et résistante à des environnements hostiles (température et pH). Elle peut donc être utilisée dans des autoclaves ou dans d'autres processus de stérilisation souvent traumatisants pour certains polymères synthétiques. La logique de fonctionnement du filtre est ensuite très simple: il s'agit d'obtenir le maillage entre les fibres le plus fin possible afin de pouvoir retenir les particules virales... Simple mais efficace.
- Un dérivé de la vitamine A pour traiter le diabète de type 2
"Chez des souris obèses et résistantes à l'insuline, l'acide rétinoïque diminue les risques d'apoptose au niveau du coeur, stimule l'expression des gènes cardio-protecteurs diminués par la maladie et protège contre l'accumulation du collagène dans le muscle cardiaque, évitant ainsi l'apparition de la fibrose et de possibles futures complications associées".
La glycémie, la résistance à l'insuline, le poids corporel et la taille des adipocytes avaient diminués de façon significative chez les animaux traités, y compris dans le gras abdominal, alors que l'apport alimentaire et l'activité physique étaient semblables pour les animaux traités et non-traités. Ceci fait penser à une augmentation de la dépense énergétique de base.
Les dérivés de la vitamine A stimulent une protéine de découplage mitochondrial (UCP1) permettant aux mitochondries le découplage de la voie métabolique (phosphorylation oxydative) qui utilise l'énergie venant de l'oxydation des nutriments pour la production d'adénosine triphosphate-ATP. Pour un certain temps, ces mitochondries gênèrent ainsi de la chaleur (thermogenèse) plutôt que de l'ATP, qui est traditionnellement l'énergie demandée pour le métabolisme actif. L'exposition au froid mène à la stimulation de la graisse brune et de la graisse blanche, favorisant la transformation des triglycérides pour libérer des acides gras et du glycérol. Mais, dans les adipocytes bruns, ces acides gras sont rapidement oxydés dans les mitochondries et produisent de la chaleur (sous l'influence de la protéine UCP1). Cette graisse brune contribue alors à augmenter le métabolisme énergétique de base. Ainsi les mammifères hibernants engraissent durant l'automne sans développer de diabète et maigrissent sans trop bouger durant l'hiver (tout en réchauffant leur tanière). Ils sont aussi les animaux qui accumulent le plus de vitamine A dans leur foie. L'acide rétinoïque (dérivé de vitamine A) est reconnu pour son implication dans la maturation et la différenciation cellulaire et pourrait orienter les pré-adipocytes plutôt vers le brun (ou beige) que vers le blanc.
On pourrait aussi utiliser contre l'obésité les cytokines IL-4 et IL-13 pour forcer la thermogenèse. Il y a sinon un "pancréas artificiel", contrôlant la glycémie avec un smartphone.
- 3 jours de jeûne suffisent pour régénérer tout le système immunitaire
Affamer le corps provoquerait la transformation de cellules souches en nouveaux globules blancs, notamment parce que le jeûne fait chuter le nombre de globules blancs (digérés). Il y a aussi réduction de la protéine PKA, liée au vieillissement.
- Les plaquettes transfusées sont altérées et pathogènes
Les plaquettes (en bleu sur l'illustration) renferment le tiers du génome humain sous forme d'ARN messagers. Les procédés pour éliminer les microbes appauvrissent ce matériel génétique, rendant les plaquettes inaptes à accomplir leurs fonctions normales.
Cette altération pourrait expliquer les cas de saignements oculaires et intracrâniens rapportés chez des patients qui ont reçu des concentrés de plaquettes ainsi traitées.
Le rôle des plaquettes va bien au-delà de leur participation à la coagulation du sang et à la cicatrisation des plaies. Même si elles sont dépourvues de noyau et d'ADN, elles renferment le tiers du génome humain sous forme d'ARN messagers. Ce matériel génétique leur permet de synthétiser plus de 1000 protéines qui interviennent dans des mécanismes indispensables au bon fonctionnement du corps. La traduction de leurs ARN messagers en protéines est modulée par les microARN qu'elles renferment.
L'Office européen des brevets a célébré à Berlin les inventeurs européens de l'année. Dans la catégorie Recherche, c'est le britannique Christofer Toumazou qui a été récompensé. Son invention : une clé USB qui décode l'ADN d'un patient en quelques minutes à peine.
Concrètement, les tests se présentent sous la forme d'un « laboratoire sur une puce », des semi-conducteurs organiques et des capteurs qui utilisent de très faibles quantités d'agents chimiques pour effectuer des tests sur le terrain. La puce peut ensuite être insérée dans une clé USB et fournir des résultats consultables sur ordinateur au bout de 20 minutes.
- Une nanopuce pour une détection précoce des cancers
Des chercheurs ont mis au point une nano-puce capable de détecter dans le sang des marqueurs tumoraux, à des concentrations très faibles.
Les marqueurs tumoraux sont des protéines produites principalement par les cellules cancéreuses et qui se retrouvent dans le sang. La quantité de marqueurs présente dans la circulation sanguine reflète souvent le nombre de cellules cancéreuses présentes dans la tumeur ou le nombre de cellules cancéreuses qui se sont disséminées à distance de la tumeur pour former des métastases.
La détection de ces marqueurs tumoraux est déjà utilisée pour le dépistage de différents types de cancers. Toutefois, la nano-puce développée par l'équipe de l'ICFO est capable de détecter des concentrations extrêmement faibles de ces marqueurs dans le sang (50 picogrammes par millilitres), selon les chercheurs. Ce qui permettrait un diagnostic très précoce de la maladie, clé essentielle pour procurer au patient le traitement le plus efficace et approprié.
Des nanoparticules d'or implantées à la surface de la puce sont programmées avec un récepteur d'anticorps de telle sorte qu'elles soient capables d'attirer et de fixer les marqueurs tumoraux en circulation dans l'échantillon sanguin.
- Le lait augmente le risque de cancer de la prostate
Le lait a été soupçonné de favoriser certains cancers, notamment parce qu’il contient naturellement des facteurs de croissance (IGF insulinométriques, EGF épidermiques, et TGF-B transformants) destinés au veau. Or, des études ont montré chez l’humain une association entre des concentrations sanguines d’IGF-1 — le facteur de croissance favorisant la division cellulaire — et un risque de développer des cancers de la prostate, du côlon, du rectum et du sein.
L’IGF-1 n’est cependant plus détecté dans le lait ayant subi un traitement UHT (ultra-haute température), qui représente 97 % des ventes de lait en France.
L’augmentation du risque de cancer de la prostate serait de l’ordre de 12%, par contre une consommation élevée de produits laitiers réduirait le risque de cancer colorectal de l’ordre de 22%.
- Attaquer les bactéries résistantes par leur membrane
Les bactéries en question, dites "à gram négatif" (par exemple Escherichia Coli), possèdent une membrane externe imperméable qui leur permet de survivre. Les chercheurs affirment avoir découvert comment les cellules bactériennes transportent les éléments nécessaires à la construction de la membrane, en l'occurrence des molécules appelées "lipopolysaccharides".
"Nous avons identifié le chemin utilisé par la bactérie pour transporter les éléments qui vont constituer la barrière. Nous avons également démontré que si la voie d'accès était bloquée, la bactérie mourait".
"Comme ces nouveaux médicaments n'auront pas besoin de pénétrer dans la bactérie, cette dernière ne devrait, à notre avis, plus être en mesure de développer de résistance".
Voir aussi Futura-Sciences mais leur optimisme est bien déplacé puisque survivront les bactéries développant une parade sans avoir besoin de venir du noyau !
- Les gènes de résistances aux antibiotiques des bactéries
Dans un seul gramme de sol, plusieurs milliards de bactéries se livrent une lutte chimique sans merci ! Les unes émettent des antibiotiques pour éliminer leurs concurrentes, et gagner ainsi plus d'espace et de nourriture pour se développer. Les autres tentent de se protéger grâce à des gènes de résistance aux antibiotiques, que les bactéries s'échangent entre elles et qui peuvent s'accumuler dans les génomes au fil du temps. Ainsi, les antibiotiques que nous utilisons pour soigner otites, méningites ou gastro-entérites, existent dans le milieu naturel (c'est d'ailleurs de là qu'elles ont été extraites pour en faire des remèdes). Mais, et c'est là le problème, les gènes de résistance à ces mêmes antibiotiques s'y trouvent aussi...
"En associant deux ou trois antibiotiques pour lutter contre un pathogène, on pourrait sans doute considérablement réduire les risques de résistance".
- Le café contre les bactéries et bon pour les dents
- Bientôt la fin de la tuberculose ?
L'Office européen des brevets a célébré à Berlin les inventeurs européens de l'année. Dans la catégorie « Industrie », c'est l'équipe de chercheurs dirigée par le belge Koen Andries et le français Jérôme Guillemont qui ont été honorés pour leurs travaux permettant de réduire de façon significative la durée des traitements contre la tuberculose et à parvenir à une guérison complète en une durée raisonnable.
Concrètement, ils ont élaboré un nouvel antituberculeux hautement actif, un composé chimique dénommé à l'origine "R207910", puis nommé "bédaquiline" qui s'attaque à l'approvisionnement énergétique de la bactérie à l'origine de la tuberculose classique ou dite tuberculose multirésistante (TBMR) dont 500.000 cas nouveaux ont été recensés de par le monde en 2012. En 2013, près de 10.000 cas de tuberculose multi-résistante ont été diagnostiqués dans la seule Afrique du Sud, dont 766 cas de tuberculose extrêmement résistante. L'urgence est telle qu'un sommet sur la tuberculose réunissant les experts du monde entier a aussi été organisée en juin en Afrique du Sud, à Durban.
Commercialisé sous l'appellation Sirturo, le nouveau médicament mis au point par Koen Andries et son équipe est 25% plus efficace que les traitements classiques pour éradiquer la tuberculose chez les patients atteints, et huit semaines seulement sont nécessaires à la guérison. Pourquoi est-il plus efficace ? Parce qu'il éradique la bactérie quand les autres traitements ne font que réduire la vitesse de reproduction des bactéries. "Ce médicament a le potentiel de sauver la vie de millions de patients dans le monde".
- Les bienfaits de l'exercice intense dues à la protéine CRTC2
L'administration de cette protéine activée par l'adrénaline normalement suffit pour renforcer les muscles.
- Un antiparalytique en spray contre tous les venins de serpent
- Un pacemaker alimenté par les mouvements des muscles
En Corée du Sud, une équipe de chercheurs a conçu un nanogénérateur flexible pour alimenter un stimulateur cardiaque grâce aux mouvements des muscles sur lesquels il serait fixé.
Le nanogénérateur piézoélectrique flexible pourrait également être utilisé comme une source électrique pour d'autres dispositifs médicaux implantables
- Les limites des interfaces cerveau/machine
Implanter des électrodes dans le cerveau permet de contrôler des bras robotiques par exemple mais les électrodes perdent leur efficacité avec le temps, attaquées par les tissus, ce qui est la principale limitation actuelle de la technique, tous les espoirs étant mis dans des nouvelles interfaces électroniques biocompatibles.
- Un homme paralysé bouge sa main par la pensée grâce à un puce
- Etats-Unis : le premier exosquelette pour paraplégiques homologué
Technologie
biotechnologies, informatique, robotique
- Un programme pour concevoir des protéines qui s'auto-assemblent
Le programme combine deux sous-unités protéiques en unités symétriques de niveau supérieur. Pour l'instant, il a été produit un récipient pour médicament mais on pourrait construire ainsi des vaccins artificiels aussi bien que des nanomachines.
Leur méthode repose sur le codage de paires de séquences d'acides aminés avec l'information nécessaire pour diriger leur assemblage moléculaire à travers les interactions de protéine à protéine. Les interactions ne fournissent pas seulement l'énergie nécessaire au processus d'assemblage, elles orientent également très précisément les paires de blocs de construction pour former la géométrie exigée pour produire les architectures symétriques voulues en forme de cage.
- Un programme qui associe concepts et images
C'est un programme qui associe données textuelles et visuelles. Le programme apprend quels termes sont pertinents à partir des textes reliés aux images trouvées sur le Web et identifie leurs motifs caractéristiques en utilisant des algorithmes de reconnaissance d'objets.
Les utilisateurs peuvent parcourir la bibliothèque existante d'environ 175 concepts qui vont de "compagnie aérienne" à "fenêtre", avec par exemple "belle", "petit", "brillant", "cancer", "innovation", "planche à roulettes", "robot", ainsi que la première entrée des chercheurs : "cheval".
Si le concept que vous cherchez n'existe pas encore, vous pouvez le soumettre au programme qui va automatiquement commencer à générer une liste exhaustive des images par sous-catégorie qui se rapportent à ce concept. Par exemple, une recherche pour "chien" donne les sous-catégories: Photos de "Chihuahua", “black dog,” “swimming dog,” “scruffy dog,” “greyhound dog” mais aussi “dog nose”, “dog bowl”, “sad dog”, “ugliest dog”, “hot dog” et même “down dog” qui est une pose de yoga.
La technique procède en scrutant les textes de millions de livres écrits en anglais et disponibles sur Google Livres, relevant chaque occurrence du concept dans l'ensemble de la bibliothèque numérique. Ensuite, un algorithme élimine les expressions qui ne sont pas visuelles. Par exemple, avec le concept de "cheval", l'algorithme garde des phrases telles que "jumping horse" ou "eating horse" mais exclut les phrases non-visuelles telles que "mon cheval" ou "dernier cheval.".
Une fois qu'il a appris quelles phrases sont pertinentes, le programme fait une recherche d'images sur le Web pour trouver des ressemblances entre les photos trouvées. Ensuite, le programme peut reconnaître toutes les images associées à ces mots. Pour l'instant, il faut cependant jusqu'à 12 heures pour faire l'acquisition de nouveaux concepts généraux.
- Soulever et assembler des particules par ultrasons dans l'eau
Des ultrasons dans l'eau provoquent la résonance de la plaque au fond de la cuve. La pression acoustique résultante soulève des objets placés sur la plaque selon leur taille et densité.
En principe, le dispositif pourrait être adapté pour trier des objets nanométriques, y compris des blocs de construction pour de minuscules structures, ou bien des cellules qui doivent être ciblés de façon sélective pour des traitements médicaux.
- Grimper aux vitres comme un gecko
Cela fait un moment qu'on en parle mais cela devient donc opérationnel et un nouvel adhésif réutilisable.
Il y a aussi des langues de grenouille ultra-adhésives.
- Projector drone : projeter des videos sur tous les murs
Le prototype est capable de voler entre 12 minutes et une heure
Le taux d'accident des drones (militaires surtout) serait cependant trop élevé encore.
- Un superordinateur HP pour remplacer les datacenters
Remplacer l’infrastructure d’un datacenter par un ordinateur de la taille d’un réfrigérateur : voilà, pour résumer, l'objectif d’HP.
Avec The Machine, HP dit vouloir créer un ordinateur susceptible de faire face à la croissance exponentielle du volume des données. Alors que l’on commence à parler aujourd’hui en zettaoctets (1021 octets), le constructeur prédit que d’ici la fin de la décennie, nous verrons le bronto-octet (1027 octets), soit un milliard d’exaoctets.
The Machine reposera notamment sur un type de mémoire appelé memristor. Cette mémoire à résistance non volatile, qui a été conceptualisée dans les années 1970, remplacera la Ram, la mémoire Flash et le stockage sur disque dur. De plus les interconnexions entre les processeurs et la mémoire passeront par des câbles photoniques.
- Des écrans de toutes les formes chez Sharp
Sharp explique qu’il a conçu un nouveau circuit électronique incorporé dans les pixels et non plus dans le cadre autour de l’écran. C’est cette innovation qui permet de libérer le design.
- Le casque à réalité virtuelle en carton de Google
Facebook dépense 2 milliards de dollars pour racheter Oculus VR et mettre la main sur sa technologie de réalité virtuelle ? Qu'à cela ne tienne, Google s'apprête à riposter en sortant son propre casque de réalité virtuelle... en carton. Un smartphone Android, une paire de lentilles, des élastiques, des aimants, du velcro, un bon sens de la débrouille (les plans de fabrication sont disponibles sur le site officiel en cliquant sur le bouton "Carboard Design Files") et le tour est joué. Seule condition pour activer le dispositif, télécharger une application baptisée sobrement "Cardboard" pour carton. Plus rien n'est alors impossible pour l'utilisateur, depuis la visite guidée du château de Versailles jusqu'au visionnage du dernier clip de Psy, en passant par une plongée au cœur de l'Amazonie grâce à Google Earth.
- Le Fire Phone d'Amazon pas convaincant malgré la 3D et la reconnaissance d'objets
Mauvaise critique du smartphone d'Amazon (voir la version française) qui est surtout parfait pour acheter sur Amazon et sinon mal fini et plutôt gadget (mais peut reconnaître une musique qu'on entend ou un objet qu'on prend en photo).
- Des simulations informatiques permettent d'améliorer l'impression 3D en métal
Pour obtenir un métal de bonne qualité qui ne soit pas poreux à partir de poudres métalliques, des simulations informatiques permettent d'ajuster de nombreux paramètres : la puissance du laser, la vitesse du laser, la distance entre les lignes de balayage à laser, la stratégie de balayage et l'épaisseur de la couche de poudre. De quoi généraliser l'impression 3D métallique avec la fusion laser métallique directe (DMLM).
- Des robots capables d’imprimer une structure de n’importe quelle taille
- Impression 3D de maisons en sel
Le musée national des sciences émergentes et de l'innovation de Tokyo accueille deux androïdes au réalisme saisissant. Kodomoroid, la jeune adolescente, et Otonaroid, la femme adulte, illustrent les dernières avancées en matière de robots humanoïdes, domaine dans lequel les Japonais sont à la pointe. Les visiteurs du musée pourront les voir en action et interagir avec elles.
Grâce à une série de servomoteurs et de muscles artificiels actionnés par air comprimé, les expressions faciales atteignent une fluidité qui s’approche de près de celles d’un humain. Lors d’une conférence de présentation à la presse, Kodomoroid a joué les journalistes en lisant des actualités telle une présentatrice TV, tandis qu’Otonaroid discutait avec l’assistance.
Cependant, Kodomoroid et Otonaroid ne sont pas des robots autonomes. Seuls leur visage et leur buste sont motorisés.
C'est assez bluffant mais il reste quand même pas mal de travail, par exemple pour saisir une feuille...
- Piloter un avion par la pensée
Un groupe de chercheurs allemands, travaillant pour le projet européen Brain Flight, affirme qu'il est possible de piloter par la pensée un avion. L'algorithme mis au point pour interpréter l'électroencéphalogramme a donné des résultats prometteurs lors de tests sur simulateurs de vol.
L’un des testeurs a même réussi un atterrissage alors que d’autres ont effectué sans problèmes des manœuvres d’approche pour un atterrissage dans de mauvaises conditions de visibilité. Il reste tout de même un problème à résoudre, celui de permettre aux pilotes de ressentir les contraintes mécaniques subies par les gouvernes d'un avion en vol.
"Avec le contrôle direct par le cerveau, piloter un avion pourrait devenir plus facile. Cela permettrait de réduire la charge de travail des pilotes et ainsi augmenter la sécurité".
Voir aussi Futura-Sciences.
Un exosquelette contrôlé par la pensée en ouverture du mondial.
- Le smart vélo de Samsung, avec lasers et ordinateur
Ce prototype de smart bike offre une vision vers l'arrière tandis que les rayons laser indiquent aux automobilistes la distance à respecter. Un minuscule ordinateur et un smartphone servent à piloter le tout et à utiliser le GPS
- Rendre sa voiture autonome pour 10 000$
La start-up californienne Cruise Automation se prépare à commercialiser un kit qui ajoute des fonctions d'autonomie à un véhicule de série. Placé sur le toit de la voiture, le module Cruise RP-1 embarque deux caméras, un radar anticollision, un GPS, une centrale inertielle et une connexion 4G/LTE. Il est relié à des contrôleurs qui commandent la direction, le freinage et l’accélération. Un ordinateur installé dans le coffre de la voiture gère le pilote automatique. Ce pilote automatique n’est compatible pour l'instant qu’avec deux modèles de la marque Audi et ne sera utilisable que sur certaines autoroutes de l’État de Californie.
Sur les autoroutes préalablement mémorisées, le chauffeur peut activer ce pilote automatique qui prend la main en s’aidant du marquage au sol comme guide, sait réguler la vitesse et actionner le freinage en surveillant les véhicules aux alentours pour éviter les collisions. Si le conducteur peut se permettre d'ôter ses mains du volant, il devra tout de même rester concentré sur la route pour pouvoir reprendre le contrôle à tout moment.
- Les japonais créent des hôtels de luxe sur rails !
Surnommé le « cruise train » (littéralement train de croisière) par JR East, la compagnie qui assure leur développement, ils sont déjà en production et devraient entrer en service au printemps 2017.
- Xplorair : la voiture volante prend son envol en 2017
Grâce à un nouveau mode de propulsion baptisé Thermoréacteur, un véhicule baptisé XplorAir devrait prendre son envol dès 2017 sur le tarmac du Bourget.
Xplorair n’utilisera ni hélice, ni turbo-réacteur, ni moteur fusée mais une dizaines de « thermoréacteurs », dissimulés au cœur de ses ailes, éjectant des gaz à très grande vitesse sur le dessus de l’extrados et créant les conditions de son décollage.
En théorie, l’Xplorair devrait ainsi combiner les avantages des hélicoptères (décollage court) et des avions (vitesse élevée).
Mais bien que bénéficiant du soutien de la DGA, le Xplorair devrait avant tout viser un marché civil en proposant une alternative à nos automobiles avec une vitesse de pointe de 200 km/h et une autonomie de l’ordre de 800 km. Michel Aguilar travaille d’une part sur une technologie de réduction acoustique (point faible des avions STOLV) et annonce surtout un prix de vente de (seulement) 75 000 euros, comparable à celui de grosses berlines allemandes.
Ce n'est pas une voiture volante au sens où il n'y a pas de roue et qu'elle ne peut rouler sur les routes mais c'est bien mieux car elle peut se garer sur un parking et s'envoler directement dans les airs, le rêve devenu enfin réalité ?
<- Revue des sciences précédente | Revue des sciences suivante ->
A propos de "L'enfant apprend à résister à ses intuitions",
Pourquoi présenter encore aujourd’hui comme une «inhibition » du perçu sensible (« générateur d’illusion » ) l’accès à une intelligibilité de plus en plus exactement construite du réel perçu ? ne s’agit-il pas d’un « réajustement » ? Sensible et intelligible marchent ensemble (leçons de l’éthologie) quand bien même, dans la création de mondes par notre espèce humaine, il y a possibilité d’une ouverture constante de l’horizon expérimental des échanges entre les sujets et la réalité extérieure (l’espace et le temps vécus comme de plus en plus raisonnés ?). Le risque de l’illusion dans ce processus d’humanisation du donné extérieur est plus grand dans une théorisation sans fondation assurée et dans les partis pris idéologiques que dans la part sensible de la critique, dans un processus dialectique auquel vous faites référence. Peut-on d’une description juste de la psychologie génétique chez l’enfant conclure que ses progrès comme sujet vers une meilleure connaissance humanisée résultent d’une « résistance à ses intuitions »? Rien ne justifie ce parti-pris traditionnel.
Ce qui le justifie, c'est la structure du cerveau lui-même qui fonctionne par inhibitions (souvent les neurones dopaminergiques), la théorie des 3 cerveaux est une simplification qui illustre cette structure avec l'inhibition des fonctions inférieures par les fonctions supérieures plus complexes. Ici, c'est le développement du cortex pré-frontal qui est jugé indispensable à cette maîtrise des "illusions optiques".
Cependant, ce qu'on appelle intuition est bien plus large et souvent de l'ordre d'une généralisation (analogie) non verbalisée, d'un savoir-faire, voire d'une simple habitude. Il est malgré tout fondamental de se défaire d'une prétendue communication directe avec la nature ou l'être tout comme des philosophies vitalistes (de Schelling à Bergson).
La nécessité de réassurer nos convictions dans la perception est tout de même le principe de la science expérimentale mais après un détour qui fait coupure épistémologique avec l'immédiateté.
D'accord. mais ce qu'on appelle "inhibition" implique un a priori logique dualiste pour ne pas dire un manichéisme survivant . La description du " comment ça fonctionne" au plan neuronal ne justifie nullement de qualifier par là une nécessaire rétention, une censure, un interdit envers un niveau inférieur, par un niveau supérieur. On peut aussi bien interpréter cela comme une relation dialectique évolutive "matrices-empreintes" où l'empreinte transforme la matrice, qui améliore l'empreinte, etc... ( = appeler "ouverture épistémologique" ce que l'on nomme "coupure" ... en ne considérant pas le sensible comme un "tiers exclu"?
L'inhibition, c'est simple, c'est un neurone dopaminergique qui bloque un réflexe, par exemple le tremblement des parkinsoniens qui n'est plus inhibé (et l'article se base sur l'inhibition d'une réaction primaire). Cela ne veut pas dire qu'il serait pertinent d'en étendre le mécanisme au surmoi par exemple qui procède tout autrement. Là, on parle d'enfants dont le cerveau est en formation (et dont je critique l'oubli de la place du tiers). Dans la construction d'un savoir, d'un apprentissage, il y a certainement plutôt composition, complexification, accommodation, remplissage, descente dans le détail.
Le dualisme binaire n'est certes pas universel, rien de plus bête que l'opposition du bien et du mal, mais il a sa pertinence biologique et logique quand il s'agit d'un équilibre entre processus opposés pour l'un, d'un oui ou d'un non pour l'autre (bit numérique, unité d'information, décision). Même si le sujet n'est pas sans rapport avec son objet, il s'y oppose comme la vision à ce qu'elle vise, comme le prédateur à sa proie (dans une lutte indécise). L'unité du sujet et de l'objet qui a occupé la philosophie post-hégélienne et notamment Heidegger (s'inspirant de Uexküll) pêche justement à ne pas maintenir leur séparation, l'autonomie, les degrés de liberté et d'évolution d'un organisme adaptable par rapport à son milieu d'origine historiquement daté.
Sur les brevets et l'information : http://future.arte.tv/fr/brevets
Il n’empêche que proposer en tant qu’inhibition d’une illusion des sens, ce ressenti ajouté - par le jeune enfant lui-même- d’un vide ou d’un silence entre deux manifestations de présence du même objet, ( sensibilité au bâti perceptif concret d’un permanence de cet objet-là, à partir de son mode d'être et plus profondément que par le mot selon lequel la tribu le nomme!) cela m’apparaît, au sens propre, comme une imposture soi-disant vénielle mais aux conséquences très considérables …
Sinon, concernant l'innovation dans le public ou le privé, ce qui est étonnant c'est de voir à quel point ces institutions sont dirigées par des ectoplasmes politiciens. Des légumes qui vont de réunions en réunions, équipés de leur costard cravate, qui ne prennent jamais de décisions ou alors des décisions débiles.
http://www.dailymotion.com/video/k6ltqsSFgFEo4O8hdbh?start=20
RD privée en panne :
Pourtant, nous avons bien vu apparaître les Google, Facebook, qui sont devenus des géants...
-C'est vrai, comme il est vrai que le secteur des « social medias » peut se développer. Mais ce n'est qu'une partie de la high tech ! Le reste -électronique, bio-tech- a beaucoup plus de mal.
Nous avons étudié le sort de 200 start ups nées sous l'égide du MIT entre 1997 et 2008. 50 d'entre elles étaient spécialisées dans les « social medias ». Les 150 autres, spécialisées dans les bio-techs, dans les semi-conducteurs, avaient réussi à lever, initialement, des fonds considérables, 75 millions de dollars en moyenne. Mais quand elles ont voulu passer à une phase ultérieure de leur développement, quand il s'est agi de fabriquer des produits, donc d'implanter des usines, en vue d'une commercialisation, elles ont eu besoin de fonds supplémentaires, et les « venture capitalists » ont refusé de suivre. Quant aux introductions en Bourse, elles sont étonnamment peu nombreuses.
Ce sont donc autant de développements qui ont été bloqués, faute de financement.
-Comment débloquer cette situation ?
-L'Etat fédéral tente de le faire. L'administration Obama finance des « Manufacturing innovation institutes », le premier créé l'a été dans le domaine des imprimantes 3D. Les industriels hésitaient à investir dans cette technologie, dont les débouchés sont encore incertains, l'Etat a donc pris le relais. Plus que jamais, il joue donc un rôle majeur, mais il risque d'être insuffisant.
http://www.latribune.fr/opinions/tribunes/20140707trib000838832/suzanne-berger-aux-etats-unis-le-processus-de-recherche-innovation-est-bloque.html
http://lesrencontreseconomiques.fr/2014/sessions/ou-sont-les-technologies-de-rupture/
http://www.ladocumentationfrancaise.fr/var/storage/rapports-publics/094000205/0000.pdf
"L’innovation peut-elle se planifier ou faut-il en accepter le caractère erratique ? L’État doit-il chercher à intervenir comme acteur ou doit-il se contenter de créer les conditions d’un environnement favorable ?" (lien dernier commentaire ci dessus)
Il ne faut pas mélanger les domaines : celui de la science qui est scientifique et celui de l'état qui devrait être politique .
Si ce type de question se pose c'est que le domaine de l'état a été délaissé et qu'on ne sait plus ce qu'est l'état , ce que sont les citoyens et ce qu'est la politique .
Le problème est bien politique et non scientifique . Il y a confusion des genres et confusion tout court ; par exemple le politique compte sur les innovations scientifiques ( à venir ) pour sauver la planète !!!
Dans une société où les orientations générales ne sont pas données par les citoyens et l'état qui les relaie , où le marché et les lobbys fixent le cap , la science aussi est déboussolée .
Liberté absolue pour la recherche scientifique ! autorité de l'état (suivant les directives citoyennes) dans l'orientation et l'usage des avancées scientifiques.
http://www.pixium-vision.com/fr/movie
Aujourd'hui je viens de recevoir notre acte de décès civilisationnel : http://ecologie.blog.lemonde.fr/2014/07/29/les-trous-geants-de-siberie-dus-au-rechauffement-climatique/
À mettre en rapport avec :
"L’étude publiée dans Nature prend en compte les deux scénarios extrêmes du quatrième rapport du Giec: +2°C ou + 7,5°C en 2100 dans la région arctique. Le réchauffement le plus élevé provoquerait, selon les chercheurs, la fonte de 9 à 15% des 3 premiers mètres d’épaisseur du permafrost d’ici 2040 et de 47 à 61% d’ici 2100. En équivalent CO2, cela représente l’émission de 30 à 60 milliards de tonnes d’ici 2040 et de 232 à 380 milliards de tonnes d’ici 2100. Des résultats de 1,7 à 5,2 fois supérieurs à ceux des modèles précédents."
Ca vous dirait 14°C de plus dans votre jardin ? 🙂
La fonte du permafrost va provoquer effectivement un emballement (la bombe méthane) qui a été très sous-estimé jusqu'ici par le GIEC de façon incompréhensible (sinon pour ne pas perdre sa crédibilité par des prévision trop catastrophistes!). Lorsque je faisais état du scénario extrême, j'étais très isolé (voir aussi "quels risques climatiques majeurs") mais il y a encore des crétins qui nient le réchauffement et en sont très fiers (y compris quelques "écolos"), se croyant si lucides face à la propagande du GIEC sous prétexte que les températures de surface ont moins augmenté ces 10 dernières années que celles de l'océan, en attendant qu'il la relâche !
Lorsque j'ai compris qu'il n'y aurait pas de pic pétrolier mais qu'on brûlerait les hydrocarbures jusqu'à la dernière goutte j'ai pris un grand coup de déprime. Il semble qu'on ne réagit que devant la catastrophe mais il faut qu'on y soit déjà, que ce soit en économie, en écologie ou en politique... (alors même que mettre le paquet sur les énergies renouvelables résoudrait un certain nombre de problèmes économiques immédiats ! mais sans impulsion politique très forte - comparable à un effort de guerre - la transition sera très lente comme de dit Pour la Science).
http://www.univers-nature.com/actualite/enorme-le-premier-bilan-carbone-du-tourisme-a-paris-66269.html
Il faudra que Madame le maire de Paris décide d'interdire la ville aux touristes!
C'est bien là où il faut ressortir la phrase pas si idiote de Cochet "il nous faut penser l'impensable"
L'impensable c'est la remise en question de nos pratiques et de l'organisation de nos sociétés . Mais pour penser l'impensable ,faudrait déjà penser ; et pensez bien que là ! ça coince déjà
C'est d'ailleurs tellement impensable qu'on ose pas même le dire ..Mais la transition énergétique c'est pas mettre une éolienne sur la Tour Eiffel , c'est réorganiser la société ! Parce que y a pas qu'à Paris qu'on déambule ......