Revue des sciences juillet 2018

Temps de lecture : 98 minutes

Pour la Science

La Recherche

Physique, espace, nanos

Climat, écologie, énergie

Biologie, préhistoire, cerveau

Santé

Techno

Ce mois-ci on part dans l'espace même si c'est pour constater qu'on y est bien seul, la position de la Terre étant très privilégiée, protégée des rayons gamma, il faudrait qu'on la protège de nous-mêmes maintenant, ce qu'on commence à faire. Sinon, ce qui m'a le plus intéressé, c'est que la latéralisation du cerveau précède le langage et va de pair avec la prédominance de la main droite dans une communication par gestes qui relève d'une mise en scène. Il faut signaler aussi l'arrivée d'une IA qui débat et peut nous convaincre de changer d'avis ainsi que la supervision d'un robot par la pensée dès qu'on détecte une erreur. Enfin, des commentaires importants reviennent sur les questions du travail, de l'automatisation et des revenus.

<- Revue des sciences précédente | Revue des sciences suivante ->

Revues : Pour la Science - La Recherche
Brèves : Physique - Climat - Biologie - Santé - Technologie

- Economie et social

L'époque ne porte pas à l'optimisme, c'est le moins qu'on puisse dire, les pouvoirs forts et la violence d'Etat sont à la mode presque partout. L'idéologie démocratique se délite après avoir prétendu occuper les places, s'affirmant désormais surtout dans le rejet des immigrés. Seuls restent les rapports de force bruts - et la montée du protectionnisme pourrait provoquer une nouvelle récession. On parle depuis longtemps des similitudes de la crise avec les années 1930, sous un mode certes très atténué pour l'instant, mais on peut craindre un retour des âges sombres. Dans ce monde unifié, la raison devrait quand même l'emporter, mais c'est ce qu'on croyait aussi avant-guerre et l'état de la puissance dominante n'a rien pour nous rassurer. En effet, aux Etats-Unis, 45.000 personnes se sont données la mort en 2016 (surtout avec une arme à feu), soit une augmentation inquiétante de 30% depuis 1999 alors qu'en France, le taux de suicide a chuté de 26% en 15 ans (à 10.000 par an), ce qui reste quand même l'un des plus élevés d'Europe. L'accord vide avec la Corée du Nord ne nous met pas encore à l'abri d'un conflit nucléaire. La dissémination nucléaire augmente forcément la probabilité d'un tel conflit (l'utilisation de l'IA pourrait même y inciter), ce qui serait suicidaire mais une étude conseille de limiter l'arsenal car lancer plus de 100 bombes nucléaires se retournerait contre l'assaillant en provoquant un hiver nucléaire !

Ce qui fait qu'on peut penser éviter le pire, c'est la transition énergétique et plus généralement la transition écologique qui avancent malgré tout (avec une diminution significative du trou d'ozone en Antarctique), ce que des écologistes refusent d'admettre au regard de l'aggravation, bien réelle aussi, de la situation mais je défendais le solaire à une époque où pas mal d'écologistes prétendaient que c'était un alternative impossible (coûtant plus d'énergie qu'elle en produisait!). Aujourd'hui le rendement d'une cellule solaire à base de silicium « tartinée » de pérovskite, approche les 30% et des pérovskites inorganiques sans plomb (Cs2Au2I6) seraient bien plus stables que les pérovskites organiques et non toxiques alors que des batterie propres arrivent pour les énergies renouvelables et des panneaux solaires semi-transparents au-dessus des terres cultivées permettent de les développer sans concurrencer l'agriculture. Il faut ajouter les systèmes de traitement combiné des algues sur lesquels on peut compter aussi pour compléter le tableau. Encore très récemment, j'ai défendu la capture du CO2 contre mes petits camarades qui disaient que c'était impossible... Or, voilà qu'on arrive à des coûts abordables et que la capture du CO2 devient crédible (voir aussi la BBC), de même que de transformer avec le soleil, et sans métaux rares, le CO2 en CO (convertible en carburant) ou de produire de l'hydrogène par électrolyse de l'eau de mer tout en transformant le CO2 en bicarbonate qui réduit de plus l'acidification des océans... Ceci dit, j'ai moi-même longtemps dénoncé un "développement durable" qui me semblait hypocrite et sans aucune portée, avant d'admettre qu'il pouvait tout de même améliorer les choses. Il faut souligner comme l'évaluation des potentialités techniques et des orientations futures reste toujours aussi difficile, et contestée de toutes parts - avec des inconnus comme le volcanisme, la fonte de glaciers réduisant la pression pouvant réveiller de nombreux volcans (ce qui est déjà le cas d'un volcan sous l'Antarctique après plus de 2.000 ans d’inactivité), leurs émissions étant une des causes de la "pause" du réchauffement de ces dernières années. En tout cas, après avoir décidé d’un objectif de 32% d’énergies renouvelables en 2030 (en mobilisant particuliers, grande distribution, armée, etc.), les États européens viennent officiellement d’adopter la neutralité carbone du continent en 2050. Dans la seconde moitié du siècle, le bilan C02 devra même être négatif pour absorber les excédents actuels. D'ailleurs, un livre, Drawdown, liste comment inverser le cours du réchauffement planétaire mais pour l'instant il manque des solutions pour les transports (notamment aérien) ou la fabrication d'acier et de ciment, soit 27% des émissions mondiales des secteurs de l'énergie et de l'industrie. Le problème n'est d'ailleurs pas tant technique que de coût par rapport à un pétrole trop bon marché (qui remonte un peu). Surtout, les USA sont loin derrière les objectifs de la COP21 et leurs émissions de méthane provenant du pétrole et du gaz dépassent de 60% les estimations à cause des  fuites ou de défaillances d'équipement. L'impact climatique de ces fuites en 2015 était à peu près le même que l'impact climatique des émissions de dioxyde de carbone de toutes les centrales électriques au charbon américaines en activité en 2015 ! Par contre, il semble que l'océan indien absorbe plus de méthane qu'on ne le pensait. Pour éviter la saturation, il faudrait cependant limiter le transport du carbone de la terre vers l'océan par les rivières. A noter enfin que, grâce à des croisements, des néozélandais ont créé une race de mouton émettant 10% de méthane en moins.

Malgré la disparition de l'écologie-politique, la situation ne serait donc pas trop désespérante si le bilan 2018 de l’Observatoire national de la biodiversité (ONB) ne confirmait le déclin vertigineux des oiseaux (mais aussi chauves-souris et saumons), notamment en raison de l’usage de pesticides et de l’artificialisation des sols en plus de l'effondrement des populations d'insectes dont la pollution lumineuse serait un facteur important. Cependant, toutes les espèces de pollinisateurs ne déclinent pas. Certaines, même, se développent mais avoir beaucoup d'espèces qui régressent et quelques-unes qui se multiplient conduit à une homogénéisation biotique, avec au final quelques espèces généralistes. C'est un risque car cette faible biodiversité est propice à des accidents, en particulier des épidémies. L'élevage des insectes devrait d'ailleurs se développer pour remplacer la viande, ce qui n'est pas si extraordinaire puisque l’héritage de nos ancêtres insectivores est inscrit dans nos gènes et que les insectes sont consommés traditionnellement dans de nombreuses régions. A noter qu'on pourrait voir apparaître un nouveau label "bio, local et équitable".

Les problèmes écologiques n'étant pas une vue de l'esprit, les gouvernements sont bien obligés de les prendre en compte à un moment ou un autre. La Chine l'a bien compris qui a décidé de placer un quart de ses terres à l'abri de tout développement d'ici 2020, et de porter la couverture forestière à plus de 23% de la superficie du pays, au moins 25% de la superficie du pays sera protégé en vertu du nouveau projet de "ligne rouge écologique", d'ici la fin de la décennie. Xi Jinping, a promis d'utiliser toute la puissance du Parti communiste pour s'attaquer au vieux problème de la pollution, et il a assuré que l'environnement connaîtrait une "amélioration fondamentale" d'ici 2035. Un marché du carbone a aussi été mis en place bien qu'assez modeste pour l'instant. Il y a une grande différence entre les paroles et les actes mais comme il ne s'agit pas d'idéologie mais d'intérêt bien compris, on peut espérer un impact non négligeable. Il n'y a pas que la Chine, bien sûr, dans le nord-ouest du Pakistan des centaines de millions d'arbres sont plantés (notamment des eucalyptus), pour lutter contre la déforestation, l'objectif étant dix milliards d'arbres ! Par contre, le Japon et les États-Unis ont refusé de signer une charte contre la pollution plastique des océans, lors du sommet du G7, organisé au Canada. Il faudrait sans doute que cela devienne une ressource exploitable, ce qu'essaie de faire Plastic Odyssey, le navire qui carbure aux déchets plastiques chauffés à 400°C sans oxygène pour se transformer en carburant.

Enfin, comme les revues scientifiques anglo-saxonnes, Sciences et Avenir s'engage pour la légalisation du cannabis (qui s'étend de la Californie au Canada) en contredisant l'Académie de médecine qui prétend que cela engendrerait plus de drogués (la Hollande libérale comparée à la France répressive prouvant le contraire). Ils ont eu raison de rappeler aussi que le cannabis altère le développement cérébral des jeunes mais la légalisation pour les adultes permet justement de mieux en protéger les mineurs.
 

- Sciences



La face cachée de la Lune, avant d'y envoyer un rover

La physique est à l'honneur ce mois-ci, notamment la cosmologie et le spatial même s'il y a aussi une meilleure représentation de la dynamique des quarks dans le proton, l'hypothèse que des fermions ultra-froids se comportent comme des bosons à certaines énergies ou qui fait du boson de Higgs l'origine de la masse des quarks ou encore d'une matière noire avec un millionième de charge électrique. Mais là on est déjà dans la cosmologie et le satellite Planck confirmerait la constante cosmologique et la présence de matière noire. Comme l'explique un article de Pour la Science, cette constante cosmologique est une condition de notre existence, notamment à cause des sursauts gamma expliquant le paradoxe de Fermi  tant ils sont dévastateurs, ne laissant la vie se développer sur des milliards d'années que dans des zones privilégiées loin du centre de la galaxie et de ses explosions d'étoiles. D'autres scientifiques évaluent à 30% de probabilité qu'on soit seul dans l'univers et qu'en tout cas, on n'aurait aucune chance de contacter une autre civilisation assez proche pour être à notre portée. On n'en est pas encore là du tout mais on calcule déjà que pour coloniser d'autres étoiles, il suffirait de 98 personnes, cela reste une vue de l'esprit étant donné que le temps pour y arriver se compte en milliers d'années mais plus près de nous, certains voudraient utiliser une cyanobactérie pour donner à Mars une atmosphère respirable. En attendant, le passage au privé du spatial va encombrer notre propre espace encore plus avec une multiplication des satellites lancés. On commence donc à faire le ménage  avec RemoveDebris, le satellite parti éliminer les déchets spatiaux pendant que nos agences spatiales se préparent à la défense planétaire contre les astéroïdes, en se faisant la main sur un petit système binaire, et que Donald Trump crée une force armée spatiale (mais on devrait surtout avoir une guerre des drones).

Le plus inquiétant, c'est le bioterrorisme facilité par les progrès des biotechnologies (comme des "imprimantes d'ADN" rapides et fiables grâce à une polymérase du système immunitaire). L'armée américaine s'en soucie enfin. Pour l'instant, ce qui serait le plus à craindre, ce serait des bactéries intestinales humaines ordinaires modifiées pour fabriquer une toxine, car ce serait difficile à découvrir comme à en trouver la source. La pandémie pourrait aussi bien être naturelle. Ainsi, on soupçonne que des virus géants créent de nouveaux gènes, à partir de séquences non-codantes d'ADN, ce qui peut être un facteur d'évolution mais aussi de contagiosité. Du côté plus amusant, il paraît que les vibrations des plumes du paon font vibrer la crête des femelles !

On ne s'étonne plus maintenant qu'on arrive à transformer directement des cellules sanguines en neurones sans passer par le stade de cellule souche induite. On parle aussi de la possibilité d'allonger la vie grâce à des probiotiques mais on nous fait des promesses tous les mois (cela finira bien par marcher). Il est intéressant du moins de connaître les effets bénéfiques du café sur les mitochondries, confirmant la recommandation d'en boire 4 par jour, sans trop d'effets indésirables. Par contre, telle que pratiquée, l'édition génétique pourrait favoriser le cancer (pas si on change de méthode). Souvent, dans le vivant, le mieux mène au pire, ainsi les niveaux de testostérone seraient liés à l'environnement, moins il y a de maladies, plus on produirait de testostérone, mais s'exposant du coup au cancer de la prostate. Il est troublant sinon de découvrir que les mêmes prédispositions génétiques mènent à différentes maladies mentales (anorexie, TOC, schizophrénie voire anxiété ou dépression) mais des complications de la grossesse (virus, stress) multiplient par 5 ces risques génétiques et les bactéries de l'intestin pourraient être aussi en cause dans ces troubles mentaux. Les recherches déçues sur l'Alzheimer continuent à susciter l'exploration de nouvelles voies. Ainsi, les agrégats de bêta-amyloïdes bloqueraient CamKII, une enzyme clé de la plasticité synaptique, et ce blocage entraînerait à terme la disparition de la synapse. Il se pourrait aussi que les agrégats de bêta-amyloïdes se propagent par les exosomes. "La propagation de la maladie suit la façon dont les parties du cerveau sont anatomiquement liées. Il semble raisonnable de supposer que la maladie se propage à travers les connexions dans le cerveau". Cependant, une piste plus traditionnelle, confirmée par un important facteur de risque génétique (iRhom2) serait l'inflammation du cerveau, l'autre piste est vasculaire, le drainage du cerveau, et la prise d'aspirine agirait sur les deux en diminuant les plaques amyloïdes et en activant les lysosomes qui éliminent les débris cellulaires. Peut-être serait-il utile aussi de prendre des drogues psychédéliques qui favorisent de nouvelles connexions ? Enfin, ce qui m'a semblé le plus nouveau, a été de montrer dans les origines gestuelles du langage qu'il y avait déjà chez les singes une latéralisation, privilégiant le bras droit et mobilisant les futures aires du langage.
 

- Numérique

Pour voir tous les domaines que la blockchain va investir, il faut agrandir l'image ! C'est en tout cas une forte "disruption" qui va modifier les pratiques dans les années qui viennent, et de nombreux métiers (ainsi que l'économie). Exemple encore une fois d'une pure technologie qui impose sa loi simplement par les nouvelles possibilités qu'elle ouvre (mais qui devront être régulées). Pour l'instant, EOS, une nouvelle blockchain, qui a levé 4 milliards de dollars et qui est destinée surtout aux contrats intelligents, serait bien plus économe et rapide, en déléguant la responsabilité du traitement des transactions à seulement 21 «producteurs de blocs», qui doivent être élus par la communauté des détenteurs de coins. Avec cette démocratie représentative, le système pourra réaliser des milliers de transactions par seconde (contre seulement 15 par seconde pour Ethereum) mais cela rend le système vulnérable à l'achat de votes qui permettrait à quelqu'un de consolider son pouvoir sur le réseau, d'ailleurs les 100 premiers utilisateurs détiennent environ 75% des coins. La blockchain devrait, également, favoriser "l’actionnariat populaire" et donc la possession de grandes entreprises par ses utilisateurs mais on peut douter que cela élimine les gros capitalistes, les seuls à avoir du pouvoir (les mutuelles l'illustrent). Selon toute probabilité, la concentration des capitaux ne devrait pas s'arrêter, jusqu'à finir par être réappropriée, devenir bien public mondial ? On pourrait aussi voir émerger de véritables contre-pouvoirs, sortes de syndicats d'utilisateurs pour peser en masse. Il est certain sinon que la valeur et le travail en sont complètement bouleversés (on le disait depuis 1997 au moins), pas sûr pour autant que ce soit un capitalisme qui plairait à Marx.

Il faut compter aussi sur l'Intelligence Artificielle qui, certes, avec IBM Project Debater, peut débattre avec des humains, ce qui n'a pas que des bons côtés, mais surtout renforce la surveillance (on me riait au nez quand j'en parlais il y a plus de 10 ans et qu'on vantait la force libératrice du numérique). Non seulement la police chinoise utilise des drones de surveillance à l'apparence d'oiseaux, mais des commerçants aussi utilisent une IA qui a fait baisser les vols à l'étalage en détectant les comportements suspects (regarder autour de soi, chercher l'emplacement des caméras, etc). Les progrès de l'apprentissage automatique permettent même de superviser un robot par les gestes et la pensée mais les robots industriels intégrant l'IA commencent seulement à arriver et pour que de tels sauts technologiques augmentent sensiblement la productivité, ce sont les entreprises qui devront complètement se transformer, ce qui prendra beaucoup de temps. Evidemment, ce ne sont pas les seuls progrès qui ne sont pas près de s'arrêter avec des algorithmes d'optimisation 20 fois plus rapides (par exemple pour les recommandations) grâce au traitement parallèle, ou pour éviter le piratage des objets connectés, la répartition des  données de façon aléatoire sur 80 fréquences différentes (cela ressemble au système d'étalement de spectre inventé par la star hollywoodienne Hedi Lamarr ?).
 



Pour la Science no 489, l'intelligence sociale des dauphins


Pour la Science

- Les sursauts gamma expliquent le paradoxe de Fermi

En dépit de la multitude de mondes présents dans le cosmos, nous n’avons pas, à ce jour, détecté de civilisations extraterrestres. Pourquoi ? C’est la question que se posait le physicien italien Enrico Fermi. La raison tient peut-être à certaines explosions stellaires puissantes, les sursauts gamma, qui anéantiraient toute vie complexe présente dans leur voisinage.

Ce n'est pas du tout nouveau, je le rappelle souvent car c'est une des raisons principales de la rareté de civilisations évoluées nécessitant des milliards d'années d'évolution sans catastrophes cosmiques, ce qui ne peut arriver que dans les régions périphériques où il y a moins d'étoiles, ce qui n'empêche pas qu'on peut être rayé de la carte à tout moment par de tels sursauts gamma. On peut en tirer la conclusion que si on a très peu de chance de rentrer en contact avec une civilisation extraterrestre, son existence est plus probable dans notre banlieue quand même ? En fait l'article tente surtout de montrer que ces sursauts gamma sont liés à la théorie de l'inflation et des multivers car, illustrant le principe anthropique, s'il y en avait un tout petit peu plus, nous ne serions pas là, et s'il y en avait un peu moins moins non plus...

Sur 500 millions d'années, la probabilité qu'un sursaut gamma détruise entièrement la couche d'ozone de la terre est d'environ 50 %. Cet ordre de grandeur est très intéressant, car il signifie que les sursauts gamma pourraient expliquer certaines extinctions massives passées. D'ailleurs, certains chercheurs ont suggéré que l'extinction de l'Ordovicien, la première des cinq grandes extinctions de l'histoire de la Terre, soit due à un sursaut gamma survenu il y a 450 millions d'années.

À cause de l'effet dévastateur des sursauts gamma, seules les régions extérieures de la galaxie, beaucoup moins peuplées d'étoiles, sont potentiellement habitées. En rapportant nos résultats à l'univers dans son ensemble, nous sommes parvenus à la conclusion que seules 10% de galaxies (les plus massives et celles dont la métallicité est la plus élevée) étaient en mesure d'abriter une vie complexe. De surcroît, comme ces grandes galaxies mettent longtemps à se former, il se pourrait que la vie complexe telle que nous la connaissons ne sois apparue dans le cosmos qu'il y a au mieux 5 milliards d'années (soit durant le dernier tiers de l'histoire de l'univers).

Puisque cette constante agit comme une gravité répulsive, plus elle est élevée, plus elle aurait empêché la formation de grandes structures de l'univers, les galaxies et les amas de galaxies. L'inverse est bien sûr vrai : des valeurs plus faibles, voire négatives de la constante cosmologique auraient pour effet d'engendrer bien plus de galaxies que l'on en observe en réalité.

C'est ici qu'interviennent les sursauts gamma. Un univers qui contiendrait plus de grandes structures serait aussi peuplé d'un nombre important de petites galaxies dans lesquelles, comment on l'a dit, les sursauts gamma sont plus fréquents. Pire, les galaxies naines tendent à s'accumuler au voisinage des plus grandes. Or nous avons vu que pour être à l'abri des sursauts gamma, la vie intelligente doit se développer sur une planète située dans les régions externes d'une galaxie massive. Mais si cette galaxie est entourée d'un essaim de galaxies naines, les explosions stellaires qui s'y produisent affecteront les régions périphériques de la plus grande. Et dans ce cas, on ne serait plus à l'abri nulle part : les régions centrales de la grande galaxie seraient inhabitables à cause de leur population stellaire trop dense, tandis que l'extérieur le serait aussi, cette fois à cause de la proximité des galaxies satellites naines, sources de nombreuses sursauts gamma.

Un environnement galactique comparable à celui du système solaire constituerait ainsi le seul compromis possible : il contient suffisamment d'étoiles pour synthétiser les éléments lourds nécessaires à la formation de planètes, mais pas trop.

- L’inflation cosmique en laboratoire avec un condensat de Bose-Einstein, p13

inflation laboratoire

Dans leur expérience, les chercheurs ont recréé le vide de l’univers avec un condensat d’environ 10’000 atomes de sodium et lui ont donné une forme d’anneau via des impulsions lumineuses. C’est la vitesse du son à l’intérieur du condensat qui faisait office de vitesse de la lumière dans le vide, et les phonons (des quasiparticules représentant un quantum de vibration dans un solide cristallin) qui faisaient office de particules élémentaires.

Ensuite, les chercheurs ont augmenté la taille de l’anneau plus rapidement que la vitesse du son, afin de recréer les conditions cosmologiques de l’univers primordial, dans lequel le phénomène de l’inflation (dilatation brutale de l’univers) s’est déroulé plus vite que la vitesse de la lumière dans le vide. La longueur d’onde des phonons s’est « étirée », démontrant ainsi l’apparition d’un redshift (décalage vers le rouge) et, lorsque la dilatation du condensat s’est arrêtée, l’énergie du système s’est transformée en vibrations résiduelles, répliquant la potentielle désintégration de l’inflaton (champ scalaire supposé être à l’origine de l’inflation) à la fin de l’inflation.

Enfin, les physiciens observent un transfert d'énergie : les phonons dont les modes suivent une direction radiale perdent progressivement de l'énergie au profit de la formation de vortex dans le condensat. Ce transfert d'énergie serait comparable à la phase de réchauffage dans l'univers primordial. À la fin de la phase d'inflation, de grandes quantités d'énergie ont en effet été libérées dans le cosmos sous la forme de photons, conduisant à une élévation de la température globale : c'est la phase de réchauffage.

- L’héritage de nos ancêtres insectivores est inscrit dans nos gènes

Tarsier spectreA l’époque où les dinosaures régnaient en maîtres sur le monde, les premiers mammifères, apparus à peu près en même temps, vivaient cachés dans leur ombre en grignotant surtout des insectes. C’est ce que montre l’étude de leurs fossiles, et notamment de la forme de leurs dents. Mais leurs restes minéralisés ne sont pas leur seul héritage. Le génome des mammifères placentaires actuels porte encore les traces de leur passé insectivore.

De quoi a-t-on besoin pour manger des insectes ? De chitinases, des enzymes qui permettent de digérer l’exosquelette riche en chitine caractéristique des arthropodes, dont font partie les insectes. Les chercheurs se sont intéressés à un gène codant une chitinase, le gène CHIA. On savait déjà que l’homme possède un gène de chitinase fonctionnel et trois pseudogènes CHIA, devenus non fonctionnels par accumulation de mutations au cours de l’évolution. Mais l’équipe a étendu l’analyse à 107 espèces de mammifères placentaires (ce qui exclut les marsupiaux et les monotrèmes – ces derniers pondent des œufs).

Ils ont ainsi découvert cinq gènes CHIA dans leurs génomes. Les espèces qui sont insectivores, comme les tarsiers, l’oryctérope et certains tatous, possèdent cinq gènes fonctionnels. Chez les espèces carnivores et les herbivores, la plupart de ces gènes sont devenus des pseudogènes non fonctionnels. Ils représentent des sortes de fossiles moléculaires témoins de leur fonction passée. L’équipe a en outre mis en évidence une corrélation entre le nombre de gènes de chitinase fonctionnels dans le génome et le pourcentage d’invertébrés dans le régime alimentaire des espèces actuelles de placentaires. Ces résultats suggèrent que les premiers mammifères placentaires possédaient cinq gènes de chitinase fonctionnels et qu’ils étaient donc probablement insectivores. La génomique corrobore ainsi les résultats de la paléontologie.

Mais ce n’est pas tout. « Nous avons aussi montré que la perte de fonction de ces gènes est apparue très rapidement après l’extinction des dinosaures. Il existe par exemple des mutations communes à tous les carnivores, qui remontent donc à leur ancêtre commun. La datation de ces pertes de gènes permet là aussi de retrouver les résultats obtenus par l’analyse des fossiles ». De nombreux mammifères sont donc rapidement passés d’un régime majoritairement insectivore à un régime dominé par la viande ou les végétaux lorsque les derniers dinosaures se sont éteints, il y a 66 millions d’années.

C'est intéressant bien sûr parce qu'on devrait se remettre à manger des insectes...

- Le risque de mortalité plafonne après 105 ans !

Une personne de 60 ans aura près de deux fois plus de risques de mourir dans l’année qu’une personne de 50 ans. Cette loi exponentielle est observée jusqu’à des âges avancés (aux alentours de 90 ans) mais il semble bien exister un plateau dans le risque de mortalité au-delà de 105 ans.

Risque de mortalité en fonction de l’âge

 


La Recherche no 537, Chaos et systèmes complexes


Impossible de rendre compte de tout ce numéro double très riche avec un dossier sur les droits des animaux, un article qui évalue la crédibilité (douteuse mais pas impossible) des miroirs d'Archimède enflammant les bateaux ennemis. Le dossier sur la complexité peut être considéré par contre comme un peu décevant, ne témoignant pas de grands progrès par rapports à mon article sur la complexité et son idéologie de 2003, minimisant trop ici le rapport entre information et complexité que la théorie des systèmes avait mis à jour, pour privilégier les théories du chaos. Du moins, il y a bien distinction entre les différentes complexités (la complexité numérique n'a en effet rien à voir avec la complexité biologique).

- La naissance d'une théorie au carrefour des disciplines, p38

L'apparition de la science des systèmes complexes est d'abord issue des travaux sur le chaos. Cette approche multidisciplinaire des systèmes en interaction permet d'aborder une multitude de problématiques, des sciences dures et des sciences humaines, concernant l'épidémiologie, l'histoire, l'économie, l'écologie...

La polysémie du mot « complexe » rend ambiguë toute définition de ce que serait un « système complexe ». Toutefois, une partie des chercheurs s'accordent pour le définir de la manière suivante : « C'est un système composé d'un grand nombre d'éléments interagissant sans coordination centrale, sans plan établi par un architecte, et menant spontanément à l'émergence de "structures complexes", c'est-à-dire des structures stables avec des motifs présentant plusieurs échelles spatiales et temporelles », décrit Alain Barrat, du Centre de physique théorique de Marseille. Cette définition permet aussi de distinguer les systèmes complexes des systèmes compliqués qui sont agencés selon un plan préconçu.

Quant aux outils utilisés aujourd'hui, on trouve la science des réseaux, les modèles à base d'agent, les algorithmes génétiques, les méthodes de physique statistique, les automates cellulaires, les verres de spin, l'apprentissage machine – en bref, un certain nombre d'outils issus des mathématiques de l'informatique et de la physique.

On distingue la complexité de Kolmogorov, la complexité computationnelle, l'ingénierie des systèmes, la complexité intégrative, la théorie des systèmes complexes, etc.

Il y a toujours les mêmes exemples basiques des bancs de poissons ou des fourmis voire des automates cellulaires auxquels il faut ajouter désormais les villes intelligentes. Plus contestable, la modélisation de la société réduit les individus à des atomes sociaux :

Par construction, ces modèles supposent que les agents sont incapables de comprendre et de maîtriser les phénomènes collectifs, auxquels seuls les modélisateurs ont accès. Les individus modélisés sont, comme à l'usine de Taylor, les molécules d'un organisme dont le cerveau est ailleurs. Autrement dit, la modélisation suppose que la dynamique de changement vienne de l'extérieur de la situation, plutôt que de réflexion et de la créativité des acteurs impliqués. Une vision alternative postulerait que "le tout est plus petit que les parties", ou qu'il y a davantage de complexité dans l'individu que dans l'ensemble. L'individu des modèles est donc une entité complexe dont on a coupé toutes ses connexions.

Il faut prendre en compte cette critique limitant la pertinence des modèles mais qui ne l'annule pas. S'imaginer que l'individu contrôle la situation par son intelligence serait tout aussi excessif (j'ai passé une bonne partie des dernières années à montrer comme on est un sujet plus qu'acteur de l'histoire).

- Les origines gestuelles du langage, p75

Des chercheurs ont montré que les babouins utilisent en majorité leur main droite pour communiquer par les gestes. Cette latéralisation se reflète dans leur cerveau : les aires du langage sont plus étendues dans leur hémisphère gauche, tout comme dans l'espèce humaine. Ces travaux pourraient bien révéler les origines ancestrales de la parole.

Dans une étude menée auprès 100 enfants et 100 adultes, nous avons découvert que même les gauchers préféraient utiliser la main droite pour des gestes communicatifs, comme le pointage de la main vers un objet !

C'est ce qui m'a le plus intéressé, une latéralisation du cerveau qui précède le langage, renforçant aussi l'hypothèse d'un langage de signes précédant la parole, même si les cris sont présents aussi. Le geste, esquissant une action est plus explicite et plus engageant que le cri, c'est surtout presque un récit déjà, une mise en scène.

- KEMWATT une batterie propre pour les énergies renouvelables

Les travaux de l'équipe rennaise explorent donc une nouvelle filière faisant appel à des électrolytes organiques nettement plus propres tout au long du cycle de vie. « Nous étudions des molécules biodégradables, ni corrosives ni toxiques, qui peuvent être produites à partir d'une matière première abondante, en une ou deux réactions chimiques simples et propres, assure Didier Floner. Des molécules qui ne représentent pas un risque pour l'homme ou la nature en cas d'accident. Et que l'on pourra recycler facilement. »

En faisant appel à des matériaux organiques peu onéreux, la technologie de Kemwatt peut offrir des capacités élevées à peu de frais.

« De par leur conception, nos batteries nécessitent très peu d'entretien et pourront être installées n'importe où, au pied des éoliennes ou des panneaux photovoltaïques dont elles stockeront l'énergie, estime François Huber. Leur durée de vie sera de quinze à vingt ans, comparable à celle de ces installations. »

- Drawdown, comment inverser le cours du réchauffement planétaire

Drawdown désigne le point de bascule à partir duquel la concentration de gaz à effet de serre dans l’atmosphère, après avoir atteint un pic, se met à diminuer d’une année sur l’autre.

Au sommaire, une centaine de solutions mises au point en collaboration avec 70 chercheurs, dans tous les domaines : énergie, alimentation, transports...

Livre à lire même s'il est sans doute trop optimiste, un peu dans la lignée de Lester R. Brown. Par contre le livre "Ce que la science sait du monde de demain" me semble plus douteux...
 



Brèves et liens


Physique


cosmologie, physique quantique, nanotechnologies

- Dynamique des quarks dans le proton

Il s'agit d'étudier les probabilités de distribution des quarks à l'intérieur du proton et de leurs mouvements, domaine qui a fait des progrès ces dernières années. En fait, il ne s'agit pas seulement des quarks mais aussi des gluons, ce pourquoi on parle de "parton" (terme qui regroupe ces différentes parties du proton) et de "distribution de partons généralisée".

Les "distributions de partons généralisées" (GPD) ont ceci de spécifique qu'elles doivent obéir à un grand nombre de contraintes issues de principes physiques premiers. Ces contraintes sont suffisamment fortes pour exclure les paramétrisations naïves, mais trop faibles pour aboutir à une description unique des GPD. Depuis 2002, les physiciens ont tenté des extractions, soit en négligeant une partie des contraintes théoriques requises, soit en s'appuyant sur des formes fonctionnelles trop rigides pour s'accommoder des données expérimentales. Cela induisait des effets systématiques qui étaient acceptables au regard de la précision des premières mesures DVCS, mais qui seront intenables dans l'ère de précision qui est en train de s'ouvrir.

Au prix d'un effort de modélisation débuté fin 2014, et d'une approche originale, il a été possible de résoudre ce problème ouvert depuis une quinzaine d'années. La solution passe par l'inversion d'une transformation mathématique bien connue en tomographie médicale, la transformation de Radon. En tomographie par transmission, une section d'un corps humain est scannée par un étroit faisceau de rayons X dont la perte d'intensité est enregistrée par un détecteur. La transformation de Radon décrit mathématiquement cette perte d'intensité le long de la direction de propagation du faisceau, et l'inversion de la transformation de Radon livre les images à deux dimensions qui sont utilisées par les médecins pour établir leur diagnostic.

Comment faire le lien avec notre problème de modélisation des GPD ? Le principe de la solution consiste à construire une GPD flexible, avec des paramètres qui seront plus tard ajustés aux données expérimentales.

- Le boson de Higgs à l'origine de la masse des quarks ?

Initialement, l'existence du boson de Brout-Englert-Higgs (BEH) ou, plus précisément, le mécanisme de Brout-Englert-Higgs qui la suppose était un moyen de donner des masses aux bosons W et Z, les particules vectrices des interactions nucléaires faibles (il n'explique pas du tout la masse des protons et neutrons, qui vient en fait des gluons de la QCD). Mais les physiciens se sont rapidement rendu compte que la théorie standard pouvait aussi donner des masses aux particules de matière, en l'occurrence, aux quarks et aux leptons. Comme expliqué dans les articles ci-dessous, ces masses sont liées à ce que l'on appelle « des paramètres de Yukawa ». Ces derniers connectent des réactions de production et de désintégration des quarks et des leptons via des productions et des désintégrations du boson de Brout-Englert-Higgs. Techniquement, il s'agit d'un couplage entre le champ du boson BEH et le champ de matière du quark top.

Le boson BEH serait bien à l'origine de la masse du quark top. Cette masse est énorme puisqu'un quark top est environ 100.000 fois plus lourd que le quark up constituant les protons. Le boson BEH serait en fait un état lié de nouvelles particules fondamentales. En effet, le mécanisme BEH a été inspiré par la théorie de la supraconductivité, laquelle utilise des « paires de Cooper » formées de deux électrons, des fermions, qui se comportent comme des bosons.

- Des fermions ultra-froids se comportent comme des bosons

Les fermions sont supposés se comporter différemment des bosons, mais l'étude des physiciens théoriciens sur les fermions révise cette idée. Selon le degré d'intrication quantique entre les deux fermions avant leur relâchement et en fonction de leur niveau d'énergie, ils peuvent agir comme des fermions ou agir comme des bosons.

"Au niveau de l'énergie de base, appelé état fondamental, nos deux fermions qui interagissent avec une répulsion ultra-forte se comportent de manière fermionique, signifiant qu'ils s'évitent mutuellement. Mais, s'ils interagissent avec une forte attraction, ils s'agrègent comme des bosons, jusqu'à présent, tout comme prévu".

Mais augmenter le niveau d'énergie des particules piégées, ou leur excitation, avec un laser supplémentaire ou un champ magnétique, semblerait augmenter l'étrangeté de ces particules. Les niveaux d'excitation peuvent distordre la façon dont les interactions déterminent le comportement des fermions.

Par exemple, le comportement fermionique mentionné ci-dessus, généralement lié à une forte interaction répulsive, pourrait devenir bosonique, selon les calculs des physiciens.

- Les terres rares gardent plus longtemps leur état quantique

Les états quantiques (tant leurs propriétés optiques que de spin) de certaines terres rares insérées dans des nanoparticules peuvent être contrôlés optiquement et atteindre des durées de vie de plusieurs millisecondes à basse température. Cette possibilité remarquable pour un nanomatériau pourrait permettre de concevoir de nouvelles interfaces pour les technologies quantiques.

Les états de spin dans des nanoparticules dopées par une terre rare, l'europium, ont eu des durées de vie de plusieurs millisecondes, sous un faible champ magnétique et à basse température (-268 °C). Des valeurs record, proches des performances des cristaux massifs, qui permettent d'envisager des interfaces spin-lumière de taille nanométrique.

- La matière manquante dans les filaments intergalactiques d'oxygène gazeux

Il s'agit de la matière ordinaire manquante et non pas de la matière noire.

La matière ordinaire, ou "baryons", compose tous les objets physiques existants, depuis les étoiles jusqu'aux noyaux des trous noirs. Mais jusqu'à présent, les astrophysiciens avaient seulement pu localiser environ les deux tiers de la matière prédite par la théorie : 10% dans les galaxies et près de 60% dans les nuages ​​de gaz qui se trouvent entre les galaxies.

En 2012, Shul avait prédit que les 30% de baryons manquants étaient probablement situés dans un réseau de l'espace appelé le milieu intergalactique chaud-chaud (WHIM).

Dans cette nouvelle recherche, une équipe internationale a bien détecté le tiers manquant dans l'espace entre les galaxies. Cette matière perdue existerait donc sous la forme de filaments d'oxygène gazeux à des températures d'environ 1 million de degrés Celsius.

- Planck confirme constante cosmologique et matière noire

Une nouvelle analyse montre que le fond diffus cosmologique et l'abondance des amas de galaxies observés par Planck convergent vers le modèle cosmologique standard le plus simple, dominé par la matière noire froide et une constante cosmologique.

D'autre part, un nouveau test de la relativité générale semble réfuter la théorie MOND, du moins avec une précision de 9% et sur une échelle de 6000 années lumière. Voir aussi Futura-Sciences.

- Une matière noire avec un millionième de charge électrique ?

Auparavant, l'hypothèse que la matière noire puisse être composée, au moins partiellement, de fermions milli-chargés, donc possédant une charge d'environ un millième de la charge électrique, avait déjà été proposée. Dans le cas présent, Muñoz et Loeb font le lien entre leur théorie et une étonnante observation médiatisée il y a quelques mois lors de l'annonce de la détection des effets de la lumière des premières étoiles. Il s'agissait d'une raie d'absorption de l'atome d'hydrogène dans le domaine radio causée par le rayonnement ultraviolet des premières étoiles lorsqu'elles étaient en train de réioniser le cosmos observable. Cette raie s'observe en fait précisément dans le rayonnement fossile en interaction avec les atomes d'hydrogène plongés dans un bain de rayonnement ultraviolet en provenance de ces jeunes étoiles.

La raie était deux fois plus profonde que ne le prédisait la théorie, ce qui pouvait signifier que l'hydrogène cosmologique s'était refroidi plus tôt que prévu. Un bon moyen d'expliquer ce phénomène (mais ce n'est pas le seul) était de supposer que, d'une façon qui était encore à déterminer, la matière baryonique normale pouvait interagir avec la matière noire considérée comme un gaz de particules plus froid que le mélange d'hydrogène et d'hélium cosmologique primordial.

Rien n'interdit que la matière noire soit un mélange de différentes particules exotiques. Mais, en l'occurrence, les deux astrophysiciens n'écartent pas l'idée que le reste de la matière noire pourrait être formé d'états liés de particules de matière noire chargées ; il serait donc neutre comme l'est l'atome d'hydrogène, lui-même un état lié d'un électron négativement chargé et d'un proton positivement chargé.

- Propriétés du fond stochastique d'ondes gravitationnelles

La détection des ondes gravitationnelles par les interféromètres LIGO et Virgo a ouvert une nouvelle fenêtre observationnelle en astrophysique.

Chaque galaxie possède de nombreuses sources d'ondes gravitationnelles: systèmes binaires de trous noirs et d'étoiles à neutrons, trous noirs supermassifs, supernovae etc. La grande majorité de ces systèmes ont une puissance trop faible pour être individuellement détectée. Ces sources non résolues contribuent collectivement à la production d'un fond stochastique d'ondes gravitationnelles, similaire au fond diffus infrarouge produit par toutes les sources optiques non résolues.

Les propriétés de ce fond stochastique dépendent autant de la cosmologie (qui décrit l'évolution des grandes structures de l'univers) de l'histoire de formation des galaxies et de l'astrophysique. En effet, le taux cosmique de formation d'étoiles et le scénario d'évolution stellaire déterminent le taux de formation de trous noirs et d'étoiles à neutrons ainsi que l'abondance et l'évolution des systèmes binaires, cela en fonction du temps. En développant un modèle semi-analytique, les chercheurs ont pu modéliser les différentes populations sources d'ondes gravitationnelles. Pour chacune d'entre elles, la relativité générale permet de décrire le rayonnement gravitationnel. Ainsi, ils ont pu calculer la luminosité en onde gravitationnelle des galaxies en fonction des caractéristiques de ces dernières (masse, fraction d'éléments chimiques complexes, âge). La cosmologie leur a ensuite permis de décrire la distribution des galaxies. Celle-­ci dépend à la fois des conditions initiales sur les inhomogénéités de la distribution de matière générée dans l'univers primordial pendant la phase d'inflation et de leur évolution. En couplant leur modèle astrophysique à un modèle cosmologique, les chercheurs ont prédit les propriétés statistiques de ce fond d'ondes gravitationnelles, et en premier lieu son spectre de puissance angulaire dans différentes bandes de fréquence.

Les chercheurs ont aussi démontré que ce signal d'ondes gravitationnelles était corrélé à d'autres observables cosmologiques comme la distribution des galaxies et les effets de lentilles gravitationnelles faibles. Ces corrélations permettent de comparer entre elles la distribution de la matière visible (galaxies), de la matière noire (effets de lentilles gravitationnelles) et des trous noirs offrant une information inaccessible en astronomie optique.

Des échos qu'on pourrait déceler dans les ondes gravitationnelles seraient le signe de "trous de vers" ? (voir aussi Futura-Sciences), mais je n'ai jamais réussi à y croire...

- Une étoile avalée par un nouveau type de trous noirs

Un trou noir d'un nouveau type, dit de masse intermédiaire (de quelques milliers à centaines de milliers de fois la masse du Soleil) a été observé alors que celui-ci était en train d’avaler les restes d'une étoile passée à proximité. Ce trou noir représente le chaînon manquant, qui s'était longtemps dérobé aux yeux des astronomes, pouvant expliquer la formation des trous noirs supermassifs (de quelques millions à quelques milliards de fois la masse du Soleil), que l'on peut trouver au cœur de galaxies comme la Voie lactée.

Par ailleurs, on a pu observer, depuis plusieurs années, un trou noir supermassif avalant une étoile.

- 30% de probabilité qu'on soit seul dans l'univers ?

Le petit princeL’Institut pour le futur de l’humanité prétend carrément liquider le paradoxe de Fermi. En effet, les chercheurs ont estimé que l’équation de Drake ne tenait pas compte des modèles chimiques et génétiques d’émergence de la vie. En incorporant ces deux paramètres, et au vu des incertitudes qui pèsent sur chacun d’eux compte tenu de l’état de nos connaissances, ils ont évalué une “fourchette basse” et une “fourchette haute” du nombre de civilisations extraterrestres. Résultat : il y a 30 % de chance que l’humanité soit seule dans l’Univers et dans l’état actuel de nos connaissances, nous ne pouvons qu’affirmer que dans l’Univers observable nous sommes la seule civilisation avancée.

Pour Futura-Sciences, la probabilité pour que nous soyons seuls dans notre galaxie est supérieure à 53 %. Et il y a même une probabilité comprise entre 39 et 85 % que nous soyons seuls dans l'univers observable et de fait, à jamais hors de portée de tout contact extraterrestre.

Il est clair en tout cas que des civilisations avancées sont très rares, devant être à l'abri des catastrophes cosmiques, mais étant donnés les distances, il faut des milliers d'années pour qu'elles puissent éventuellement communiquer entre elles. Il est amusant de voir que pour en détecter une, on prend toujours l'état de nos propres techniques, ainsi avec la dernière proposition de détecter des satellites artificiels.

- Comment nous verraient des extraterrestres ?

The solar system

 

- Pour coloniser une planète, il suffirait de 98 personnes

Proxima Centauri b, la plus proche exoplanète habitable, est située à plus de 4,22 années-lumière de la Terre. © Thought Café, Youtube

Grâce à un modèle mathématique, deux chercheurs ont examiné le nombre minimal de passagers à embarquer pour assurer la survie d'une population en partance pour Proxima Centauri b.

Proxima Centauri b est l'exoplanète potentiellement habitable la plus proche de la Terre. Dans leur étude, le nombre de personnes nécessaires pour une telle expédition afin d'assurer la survie d'une colonie de façon pérenne ne serait que de 98 individus.

Premier critère à prendre en compte : la durée du voyage. Proxima Centauri b est ainsi située à 4,22 années-lumière de la Terre, soit 4 x 1013 kilomètres. Avec une navette de type Apollo 11, il faudrait donc 114.000 années pour parvenir à destination. Mais en utilisant d'autres types de technologies comme l'accélération gravitationnelle, comme pour la mission Parker Solar Probe, il serait possible d'atteindre les 724.205 km/h, soit 200 km/s, d'après les chercheurs. Le voyage durerait alors seulement 6.300 ans ! C'est donc cette vitesse qui a été prise comme référence de départ.

Une autre étude publiée dans Acta Astronautica, en 2014, était d'ailleurs parvenue à un nombre bien différent concernant la pérennité d'une population lors de voyages interstellaires. Selon cette étude, ce n'est pas 98 personnes mais... 40.000 qui seraient nécessaires pour assurer la survie d'une colonie.

Voir aussi Sciences et Avenir.

- Une cyanobactérie pour donner à Mars une atmosphère respirable

Chroococcidiopsis thermalis pourrait aider l'Homme à coloniser la planète Mars en contribuant à y créer une véritable biosphère ! Ces organismes, qui survivent dans des conditions de très faible luminosité dans les environnements les plus inhospitaliers de la Terre (Antarctique, désert des Mojaves ou sources hydrothermales par exemple), sont pourtant capables d'effectuer la photosynthèse. Certains ont même survécu à l'extérieur de la Station spatiale internationale (ISS) !

Au regard de ces milieux terrestres inhospitaliers dans lesquels vit Chroococcidiopsis thermalis, cette étude suggère que cet organisme pourrait survivre sur Mars et, théoriquement, être exploité pour créer de l'air afin que les humains puissent y respirer.

Si Mars est devenue inhospitalière ayant perdue son atmosphère par manque de gravité, elle aurait été propice à la vie bien plus tôt que la Terre. Mais si elle avait eu des organismes comme les cyanobactéries, elle aurait gardée cette atmosphère ? Une gigantesque éruption volcanique, il y a 3 milliards d'années, aurait cependant perturbé radicalement le climat. Il se pourrait aussi qu'il y ait de la vie sur Encelade (petit satellite de Saturne) car on y a détecté des molécules organiques mais j'ai du mal à y croire.

- Lancer des petits satellites par la force centrifuge

Accéléré grâce à la force centrifuge, le lanceur de SpinLaunch ne nécessite pas de carburant pour atteindre une très haute altitude. © SpinLaunch

Accéléré grâce à la force centrifuge, le lanceur de SpinLaunch ne nécessite pas de carburant pour atteindre une très haute altitude.

Son lanceur s'apparente à une sorte de centrifugeuse, qui fera tournoyer la charge jusqu'à lui faire atteindre une vitesse hypersonique, 8.000 km/h (2,2 km/s) selon la dernière annonce. Une telle vitesse, si elle est verticale, amènerait la charge à très haute altitude, voire au-delà de l'atmosphère et il suffirait d'un propulseur modeste pour atteindre les 8 km/s environ, pour permettre la satellisation.

Le coût de mise en orbite serait ainsi ramené à 500.000 dollars, contre cinq à dix millions pour une fusée classique.

Avec son système, SpinLaunch ne vise pas le marché des gros satellites ni celui de l'orbite géostationnaire. La société entend plutôt profiter du marché en plein boom des microsatellites, par exemple les CubeSats, des cubes de la taille d'une boîte à chaussures placés sur des orbites basses entre 200 et 400 kilomètres et utilisés notamment pour l'observation terrestre. 335 lancements de ce type ont eu lieu en 2017, soit une multiplication par six en cinq ans.

Il y a effectivement une "révolution des cubesats" permettant notamment une surveillance généralisée sur toute la Terre mais il va y avoir encore plus d'encombrement là-haut.

- RemoveDebris, le satellite parti éliminer les déchets spatiaux

RemoveDEBRIS va tester en orbite trois technologies, développées par Airbus, capables de capturer et désorbiter des débris spatiaux :

  • un filet ;
  • un harpon ;
  • un système de navigation optique permettant de développer des techniques de rendez-vous en orbite avec les débris spatiaux.

La démonstration du filet développé par Airbus à Brême consistera en la libération par le satellite d'un CubeSat. Lorsque celui-ci se sera éloigné à cinq mètres, le filet sera lancé pour le capturer à une distance d'environ sept mètres.

Voir aussi Sciences et Avenir. Encore une fois, en prenant modèle sur notre technologie actuelle, on se dit qu'on pourrait détecter des extraterrestres à leur ceinture de satellites !

- Expérience de défense planétaire contre les astéroïdes

Les préparatifs de la première mission de l’humanité vers un système de deux astéroïdes (l'un de la taille d’une montagne de 780m, autour duquel orbite une petite lune de 160m) sont entrés dans une nouvelle phase d’étude technique. La mission Hera proposée par l’ESA serait également la contribution européenne à une ambitieuse expérience de défense planétaire.

La mission DART (Double Asteroid Redirection Test) de la NASA doit en effet entrer en collision avec le petite lune en octobre 2022. L’impact provoquera un changement de la durée de son orbite autour du corps principal. Les observatoires terrestres du monde entier pourront observer la collision, mais à une distance minimum de 11 millions de kilomètres.

C’est là qu’Hera intervient. Les observations rapprochées effectuées par Hera nous donneront la masse de la lune, ses propriétés physiques et dynamiques ainsi que la forme du cratère.

« Ces données clefs collectées par Hera permettront de transformer une expérience grandiose mais unique en une technique de défense planétaire bien maîtrisée, qui pourrait en théorie être répliquée si nous devions un jour stopper un astéroïde qui se dirigerait vers nous. »

Hera déploiera également les premiers CubeSats européens pour l’espace profond afin de collecter des données scientifiques supplémentaires et tester des liaisons intersatellites avancées entre plusieurs véhicules spatiaux.

De son côté, le Japon va envoyer une bombe sur un astéroïde.

- Une cape d'invisibilité pour la lumière naturelle

La méthode consiste à réorganiser les différentes couleurs de la lumière à large bande afin que l'onde lumineuse se propage à travers l'objet sans réellement le «voir». Pour ce faire, le dispositif de camouflage déplace d'abord les couleurs vers des régions du spectre qui ne seront pas affectées par la propagation à travers l'objet. Par exemple, si l'objet réfléchit la lumière verte, alors la lumière dans la partie verte du spectre pourrait être décalée vers le bleu afin qu'il n'y ait pas de lumière verte pour la réfléchir. Ensuite, une fois que l'onde a effacé l'objet, le dispositif de camouflage inverse le déplacement, en reconstruisant l'onde dans son état d'origine.

Le premier composant est une fibre optique dispersive, qui force les différentes couleurs d'une onde à large bande à se déplacer à des vitesses différentes. Le second est un modulateur de phase temporel, qui modifie la fréquence optique de la lumière en fonction du moment où l'onde traverse le dispositif.

Le retrait sélectif puis le rétablissement des couleurs dans les ondes à large bande utilisées comme signaux de données de télécommunication pourraient permettre la transmission de plus de données ou réduire les erreurs.

 

Climat


climat, énergies, écologie

- L'oxygénation commencée plus tôt mais étalée sur 300 millions d'années

La grande oxygénation de l'atmosphère terrestre (Great Oxidation Event, GOE) était située entre 2,5 et 2,2 milliards d'années mais des quantités non négligeables d'oxygène étaient présentes dans l'atmosphère dès 2,45 Ga.



- Le calcaire du plancton facteur d'augmentation du CO2 lors de la dernière déglaciation

Le plancton calcaire de l'Océan Austral aurait contribué à l'élévation des teneurs en CO2 atmosphérique au cours de la dernière déglaciation (~18 600 - 11 500 ans) via une augmentation de la quantité de calcite sécrétée dans les eaux de surface et transférée vers les profondeurs. Ce processus, aussi appelé "la Contre Pompe des Carbonates", aurait été amplifié lors des périodes d'intensification des remontées d'eaux profondes dans l'océan Austral, ramenant en surface des eaux fertiles et riches en CO2, et favorisant notamment la production de squelettes plus lourds au sein du phytoplancton calcaire (coccolithophoridés).

- La "pause" climatique expliquée

Les facteurs dominants dans ce ralentissement sont la combinaison d'une phase négative de l'Oscillation interdécennale du Pacifique, d'une irradiation solaire légèrement réduite et d'un effet de refroidissement dû aux éruptions volcaniques. Ces résultats montrent également que le forçage anthropique reste de loin le facteur le plus important du changement climatique à long terme.

Sur la période 1998-2013, la variabilité climatique dans le Pacifique domine, tandis que le forçage solaire a une plus grande influence sur la sous-période entre 2003 et 2011.

- Dix ans pour sauver l’Antarctique et limiter le réchauffement

Les glaces de l'Antarctique fondent. Qui plus est à un rythme qui semble s'accélérer. Pourtant les scientifiques assurent qu'il est encore possible de renverser le cours des évènements.

Une étude impliquant plus de 80 scientifiques affirme aujourd'hui que l'Antarctique a perdu 3.000 milliards de tonnes de glace depuis 1992. Et cette même étude alerte sur le fait que depuis 2012, le rythme de fonte s'est dramatiquement accéléré, passant de 76 milliards de tonnes par an... à 219 milliards de tonnes par an !

Pour une autre équipe internationale de chercheurs, le temps est désormais compté. Il faudra agir dans les dix ans qui viennent si l'on espère sauver l'Antarctique. Et avec lui, le reste de notre planète. « Certains changements que vit l'Antarctique actuellement sont d'ores et déjà irréversibles. Mais nous pouvons encore éviter le pire ».

Pour convaincre, les chercheurs ont travaillé sur deux scénarios extrêmes :

  • Dans le premier scénario, les émissions de gaz à effet de serre continuent d'augmenter. Alors d'ici 2070, les températures pourraient s'élever de près de 3,5 °C, par rapport aux températures de 1850. La fonte des glaces de l'Antarctique contribuerait pour plus de 25 centimètres à l'élévation globale du niveau de la mer. En été, près de 50 % de l'étendue de glace disparaîtrait, conduisant à un rafraîchissement de surface des eaux locales et à une modification des courants océaniques. La température globale de l'océan augmentant, sa capacité à absorber le CO2 atmosphérique irait diminuant, accélérant encore le réchauffement climatique.
  • Dans le second scénario, les émissions de gaz à effet de serre sont considérablement réduites. La hausse des températures serait alors limitée à 2 °C. Et la fonte des glaces ne contribuerait pas pour plus de six centimètres à l'élévation des niveaux. Les courants océaniques devraient être préservés tout comme la capacité d'absorption de CO2.

- Transformer le CO2 en CO avec le soleil et sans métaux rares

En combinant un composé ferreux avec du nitrure de carbone, un semiconducteur organique constitué de carbone et d'azote, on obtiendrait un photocatalyseur pouvant réduire très efficacement le dioxyde de carbone (CO2 ) en monoxyde de carbone (CO) utilisable pour des carburants entre autres. Le nitrure de carbone absorbe la lumière visible et entraîne la migration des électrons de l'agent réducteur vers le composé ferreux, le catalyseur, qui utilise ces électrons pour réduire le CO2 en CO.

- Des panneaux solaires semi-transparents au-dessus des terres cultivées

"Les plantes n'ont besoin que d'environ 10% de la lumière, du bleu et de la lumière rouge, et c'est tout. Le reste, vous pouvez en tirer parti pour la production d'énergie solaire. Les panneaux solaires pourraient être décrits comme semi-transparents. Une partie de la lumière les traverse, permettant aux plantes de pousser, tandis que le reste est utilisé pour l'énergie solaire".

Le système utilise des panneaux solaires courbes qui sont recouverts d'un film fait de plusieurs couches de polymères. Cela permet la transmission sélective des seules longueurs d'onde nécessaires à la photosynthèse et à la croissance des plantes. Toute la lumière restante est réfléchie et concentrée sur des cellules solaires.

"Par exemple, les tomates ont besoin d'un peu plus de lumière rouge, alors que la laitue a besoin d'un peu plus de lumière bleue. Vous pouvez ajuster cela très spécifiquement à ces plantes et ce dont elles ont besoin".

 

- Bill Gates financerait le stockage d'énergie au sel fondu de Google

Le système proposé convertit l'électricité des éoliennes et des éoliennes en énergie thermique, ce qui permet de stocker la chaleur dans des réservoirs géants de sel fondu et de froid qui sont stockés dans des cuves de liquide de refroidissement. L'approche pourrait atteindre des rendements plus élevés et des coûts inférieurs aux systèmes de stockage thermique précédents grâce à l'utilisation d'un moteur thermique qui transfère "la chaleur du côté chaud vers le côté froid pour entraîner mécaniquement la turbine".

Les chercheurs pensent que l'approche leur permettra de stocker l'énergie plus longtemps que possible avec des batteries lithium-ion à des prix compétitifs avec l'hydroélectricité pompée, la forme de stockage à grande échelle la moins chère aujourd'hui

- La batterie solide pourrait rendre la voiture électrique plus compétitive que l'essence

Chez Fisker, le Tesla néerlandais, on prétend que la Emotion pourra assurer 800 km d'autonomie pour un temps de charge... d'une minute !

Dans les batteries à électrolyte solide, le solvant qui assurait l'électrolyte est remplacé par une plaque de verre. On parle d'une autonomie de plus de 600 km, soit autant qu'un plein de carburant. Mieux encore, le temps de recharge pourrait être réduit à quelques minutes seulement. L'efficacité de ces batteries tient à la densité énergétique qui passerait de 150 Wh/kg pour une batterie lithium-ion classique, à près de 800 Wh/kg, voire même 1000 Wh/kg.

« La batterie solide est la technologie la plus prometteuse de ces prochaines années. Nous sommes en fin de cycle de recherche fondamentale, la batterie solide arrivera sur le marché dans trois ans ». Chez Fisker, on prétend que la Emotion pourra assurer 800 km d'autonomie pour un temps de charge... d'une minute ! De son côté, Toyota promet un premier modèle fondé sur cette technologie à l'horizon 2025.

La batterie solide, si elle tient ses promesses, pourrait révolutionner le monde de l'automobile, puisqu'elle serait aussi compétitive en coûts et en performances que les solutions thermiques. Elle pourrait également neutraliser la technologie de l'hydrogène, au moins sur les petits véhicules.

A signaler, une batterie auto-chauffante pour se charger plus vite (le froid ralentissant beaucoup la recharge).

- Système de traitement combiné des algues

En utilisant de l'acide sulfurique et des températures élevées, nous perturbons la biomasse algale, hydrolysant les hydrates de carbone en sucres monomères (en grande partie du glucose et du mannose). Cette suspension est pompée dans des fermenteurs pour la conversion des sucres en carburants et produits chimiques. À ce jour, nous avons produit de l'éthanol, de l'acide succinique et de l'acide butyrique en utilisant des levures et des bactéries et nous sommes confiants que les sucres de microalgues peuvent remplacer le maïs, la canne ou les sucres cellulosiques. Après la fermentation, le produit est récupéré et la liqueur restante est extraite avec de l'hexane pour récupérer les lipides d'algues. Nous avons montré que les organismes fermentaires sont incapables d'utiliser les lipides, et qu'ils peuvent être récupérés avec un rendement élevé de la liqueur. En plus des TAG, les lipides de microalgues contiennent un certain nombre de stérols. Nous avons purifié ces stérols et les avons convertis en tensioactifs pour un co-produit supplémentaire. La fraction TAG a été améliorée chimiquement en hydrocarbure par hydrodésoxygénation pour fournir le produit combustible principal. Nous avons également commencé à étudier l'utilisation d'un sillage de la fraction TAG pour produire des polyuréthanes grâce à un nouveau procédé qui élimine le besoin d'isocyanates toxiques produits à partir du pétrole. Cette classe de polyuréthanes non-isocyanates (NIPU) est polymérisée avec des agents de réticulation qui peuvent être produits à partir de la fraction protéique de la biomasse algale restant après l'extraction. Nous avons également exploré d'autres produits à partir de protéines algales, y compris les bioplastiques, les milieux de culture microbiens et la conversion en biocarburants à travers de multiples voies. Il est raisonnable de se demander pourquoi nous voudrions utiliser des protéines algales pour des produits de faible valeur lorsque des quantités croissantes de protéines sont nécessaires pour nourrir une population croissante. Les microalgues peuvent certainement jouer un rôle important, mais la production de biomasse algale de qualité alimentaire ou fourragère en utilisant des sources d'eau non potable telles que les eaux usées ou l'extraction d'huile ou de gaz naturel laisse penser que d'autres utilisations des protéines algales pourraient subsister.

Des produits supplémentaires peuvent également être fabriqués grâce à l'ingénierie métabolique. Un domaine que les chercheurs de NREL ont exploré est l'ingénierie des cyanobactéries pour surexprimer le gène efe d'une bactérie qui code pour l'enzyme formant l'éthylène. L'expression de ce gène unique confère à la cyanobactérie la capacité de convertir la lumière et le CO2 en éthylène, libéré dans la phase gazeuse de la culture. Bien que ce concept nécessite un système de culture spécial pour faciliter la récupération de l'éthylène, l'ajout potentiel de cette substance chimique importante à notre concept de bioraffinerie.

Nous croyons que ce concept pourrait mener à la production de biocarburants à un prix compétitif par rapport au pétrole grâce aux revenus supplémentaires des coproduits de valeur supérieure.

 

- Les nanoparticules agricoles favorisent la prolifération d'algues toxiques

Bien que l'utilisation de nanomatériaux dans les pesticides et les fongicides réduise la quantité de produits chimiques pulvérisées sur les cultures et les champs, elle peut également entraîner une prolifération d'algues dans les cours d'eau avoisinants.

Entre 260 000 et 309 000 tonnes de nanomatériaux sont produits chaque année dans le monde, dont la majorité finit en décharge. Environ 80 400 tonnes de nanomatériaux se retrouvent dans les sols et 29 200 tonnes supplémentaires dans les cours d'eau, les lacs et les zones humides avoisinants.

Lorsque la pollution en azote et phosphore se retrouve dans les zones humides et les cours d'eau sous forme d'eaux usées non traitées, cela provoque une augmentation substantielle de la croissance des algues, créant une épaisse couche de vase verte à la surface de l'eau qui bloque la lumière du soleil pour les autres plantes.

Finalement, les proliférations d'algues vont réduire les niveaux d'oxygène au point que les poissons et autres organismes ne peuvent pas survivre. Certaines proliférations d'algues libèrent également des toxines qui peuvent rendre malades les personnes ou leurs animaux de compagnie.

Les grandes proliférations d'algues étaient plus de trois fois plus fréquentes et plus persistantes dans les réservoirs où les nanoparticules et les nutriments étaient ajoutés ensemble que lorsque les nutriments étaient ajoutés seuls.

- Des particules double face magnétiques séparent l'huile de l'eau

Des chercheurs chinois ont développé de nouvelles particules magnétiques double face pour la séparation huile-eau. Ces particules magnétiques hydrophiles / oléophiles séparent les gouttelettes d'huile de l'eau rapidement et efficacement.

Lors de l'addition de ces particules à l'émulsion d'huile et d'eau puis leur agitation pendant une minute, l'émulsion forme rapidement des couches distinctes.

En appliquant un champ magnétique, la couche huileuse supérieure est détachée par l'aimant. L'ensemble du processus prend deux minutes. La séparation a atteint un rendement élevé (> 99%) et serait applicable à toutes sortes d'huiles.

- Plastic Odyssey, le navire qui carbure aux déchets plastiques

Plastic OdysseyUn bateau capable de recycler les déchets plastiques marins en objets ou en carburant pour assurer sa propre autonomie : c'est le défi relevé par une équipe de jeunes ingénieurs et designers. Son nom : Plastic Odyssey. Son but : faire un tour du monde des côtes les plus polluées d'Afrique, d'Amérique-du-sud et d'Asie entre 2020 et 2023.

A chaque escale, sera organisé un grand ramassage des plastiques accumulés en bord de mer. Les plastiques recyclables seront transformés à bord en nouveaux objets. Le reste sera stocké et converti en combustible pour faire avancer le bateau.

Le principe repose sur la pyrolyse du plastique : le plastique est chauffé jusqu’à l’obtention d’une matière visqueuse, puis porté à 400°C dans une chambre sans oxygène, afin qu’il se transforme en vapeur sans brûler (il faut de l’oxygène pour cela). Au cours de ce processus, la molécule de plastique se dépolymérise, c’est-à-dire qu’elle se casse et s’évapore en plus petites molécules. Il suffit alors de distiller cette vapeur en la refroidissant pour obtenir du carburant liquide. Un kilo de sacs plastiques donne environ un litre de carburant relativement similaire à celui que l’on trouve à la pompe. Certes, cette énergie n’est pas propre (émissions de CO2 notamment), mais elle présente l'avantage d’éliminer des déchets mortels pour de nombreuses espèces.

- Des maisons imprimées en 3D aux Pays-Bas

Ces cinq maisons aux formes futuristes, les premières à être louées et occupées par des habitants, seront implantées à Eindhoven aux Pays-Bas. Grâce à cette technique de construction, de tels bâtiments seront à l'avenir personnalisables au gré des envies des clients.

La première maison, d'une surface de 95 m2, comprendra seulement trois pièces. Elle sera fabriquée à l'université d'Eindhoven puis transportée sur place. Mais pour quatre autres, qui comprendront elles plusieurs étages, l'impression aura lieu directement sur le site.

 

Biologie


évolution, génétique, éthologie, anthropologie, neurologie

- Fabrication 3D en lévitation magnétique de tissus biologiques

Au lieu d'une impression couche à couche, cette technique permet de tout assembler en même temps.

- Des molécules organiques complexes sur Mars

Ces chaînes d'atomes contenant du carbone et de l'hydrogène ont été découvertes dans des roches âgées de plus de trois milliards d'années. Parmi elles du thiophène, des méthylthiophènes, du méthanethiol et du diméthylsulfure. La détection de ces molécules organiques est très importante car elles constituent des briques essentielles à l'apparition de la vie.

La présence de ces molécules organiques sur Mars pourraient témoigner de l'existence d'une vie passée mais ces molécules peuvent également être formées par des processus purement physiques.

Voir aussi Futura-Sciences.

- Des virus géants créent de nouveaux gènes

Virus P. quercus observé au microscope électronique. La barre représente 500 nm. © Legendre et al., Nature Communications 2018Les nouveaux virus décrits possédaient aussi beaucoup de gènes orphelins, c'est-à-dire de gènes codant pour des protéines qui n'ont pas d'homologues dans le reste du monde vivant (cellules ou virus). Ces gènes orphelins varient même d'un Pandoravirus à un autre.

Les gènes orphelins ressemblent souvent à des régions non-codantes de Pandoravirus. Par conséquent, il est possible que ces gènes soient apparus à partir de séquences non-codantes d'ADN, situées entre les gènes.

Les virus géants pourraient donc être à l'origine de nouveaux gènes transmis à leurs hôtes.

- Des antioxydants synthétiques protègent les plantes du vieillissement

Les radicaux libres sont souvent formés dans les mitochondries. Les antioxydants ciblant les mitochondries (notamment les ions SkQ) affectent directement les mitochondries et empêchent la synthèse de ces molécules dangereuses. Leur mécanisme d'action n'est pas encore complètement compris, mais les scientifiques pensent qu'il agit sur deux plans. Le premier est une réaction chimique de SkQ avec les radicaux libres ou leurs produits. Le second mode d'action résulte de la réduction de la différence transmembranaire des potentiels électriques dans les mitochondries, ce qui diminue la formation de radicaux libres mitochondriaux.

A des concentrations nanomolaires, SkQ empêchait la mort des cellules végétales. Dans des concentrations micromolaires, les antioxydants ont ralenti la photosynthèse dans les chloroplastes et stimulé la respiration dans les mitochondries. L'équipe a également découvert que les antioxydants SkQ ralentissaient la sénescence et la mort des feuilles.

- Les premiers grands organismes à l'Edicarien

Un tournant critique dans l’histoire de la vie sur Terre a été l'apparition des premiers organismes de grande taille, biologiquement complexes, au terme de près de trois milliards d’années d’une évolution dominée par les micro-organismes.

L'histoire de ces grands organismes débute il y a 680 millions d'années, en pleine période édiacarienne (635-541 millions d'années). Ils disparaissent quelques millions d'années plus tard, sans raison connue et sans laisser de descendance, mais les fossiles retrouvés un peu partout sur la planète témoignent d'une grande diversité de tailles et de formes.

À cette époque, les océans étaient très riches en nutriments et les prédateurs inexistants. Être grand ne constituait donc pas un avantage compétitif pour se nourrir ni se défendre, mais représentait simplement, selon Emily Mitchell, le meilleur moyen de coloniser l'environnement.

- Des traces animales de 541 millions d'années

Des empreintes d'animaux vieilles de 541 millions d'années ont été découvertes en Chine, en faisant les plus anciennes de la planète. Les chercheurs ne savent pas de quel animal - minuscule - il s'agit. Les empreintes ne sont séparées que de quelques millimètres l'une de l'autre, et ressemblent à deux rangées de petits trous. « Ce sont les plus anciennes empreintes fossilisées jamais découvertes ».

Voir aussi Sciences et Avenir.

- L'ancêtre des crevettes (500 millions d'années)

Waptia est un petit animal d'environ 5 cm de long que l'on pourrait confondre avec une crevette.

Protégé par une carapace bivalve, Waptia possédait des yeux composés, des antennes sensorielles et des mandibules étonnamment semblables à celles des arthropodes actuels, constituées d'une partie masticatrice et d'un palpe soyeux. Les mandibules caractérisent le groupe le plus diversifié de la planète, celui des mandibulates, regroupant insectes, crustacés et mille-pattes.

Waptia était également pourvue d'une série d'appendices armés d'extensions épineuses. Elles permettaient la capture de petites proies qui étaient démantelées ventralement avant d'être ingérées.

- Notre ancêtre devenu terrestre en Afrique du sud (400 millions d'années)

La découverte récente en Afrique du Sud de deux fossiles de tétrapodes laisse penser que le passage de ces vertébrés de l'eau vers la terre ferme a pu se produire n'importe où sur Terre, et plus seulement dans les tropiques.

"Maintenant, nous avons des preuves que deux types de tétrapodes du Dévonien (-400 millions) vivaient de l'autre côté du Gondwana (super continent qui s'est ensuite brisé pour former l'Amérique du Sud, l'Afrique, l'Antarctique, l'Inde et l'Australie), de l'autre côté du pôle sud, dans le cercle antarctique".

Ces tétrapodes ressemblaient à un animal entre crocodile et poisson, avec une gueule de crocodile, des pattes trapues et une queue en forme de nageoire.

Le Tutusius umlambo d'un mètre de long a été baptisé en hommage au prix Nobel de la paix sud-africain l'archevêque Desmond Tutu.

Voir aussi Techno-Science.

- Des "fourmis de velours" parasites très toxiques

Looks nice, tastes really really bad

- Les vibrations des plumes du paon font vibrer la crête des femelles

Parade nuptiale du paon

Le mâle déploie son plumage coloré. Il secoue ses plumes, qui provoquent un bruit de cliquetis destiné à attirer le regard de la paonne, femelle du paon. Observable grâce à des caméras haute vitesse, les plumes du mâle sont alors secouées environ 25 fois par seconde, et vibrent alors à la manière des cordes d'une guitare.

La vibration de l'air émise par les plumes du mâle viennent alors atteindre les crêtes des paonnes poursuit l'étude. Ces crêtes sont composées de "filoplumes" : de petites plumes connues pour fonctionner comme des capteurs très sensibles. Mais leur réponse est optimale dans la gamme de fréquence correspondant à celle émise par les vibrations du mâle. Ces petits capteurs font ainsi vibrer la crête des paonnes à la même fréquence que les plumes de son séducteur.

- La perte de notre dernière griffe

Les plus anciens primates avaient des ongles mais aussi des griffes de toilettage.

Alors, pourquoi les ancêtres des singes, des singes et des humains ont-ils perdu leurs griffes de toilettage? Une réponse possible: "La perte de griffes de toilettage est probablement le reflet de réseaux sociaux plus complexes et d'un toilettage social accru".

- Les animaux voient moins de détails que nous

Les chercheurs de l’université de Duke ont utilisé un logiciel pour avoir une idée de ce que voient les animaux. Ici, en haut, de gauche à droite, une scène telle que vue par un humain, par un chat puis par un poisson rouge et en bas, toujours de gauche à droite, la même scène telle que vue par un rat, une mouche et un moustique. Les chercheurs soulignent toutefois que ces images ne tiennent pas compte de la façon dont le cerveau des animaux pourrait être capable de traiter les informations reçues par les yeux. © Eleanor Caves, université de Duke

Les chiens perçoivent mieux les mouvements que nous. Les chats jouissent d'une vision nocturne qui surpasse la nôtre. Mais une étude réalisée aux États-Unis nous apprend aujourd'hui que globalement, les humains sont capables de voir plus de détails que la plupart des autres animaux.

- Le renforcement d'une synapse affaiblit les autres

Le renforcement synaptique est corrélé avec une plus grande expression du récepteur AMPA et c'est la protéine Arc qui régule l'expression du récepteur AMPA

Ainsi, les synapses renforcées étaient entourées de synapses affaiblies qui avaient augmenté l'expression de Arc. Les synapses avec une quantité réduite d'arc ont été capables d'exprimer davantage de récepteurs AMPA, tandis que l'augmentation de Arc dans les connexions voisines a provoqué l'expression de moins de récepteurs AMPA.

Par ailleurs, la sérotonine aurait un rôle dans le renforcement de la mémoire à long terme (système lent).

- Caractérisation des asymétries cérébrales

Le cortex humain apparaît en moyenne plus épais à gauche mais présente une plus grande surface à droite. Des études précédentes, réalisées sur des échantillons plus restreints, suggéraient que l'épaisseur et la surface corticale étaient distincts d'un point de vue génétique et développemental et qu'il était important de considérer ces deux aspects de l'anatomie corticale séparément. Les résultats obtenus ici confirment ces différences et renforcent la nature indépendante de ces deux caractéristiques.

A un niveau plus fin, des asymétries d'épaisseur et/ou de surface corticale ont été identifiées dans les régions impliquées dans des fonctions fortement latéralisées comme le langage ou encore la perception de l'espace suggérant ainsi leur rôle important dans la spécialisation hémisphérique.

Aucune association significative entre les asymétries corticales et la préférence manuelle n'a été trouvée, démontrant que la gaucherie n'implique aucune altération des asymétries corticales.

On a vu plus haut que la latéralisation commence avec les gestes des singes et que les gauchers privilégiaient aussi la main droite pour désigner une chose par exemple.

- Le QI baisse

Une analyse de quelque 730.000 tests de QI réalisés en Norvège montre en effet que les résultats diminuent d'environ sept points à chaque nouvelle génération. Et ce, depuis approximativement le début des années 1970, y compris au sein d'une même lignée familiale.

Selon les chercheurs norvégiens, les causes seraient à chercher dans des facteurs environnementaux. Comme les évolutions du système éducatif, le recul des livres, l'omniprésence des écrans ou même, les perturbateurs endocriniens de plus en plus présents dans notre environnement.

- Une pierre gravée du VIIè siècle témoin du roi Arthur ?

Un mélange énigmatique de mots et de symboles gravés sur une dalle d'ardoise de 61cm de large datée du VIIe siècle ont été mis au jour à Tintagel, site des Cornouailles associé au roi Arthur.

En 1998, l'identification du terme celte "Artognou" sur un de ses blocs, l'avait fait un peu vite rattacher au nom du roi Arthur ! Tintagel est en effet lié au fabuleux héros depuis le XIIe siècle: "Cette péninsule d'une grande beauté sauvage, battue par les vents autant que par les vagues, s'est trouvée reliée par des récits littéraires dès 1135, au lieu où le roi Arthur aurait été conçu".

 

Santé


traitements, nutrition, hygiène

- Un antioxydant synthétique contre le vieillissement

Les propriétés antioxydantes d'un peptide synthétique (pNaKtide, peptide naturel modifié) découvert il y a plus de 10 ans permettraient de ralentir le vieillissement.

Le régime occidental a augmenté les signes de vieillissement des souris; cependant, l'introduction de pNaKtide a ralenti ces changements. Les mêmes résultats ont ensuite été répliqués lorsque des fibroblastes dermiques humains ont été exposés à différents types de stress oxydant in vitro, augmentant l'expression des marqueurs de sénescence et provoquant une lésion cellulaire. Avec le traitement par pNaKtide, les chercheurs ont démontré que les attributs négatifs associés au vieillissement étaient significativement atténués.

- Allonger la vie grâce à des probiotiques ?

Une association de probiotiques et d'un complément à base de plantes appelé "Triphala" (association de trois fruits utilisés comme plantes médicinales en ayurvéda) a pu prolonger de 60 % la durée de vie des mouches. De plus, les manifestations du vieillissement, notamment l'insulinorésistance, l'inflammation et le stress oxydatif étaient moins marquées dans ce groupe.

"Les probiotiques changent du tout au tout l'architecture du microbiote intestinal, non seulement sa composition, mais aussi le métabolisme des aliments que nous ingérons. Ainsi, une seule préparation probiotique peut agir simultanément sur plusieurs voies de signalisation biochimiques et procurer une panoplie de bienfaits physiologiques, d'où l'effet spectaculaire de notre préparation sur des marqueurs nombreux et divers".

Les résultats obtenus tiennent à l'"axe intestin-cerveau". Il s'agit d'une voie de communication bidirectionnelle entre les microorganismes du tractus gastro-intestinal, le microbiote et le cerveau. Au cours des dernières années, des études ont révélé que l'axe intestin-cerveau était en cause dans l'apparition d'altérations neuropathologiques et de diverses maladies, telles que le syndrome de l'intestin irritable, la neurodégénérescence et même la dépression.

Cette préparation pourrait se révéler utile contre plusieurs problèmes chez l'être humain, notamment le diabète, l'obésité, la neurodégénérescence, l'inflammation chronique, la dépression, le syndrome de l'intestin irritable et même le cancer.

- Les effets bénéfiques du café sur les mitochondries

https://upload.wikimedia.org/wikipedia/commons/thumb/4/45/A_small_cup_of_coffee.JPG/280px-A_small_cup_of_coffee.JPGP27, aussi appelée CDKN1B (cyclin-dependent kinase inhibitor 1B), peut aller dans le cytoplasme de la cellule. Mais cette nouvelle recherche montre que, dans les cellules cardiaques, la caféine favorise le déplacement de p27 vers les mitochondries, ce qui déclenche une cascade d'évènements : le fonctionnement des mitochondries est stimulé et les cellules cardiovasculaires protégées de dommages. Les effets cardioprotecteurs sont atteints à une concentration de caféine équivalente à la consommation de 4 tasses de café !

La protéine p27 mitochondriale entraîne différents bénéfices :

  • elle augmente le contenu en ATP, une molécule énergétique indispensable au fonctionnement cellulaire ;
  • elle favorise la migration des cellules de l'endothélium vasculaire ;
  • elle protège les cellules cardiaques de la mort cellulaire, ou apoptose.

Des cellules du rein modifiés pourraient aussi produire de l'insuline en présence de caféine.

- Des nanoparticules contre le cancer

En utilisant une toxine protéique appelée gélonine provenant d'une plante trouvée dans les montagnes de l'Himalaya, les chercheurs ont mis en cage les protéines dans des nanoparticules auto-assemblées à structure organique métallique (MOF) pour les protéger du système immunitaire de l'organisme. Pour améliorer la longévité du médicament dans la circulation sanguine et pour cibler sélectivement la tumeur, l'équipe a masqué le MOF dans un revêtement fabriqué à partir de cellules de la tumeur elle-même.

"Nous avons conçu une stratégie pour tirer parti des vésicules extracellulaires dérivées des cellules tumorales", a déclaré Siyang Zheng, professeur agrégé de génie biomédical et électrique à Penn State. "Nous enlevons 99% du contenu de ces vésicules extracellulaires, puis nous utilisons la membrane pour envelopper nos nanoparticules organométalliques Si nous pouvons obtenir nos vésicules extracellulaires du patient, par biopsie ou chirurgie, alors les nanoparticules chercheront la tumeur grâce à un processus appelé ciblage homotypique. "

Le système de nanoparticules circule dans le sang jusqu'à ce qu'il trouve la tumeur et se bloque sur la membrane cellulaire. La cellule cancéreuse ingère la nanoparticule dans un processus appelé endocytose. Une fois à l'intérieur de la cellule, l'acidité plus élevée des vésicules de transport intracellulaire de la cellule cancéreuse provoque la rupture des nanoparticules de structure métallique-organique et libère la protéine toxique dans le cytosol et tue la cellule.

On pourrait aussi empêcher les tumeurs de produire des acides aminés en les privant d'aspartate.

- L'édition génétique peut favoriser le cancer

Activée par des cassures de l'ADN, la protéine p53 réduit l'efficacité de l'édition génomique puisque son rôle est justement de maintenir l'intégrité du génome. Les modifications génétiques avec CRISPR-Cas9 réussissent donc mieux dans les cellules dans lesquelles p53 ne fonctionne pas correctement. Or, ces cellules risquent plus de devenir cancéreuses. Dans un communiqué, Emma Haapaniemi a expliqué qu'en choisissant les cellules dans lesquelles l'édition génomique avait fonctionné « nous pourrions par inadvertance également choisir des cellules sans p53 fonctionnelle ».

La seconde étude va dans le même sens : elle montre que l'action de CRISPR-Cas9 induit des cassures de l'ADN double brin qui provoquent souvent la mort cellulaire à cause de l'action de p53. Bien que préliminaires, ces résultats invitent à la plus grande prudence quant à l'utilisation future de CRISPR.

L'édition de gène permettrait cependant de soigner l'autisme dit syndrome du X fragile (FXS), en liant CRISPR à une nanoparticule d'or.

- Transformer directement des cellules sanguines en neurones

Des chercheurs de Stanford ont transformé des cellules immunitaires en neurones, sans passer par le stade de cellule pluripotente. Ce protocole, qui utilise la « transdifférenciation », pourrait favoriser l'étude de pathologies au laboratoire, comme l'autisme ou la schizophrénie.

Grâce à ce processus appelé transdifférenciation, le lymphocyte devient directement neurone : il n'a pas besoin de se transformer d'abord en cellule pluripotente.

Malgré leurs différences avec les neurones, « Il est un peu choquant de voir à quel point il est simple de convertir les lymphocytes T en neurones fonctionnels en quelques jours. » D'après l'article paru dans Pnas, un millilitre de sang, frais ou congelé, peut générer jusqu'à 50.000 neurones !

Certes, les neurones obtenus ne sont pas parfaits, car ils n'arrivent pas à créer des synapses fonctionnelles, mais les chercheurs espèrent améliorer la technique.

- Les hommes migraineux auraient plus d'œstrogènes

http://illicopharma.com/img/cms/migraine_mal_tete_homme.jpgEntre leurs épisodes de migraine, les hommes migraineux avaient des taux d'œstrogènes plus élevés (97 picomol/L) que les témoins (69 picomol/L), mais les niveaux de testostérone étaient similaires dans les deux groupes. Par conséquent, le rapport testostérone/œstrogènes était plus bas chez les hommes migraineux, entre leurs migraines : 3,9 contre 5,0 chez les témoins. Vingt-quatre heures avant une migraine, les taux de testostérone augmentaient chez les hommes qui avaient des symptômes précurseurs de la migraine (fatigue...). Les hommes migraineux avaient aussi plus souvent que les autres des symptômes qui peuvent être liés à un niveau bas de testostérone, comme des problèmes d'ordre sexuel, d'énergie ou d'humeur : ils étaient 61 % à relever de tels symptômes contre 27 % chez les témoins.

- Les protéines du sommeil

Ces protéines accumulent graduellement des étiquettes chimiques - appelées groupes phosphate - pendant les heures d'éveil. Ces groupes phosphate sont ajoutés sur les protéines à intervalles relativement réguliers, ce qui aide à garder une trace de combien de temps il a été depuis la dernière nuit de la souris.

Plus ces protéines portaient de groupes phosphate, plus les souris plus profondes et plus longues dormaient lorsqu'elles dérivaient. Pendant le sommeil, les groupes phosphate sont supprimés et l'horloge de la protéine est réinitialisée.

ces protéines de l'indice de sommeil se retrouvent principalement dans les synapses du cerveau, les espaces entre les neurones à travers lesquels les messages sont transmis. "Quand nous sommes éveillés, nos synapses tirent activement, donc les protéines synaptiques sont dans la meilleure position pour surveiller la durée et la richesse de notre expérience de veille".

- Parkinson : les agrégats d'alpha-synucléine détruisent les mitochondries

Les agrégats d'alpha-synucléine endommagent des protéines clés à la surface des mitochondries, les rendant moins efficaces pour produire de l'énergie, et déclenchent aussi l'ouverture d'un canal à la surface des mitochondries, les faisant gonfler et éclater, laissant s'échapper des produits chimiques qui provoquent la mort de la cellule.

La maladie pourrait être causée par un virus qui tue des bonnes bactéries de l'intestin, mais c'est douteux...

- Un virus de l'herpès impliqué dans l'Alzheimer

Le virus de l'herpesDeux souches du virus humain de l'Herpes (Herpesviridae) (HHV) de type 6A et 7 (connus pour être impliqués dans la roséole infantile) – à distinguer de l'herpès bucal ou génital de type 1 ou 2 – ont été trouvées postmortem dans des cerveaux de patients atteints de la pathologie d'Alzheimer, à un niveau significativement plus élevé que dans des cerveaux de sujets non malades.

"Un corpus croissant de preuves scientifiques suggère que la protéine amyloïde bêta a des propriétés anti-microbiennes. C'est-à-dire que l’agrégation de l’amyloïde bêta apparait dans les cas d’infections, pas seulement virales mais aussi bactériennes ou fongiques, qu'elle aurait un rôle de protection dans certains modèles en cas d’infection".

- L'inflammation du cerveau véritable cause de l'Alzheimer ?

C'est un important facteur de risque génétique (iRhom2) qui suggère que l'inflammation du cerveau serait la cause principale de la maladie, inflammation qui peut être causée par une infection ou par les plaques d'amyloïdes.

L’iRhom2 est récemment apparue comme une protéine importante dans la maladie d’Alzheimer, car elle aide à la maturation d’une enzyme appelée TACE (enzyme de conversion du facteur de nécrose tumorale alpha) en la dirigeant vers la membrane plasmique d’une cellule. L’enzyme y libère alors une cytokine (TNFα), impliquée dans la régulation des processus inflammatoires. Alors que les études sur les souris ont montré que l’inflammation TNFα-dépendante peut conduire à une septicémie et une polyarthrite rhumatoïde, on pense également que le processus contribue à des événements de signalisation neuroinflammatoire qui peuvent causer des dommages dans le cerveau.

Le projet iRhom2 in AD, financé par l’UE, a travaillé avec des souris susceptibles de développer les caractéristiques de la maladie d’Alzheimer: des plaques amyloïdes et des déficits de mémoire. L’équipe a modifié génétiquement l’iRhom2 chez les souris, puis analysé la progression de la pathologie en utilisant un ensemble de méthodes biochimiques et histologiques, ainsi qu’un certain nombre de tests comportementaux pour évaluer le déclin cognitif.

Les résultats ont été quelque peu surprenants, comme le rappelle le professeur Stefan Lichtenthaler, coordinateur du projet: «Nous avons d’abord émis l’hypothèse que l’iRhom2 affecterait un aspect spécifique de la neuroinflammation dans la maladie d’Alzheimer. Ce que nous avons découvert était encore plus excitant, car elle affecte plusieurs aspects différents de la neuroinflammation simultanément. Donc, la modulation de l’iRhom2 semble particulièrement bien adaptée pour interférer avec la maladie d’Alzheimer.»

Il semble que dans l'Alzheimer, les agrégats de bêta-amyloïdes bloquent CamKII, une enzyme clé de la plasticité synaptique, et que ce blocage entraînerait à terme la disparition de la synapse. Il se pourrait aussi que les agrégats de bêta-amyloïdes se propagent par les exosomes. "La propagation de la maladie suit la façon dont les parties du cerveau sont anatomiquement liées.Il semble raisonnable de supposer que la maladie se propage à travers les connexions dans le cerveau". Ceci dit, la prise d'aspirine diminuerait les plaques amyloïdes et activerait les lysosomes qui éliminent les débris cellulaires.

- Un test sanguin pour l'autisme

C'est grâce à l'analyse des données qu'une mesure de métabolites du sang permettrait de diagnostiquer l'autisme.

24 métabolites liés à deux processus cellulaires - le cycle de la méthionine et le processus de transsulfuration ont été mesurés puis l'ensemble de données a été soumis à des techniques d'analyse avancées pour générer un algorithme prédictif.

- Le sang universel d'un ver marin pour les transfusions

Issue d'un ver marin, l'hémoglobine que produit la société Hemarina est 40 fois plus oxygénante que la nôtre, et compatible avec notre organisme.

Tortillon de sable

 

Technologie


biotechnologies, informatique, robotique

- Des formes qui changent selon la longueur d'onde de la lumière

Différentes formes de nanoparticules d'or convertissent différentes longueurs d'onde de la lumière en chaleur, aussi des nanosphères d'or ou des nanotiges ont été disposées dans différentes zones d'un polymère à mémoire de forme afin qu'il puisse ensuite être plié dans la forme voulue. Exposés à des longueurs d'onde de 530 nanomètres (nm), ou à la lumière verte, les parties contenant des nanosphères se déplient. Lorsqu'elles sont exposées à des longueurs d'onde de 860 nm, ou proche infrarouge, ce sont les nanotiges qui déplient les autres régions où elles sont implantées.

« Cette approche peut être utilisée à température ambiante et permet une grande flexibilité, car vous pouvez contrôler la longueur d'onde à laquelle le matériau réagit en manipulant la forme des nanoparticules d'or ».

- IBM Project Debater : une IA qui peut débattre avec des humains

Image extraite du débat organisé entre Project Debater et l’expert Dan Zafrir. © IBM Research

Concevoir une intelligence artificielle capable de réunir des informations sur un thème donné, de les organiser dans un discours étayé et d'ajuster ses réponses en temps réel en fonction des arguments de son opposant est un progrès tout à fait impressionnant.

Project Debater et son contradicteur humain ont eu chacun quatre minutes pour leur propos liminaire, suivies de quatre minutes pour réfuter les arguments adverses et enfin deux minutes de conclusion. IBM précise que son IA n'avait pas connaissance des sujets à l'avance.

Pour construire son argumentaire, Project Debater puise tout d'abord dans un vaste corpus de plusieurs centaines de millions d'articles de presse dans lesquels il glane des éléments qu'il va confronter avec Wikipédia. Le programme n'apprend pas à connaître un sujet pour le défendre ou le contester. Il collecte des arguments existants les plus pertinents en fonction de la position qu'on lui demande d'adopter et s'en sert pour construire son discours.

Ses concepteurs le voient comme un outil d'aide à la prise de décision fondée sur des arguments impartiaux. « L'objectif est de construire un système qui aide les gens à prendre des décisions fondées sur des preuves lorsque les réponses ne sont pas manichéennes ».

- Une IA qui voit à travers les murs

 

- De l'encre magnétisée pour des impressions 3D contrôlables

Cette technologie a permis de créer des structures à commande souple - des matériaux malléables qui se transforment sous l'effet d'un champ magnétique, comme une feuille qui se plie ou une sorte d'araignée qui peut ramper, rouler et sauter assez vite pour attraper une balle au bond. D'autres structures imprimées rétrécissent ou se dilatent.

- Un bracelet capteur d'émotions pour les jeux vidéo

Ankkoro

Ankkoro est un bracelet connecté qui utilise une solution développé et brevetée par Ironova avec le laboratoire de neurosciences cognitives LNC. « Emotion Sense », une technologie de capture des émotions humaines pour un maximum d’immersion et modulation de l’histoire en fonction des émotions.

“Le bracelet capte et analyse les signaux biométriques du joueur pour en déterminer un état émotionnel et le transmettre au jeu en temps réel, afin d’y apporter des éléments de modification : le joueur est en situation de panique ? La vision se trouble, le champ de vision se réduit, il est serein ? Ses gestes sont sûrs, limpides et sa visée précise. L’interface digitale présente une palette d’émotions par lesquelles peut passer le joueur : stress, peur, calme, joie…”

- Superviser un robot par les gestes et la pensée

Le nouveau système - créé par des chercheurs du Laboratoire d'informatique et d'intelligence artificielle du Massachusetts Institute of Technology (CSAIL) - fonctionne en combinant l'électroencéphalographie (EEG) et l'électromyographie (EMG). L'utilisateur est équipé d'une série d'électrodes sur le cuir chevelu et l'avant-bras, qui sont reliées au robot.

Les signaux EEG ne sont pas toujours fiables et les signaux EMG sont souvent difficiles à décoder au-delà du simple déplacement de gauche ou de droite. Cependant, en fusionnant les deux signaux, ce système de biosensibilité serait beaucoup plus robuste et il fonctionnerait sur des personnes qui ne l'ont jamais utilisé auparavant, ce qui signifie que les entreprises pourraient le déployer dans des environnements réels sans séances d'entraînement longues et coûteuses.

"Cette combinaison, EEG et feedback EMG, permet des interactions humaines-robots naturelles pour un ensemble d'applications plus large que ce que nous avons pu faire avant. En ajoutant la rétroaction musculaire, nous pouvons utiliser des gestes pour commander le robot spatialement, avec beaucoup plus de nuances et de spécificité".

Auparavant, les systèmes robotiques ne pouvaient reconnaître les signaux cérébraux que lorsque les gens s'entraînaient à penser à une scène arbitraire. Le nouveau système se base lui sur les signaux cérébraux appelés potentiels liés à l'erreur, qui se produisent naturellement lorsque les gens remarquent des erreurs.

- Un robot européen pour assister les personnes âgées

GrowMeUp a développé des algorithmes avancés afin que GrowMu puisse s’adapter aux changements et au comportement des personnes âgées et intègre leur routine. Cela signifie que le robot détecte des situations qui pourraient être améliorées et agit en cas de danger, en appelant les secours appropriés par exemple. Les scénarios nécessitant une attention vont des suggestions de nouvelles recettes à l’avertissement, si une marche est susceptible de provoquer une chute.

Comme GrowMu «grandit» avec les personnes âgées dont il prend soin et les autres utilisateurs, le robot peut suggérer des modifications du mode de vie qui aident à maintenir, et même améliorer, la qualité de vie. Il pourrait notamment définir un programme d’exercice et organiser des événements à des fins de socialisation.

Toutes les fonctions de GrowMu sont liées au cloud. La quantité et le type apparemment infinis de données téléchargeables accessibles comprennent des rappels au patient qu’il doit prendre le bon médicament au bon moment. Le réseau de soins sociaux accessible est composé d’autres personnes âgées, de la famille, des amis, des voisins et du personnel soignant autorisé. Non seulement la base de connaissances du cloud intègre la personne âgée à son réseau social et ses soins de soutien, mais elle fournit aussi un ensemble de services d’activités quotidiennes conçus pour répondre aux besoins spécifiques de l’individu.

- Un serpent robot volant

On doit le DRAGON (“Dual-rotor embedded multilink Robot with the Ability of multi-deGree-of-freedom aerial transformatiON“) à des chercheurs de l’Université de Tokyo. Ce robot aérien en forme de serpent est fabriqué avec de multiples sections interconnectées et il peut voler grâce à une paire de rotors située sur chaque segment.

L’appareil a été conçu pour pouvoir passer à travers des voies difficiles d’accès. Il est aussi capable de manipuler des objets grâce à ses pinces à chaque extrémité.

- Le robot cascadeur de Disney

 

- Test d'un véhicule de livraison autonome des courses

Nuro véhicule autonome

Le client doit prendre lui-même les colis.

- Hyperloop : des fenêtres grâce à l'effet zootrope ?

Ce train subsonique évoluera dans des tubes sous vide à une vitesse si élevée qu'il serait impossible à l'œil humain de suivre le défilement du paysage.

Le zootrope est un jeu optique basé sur la persistance rétinienne et l'effet phi qui crée une illusion de mouvement à partir d'une bande dessinée placée dans un cylindre que l'on fait tourner à une certaine vitesse. Dans le cas de l'Hyperloop, Josh Giegel propose de créer des ouvertures circulaires de part et d'autre du tube à intervalles de dix mètres. Une fois l'Hyperloop lancé à sa vitesse maximale (on parle de 1.200 km/h), l'effet d'optique ferait disparaître les fenêtres pour donner l'impression d'une vue panoramique totalement transparente. La vidéo comporte une simulation qui démontre qu'à pleine vitesse, l'effet de défilement serait visuellement soutenable.

- Le Tesla Roadster d'Elon Musk aura « 10 petits propulseurs de fusée »

La Tesla Roadster sera équipée de « dix petits propulseurs de fusée » répartis tout autour de la voiture électrique. « Ces moteurs de fusée améliorent considérablement l'accélération, la vitesse maximale, le freinage et les virages. Peut-être même qu'ils vont permettre à une Tesla de voler... ».

Les propulseurs en question ne sont pas du tout des moteurs de fusée, mais des bonbonnes d'air comprimé de type COPV (composite overwrapped pressure vessel). Il s'agit de récipients qui peuvent aussi accueillir du gaz ou de l'hydrogène et dont SpaceX entend se servir pour les vols habités de la Nasa (dixit Elon Musk). Dans le cas du Tesla Roadster, les bonbonnes d'air comprimé seront rechargées par une pompe alimentée par le système électrique de la voiture.

- Kitty Hawk Flyer, la « moto volante » du patron de Google, bientôt en vente

Le pilote prend maintenant place dans un cockpit caréné fixé par des bras à deux flotteurs, pour se poser et décoller sur l'eau à la verticale. Le Flyer ne possède plus 8 mais 10 rotors électriques, qui lui permettent de voler à environ 30 km/h à trois mètres au-dessus du sol ou de l'eau. Son autonomie varie de 12 à 20 minutes selon le poids du pilote. Il pèse environ 113 kg à vide, ce qui en fait un appareil volant ultraléger. Selon la législation en vigueur aux États-Unis, cette catégorie ne nécessite pas de licence de pilote et peut être utilisée au-dessus de l'eau ou bien dans des zones dégagées.

Il se pilote avec un manche qui s'apparente à un joystick. Pas d'instruments de vol ni d'écran : tout a été simplifié au maximum pour rendre le pilotage le plus intuitif possible. Si d'aventure le pilote lâche le manche, l'appareil se met alors en vol stationnaire.

 

<- Revue des sciences précédente | Revue des sciences suivante ->
2 417 vues

28 réflexions au sujet de “Revue des sciences juillet 2018”

  1. Un article intéressant dans le journal du CNRS : "La tragédie des communs était un mythe" qui montre le simplisme du raisonnement, contredit par la réalité, son détournement comme justification de la privatisation alors que la gestion étatique en serait bien plus justifiée, et que l'auteur appliquait surtout à la démographie, ce malthusianiste argumentant pour un strict contrôle des naissances comme en Chine. Le fait que cela nous apparaisse clairement un mythe aujourd'hui (et après les travaux d'Elinor Ostrom) alors que cela paraissait avant une simple évidence est très révélateur de la force de l'idéologie comme reflet de la réalité économique qui a désormais changé, les communs y occupant la première place (internet, wikipédia) même si une grande part reste privatisée (attirant les capitaux, donc les moyens). En fait, la privatisation s'appuierait plutôt sur Locke et sa théorie de l'épave qu'il faut s'approprier pour la valoriser.

    • Pour avoir accès à l'article, il faut passer par google et rechercher "Define ‘robots’ before thinking about taxing them", sinon il y a un paywall.

      Il est certain que taxer les robots est absurde. Il peut y avoir des taxes ciblées (comme sur les caisses automatiques) pour retarder des évolutions inévitables mais la plupart des robots ne sont pas anthropoïdes, ce sont des machines automatiques et ils assurent une fonction mais remplacent rarement un emploi complet (et moins il y a de robots, plus il y a de chômage au contraire, car plus assez productif).

      Ce qui est désespérant, c'est le règne de la bêtise, des arguments inconsistants, des mesures simplistes impossibles, tout cela inaccessible à la raison et, donc, ne faisant que retarder une adaptation plus favorable, exposant aux adaptations forcées (notamment les licenciements brutaux).

      On vit vraiment dans un monde fou, de vérités alternatives, de discours trompeurs, c'est ce que montre la science, notre débilité mentale face à un réel irreprésentable devant se confronter à l'expérience. Pour la politique, c'est assez désespérant, menant au pire...

      • C'était dans le programme de B Hamon et soutenu par Julia Cagé...

        Les caisses "automatiques" n'ont rien d'automatique puisqu'il faut manipuler et scanner soi même les articles, comme quand on fait son plein à la station service.

        Dans le super marché où je vais parfois, c'est en plus complètement foireux, au point qu'un(e) assistant(e) doit quasiment systématiquement intervenir sur leurs bécanes IBM. C'en est presque comique, digne des films de Jacques Tati. Ils payent une personne à plein temps pour intervenir sur 2 machines qui déconnent en permanence pour toutes sortes de raisons, codes pas enregistrés, codes promotionnels... un vrai barnum de loufoques.

        Effectivement, on vit dans un monde de cinglés, au moins pour le moment.

    • Il y a notamment http://jeanzin.fr/2015/02/18/non-les-robots-ne-sont-pas-la-cause-du-chomage/ (février 2015) mais j'avoue que je bloque pas mal sur l'idée que la croissance du "travail immatériel, subjectif (care) et créatif" va compenser (même d'une manière non-linéaire qui rendra nécessaire un revenu universel) les destructions d'emploi liées à la robotisation et l'artificialisation de l'intelligence. Bien sûr le passage en 2 siècles de 95% à 5% de la part d'agriculteurs dans nos populations actives* est éloquent, mais je reste très sensible à l'idée que l'évolution technique en cours n'est pas comme les autres (sans forcément aller jusqu'à faire mien le mythe de la "singularité" technologique). L'évolution du dénominateur "population active" est aussi à prendre en compte, non ? Avant les premières révolutions techno-industrielles, la PA c'était de l'ordre de 90% de la population totale, aujourd'hui c'est plus proche de 50%, non ? (socialisation massive -- et bienvenue ! -- des revenus... )

    • Je l'ai signalé dans une revue des sciences mais je n'ai pas retrouvé, il suffit de consulter le nombre de robots par pays même si c'est un peu trompeur puisque reflétant le niveau d'industrialisation du pays, des pays ayant donc maintenu ou développé leur industrie. Cela veut dire surtout que, ne pas s'équiper de robots, c'est perdre en compétitivité et encore plus en emplois à la fin. Il est certain que la robotisation va réduire les emplois dans l'industrie.

      Le catastrophisme de la fin du travail ne sert à rien de toutes façons, en plus d'être faux. Il est certain que le travail change de sens. Je trouve incroyable qu'on glorifie le travail industriel si souvent abrutissant du passé et il y a déjà beaucoup d'emplois qui ne servent à rien comme les armées d'avocats aux USA ! Les robots ont encore beaucoup de chemin à faire, il ne faut vraiment pas les surestimer et plutôt que se plaindre d'une évolution inévitable, il vaut mieux s'interroger sur les façons d'y répondre, car il y a bien une véritable rupture.

      Si le travail sera toujours de l'ordre d'une lutte infinie contre l'entropie, il sera moins forcé par la nécessité, devenu plutôt valorisation de nos compétences pour autant qu'on en donne les outils. Je ne crois pas à une société des loisirs durable ni à une trop longue retraite mais je sais qu'il faudra composer avec des intérêts matériels qui ne nous voudront pas du bien. Les pays arriérés connaissent aussi un chômage important, ce n'est jamais le travail qui manque, seulement l'argent pour le payer...

      • Moi je suis un tenant de la distinction emploi/travail.

        Le travail ne me semble pas en voie de raréfaction irrémédiable (encore que, la lutte contre l'entropie a beau être "infinie", qui nous dit que l'artificialisation de l'intelligence ne va pas produire une part exponentielle de ce néguentropisme jusqu'ici humain ?)

        ... l'emploi beaucoup plus ; d'où une socialisation accrue des revenus, via le revenu universel (a priori on est d'accord là-dessus).

        Autrement dit et en résumé : non je crois pas à la fin du travail ; à la fin de l'emploi, beaucoup plus.

        Après, il faut aussi voir ce qu'on entend par loisirs : se cultiver, animer des associations sont des activités aujourd'hui a priori plutôt classées du côté des loisirs (car bénévoles ?). Dans une société du revenu universel, je serais d'avis de les ranger dans la catégorie "travail".

        Sinon nous sommes aussi d'accord pour dire que le principal déterminant de la sous-activité/sous-rémunération des populations, c'est bien davantage les "grippages" du circuit de flux financiers que le progrès technologique, comme tu l'expliques dans ton texte de 2015 dont j'ai donné la référence.

  2. Il me semble que l'emploi est directement relié à un salaire quelque soit son sens et ses finalités ; alors que le travail (qui n'est pas forcément rémunéré) est relié au sens , au fondement de ce que nous sommes. Le travail est consubstantiel à notre condition humaine.

    Dans une société en perte de sens c'est l'emploi et l'économie qui dominent alors que le travail est de plus en plus rare et individualisé .
    Se remettre collectivement au travail passerait par une re politisation , un travail collectif d'élaboration d'un projet .

    Cette démarche serait créatrice d'emplois qui feraient sens et pourraient en partie être financés par un revenu universel lui même intégré à un projet politique.

  3. Si on est déjà d'accord qu'il y aura toujours du travail, c'est déjà quelque chose, alors que certains imaginent un monde psychotique où l'IA ferait absolument tout. Ce qui est absurde et relève d'un passage à l'infini où le réel disparaît mais qui nous donne un délicieux vertige. En fait, on exagère toujours dans les prévisions même quand elles sont assez justes. J'ai signalé dans un tweet une vidéo de 1968 sur l'an 2000 qui est comique dans la vie imaginée plus que dans les prouesses techniques. Au-delà de 20 ou 30 ans, les trajectoires dévient beaucoup trop même quand on ne se trompe pas vraiment. C'est pour cela aussi qu'il est difficile de se projeter dans un climat au-delà de 50 ans avec de nouvelles techniques et plus de motivation.

    On n'a certes pas fini d'agiter la crainte d'une disparition des emplois car on est bien dans une transition majeure qui produira une grande destruction d'emplois actuels mais ce n'est pas la première fois et même si cette fois c'est différent, la réalité c'est que, même si la plupart travaillaient tout le temps avant (en dehors des nombreuses fêtes), plus la productivité augmente et plus il y a d'emplois. On peut même dire que plus on travaille (avec le numérique il n'y a plus de séparation du travail et de la vie privée), même si c'est très différent, le travail immatériel exigeant des temps d'information, de formation, de relations et de repos.

    Ce n'est pas tant l'emploi qui est menacé que les emplois intermédiaires entre emplois bien payés et boulots de merde. Je ne crois pas du tout que le travail va remplacer l'emploi. Les mères de familles qui travaillaient depuis toujours cherchent maintenant des emplois. On peut certes, dit-on, se faire rémunérer par autre chose que de l'argent, surtout lorsqu'on a déjà fait carrière, mais ce qu'on nous paie est la valeur objective qu'on donne à son travail (je ne vaux pas grand chose!). Il ne s'agit pas seulement de s'occuper, ni même de s'occuper utilement, mais de valoriser ses compétences et pouvoir s'offrir avec des compétences qu'on n'a pas (les loisirs eux-mêmes pouvant apporter rémunérations, notamment les jeux vidéo, la passion et le plaisir étant devenus des facteurs de production). Pour beaucoup de salariés dont le travail est ingrat, la dimension d'entreprise collective, de travail en équipe reste aussi essentielle même si ce sont des communautés fragiles et souvent éphémères.

    Ces débats n'ont guère évolué depuis la fin du siècle passé (Thomas Coutrot vient de publier Libérer le travail, je parlais en 1999 de "libération du travail"), mais en tout cas ne servent à rien, ne modifiant pas les évolutions en cours. Il vaut mieux parler de transformation du travail et du marché de l'emploi pour s'y adapter que de fin du travail ou de l'emploi. Les études là-dessus sont contradictoires, mais la dernière étude anglaise sur le sujet montre que l'IA devrait créer plus d'emplois qu'elle n'en détruit, c'est au moins la preuve que ce n'est pas si destructeur qu'on le prétend (même si ceux qui perdent leur emploi n'en retrouveront peut-être jamais). Il ne s'agit pas d'avoir des convictions sur ces sujets, d'autant plus qu'on n'y connaît rien et qu'on juge des millénaires à venir au regard du niveau de chômage de notre petit pays depuis tant d'années, sans que les robots n'y soient pour rien...

  4. Toujours aussi OK pour essayer de ne pas se laisser aveugler par des convictions (forcément) mal établies, mais du coup j'ai particulièrement du mal avec celle-ci : "la réalité c'est que plus la productivité augmente et plus il y a d'emplois"...

    Sinon sur les mères de famille qui cherchent un emploi alors qu'elles travaillaient depuis toujours, il me semble qu'on peut aussi voir ça sous l'angle "Revenu universel" : ce n'est pas tant l'emploi qui manque que l'argent pour le rémunérer (pour reprendre en la modulant une formule qui à juste titre t'est chère) ; parmi ces "mères au foyer" (lire aussi : "pères au foyer", de plus en plus ?) il y en a pour qui ce n'est pas (ce n'est plus) "l'arrachement au morne foyer" qui est recherché via la quête d'un emploi, mais "simplement" un revenu, des moyens de subsistance permettant l'autonomie matérielle.

    • C'est évidemment contre-intuitif que la mécanisation crée des emplois. N'importe qui à qui on aurait dit que des 95% d'agriculteurs, il n'en resterait que 5%, se serait bien demandé ce que les autres vont faire, mais c'est une constatation historique. Dire que c'est différent avec l'IA est vrai mais ne change pas la tendance depuis les premières grandes cités dont l'activité était d'autant plus grande qu'elles étaient riches, donnant les moyens de rémunérer le superflu et la spécialisation au lieu de se suffire du nécessaire vital. Les outils en général et l'IA en particulier ouvrent de nouvelles possibilités d'emploi.

      Je n'ai jamais conçu le revenu garanti comme servant à se passer d'emploi, seulement à sortir du salariat, destiné au contraire à permettre un travail et des ressources complémentaires, inséparable pour cela des institutions du travail autonome (coopératives municipales) et des instruments de la relocalisation (monnaies locales). Tout cela est fait pour travailler, pas pour consommer, sauf que le choix de son travail est devenu un facteur déterminant, il ne doit donc pas être forcé. On peut se contenter de toucher son revenu minimum mais tout est fait pour qu'il soit facile de le compléter.

      Tout le monde n'est pas pareil, c'est le fondement de la division du travail. Il y a beaucoup de mères au foyer qui se contenteraient d'un revenu, mais il est un fait que les femmes préfèrent souvent un travail à l'extérieur qui les sort de l'enfermement et de la dépendance familiale. Même les riches préfèrent travailler maintenant, pas à n'importe quoi bien sûr !

      Encore une fois il ne faut forcer personne à travailler, faire l'expérience du non-travail est même essentiel, et c'est une expérience qui a été donnée à des millions de chômeurs, du moins ceux de longue durée. Parmi ceux là, bien peu se satisfont de leur situation, ceux qui s'y installent ont leurs raisons mais quand l'inactivité se compte en années, c'est très pesant.

      Derrière la critique du travail, il y a une anthropologie naïve d'un homme libre qui sait très bien ce qu'il veut faire et que seules les contraintes sociales et les besoins primaires empêchent d'accomplir. La réalité du chômage indemnisé a prouvé le contraire, qui n'est pas nouveau, profond ennui dénoncé déjà par Pascal. Certes, ce n'est pas pour tous. Avoir une passion (voire simplement amoureux) peut compenser une activité productive mais, sinon, le travail entretient. Le rapport au travail est forcément ambivalent car c'est une contrainte, mais qui vaut mieux que des loisirs vides (et aussi contraignants souvent). Comme dit Baudelaire, "Il faut travailler, sinon par goût, au moins par désespoir, puisque, tout bien vérifié, travailler est moins ennuyeux que s'amuser".

      La question de la retraite est un peu différente, en fonction de la santé et de la famille, mais beaucoup tournent en rond et perdent leur statut social même si un certain nombre en profite pour s'investir dans des associations et travailler bénévolement. Il ne s'agit que d'encourager le cumul de la retraite avec une activité rémunératrice (ce qui est déjà tout-à-fait possible), sans y forcer personne car je suis persuadé que des "inactifs" peuvent être de grands créateurs ou chercheurs et finalement les plus productifs mais seulement un petit nombre semble-t-il. Il faut se garder, dans ces questions de mode de vie, de jugements uniformes et tenir compte de la pluralité des fins légitimes comme des personnes mais au niveau des grandes masses, on est loin d'une fin du travail et de l'emploi, même avec un revenu garanti.

    • Ce qui pose problème dans ces prospectives, c'est qu'elles ne sont pas assez fines en ne différenciant pas assez les types de travail du spectre. C'est le problème avec la réduction du temps de travail, c'est valable pour certains boulots, et pas du tout pour d'autres.

    • Un bilan d’étape intéressant d'Alternatives Economiques des Territoires zéro chômeur qu'on suit depuis l'origine :

      https://www.alternatives-economiques.fr//bilan-detape-territoires-zero-chomeur/00085654

      Je trouve que c'est à la fois encourageant, car cela semble bien marcher pour un certain nombre, et décevant car ne touchant finalement qu'une minorité et à un coût important. Cela fait penser qu'il faut une multiplicité de dispositifs en fonction de la diversité des populations mais c'est un chemin vers les coopératives municipales, en tout cas vers les institutions du travail autonome et du développement humain, reprenant mes critiques sur un revenu universel sans ces institutions :

      Le dispositif, pour Laurent Grandguillaume, est plus favorable à la création d’activités sociales et écologiques que le revenu universel : « Pour créer une activité, il faut un collectif », dit-il. Et même s’il appelle à expérimenter le revenu universel, il craint que celui-ci ne favorise l’isolement et ne laisse penser que certaines personnes sont inemployables.

      Ces structures de création d'emploi choisis seront d'autant plus vitales que, si ce n'est pas la fin du travail à cause des robots, ce sont malgré tout les emplois les moins rémunérés et qualifiés qui sont 5 fois plus susceptibles de disparaître dans les prochaines années.

      • Voilà, point-clé : les emplois les moins qualifiés ont 5 fois plus de chances de disparaître dans les prochaines années suite à l' "IA-isation" de la production.

        C'est une controverse que j'ai plus ou moins (depuis 20 ans ?!) avec quelqu'un comme Alain Lipietz : quelle est l'alternative ? Que 90% de la population à employer atteigne le niveau "doctorat en biotechnologies et/ou maintenance & développement en robotique" ?

        ==> Où est le réalisme là-dedans ?

        (Vraiment désolé de faire mon ch..eur là-dessus ; je rappelle que par ailleurs je partage à 150% l'idée de la nécessité du couplage RevenuUniversel + "institutions du travail autonome" / "coopératives municipales" / "structures d'aide à la création d'emplois choisis")

        Mais ce mouvement massif vers le haut des capacités cognitives des masses travailleuses, j'en suis profondément désolé, je n'arrive pas à... y croire, enfin, à l'envisager... (surtout dans les délais impartis ?)

        Rappel : se cultiver, pratiquer les arts, faire vivre des associations, ça oui je pense que ça peut être une conversion de masse de l'activité (hem, ça reste ma part d'utopie... :/ )...

        ... Mais devenir chercheurs/inventeurs/créateurs, à un niveau rivalisant avec l'IA qui plus est, je ne vois pas comment on peut croire que ça pourra concerner les masses à un niveau comparable à ce que fut la conversion de l'activité des masses agricoles lors des 2 derniers siècles.

        Sur ce point comme sur beaucoup d'autres, je souhaite avoir tort ! (Et bien sûr c'est tout à fait possible) Et en tout cas j'aimerais pouvoir partager ton optimisme (?) là-dessus, Jean...

        • Quel optimisme ?? Il y a simplement le nécessaire mais je constate bien qu'il n'est pas toujours possible pour autant et que cela reste très "décevant", en tout cas trop lent même si ça avance.

          Je ne crois pas du tout que les emplois peu qualifiés vont disparaître et qu'il faudra tous être ingénieurs mais la reconversion est difficile pour tout le monde et encore plus pour les peu qualifiés qui perdront plus vite leur emploi et auront besoin de structures d'aide. Ce qui est à craindre, c'est plutôt une augmentation des inégalités (bien entamée).

        • Etant ingénieur, je vois comment ça fonctionne. Pas besoin d'être Henri Poincaré ou Einstein. Il suffit de faire des check lists des problèmes, c'est assez basique, avoir quelques notions scientifiques, et surtout voir comment une supra structure de management peut déconner en mode aveugle.

          L'innovation, c'est le truc qui amuse, mais qui n'aboutit pas forcément, vu la sclérose des structures hiérarchiques ou techniques. Les mecs ou nanas ont des œillères ahurissantes, comme la plupart des humains, j'ai vu ça avec mes sœurs, il y a peu, c'est une catastrophe d'ampleur limitée, mais tout de même dévastatrice en termes de progrès.

  5. Il me semble que la prospective au sens d'un prolongement de tendance , risque de plus en plus d'être contrariée par les grands enjeux écologiques . Et que certains métiers justement très tendance , n'auront plus grand sens....
    Des remises en causes fondamentales obligées risquent de plus en plus de contrarier les prospectives de simple prolongement des évolutions actuelles.
    Il peut y avoir rupture . Et donc une prospective beaucoup plus centrée sur des besoins primaires , alimentation , eau , air , biodiversité, énergie, santé , organisation sociale et politique , recherche ......
    Un type de société , la nôtre et les métiers qui sont les siens peut par obligation écologique et sociale , céder le pas à autre chose.
    D'autre part la prospective peut être un simple observatoire qui se vend ou une prospective à vocation politique , pour anticiper et agir. La prospective en soi ,d'autant qu'elle n'est jamais sûr n'a pas un intérêt majeur.

    • Je crois qu'il n'y a rien de plus important que la prospective même si c'est très difficile et qu'il est impossible de prévoir l'avenir et ses ruptures. Bien sûr, la prospective ne sert qu'à l'action et, ce qui la réfute pour l'instant, c'est de ne servir apparemment à rien.

      Le fait de se projeter dans un avenir collectif objectif me semble malgré tout essentiel alors qu'on préfère s'étriper sur des valeurs et le facteur humain au nom d'un volontarisme idéaliste qui est négation de cette évolution objective.

      Je ne crois pas que tous les problèmes posées par le réchauffement se règleront par un retour en arrière et des low-techs mais par des techniques de pointe. Il est toujours possible qu'un conflit nucléaire détruise notre système de production mais on ne reviendra pas à l'âge de pierre.

      En fait j'ai plutôt l'impression à suivre les nouvelles que, très logiquement, l'explosion démographique produit aussi une multiplication des innovations dans tous les domaines avec une tendance à l'humanisation des techniques (comme le prévoyait Simondon), de plus en plus économes.

      Il y a toujours eu des ruptures, en général des guerres, quelque rares fois des révolutions, ce qui suit n'est pas si différent de ce qu'il y avait avant même s'il peut y avoir quelques progrès.

  6. Ce n'est bien sûr pas la prospective qui est en question et je suis bien d'accord pour dire que c'est une activité majeure . Malgré ses limites .
    Bien d'accord aussi sur la recherche , les nouvelles technologies.... Et pas de retour en arrière .
    Mais à condition justement que ces avancées se fassent au sein d'une démarche collective de prospective .

    Et le constat qu'on peut faire c'est que ce n'est pas le cas : on est pour l'instant encore ,incapable d'organiser , à tous échelons , mais d'abord au local des démarches de projet .

    Les technologies , les inventions ne pourront rien sans révolution politique .
    A mon niveau je constate que je suis à peu près seul à défendre la pertinence des conseils de développement qui ont pour mission essentielle de suivre et participer à "l'élaboration du projet de territoire" des agglo et com com .
    Cette démarche collective d'élaboration du projet de territoire intégrant les plan climats (PCAET) est inaudible pour les élus et un grand nombre d'acteurs locaux qui préfèrent en rester aux projets de territoire sur papier glacé des bureaux spécialisés servis avec un zeste de participation éducative en avale en direction "du grand public"
    Ce qu'il y a d'intéressant dans ces conseils de développement c'est que la loi qui les encadre est révolutionnaire et marque une rupture politique dans la gouvernance locale ,obligeant élus et acteurs locaux à rentrer ensemble dans de la prospective territoriale ; cette loi applique concrètement le penser global agir local....

    Mais pour la faire appliquer c'est pas de la tarte !!!!! le seule appui sérieux est le judiciaire : le tribunal Administratif de Lyon où par le biais d'une association je dépose des requêtes et un référé que , si je le peux va faire l'objet d'un pourvoi en cassation au conseil d'état .

    Quand la politique bloque et que les politiques bloquent , reste encore , merci qu'il en soit encore ainsi , la justice ; Il faut l'utiliser.

      • "ça s'est toujours passé comme ça " oui et non , ça dépend de quoi on parle ; concernant la technologie , oui ça s'impose avec le résultat .
        Mais concernant l'écologie , le pronostic n'est pas bon et ce qui va possiblement s'imposer peut tout remettre en question.
        C'est bien l'enjeu écologique qui peut faire que la politique devienne prospective ; c'est loin d'être acquis parce que là aussi ça s'est toujours passé en prise directe.
        En ce qui me concerne ,je ne vois pas d'autre issue que celle de démarches prospectives solidaires localement dans un monde ouvert .
        Le bien commun ne sera pas , même avec la technologie, la somme du bien de chacun . Faire société ne sera pas inventer le moyen de ne pas faire société.
        D'autre part le "ça s'est toujours passé comme ça " est une fermeture dans un monde qui évolue et toute fermeture participe à retarder les nécessaires évolutions ; oui , le réalisme immédiat c'est ce fatalisme ; mais le réalisme global qui introduit l'inconnue , ne peut tomber d'accord .
        De toute manière , il y a des mondes réels dont je ne veux pas.

Répondre à Jean Zin Annuler la réponse