Une « cape d’invisibilité » qui détourne la chaleur

Temps de lecture : 2 minutes

- Une "cape d'invisibilité" qui détourne la chaleur

Une plaque de cuivre et de silicium structurée comme des métamatériaux permet de propager la chaleur autour d'une zone centrale sans l'affecter.

Le cuivre est un bon conducteur de chaleur, tandis que le silicium utilisé, appelé PDMS, est mauvais conducteur.

"En mettant sur une plaque de cuivre des structures annulaires de silicium, on obtient un matériau qui conduit la chaleur dans toutes les directions à des vitesses variables qu'on peut contrôler".

"Ce qui est impressionnant, c'est que des méthodes optiques puissent s'appliquer au domaine très différent de la thermodynamique".

Cette façon de canaliser la chaleur pourrait avoir de très nombreuses applications, entre autres en électronique mais dans toutes sortes de domaines. En tout cas, ces "capes d'invisibilité" s'appliquent déjà aussi bien à l'optique qu'au son ou aux tremblements de terre.

854 vues

Une voiture volante à décollage vertical

Temps de lecture : < 1 minute

- Une voiture volante à décollage vertical

Avec l’avant d’une Ford Fusion et le corps d’un Bell-Boeing V-22 Osprey, le TF-X serait capable de décoller (et atterrir) à la verticale grâce à un moteur électrique puis de traverser les airs avec l’aide d’un moteur à combustion traditionnelle.

Capable d’atteindre les 320 k/h en mode avion, Terrafugia envisage de ne pas réclamer de brevet de pilote, les ordinateurs se chargeant du pilotage automatique.

878 vues

Amélioration de la combustion du méthane et de la récupération du CO2

Temps de lecture : < 1 minute

- Amélioration de la combustion du méthane et de la récupération du CO2

En mettant en contact le méthane avec un composé solide oxygéné (transporteur d'oxygène) la combustion est plus efficace et accélérée, ce qui permet des systèmes plus petits. Le nouveau transporteur d'oxygène mis au point est un "conducteur mixte ionique-électronique" à base de rouille qui serait 70 fois plus rapide.

De plus, en complétant le système avec une condensation de la vapeur d'eau produite, le CO2 restant pourrait être facilement récupéré.

582 vues

Les langues d’Europe et d’Asie dérivent d’une langue commune

Temps de lecture : 2 minutes

- Les langues d'Europe et d'Asie dérivent d'une langue commune

European and Asian languages have one mother tongue - life - 07 May 2013 - New Scientist

Il semblait difficile pour la phonologie de remonter au-delà de 8000 ans pour reconstituer les formes primitives de langues qui se sont différenciées (ex : le Sanskrit "bhratar" devient "brother", "frater", "frère", etc.) jusqu'à ce qu'on s'aperçoive que les mots les plus courants évoluaient beaucoup moins que les autres. En se focalisant sur 23 mots "ultra-conservés" (thou, I, not, that, we, to give, who, this, what, man/male, ye, old, mother, to hear, hand, fire ,to pull, black, to flow, bark, ashes, to spit, worm), l'étude a pu ainsi montrer que les langues asiatiques et européennes dérivaient d'une langue commune il y a 15 000 ans, c'est-à-dire juste avant la fin de la dernière glaciation et l'explosion des populations sur les territoires libérés. L'article du Washington Post permet d'écouter ces mots (cognates) dans différentes langues, leur ressemblance n'étant pas évidente pour les non spécialistes...

Il est possible que ce soit le signe d'un remplacement des anciennes populations par un groupe restreint plus évolué mais seules des études génétiques pourraient l'établir, les langues n'étant pas toujours corrélées à une origine commune.

D'autres études très contestées font remonter la langue mère de toute l'humanité cette fois (y compris les Africains mais peut-être pas les San) aux alentours de 60 000 ans. Tout cela est considéré comme pure spéculations par certains.

933 vues

Les Mammouths ont disparu parce qu’on tuait les dominants

Temps de lecture : 4 minutes

- Les Mammouths ont disparu parce qu'on tuait les dominants

C'est toujours un mystère l'impact disproportionné que semblent avoir eu les humains à une époque où ils étaient si peu nombreux. En tout cas partout où ils pénétraient hors d'Afrique les grands mammifères disparaissaient rapidement. La seule explication qu'on pouvait imaginer était des hécatombes exterminant des troupeaux entiers se précipitant de falaises pour échapper aux feux de broussailles allumés par les chasseurs, ce dont on a peu d'exemples répertoriés. Un tout autre processus, plus indirect, pourrait être la cause de ces extinctions, la propension à s'attaquer aux animaux les plus grands qui sont aussi les mâles dominants.

L'étude en question concerne les Mastodontes, Mammouths à poil laineux d'Amérique du nord, dont un nombre inhabituel de squelettes témoignent avoir succombé aux défenses d'autres Mastodontes et donc d'une augmentation de l'agressivité de ces animaux. Or, on constate le même phénomène en Afrique lorsque des braconniers tuent les plus grands éléphants pour leurs défenses. Ensuite, les jeunes mâles livrés à eux-mêmes deviennent comme fous et peuvent s'entretuer, laissant libre cours à une agressivité déchaînée pour prendre la place du chef. De quoi montrer que la compétition sexuelle n'est pas la seule cause des hiérarchies animales qui ont surtout une fonction pacificatrice de maintien de l'ordre (il vaut toujours mieux un ordre que pas du tout), un peu comme un prédateur qui défend son territoire protège des autres prédateurs.

Que l'extinction des grands mammifères soit due à ce mécanisme de désorganisation n'est encore qu'une hypothèse mais qui rend un peu moins incroyable l'impact disproportionné des premières populations (avec des répercussion notables sur le climat de la disparition des grands animaux). Bien sûr ce n'est qu'un facteur, le coup de grâce à des espèces déjà sur le déclin à cause de conditions climatiques défavorables, notamment la chute d'une météorite, il y a 12 800 ans provoquant un refroidissement soudain, mais elles en avaient vu d'autres avant et avaient survécu des millions d'années. Les hommes ne se sont distingués qu'à éradiquer les derniers survivants jusqu'à l'élimination complète de ce qui était leur principale ressource, comme nous en avons un peu trop l'habitude, hélas.


En fait une nouvelle étude conteste le rôle de l'homme dans la disparition de la mégafaune en Australie, mettant en cause plutôt le climat, sauf qu'il n'y a pas qu'en Australie que la mégafaune a disparu et, comme on le disait, le rôle de l'homme se réduit sans doute à l'extermination des derniers survivants.

Il n'y aurait eu aucune trace d'arme de l'époque permettant la chasse de gros gibier.

Il y a cependant de bonnes preuves comme quoi 8 à 14 espèces de la mégafaune étaient encore présentes lorsque les humains sont arrivés.

Les aborigènes d'Australie semblent effectivement, selon Alain Testart, être des chasseurs assez peu évolués ne pratiquant même pas de pièges mais ils étaient quand même coutumiers des feux de brousse pour en ramasser ensuite le gibier tout cuit. Il est difficile de leur attribuer la chasse préférentielle des mâles dominants mais il faut compter avec le fait que cette mégafaune était la principale menace et qu'elle devait mobiliser toute leur énergie pour s'en défendre. Le mystère reste entier...

1 163 vues

L’hormone du vieillissement

Temps de lecture : < 1 minute

- L'hormone du vieillissement

Il y a différents facteurs de vieillissement mais son accélération post ménopause/andropause a clairement une origine hormonale qu'on pouvait attribuer à la baisse de la mélatonine mais on vient de trouver dans l'hypothalamus ce qui favoriserait l'inflammation (ce tueur silencieux) et réduirait la sécrétion de GnRH (gonadotropin-releasing hormone), hormone sexuelle nécessaire aussi à la production des neurones : la protéine NF-κB (nuclear factor kappa-light-chain-enhancer of activated B cells). En la bloquant, les souris vivraient 20% plus longtemps, ce qui n'est pas tant que ça mais démontre du moins que les hormones cérébrales ont bien un rôle important dans la dégénérescence programmée.

808 vues

Les réserves d’hydrocarbure doublées pour les USA

Temps de lecture : < 1 minute

- Les réserves d'hydrocarbure doublées pour les USA

Le doublement des réserves estimés ne couvre pour l'instant que l'équivalent de la consommation annuelle des USA mais ces estimations devraient continuer à augmenter à cause des progrès de la géologie comme des techniques d'extraction.

Cela confirme l'impasse des éco-énergétistes, survivalistes et autres transitionneurs qui tablent sur un épuisement rapide du pétrole. Il faut absolument changer de stratégie.

The bigger point is that those who think we should stop using fossil fuels should stop hoping that we’ll run out. We won’t. The amount of oil and gas in the ground is enormous.

548 vues

Pour montrer sa maîtrise IBM fait une animation avec des atomes

Temps de lecture : < 1 minute

- Pour montrer sa maîtrise IBM fait une animation avec des atomes

L'animation image par image n'a pas d'intérêt sinon de montrer la capacité de positionner avec précisions des atomes grâce à un microscope à effet tunnel. L'objectif est à terme d'obtenir des mémoires atomiques (au niveau de l'atome) et ce qu'on peut trouver étonnant par rapport à ce qu'on pouvait imaginer avant, c'est le peu d'incidence des fluctuations quantiques à ce niveau, cette stabilité étant une condition des nanotechnologies en général et qui avait été contestée par le prix Nobel de physique 1998 Robert B. Laughlin parlant même du bluff des nanobabioles.

817 vues

Une peinture solaire au graphène qui change de couleur

Temps de lecture : < 1 minute

- Une peinture solaire au graphène qui change de couleur

Graphene paint could power homes of the future - Telegraph

Du graphène associé à de fines couches d'autres matériaux (dichalcogénures) et pouvant s'appliquer comme une peinture sur les murs des bâtiments aurait des capacités photovoltaïques similaires aux autres systèmes tout en pouvant changer de couleur à la demande.

1 157 vues

Une oreille artificielle imprimée en 3D

Temps de lecture : < 1 minute

- Une oreille artificielle imprimée en 3D

L'objectif principal des chercheurs était de trouver un moyen efficace et polyvalent de fusionner l'électronique avec un tissu biologique (bionique). Ils ont utilisé pour cela l'impression 3D de cellules et de nanoparticules suivis de leur mise en culture afin de combiner une petite bobine de fil avec un cartilage, créant ce qu'ils appellent une oreille bionique.

"La conception et la mise en œuvre d'organes et de dispositifs bioniques qui améliorent les capacités humaines, ce qu'on appelle cybernétique, a fait l'objet d'un intérêt scientifique croissant. Ce domaine a le potentiel de fournir des organes de rechange sur mesure pour le corps humain, ou même de créer des organes aux capacités supérieures à ce que la biologie humaine permet habituellement."

824 vues

WiPower : la recharge sans fil et sans contact

Temps de lecture : < 1 minute

- WiPower : la recharge sans fil et sans contact

WiPower : la recharge sans fil et sans contact

WiPower repose sur le couplage inductif afin de créer un champ proche propice à un transfert d’énergie à l’aide d’un émetteur et d’un récepteur. Cela signifie qu’il sera nécessaire d’intégrer un récepteur dans le terminal mobile ou bien de l’équiper de la coque idoine. L’émetteur pourra être placé jusqu’à 45 mm du dispositif qui doit être chargé. C’est peu mais suffisant pour le placer sous une table, un bureau ou dans un mur.

597 vues

Winflo, l’éolienne flottante française

Temps de lecture : 2 minutes

- Winflo, l’éolienne flottante française

Winflo, l’éolienne flottante française

Grâce au projet Winflo, des éoliennes offshore seront bientôt implantées plus au large, là où les fonds marins peuvent atteindre jusqu’à 200 m de profondeur. Les turbines actionnées par deux pales reposeront sur des plateformes semi-submersibles flottantes.

Les éoliennes seront ancrées de manière souple par un système de câbles. Or, leur installation dégraderait moins les fonds marins que la pose d’une plateforme sous-marine conventionnelle. L’absence de base bétonnée ou métallique signifie également que le démantèlement d’un parc laissera peu de traces dans la nature. Cette opération se fera d’ailleurs assez aisément, puisqu’il suffira de détacher les plateformes, puis de les tracter vers la terre ferme où elles seront démontées en toute sécurité.

D'ici 2020, l'installation de 100 éoliennes Winflo au large de la Bretagne, ce qui représenterait un parc de 500 MW, pourrait fournir 10 % des besoins énergétiques de cette région.

1 183 vues

Pas d’anti-gravité pour l’anti-matière ?

Temps de lecture : 2 minutes

- Pas d'antigravité pour l'antimatière ?

La réponse n'est pas encore assurée mais la poursuite des expériences, avec des antiatomes d'hydrogène qu'on laisse tomber, devrait confirmer qu'il n'y a aucune différence gravitationnelle entre matière et antimatière.

Confirmer une évidence ne semble avoir aucun intérêt mais cela permet de se débarrasser de toutes les hypothèses qui prétendaient le contraire. Notamment l'absence d'antimatière aurait pu être expliquée par une antigravité les faisant se repousser.

C'est vraiment de la science-fiction mais il faut savoir que l'antimatière a donné lieu à beaucoup de délires depuis sa déduction par Dirac. A l'origine, il y avait juste une valeur au carré qui pouvait avoir des solutions aussi bien positives que négatives. On sait désormais que c'est juste la charge électrique qui est inversée (entre électron et positron), ce qui suffit à en faire des valeurs inversées mais on a voulu (Dirac lui-même) qu'il y ait aussi une "énergie négative", correspondant à un trou, voire que l'antimatière remonterait le temps, et pourquoi pas une antigravitation, en effet.

C'est bien sûr très décevant et beaucoup plus banal d'avoir juste des charges électriques opposées...

3 397 vues

Les origines de la créativité

Temps de lecture : 7 minutes

- Les origines de la créativité (PLS)

C'est une vieille histoire de tenter de dater nos origines et une "coupure épistémologique" nous séparant à jamais de l'animalité alors qu'on trouve toujours des précédents dans un processus qui semble plus progressif. Il n'empêche que la véritable révolution culturelle semble se passer vers 50 000 ans et qu'on peut remonter pour ses prémices à 70 000 ans peut-être alors que cet article remonte bien avant, sous le couvert d'une "créativité" tout de même bien lente en ces temps reculés par rapport à l'accélération suivante. La seule véritable coupure pensable et qui n'est pas génétique, me semble celle du langage narratif bien qu'on ait fait l'hypothèse que son potentiel ne se soit révélé qu'une fois l'espérance de vie devenue un peu plus longue avec des groupes plus importants permettant l'élaboration de cultures complexes avec leur transmission par les ancêtres.

Ici, on tente de montrer que nos capacités cérébrales et de coopération sont essentielles dans l'innovation, ce dont on n'aurait jamais douté, mais l'élément déterminant semble la démographie dans un sens différent de la taille des groupes plutôt dans la densité des populations et le réseau de leurs échanges, le seuil minimum de ce que Pierre Chaunu appelait le monde plein au Moyen-Âge, pour une densité bien plus forte, a été estimé par Mark Thomas avoir été atteint il y a 100 000 ans (ce qui ne tient pas compte de l'explosion du Mont Toba et d'un goulot d'étranglement génétique, il y a 70 000 ans). Si c'est vraiment une question de densité, l'évolution technique n'en a pas fini d'accélérer jusqu'au pic de population au moins ! Cette densité est peut-être seulement nécessaire pour qu'il y ait évolution cumulative, que les innovations ne soient pas oubliées, assurant une continuité dans l'humanisation du monde à partir de laquelle nous parlons, dans un monde déterminé par un niveau technique donné. Un encadré insiste plutôt sur les interactions avec l'environnement qui sont au moins aussi déterminantes. Ainsi, on peut penser que l’accélération des innovations au début du Néolithique venait de la nécessité de s'adapter à un nouvel environnement et un nouveau mode de vie alors qu'ensuite, une fois le système rodé, la conservation l'emportera sur l'innovation pour de longs millénaires jusqu'à l'époque contemporaine parfois où le bouleversement est bien plus grand encore.

La lignée de l'homme moderne est apparue en Afrique il y a environ six millions d'années, mais durant près de 3,4 millions d'années, ses premiers membres ont laissé peu de témoignages d'innovation. Cela suggère qu'ils se procuraient de la nourriture à la main, ou avec des outils rudimentaires qui ne se sont pas conservés, des bâtons par exemple.

Puis des homininés (hominidés non arboricoles) nomades ont fabriqué des outils coupants en taillant des galets avec des pierres. Cet acte témoigne d'une étonnante ingéniosité. Mais nos ancêtres semblent avoir utilisé le même type de hache multifonction (un biface) pendant les 1,6 million d'années suivantes, à quelques légères modifications près.

En Afrique du Sud, des chercheurs ont relevé des traces de nombreuses inventions précoces. Les chasseurs-cueilleurs qui habitaient la grotte de Blombos il y a 100 000 à 70 000 ans, par exemple, gravaient des motifs sur de gros morceaux d'ocre. Ils fabriquaient des poinçons en os, peut-être pour façonner des vêtements en peau. Ils se paraient de colliers de perles chatoyantes faites de coquillages et, dans un lieu dédié, réduisaient en poudre de l'ocre rouge et l'emmagasinaient dans les plus anciens récipients connus, faits de coquilles d'ormeaux. Plus loin à l'Ouest, sur le site de Pinnacle Point, des individus travaillaient la pierre il y a 164 000 ans, chauffant une roche locale, la silcrète, sur un feu contrôlé, pour la transformer en un matériau brillant, plus facile à tailler.

Les pointes de pierre provenant du site de Kathu Pan 1, en Afrique du Sud, constituaient autrefois les extrémités de lances vieilles de 500 000 ans qui appartenaient sans doute à Homo heidelbergensis, le dernier ancêtre commun de l'homme de Neandertal et de Homo sapiens. Et dans la grotte de Wonderwerk, toujours en Afrique du Sud, une couche ancienne contenant des cendres de végétaux et des fragments d'os calcinés suggère qu'il y a un million d'années, un homininé encore plus lointain, Homo erectus, a appris à allumer des feux pour se réchauffer et se protéger des prédateurs.

Aussi impressionnants que soient ces premiers éclairs de créativité, l'immense disparité des innovations, tant en quantité qu'en qualité, entre les hommes modernes et nos lointains ancêtres demande une explication.

À l'aide de données génétiques provenant d'Européens modernes, ils ont estimé la taille des populations humaines en Europe au début du Paléolithique supérieur, époque où la créativité semble être apparue dans cette région, et ont calculé la densité de population. Puis ils ont étudié les populations africaines au cours du temps, simulant leur croissance et leurs migrations. Leur modèle montre que les populations africaines ont atteint la même densité que les premiers Européens du Paléolithique supérieur il y a environ 101 000 ans, juste avant que l'innovation ne se manifeste dans les régions subsahariennes selon les témoignages archéologiques. Le modèle montre aussi qu'il existait alors de vastes réseaux sociaux.

L'apparition de grandes populations connectées a permis aux innovations de se répandre, telle cette recette d'arme de jet à base de lamelles retouchées en pierre, mise au point par Homo sapiens il y a environ 71 000 ans.



Cela n'a rien à voir avec l'article mais je signale un livre de 2003 "La femme des origines : Images de la femme dans la préhistoire occidentale" de Claudine Cohen qui remet en cause les projections des interprétations dominantes (l'identification des squelettes féminins, un culte de la fécondité peu compatible avec les ressources limitées de chasseurs-cueilleurs, etc.), un exercice salutaire contre les préjugés qui ne débouche sur aucune certitude et plaide plutôt pour une grande diversité au lieu de l'uniformité supposée mais le plus étonnant peut-être est la mise en cause de la chasse avant le Paléolithique supérieur :

Lewis Binford souligna déjà, jetant un pavé dans la mare qu’il n’y avait pour lui aucune certitude pour soutenir l’existence de la chasse avant la toute fin du paléolithique. Il pouvait tout aussi bien s’agir de charognage plutôt que de chasse qui aurait tout aussi bien pu être accompli par des femmes. Selon d’autres anthropologues la chasse ne peut être le moteur de la genèse humaine puisque l’humain n’a appris que tardivement à chasser mais bien la cueillette.

1 369 vues

Prochaine glaciation dans 50 000 ans

Temps de lecture : 3 minutes

- Prochaine glaciation dans 50 000 ans
Didier Paillard, La Recherche, p38

Cet article a l'intérêt de lever une incroyable incertitude dont je m'étonnais en septembre 2012 sur la prochaine glaciation présentée alors comme imminente alors que, cette fois, ce sont mes propres conjectures quand j'avais fait des recherches sur le sujet qui sont confirmées sauf que ce n'est plus dans 30 000 ans mais dans 50 000 ans désormais qu'on devrait entrer dans une nouvelle période glaciaire (atténuée par nos émissions de CO2 qui persisteraient pendant une centaine de milliers d'années dans le réservoir océanique notamment, ce qui me semble très exagéré) alors que les périodes inter-glaciaires ne durent que 10 000 ans en moyenne.

Si l'on applique ces modèles au futur, on s'aperçoit que la configuration de l'orbite terrestre est actuellement un peu particulière. Son excentricité est en effet inhabituellement faible. Et elle le restera pendant près de 50 000 ans. Autrement dit, l'orbite terrestre est actuellement très proche d'un cercle, de sorte qu'il y a peu de différence entre le point de son orbite le plus proche du Soleil (la périhélie, au début du mois de janvier) et le point de son orbite le plus éloigné (l'aphélie, au début du mois de juillet).

Une situation similaire s'est produite il y a environ 400 000 ans : l'excentricité était trop faible pour engendrer une entrée en glaciation, et l'interglaciaire correspondant a duré 30 000 ans au lieu des 10 000 ans moyens. Aujourd'hui, la situation est encore plus marquée, car la prochaine configuration orbitale favorable à une entrée en glaciation - en terme de valeur de l'excentricité et de l'inclinaison de l'axe de rotation terrestre - sera dans 50 000 ans seulement.

Nous avons montré qu'au cours du prochain million d'années, il n'y aura pas de maximum glaciaire aussi intense que par le passé, quel que soit le scénorio retenu par le GIEC (...) Si l'on en croit ces modèles - qui ne prennent toutefois pas en compte l'influence possible de la fonte des calottes polaires -, non seulement nous sommes à l'abri de toute menace de glaciation pour les 50 000 ans à venir, mais les glaciations qui suivront seront moins intenses que celles que la Terre a connues dans le passé. Notre utilisation massive de combustibles fossiles a, elle, un impact à très long terme.

920 vues

Les réfutations du satellite Planck

Temps de lecture : 3 minutes

- Les réfutations du satellite Planck (PLS)

Par exemple, une question débattue depuis plus de dix ans est la suivante : les constantes fondamentales changent-elles au cours du temps ? Certains modèles supposent que la constante de structure fine, qui régit l'intensité de la force électromagnétique, varie avec le temps (...) Les résultats de Planck montrent que ce paramètre ne varie pas, dans la limite de précision de l'expérience. De même, parmi les nombreux modèles d'énergie sombre développés par les cosmologistes, certains supposent que cette composante hypothétique de l'Univers a des propriétés qui évoluent avec le temps. Si les données de Planck peuvent difficilement préciser les caractéristiques de l'énergie sombre, elles n'indiquent pas que l'énergie sombre varie au cours du temps.

Dans un autre domaine, lié à la physique des particules, les données de Planck permettent de tester le nombre de familles de neutrinos (...) Une famille supplémentaire de neutrinos aurait eu une influence sur les fluctuations du fond diffus, mais ce type de modification n'est pas observé dans les résultats. Il n'y aurait bien que trois familles de neutrinos.

L'Univers, est-il « chiffonné » selon l'expression de l'astrophysicien Jean-Pierre Luminet ? On ne trouve pas de trace d'images multiples du fond diffus, ce qui limite les possibilités que l'Univers soit replié sur lui-même.

Et, fini ou pas, l'Univers tourne-t-il sur lui-même ? Là encore, une rotation globale de l'Univers serait observable par le biais d'une série de motifs en spirale que l'on devrait observer dans des directions opposées, spirales dont la structure serait déterminée par les abondances de matière et d'énergie sombre. Là encore, l'analyse ne révèle rien qui serait compatible avec une telle rotation, pas plus qu'on ne trouve la trace de cordes cosmiques, sortes d'immenses concentrations filiformes d'énergie dont la formation est jugée possible à l'issue de l'inflation.

Une autre observation inexpliquée de wmap qui se confirme est la présence d'une tache froide dans la carte des fluctuations de température. Elle est située en bas à droite de la carte.

Il semble qu'on n'ait pas non plus de traces d'un pré-Big Bang comme il avait été supposé, en tout cas Alain Riazuelo n'en parle pas.

1 338 vues

Qu’est-ce qu’un objet complexe ?

Temps de lecture : 4 minutes

- Qu'est-ce qu'un objet complexe ?

Nombre d'idées ont été proposées pour définir et évaluer la complexité des objets, des processus et des interactions. L'une des propositions, la profondeur logique de Charles Bennett, retient l'attention générale. Grâce à des résultats accumulés depuis son introduction en 1977, elle constitue la piste la plus sérieuse pour une définition scientifique robuste de complexité structurelle ou de richesse en organisation. La mise au point d'outils qui, dans certains cas, la mesurent, permet d'envisager des applications.

Selon la vision de Ch. Bennett, la complexité structurelle d'un objet (qu'il dénomme profondeur logique) est la longueur du calcul, mesurée en cycles de machine ou plus généralement en ressources de calcul (temps, mémoire ou parallélisme), nécessaire pour qu'un programme court en produise une description explicite et détaillée.

Pour être authentiquement organisé ou structurellement complexe, un objet doit pouvoir être décrit assez brièvement par un programme, ou quelque chose qui y ressemble, dont le fonctionnement est long. On a des raisons de croire que c'est le cas d'un microprocesseur, d'une ville, d'un mammifère, qui sont parmi les objets les plus structurellement complexes que nous connaissons.

Lorsqu'on attribue une grande complexité structurelle à un objet, c'est qu'on voit ou croit voir en lui les traces d'une longue histoire causale assimilable à un calcul. Cette histoire y a forgé les relations qu'entretiennent ses différentes parties et qui constituent sa complexité d'organisation. Si l'on accepte l'idée qu'il est beaucoup plus probable que l'objet qu'on qualifie de structurellement complexe provienne d'une dynamique longue, mais définissable assez simplement, plutôt que d'un processus bref qui l'aurait engendré par chance, alors l'idée de Ch. Bennett de prendre en compte le temps de calcul des programmes les plus courts qui engendrent l'objet apparaît naturelle et conforme au bon sens.

La notion de « sophistication » introduite par l'Israélien Moshe Koppel et le Français Henri Atlan, et la notion de « complexité effective » des Américains Seth Lloyd et Murray Gell-Mann se fondent sur l'idée d'une séparation possible entre la composante aléatoire et la composante organisée d'un objet. L'idée des définitions proposées par ces chercheurs sous des formes mathématiques qui en masquent parfois le côté naturel est la suivante. Quand on examine un programme produisant un objet, il est souvent possible d'y reconnaître deux parties : l'une représente ce qui fixe et décrit la structure de l'objet, l'autre est ce qui habille la structure par des éléments de moindre importance, voire aléatoires.

Antoine Danchin, de l'Institut Pasteur, Guillaume Baptist, de l'Université de Grenoble, et John Collier, de l'Université de Durban en Afrique du Sud, défendent tous les trois indépendamment que la profondeur logique de Bennett permet d'éviter certaines considérations trop naïves sur la complexification des êtres vivants et éclaire l'idée d'un progrès dans les lignées d'organismes vivants, progrès qui ne serait que l'accumulation de résultats de calculs.

C'est déjà beaucoup mieux que la complexité de Kolmogorov et constitue un vrai progrès mais je crois que cela rate encore l'essentiel qui me semble la notion de bifurcation (proche de la notion d'Atlan de perte de redondance) et qui pourrait relever plutôt de la théorie des graphes ? Il faudrait aussi ajouter les interactions réciproques et les contraintes globales. En tout cas, je ne considère pas les fractales comme des objets complexes au sens biologique qui eux ne peuvent être compressés (ou pas trop) car chaque bifurcation représente une information acquise sur le monde, un cas particulier, une réaction spécifique. On peut dire que c'est le résultat d'un calcul mais le processus est différent d'un calcul linéaire puisqu'il s'agit d'interaction avec l'environnement (le réel) et d'une reproduction sélectionnée par le résultat.

Voir aussi "la complexité et son idéologie".

1 849 vues

La fusion des sens

Temps de lecture : 3 minutes

- La fusion des sens (PLS)

Ce que nous entendons dépend notablement de ce que nous voyons et ressentons.

Autrefois, le cerveau était vu comme un couteau suisse, où chaque sens aurait une région dédiée. La plupart des neuroscientifiques et des psychologues pensent aujourd'hui que l'évolution a conduit à des échanges importants entre les sens – autrement dit, à des aires sensorielles « entrelacées » physiquement dans le cerveau. Ainsi, bien que le cortex visuel traite essentiellement la vue, il peut aussi être influencé par d'autres informations sensorielles, issues par exemple du toucher. Les chercheurs peuvent changer les résultats de tests de goût en modifiant ce que les sujets entendent. L'endroit où nous regardons et ce que nous voyons influent sur notre posture. En d'autres termes, les recherches de ces 15 dernières années montrent qu'aucun de nos sens ne fonctionne isolément.

L'un des premiers exemples d'interaction sensorielle, décrit par les psychologues cognitivistes britanniques Harry McGurk et John MacDonald en 1976, est nommé l'effet McGurk. Si vous regardez une personne formant silencieusement sur ses lèvres la syllabe « ga » tout en écoutant un enregistrement sonore de la syllabe « ba », vous entendrez la syllabe « da ». La syllabe « ga » silencieuse modifie la perception de la syllabe « ba » audible, car le cerveau mélange ce que l'on entend et voit. L'effet McGurk fonctionne dans toutes les langues.

Le goût perçu est par exemple influencé par l'odeur, mais aussi par les images et les sons. Ainsi, une boisson parfumée à l'orange semble avoir le goût de cerise si elle est colorée en rouge, et vice versa.

Le cerveau ne range pas l'information visuelle provenant des yeux dans un conteneur neuronal, et celle, auditive, issue des oreilles dans un autre. Au contraire, il interprète le monde qui nous entoure en mêlant les diverses formes de perceptions sensorielles.

Il faut se rappeler que si on inverse notre perception avec des lentilles, au bout d'un certain temps on voit de nouveau à l'endroit ce qui prouve bien que ce n'est pas la perception qui compte mais le déplacement du corps dans son environnement, nos représentations sont actives de même qu'un affect est puissance d'agir comme disait déjà Spinoza. Que l'ensemble des sens concourrent à la même représentation relève de ce qu'on appelle l'équifinalité. Tout cela plaide pour l'approche phénoménologique d'une noèse qui structure le noème par son intentionalité et que la perception ne fait que remplir, préciser, évaluer.

728 vues

L’Anthropocène commence avec l’agriculture

Temps de lecture : 3 minutes

- L'Anthropocène commence avec l'agriculture

L'empreinte de l'homme sur la géographie et le climat daterait d'au moins 5000 ans où il y avait déjà un cinquième des terres qui étaient cultivées. On n'imagine pas qu'une population si peu nombreuse d'à peine 10 millions puisse avoir eu un impact global significatif mais il fallait à l'époque beaucoup plus de terres par habitant qu'aujourd'hui. Les nouvelles terres étaient conquises par le feu et les dégagements de CO2 auraient déjà augmenté de 20 à 30 ppm (10%), l'empreinte carbone par habitant étant à cette époque 10 fois plus important qu'aujourd'hui !

Tout cela semble bien difficile à croire mais on savait bien que les premières grandes villes du temps de Babylone avaient désertifié des régions entières à cause de l'irrigation mais cela restait très local. En fait, l'impact sur le climat a commencé bien avant, au Paléolithique supérieur par l'extermination de tous les grands mammifères hors d'Afrique (et Inde) reconfigurant les paysages (des forêts plus denses). Là aussi, les troupeaux entiers étaient chassés par le feu, on en trouve des traces il y a 60 000 ans.

Alors qu'on réévalue l'impact des premiers humains sur le climat, on minimise désormais l'impact des supervolcans et notamment de l'explosion du Mont Toba, il y a 75 000 ans, qui n'aurait refroidit le climat que de 1,5°C sur moins de 30 ans. Pour certain, l'impact sur les hommes aurait été nul, ce que d'autres contestent, la disparition de la végétation pendant quelques années suffisant à décimer les populations mais pas plus que d'autres catastrophes climatiques. Il n'en reste pas moins que des études génétiques parlent d'une réduction de la population mondiale à seulement 2000 individus (ce qui contredit complètement l'hypothèse de Pour la Science d'un progrès par densification de la population mais c'est peut-être simplement le nombre de nos ancêtres ayant supplantés tous les autres?) et que cela a pu avoir au moins un rôle d'accélérateur de notre évolution puisqu'on date de cette époque les débuts de la révolution du paléolithique supérieur.

879 vues