L’IA générative déçoit déjà

Temps de lecture : 4 minutes

En février, le Wall Street Journal rapporte que parmi les « early adopters » de Copilot, l'assistant dopé à l'IA de Microsoft, certains restent dubitatifs sur les bénéfices apportés par la technologie, compte tenu de son prix élevé (30 dollars par tête et par mois). Globalement, les salariés reconnaissent que l'outil est particulièrement utile pour faire des comptes-rendus de réunion, ce qui permet à certains de ne pas participer et de se contenter d'un résumé. En revanche Copilot pour Excel ou pour PowerPoint peine à convaincre, à cause du trop grand nombre d'erreurs et d'hallucinations (les faits inventés par une IA).

Lenovo, l'une des premières entreprises clientes, rapporte qu'à part la transcription de réunions Teams, il y avait une chute de l'utilisation des autres fonctionnalités autour de 20% au bout d'un mois seulement.

« Bien que les entreprises d'IA soient enclines à faire des promesses exagérées selon lesquelles les outils pourront bientôt remplacer votre équipe de rédaction de contenu, générer des films de long métrage ou développer un jeu vidéo à partir de zéro, la réalité est bien plus banale : ils sont pratiques de la même manière qu'il peut parfois être utile de déléguer certaines tâches à un stagiaire inexpérimenté et parfois négligent », écrit-elle.

Source : Trop d'argent pour une utilité questionnée : l'IA générative déçoit déjà

Ce n'est bien sûr pas parce que les IA actuelles passent par une phase de désillusion qu'elles ne constituent pas une révolution considérable ouvrant une nouvelle ère qui commence à peine. Il est cependant bon d'en rabattre encore une fois sur les promesses délirantes suscitées d'abord (fin du travail, des artistes, etc) qui sont très exagérées par rapport aux performances effectives (en progrès rapide). C'est l'habituelle dialectique cognitive qui refroidit l'enthousiasme initial (ou catastrophiste) trop unilatéral. Nos capacités prédictives sont bien plus faibles que celles des IA, entre déni et passage aux extrêmes.

Lire la suite

171 vues

Le Moyen Âge d’Henri Pirenne

Temps de lecture : 2 minutes

Pirenne voyait dans la constitution d’un espace européen cohérent (replié sur soi), théâtre d’une période appelée « Moyen Âge », la conséquence non pas des invasions barbares (germaniques) mais de l’essor de l’Islam et de l'arrêt (relatif) des échanges entre les rives opposées de la Méditerranée.

Non seulement la thèse centrale de "Mahomet et Charlemagne" récusant le triomphe des royaumes barbares et de la culture germanique sur l’Empire romain, mais encore la thèse – propre à "l’Histoire de l’Europe" – de la soumission par la Réforme des sujets à leur prince (cujus regio, ejus religio) renforçant à la fois la subordination des uns et l’autoritarisme de l’autre. C’est ce qui amène Pirenne à affirmer qu’au plan politique, l’Allemagne est "en retard" par rapport aux États-nations occidentaux qui ont établi des institutions représentatives dès les XVIIe et XVIIIe siècles.

Source : Le Moyen Âge d’Henri Pirenne - La Vie des idées

83 vues

La configuration prospective mieux que l’apprentissage par rétropropagation

Temps de lecture : 2 minutes

Pour ce que j'en ai compris, cette nouvelle méthode d'apprentissage automatique se rapproche plus du fonctionnement de notre cerveau (notamment des réseaux sensori-moteurs basés sur l'énergie), en recherchant d'abord la bonne configuration du réseau de neurones donnant le bon résultat, pour changer seulement ensuite le poids des synapses. Cela se révélerait bien plus efficace que la rétropagation arrêtant tout pour corriger les erreurs en modifiant immédiatement le poids des synapses avant de refaire le calcul.

Ainsi, d’une part, nous démontrons que la configuration prospective effectue un apprentissage plus efficient et rapide que la rétropropagation dans diverses situations auxquelles sont confrontés les systèmes biologiques, telles que l’apprentissage de structures profondes, l’apprentissage en ligne, l’apprentissage avec un nombre limité d’exemples, l’apprentissage dans des environnements changeants, l'apprentissage en continu avec des tâches multiples et l'apprentissage par renforcement. D'autre part, nous démontrons que les modèles d'activité et de comportement neuronaux dans diverses expériences d'apprentissage chez l'homme et l'animal, notamment l'apprentissage sensorimoteur, le conditionnement par la peur et l'apprentissage par renforcement, peuvent être naturellement expliqués par une configuration prospective mais pas par rétropropagation.

Cela promet des IA plus légères et rapides, nécessitant beaucoup moins de données et d'énergie, ce qui est une limitation actuelle.

Source : Déduire l'activité neuronale avant la plasticité comme fondement de l'apprentissage au-delà de la rétropropagation | Neurosciences naturelles

121 vues

Le suicide causé par le stress des mitochondries et l’ATP

Temps de lecture : 2 minutes

On découvre encore des causes nouvelles aux dépressions sévères, cette fois une perturbation des mitochondries et de l'ATP (énergie) qui passe hors des cellules, passant d'un stress oxydatif à un stress réducteur qui augmente l'inflammation, provoquant des maladies chroniques et une détresse métabolique à laquelle le suicide tenterait de mettre un terme.

"Lorsque l'ATP est à l'intérieur de la cellule, il agit comme une source d'énergie, mais à l'extérieur de la cellule, c'est un signal de danger qui active des dizaines de voies de protection en réponse à un facteur de stress environnemental. Nous émettons l'hypothèse que les tentatives de suicide pourraient en réalité faire partie d'une impulsion physiologique visant à mettre fin à une réponse au stress devenue insupportable au niveau cellulaire".

Bien que cela demande vérification, le folate et la carnitine pourraient réduire les carences constatés.

Nous avons constaté une augmentation du lactate, du glutamate, de la saccharopine, de la gamma-glutamyl-alanine et une diminution correspondante du disulfure oxydé de la cystéine, la cystine, compatible avec un stress réducteur. Ces métabolites résultent d'une diminution de l'oxydation mitochondriale du NADH, ce qui entraîne une augmentation des ratios NADH/NAD+ et NADPH/NADP+ dans la cellule.

Les nucléotides extracellulaires d'ATP, d'ADP et d'uridine sont libérés par les canaux membranaires cellulaires dépendants du stress comme dénominateur commun final en réaction à de nombreux types de stress environnementaux ou infectieux. Dans le cerveau, la libération extracellulaire d'ATP associée à l'exercice d'endurance agit pour supprimer l'oxydation mitochondriale du NADH, conduisant à des augmentations coordonnées de l'acide lactique, de la dopamine et de plusieurs autres métabolites dans le liquide céphalo-rachidien.

L’incapacité des mitochondries à oxyder le NADH entraîne non seulement une augmentation du rapport NAD(P)H/NAD(P)+ dans la cellule et entraîne la production de lactate par la lactate déshydrogénase (LDH), mais entraîne également une augmentation de plusieurs autres molécules métabolisées par les mitochondries. Par exemple, le glutamate.

Source : Les analyses de sang identifient les biomarqueurs des pensées suicidaires

Source : Caractéristiques métaboliques du trouble dépressif majeur réfractaire au traitement avec idées suicidaires | Psychiatrie translationnelle

140 vues

« S’il est vivant, il dort » : Des créatures sans cerveau éclairent pourquoi nous dormons

Temps de lecture : < 1 minute

Le sommeil ne se limite pas au cerveau, les organismes qui en sont dépourvus "dorment" aussi, du moins ralentissent leur métabolisme (avec la mélatonine) pour éliminer les radicaux libres résultant du stress oxydatif et autres déchets ainsi que pour renouveler leurs cellules. L'intestin notamment serait concerné ainsi que les muscles et le système immunitaire. Le cerveau y ajoute bien sûr d'autres fonctions mais il n'est pas le seul à se régénérer dans le sommeil.

Source : "S'il est vivant, il dort." Des créatures sans cervelle nous éclairent sur les raisons pour lesquelles nous dormons

113 vues

L’agrégation hiérarchisée au principe de l’abstraction dans le cerveau

Temps de lecture : 5 minutes

- L'agrégation hiérarchisée au principe de l'abstraction dans le cerveau

Ce travail d'observation de l'abstraction dans le cerveau (IRM) comme agrégation de sensations de plus bas niveau m'a paru assez important pour en faire une brève, essayant d'en restituer les conclusions qui confirment largement pour une fois nos intuitions sur le sujet.

La fonction cognitive et la pensée abstraite viendraient de l'agglomération de plusieurs sources corticales allant du cortex sensoriel aux zones beaucoup plus profondes du connectome (diagramme du câblage des connexions du cerveau).

Cela démontre non seulement le principe de base de la cognition mais que tous les comportements cognitifs suivent une hiérarchie qui part des comportements les plus corporels, tangibles, comme un tapotement des doigts ou la douleur ressentie, et va jusqu'à la conscience et les pensées les plus abstraites comme la nomination des choses ou des concepts. Cette hiérarchie d'abstraction reflète la structure du connectome de l'ensemble du cerveau humain.

L'observation semble établir que la structure hiérarchique du connectome révèle un continuum de la fonction cognitive, une abstraction fonctionnelle progressive en fonction de la profondeur du réseau, ce qui serait une caractéristique fondamentale du cerveau qui s'observe aussi dans les réseaux artificiels.

Les régions les plus profondes du cerveau représentraient ainsi les fonctions les plus abstraites. Le degré de connectivité d'une région avec les entrées sensorielles se trouve bien corrélé à l'abstraction des fonctions cérébrales effectuées par ces régions, avec des fonctions concrètes figurant dans les zones les plus connectées à des entrées sensorielles et des fonctions abstraites apparaissant dans les zones les moins connectées aux entrées ou enfouies plus profondément dans le cortex.

Notre définition formelle de la hiérarchie (ou la profondeur du réseau de la théorie des graphes) a simplifié les phénomènes de récurrence en un continuum statistique de connectivité avec les entrées sensorielles. Cette notion de hiérarchie était essentiellement probabiliste, la profondeur étant supposée influer sur la probabilité des connexions neuronales, plutôt que les nécessitant. Nos méthodes ont débouché sur une structure pyramidale du connectome humain, avec à la base de la pyramide les entrées sensorielles alors que le sommet de la pyramide se trouve au plus profond du réseau cortical.

Plus précisément, les résultats illustrent deux constatations interdépendantes: 1) une structure de réseau hiérarchique sur la base de l'architecture corticale qui part du cortex sensoriel et se prolonge jusqu'à des régions éloignées moins reliées aux entrées sensorielles, 2) une hiérarchie correspondante des fonctions cognitives qui vont des sensations primaires jusqu'aux fonctions cognitives supérieures. Enfin, les résultats de l'étude indiquent que notre hiérarchie cognitive basée sur la profondeur du réseau correspond bien à nos intuitions en matière d'abstraction de l'information.

Les éléments comportementaux impliquant les zones du cerveau les plus connectées au monde extérieur, à la base de la pyramide, étaient liées à des perceptions simples, au traitement sensoriel ou des actions physiques. Par contre, les éléments comportementaux sollicitant les zones du cerveau les moins connectées au monde extérieur, au plus profond du réseau, dans la partie la plus éloignée des entrées sensorielles, étaient bien liées à des concepts et des symboles plus abstraits. Par exemple, "l'humour" est apparu comme l'élément comportemental le plus abstrait.

L'abstraction est définie comme suit: un processus de création de concepts généraux ou de représentations extrayant ​​les caractéristiques communes de cas particuliers, où les concepts englobants sont dérivés de situations réelles, concrètes, littérales, de l'observation ou de premiers principes concrets, souvent dans le but de compression du contenu d'information d'un concept ou d'un événement observable, en ne retenant que les informations pertinentes pour un objectif ou une action précise.

La structure hiérarchique par agrégation est très robuste, résistante aux perturbations puisque l'agrégation élimine les détails, et elle est de même nature que ce soit à partir de la vision, des sons ou des odeurs. Cette structure hiérarchique qui part des entrées sensorielles expliquerait de plus le rôle de l'insula dans la conscience (ou l'anesthésie) comme plaque tournante des sens, servant à l'intégration multi-sensorielle.

Avec un siège présumé de la conscience ou de l'attention positionné structurellement dans un endroit qui lui permette d'être le coordinateur des entrées sensorielles et de la cognition, ces études pourraient modifier nos conceptions de la conscience, de l'apprentissage automatique et de l'intelligence artificielle.

1 835 vues

La peur pourrait se transmettre épigénétiquement

Temps de lecture : 2 minutes

- La peur pourrait se transmettre épigénétiquement

Des chercheurs ont constaté que les souris peuvent transmettre aux générations suivantes des informations apprises d'expériences traumatiques ou stressantes - dans ce cas, la peur de l'odeur de la fleur de cerisier.

Il ne faut sans doute pas aller trop vite et vouloir expliquer, comme ils le font, la phobie des araignées par exemple par des modifications épigénétiques qui ne se transmettent pas aussi bien que les modifications génétiques et ont tendance à disparaître au fil des générations mais il n'en reste pas moins très étonnant de voir l'ADN servir de mémoire transgénérationnelle par épigénétique, transmission indéniable de caractères acquis et dans ce qui semble le plus immatériel ! On savait déjà qu'il pouvait y avoir modification épigénétique transmise, en cas de famine par exemple, disposant les enfants à l'obésité mais là, c'est plus étonnant car on découvre que le cerveau n'est pas le seul organe de la mémoire, ce qui n'empêche pas que la plupart des phobies ont malgré tout des raisons psychanalytiques dès lors qu'elles font intervenir des représentations plus complexes qu'une simple odeur.

Dans l'étude de Nature Neuroscience, les chercheurs ont conditionné des souris à craindre l'odeur de la fleur de cerisier en utilisant des chocs électriques.

Leur progéniture a montré des réactions de peur à l'odeur de fleurs de cerisier en dépit du fait de ne les avoir jamais rencontrées auparavant.

La génération suivante a également montré le même comportement. Cet effet a continué même si la souris avait été engendrée par insémination artificielle.

Les cerveaux des souris conditionnées et de leur progéniture ont montré des modifications structurelles dans les zones utilisées pour la détection des odeurs.

L'ADN de ces animaux comportait également des modifications chimiques, connues sous le nom de méthylation épigénétique, sur le gène responsable de la détection d'odeurs.

Voir aussi New Scientist.

1 028 vues

Supraconductivité à température ambiante avec un ruban 2D d’étain

Temps de lecture : 2 minutes

- Supraconductivité à température ambiante avec un ruban 2D d'étain

On avait déjà parlé des potentialités d'utiliser les isolants topologiques pour la supraconductivité à température ambiante puisque, curieusement, ils conduisent l'électricité uniquement sur leurs bords mais sans résistance. Les électrons ne peuvent se déplacer à l'intérieur du matériau et sont repoussés à leur surface où ils circulent librement, sans perte.

Cette propriété serait justement exploitable avec ce qu'on appelle une structure 2D consistant en un ruban d'un seul atome d'épaisseur, ici d'étain, appelé stanène en référence au graphène (lui aussi ruban 2D) mais avec la racine latine d'étain (stannum). Grâce à l'ajout d'atomes de fluor la supraconductivité resterait même effective jusqu'à 100°C, ce qui est extraordinaire !

Ces rubans en fluorure de stanène devraient être utilisés en premier lieu dans les microprocesseurs, réduisant considérablement la consommation d'énergie et la production de chaleur. De quoi accélérer aussi les opérations mais il faudrait passer pour cela à des communications asynchrones afin de ne plus dépendre des cadences d'horloge.

Il est toujours possible que ces découvertes trop belles pour être vraies échouent à leur industrialisation mais si on y arrive, les conséquences devraient en être considérables, sans parler de câbles supraconducteurs à température ambiante dont la faisabilité paraît quand même beaucoup moins hors de portée par le biais de ces isolants topologiques.

Voir aussi Futura-Sciences.

1 132 vues

L’activité du soleil au plus bas depuis 400 ans

Temps de lecture : < 1 minute

- L'activité du soleil au plus bas depuis 400 ans

Minimum de Maunder

L'activité solaire décline rapidement rendant plus probable (à 70%) qu'on se dirige vers un Minimum de Maunder ce qui pourrait réduire un tout petit peu le réchauffement (par modification des courants de haute altitude à cause des ultraviolets) mais pas jusqu'à provoquer un nouveau petit âge glaciaire qui était d'ailleurs aggravé par des éruptions volcaniques. Combiné avec l'absorption actuelle de la chaleur par les océans (et pourquoi pas d'autres éruptions volcaniques), cela pourrait quand même nous donner un petit répit et un peu plus de temps pour agir. Sauf que le plus probable, c'est que cela retarde au contraire l'action comme on le voit aujourd'hui, et qu'on se retrouve avec un réchauffement brutal quand l'activité solaire reprendra et que l'océan relâchera la chaleur accumulée...

784 vues

La transition énergétique facteur de croissance

Temps de lecture : 3 minutes

- La transition énergétique facteur de croissance

decarbonisation

Les analyses économiques classiques des politiques d'atténuation du changement climatique ont généralement conclu que l'austérité économique résulterait de l'austérité carbone. Ces analyses s'appuient cependant essentiellement sur l'hypothèse d'un équilibre économique faisant l'impasse sur les notions pourtant bien établies d'hétérogénéité des comportements, de dépendance du chemin emprunté et de transition technologique. Ici, nous montrons que, tout au contraire, la décarbonisation du secteur de l'électricité au niveau mondial peut conduire à une amélioration des performances économiques. En modélisant le processus d'innovation-diffusion et de déséquilibre dynamique, nous avons déterminé comment les instruments de politique climatique destinés à la réduction des émissions modifient l'activité économique par le biais des prix de l'énergie, des dépenses publiques, de l'augmentation des investissements et des recettes fiscales. Même si la hausse des prix de l'électricité réduit revenus et production, cela serait plus que compensé par les emplois supplémentaires générés par les investissements dans les nouvelles technologies. Nous insistons sur le fait que les débats en cours sur les effets des politiques climatiques doivent être complètement revus afin de refléter la réalité des dynamiques complexes de l'économie mondiale qui ne sont pas pris en compte par les modèles conventionnels.

La part du solaire me semble très sous-estimée mais l'approche systémique est intéressante et confirme que la transition énergétique devrait être un facteur de croissance (un peu comme une guerre) - à condition toutefois que cela ne se traduise pas par des importations massives et que la transition soit réellement mondiale mais le bienfait économique consiste surtout à ne plus verser son tribut à la rente pétrolière.

En tout cas, cela contredit complètement tous ceux (Jancovici, Cochet, etc.) qui prétendent que l'augmentation du prix du pétrole devrait conduire à une sévère récession sous prétexte que l'économie est dépendante de l'énergie. Reste une question de rythme entre la raréfaction des ressources fossiles et leur substitution par les renouvelables. Sur le court terme, une augmentation du prix de l'énergie devrait quand même avoir un effet récessif avant d'initier des investissements qui inversent la tendance.

energy

1 348 vues

A quoi serviront les montres connectées ?

Temps de lecture : 4 minutes

- A quoi serviront les montres connectées ?
ou La technologie en train de se faire...

On assiste à une véritable avalanche de montres connectées par toutes sortes d'entreprises ne voulant pas rater le prochain marché du numérique complétant smartphones et tablettes/PC.

On peut citer la Samsung Galaxy Gear ($300), celle de Qualcomm, Toq ($300), ou la Sony Smartwatch 2, mais il y a aussi la TrueSmart (véritable smartphone), la Smile (avec deux écrans flexibles et trois caméras), Pebble ($150), i’m Watch pour le sport (250€), sans parler de celles de Foxconn (pour iPhone) et, bien sûr les projets d'Apple et Google mais Nissan aussi veut sa montre connectée... à ses voitures (peu convaincant). Un article du mois de février de Bruce Tognazzini donnait déjà un certain nombre de pistes avant cette déferlante inattendue par sa diversité.

Les enjeux sont considérables pour pour un marché mondial de plusieurs milliards d'individus mais il est intéressant d'assister en direct à l'émergence d'une nouvelle interface, d'un nouvel organe pourrait-on dire plus qu'un outil, en tout cas d'un nouvel objet dans notre quotidien. Ce qui est frappant, et à l'opposé des conceptions habituelles de la technique comme répondant à des besoins préalables et des finalités intentionnelles (ce qui est le cas des voitures autonomes en développement), c'est de voir comme chacun y va de sa propre version explorant les possibles dans un foisonnement qui part dans tous les sens (certains privilégient l'image, d'autres le son ou le sport, etc.). Au fond, et comme pour les premiers micro-ordinateurs, on se demande à quoi cela pourrait bien servir, mais une fois qu'on aura trouvé, on ne pourra plus s'en passer !

Etant donné que les montres connectées n'existaient pas jusqu'ici, il nous paraît évident à tous qu'on peut vivre sans, et l'on pourrait décréter que ce n'est qu'un besoin superflu et artificiel alors que cela a plus de chance de devenir un véritable droit de l'homme (comme alarme de santé par exemple) ! Pour l'instant, ce ne sont effectivement que de simples gadgets comme l'étaient pour Ellul les premiers micro-ordinateurs (alors qu'avec Visicalc ils sont vite devenus indispensables) mais dont on peut dire que "l'existence précède l'essence", la nouvelle capacité disponible cherchant son emploi, simple moment d'une évolution technique qui se fait par essais et erreurs pour n'en retenir après-coup que le meilleur. Cela ne donne pas l'image d'un grand architecte, d'une intelligence sûre d'elle-même conformant le monde à sa volonté mais bien plutôt d'un primitif s'interrogeant sur un nouvel objet tombé du ciel et qu'il ne connaît pas, d'une évolution technique qui ne dépend pas tellement de nous en fin de compte, alors même qu'on apparaît comme ses seuls acteurs, mais seulement des nouvelles possibilités matérielles, impossibles à prévoir à l'avance, et qui nous transforment plutôt dans notre être.

Les smartwatchs font beaucoup parler d'elles depuis le début de l'année et il se peut que les premiers échecs retentissants refroidissent les ardeurs ou qu'il n'y ait pas d'usage unifié, seulement une série d'applications particulières, voire qu'une nouvelle interface rende celle-ci obsolète mais le plus probable, c'est quand même que les montres, plus que les lunettes, s'ajoutent à notre panoplie numérique, nous qui ne savions pas que cela nous manquait et n'en avions même jamais eu l'idée...

819 vues

Détourner des astéroïdes de la Terre avec des lasers

Temps de lecture : < 1 minute

- Détourner des astéroïdes de la Terre avec des lasers

Nous préconisons un train d'impulsions générées par lasers inférieures à la picoseconde pour dévier des objets proches de la Terre (NEO) pouvant entrer en collision avec elle. Nous estimons que dévier un NEO de 10.000 MT, tel que l'astéroïde ayant frappé la Terre près de Chelyabinsk, en Russie, pourrait être réalisable en quelques mois en utilisant une puissance moyenne de l'ordre de dix kilowatts seulement. Nous estimons que cette méthode de déviation serait applicable à des NEO de plus grande taille encore.

674 vues

Et si la gravité fluctuait ?

Temps de lecture : < 1 minute

- Et si la gravité fluctuait ?

Une mesure très précise de la gravité s'est révélée à la fois supérieure aux mesures précédentes et à peu près égale à des valeurs obtenues en 2001, ce qui suggère que la gravité pourrait ne pas être constante mais fluctuer sous l'influence d'un autre champ qui pourrait être celui de l'énergie noire (antigravitationnelle). Cela permettrait éventuellement d'expliquer aussi la matière noire, on voit toutes les conséquences mais, pour l'instant, on en est au stade de la vérification.

1 102 vues

L’esprit vagabond et le langage

Temps de lecture : 8 minutes

- L'esprit vagabond et le langage

L'homme ne vit pas seulement dans le présent : il peut se projeter dans le passé ou le futur, mais aussi dans l'esprit d'autrui. Cette capacité a peut-être favorisé l'avènement du langage.

On peut contester qu'il y aurait eu projection dans un futur éloigné avant le langage narratif et que le langage ne soit qu'un moyen d'expression de capacités déjà là alors qu'il en crée de nouvelles, en donnant une objectivité à l'esprit, et transforme les anciennes. On peut dire que l'article rate l'essentiel de ce qu'il met à jour et qui est la structure narrative de l'imaginaire. Ce que Freud appelait les contraintes de la mise en scène relèvent certes de l'image mais surtout du récit. Il n'empêche que l'importance du réseau cérébral par défaut ne saurait être sous-estimée (étant d'ailleurs rendu responsable par certain de l'Alzheimer). On peut admettre qu'il serve à consolider la mémoire et combiner ses éléments pour imaginer des situations futures mais il utilise pour décrire cet état des expressions aussi explicites que "raconter des histoires". Il est possible que les éléphants se remémorant des temps anciens arrivent à se projeter sur de longues périodes mais c'est douteux, les grands singes aussi proches de nous soient-ils, ne se projettent presque jamais au-delà de leur environnement immédiat.

L'esprit vagabonderait presque la moitié du temps. Dans une telle situation, on pense à autre chose que ce qui est immédiatement perceptible alentour. On peut ainsi s'imaginer en capitaine d'un navire en perdition, se remémorer certains souvenirs, planifier la soirée à venir… Ce vagabondage est fréquent en période d'inactivité, par exemple lors d'un voyage en avion ou d'une insomnie. Les neurosciences cognitives ont révélé qu'il n'était pas inutile et ont clarifié une partie des mécanismes en jeu, en particulier grâce à l'imagerie cérébrale.

Les neurobiologistes ont nommé « réseau par défaut » les zones du cerveau actives durant l'état de soi-disant repos. Ce réseau comprend différentes régions des aires préfrontales, temporales et pariétales, d'habitude qualifiées d'« aires associatives ». La conception du cerveau sous-tendant cette dénomination est assez passive, ramenée à un simple système entrée-sortie : des données pénétreraient dans le cerveau par les aires sensorielles, subiraient une sorte de traitement associatif (à l'origine de la pensée), puis le quitteraient par les aires motrices. La notion de réseau par défaut, actif même en l'absence d'entrées et de sorties, suggère un modèle plus dynamique.

En 1979, D. Ingvar déclare : « En se fondant sur des expériences antérieures stockées en mémoire, le cerveau – l'esprit de tout individu – est automatiquement occupé à extrapoler les événements futurs et, semble-t-il, à établir divers schémas de comportement hypothétiques afin de se préparer à ce qui pourrait arriver. » Ainsi, même au repos, on ne penserait jamais vraiment à rien.

Ainsi, la remémoration et l'anticipation d'un événement activent des zones du réseau par défaut, notamment dans le lobe préfrontal et le lobe pariétal. Ces tâches activent aussi l'hippocampe, une aire cruciale pour la mémoire et située en profondeur dans le lobe temporal.

Ulrich Neisser (1928-2012), psychocogniticien à l'Université Cornell, écrivait : « Se souvenir, ce n'est pas comme écouter un enregistrement ou regarder un tableau ; c'est plutôt comme raconter une histoire. »

Même s'ils sont bâtis avec des éléments réels, les événements futurs sont imaginés, ce qui suggère que le réseau cérébral sous-tendant le voyage mental dans le temps concerne autant l'imaginaire que le réel. Nous sommes des conteurs invétérés.

Une autre forme de voyage mental nous transporte dans l'esprit des autres. La capacité à se représenter ce qu'autrui pense ou ressent est nommée « théorie de l'esprit ». Elle permet d'adapter notre comportement en conséquence. La théorie de l'esprit joue aussi un rôle important dans l'imaginaire et, lorsque nous rêvassons, nous vivons souvent une histoire fictive en adoptant le point de vue d'un des personnages.

La capacité à se projeter dans le temps et dans l'esprit d'autrui est liée au langage. En effet, les capacités verbales sont souvent mobilisées par le vagabondage de l'esprit et les projections dans le temps – bien qu'on puisse aussi se souvenir d'événements passés ou imaginer le futur de façon purement visuelle ou auditive, sans impliquer de langage. Le réseau par défaut abrite d'ailleurs les deux aires principales du langage : l'aire de Broca (responsable de la production de mots), dans le cortex préfrontal, et l'aire de Wernicke (impliquée dans le décodage des mots), dans une région recouvrant le lobe pariétal et le lobe temporal.

« Quelle est la seule chose évidente que nous, les humains, faisons, et qu'ils ne font pas ? Les chimpanzés peuvent apprendre le langage des signes, mais dans la nature, pour ce que nous en savons, ils sont incapables de communiquer à propos de choses qui ne sont pas présentes. Ils ne peuvent pas enseigner ce qui s'est passé il y a 100 ans, sauf en manifestant de la peur à certains endroits. Ils ne peuvent certainement pas faire de projets pour les cinq années à venir. » (Jane Goodall)

On avait vu cependant qu'un chimpanzé pouvait préparer chaque année l'ouverture du zoo en faisant des tas de cailloux pour les lancer sur les visiteurs. Par ailleurs, une étude tente d'expliquer l'émergence d'un langage combinatoire qu'on ne retrouve dans aucune autre communication biologique.

Dans un système de communication combinatoire, certains signaux se composent de la combinaison d'autres signaux. De tels systèmes sont plus efficaces que les systèmes non-combinatoires équivalents, mais en dépit de cela, ils sont rares dans la nature. Pourquoi? Nous présentons ici un modèle dynamique non linéaire de l'émergence de la communication combinatoire qui, contrairement aux modèles précédents, examine comment initialement un comportement de non-communication évolue jusqu'à prendre une fonction communicative. Nous tirons trois principes de base de l'émergence de la communication combinatoire. Nous montrons donc que l'interdépendance entre signaux et réponses donne lieu à des contraintes importantes sur la trajectoire historique par laquelle des signaux combinatoires pourraient émerger, étant entendu que toute autre forme que la plus simple des communications combinatoires soit extrêmement peu probable. Nous soutenons également que ces contraintes peuvent être surmontées si les individus ont la capacité socio-cognitive de s'engager dans une communication ostensible (explicite). Seuls les Humains, et probablement aucune autre espèce, possèdent cette capacité. Cela pourrait expliquer pourquoi le langage, qui est massivement combinatoire, soit une telle exception à la tendance générale de la nature d'une communication non-combinatoire.

- Les mots reliés à leur définition (comme dans le cerveau)

90% du dictionnaire peut être défini en utilisant seulement l'autre 10%.

L'équipe a constaté que la moitié des mots constituent un noyau dans lequel chaque mot se connecte à tous les autres via une chaîne de définitions. L'autre moitié a été divisée en groupes satellites qui ne sont pas liés les uns aux autres, mais ne se connectent qu'avec le noyau (voir schéma).

Cette structure semble bien se rapporter au sens: les mots dans les satellites ont tendance à être plus abstraits que ceux de la base, et un vocabulaire minimal (comprenant 5% du dictionnaire) est toujours constitué de mots à la fois du cœur et des satellites, ce qui suggère qu'il faut à la fois des mots abstraits et concrets pour couvrir toute la gamme du sens.

[cet extrait devait faire partie de la revue des sciences de septembre que je n'ai pas pu finir]

1 615 vues

Quelques raisons pour lesquelles la vie aurait pu venir de Mars

Temps de lecture : 3 minutes

- Quelques raisons pour lesquelles la vie aurait pu venir de Mars

L'hypothèse que la vie sur Terre serait venue de Mars n'est pas nouvelle, Mars ayant été formée avant la Terre, la Terre ayant reçu des météorites venant de Mars et des bactéries ayant pu résister au voyage comme on l'a prouvé. Il ne s'agit donc pas de l'hypothèse de la panspermie (la vie se serait bien créée localement mais sur Mars), ni de l'origine cosmique des matières organiques et acides aminés constituant de la vie (ce qui est par contre à peu près établi) mais seulement de conditions plus favorables sur Mars que sur la Terre pour son apparition.

Tous les êtres vivants sont faits de matière organique, mais si vous ajoutez de l'énergie sous forme de chaleur ou de lumière à des molécules organiques et que vous les laissez à eux-mêmes, ils ne créent pas la vie.

Au lieu de cela, ils se transforment en quelque chose comme du goudron, de l'huile ou de l'asphalte.

"Certains éléments semblent en mesure de contrôler la propension des matières organiques à se transformer en goudron, en particulier le bore et le molybdène, aussi nous croyons que les minéraux contenant ces deux éléments étaient essentiels aux conditions initiales de la vie.

L'analyse d'une météorite martienne a récemment montré qu'il y avait du bore sur Mars, nous croyons maintenant que la forme oxydée de molybdène y était aussi."

Le second paradoxe est que la vie aurait eu du mal à démarrer sur la Terre primitive, car elle était entièrement recouverte d'eau.

Non seulement cela aurait empêché que des concentrations suffisantes de bore se forment - on en trouve actuellement seulement dans des endroits très secs tels que la vallée de la mort - mais l'eau est corrosive pour l'ARN, que les scientifiques pensent avoir été la première molécule génétique à apparaître.

Bien qu'il y avait de l'eau sur Mars, il couvrait des zones beaucoup plus petites que sur la Terre primitive.

L'argument semble quand même un peu faible, pas assez décisif en tout cas. Si des microorganismes martiens ont pu atteindre la Terre, le bore et le molybdène aussi. L'hypothèse d'une "soupe primitive" n'est sans doute pas la bonne, l'origine de la vie dans les sources hydrothermales proches de la surface et des volcans ne nécessite pas de grandes concentrations d'éléments. Dire que l'ARN ne résiste pas à l'eau est bien étrange, le milieu cellulaire étant bien d'origine marine.

S'il fallait vraiment pour une évolution complexifiante la conjonction entre une petite planète aux conditions favorables pour l'apparition de la vie et une plus grosse planète qui en hérite avec des conditions cette fois plus favorables à son maintien dans la durée, cela ferait chuter drastiquement les probabilités de trouver une vie évoluée ailleurs (en tout cas dans notre voisinage).

Voir aussi New Scientist.

978 vues

L’origine du code génétique

Temps de lecture : 4 minutes

- L'origine du code génétique

Les chercheurs se sont concentrés sur les aminoacyl-ARNt synthétases, des enzymes qui "lisent" l'information génétique incorporée dans les molécules d'ARN de transfert et attachent les acides aminés appropriés à ces ARNt. Une fois qu'un ARNt s'est chargé de son acide aminé, il le transporte jusqu'au ribosome, sorte de "table de travail" cellulaire sur laquelle les protéines sont assemblées, un acide aminé à la fois.

Les synthétases procurent aux acides aminés des liaisons chimiques à haute énergie qui accélèrent la formation ultérieure de nouvelles liaisons peptidiques (dont les protéines sont formées). Les synthétases ont également d'importantes capacités de contrôle et de correction (édition), si un mauvais acide aminé est ajouté à un ARNt, l'enzyme dissout rapidement la liaison.

"Les synthétases sont les agents principaux et les arbitres de la façon dont l'information sous forme d'acides nucléiques est traduite en acides aminés".

Ils ont constaté que les parties des synthétases qui transfèrent les acides aminés aux ARNt (et les modifient lorsque des erreurs sont commises) sont plus anciennes que la partie qui reconnait la région de l'ARNt, appelée anticodon, qui est spécifique à chaque acide aminé et destiné à indiquer à la synthétase quel acide aminé doit être attaché à l'ARNt.

"Remarquablement, nous avons également constaté que les parties les plus anciennes des synthétases étaient structurellement analogues à des enzymes modernes qui servent à la synthèse de protéines non-ribosomiques, ainsi qu'à d'autres enzymes qui sont capables de produire des dipeptides".

Les chercheurs font donc l'hypothèse que l'ancien processus de synthèse de protéine (sans ribosome) était assuré par des enzymes ressemblant largement aux synthétases d'aujourd'hui, sans doute en conjonction avec des ARNs.

En se focalisant sur les dipeptides les plus courants dans les protéines actuelles, ils ont trouvé que les parties les plus anciennes des protéines avaient été enrichies en dipeptides avec des acides aminés codés par les synthétases les plus anciennes aussi. Et ces dipeptides primitifs étaient présents dans les régions rigides des protéines.

Les parties qui sont apparues après l'invention du code génétique (en lien avec l'émergence de l'anticodon sur l'ARNt) ont été enrichies en dipeptides présents dans des régions hautement flexibles, au contraire.

Ainsi, la génétique serait associée à la flexibilité des protéines.

"Notre étude donne une explication à la question pourquoi il y a un code génétique", selon Caetano-Anollés. La génétique aurait permis aux protéines "de devenir souples, ouvrant ainsi à tout un monde de nouvelles fonctionnalités moléculaires".

Ce n'est bien sûr pas la seule raison d'un code génétique assurant la reproduction (et l'évolution) mais il est intéressant de voir que la robustesse conférée par l'information génétique, sa rigidité, se "traduit" par une plus grande souplesse des protéines (sinon trop fragiles) ouvrant à de toutes nouvelles fonctionnalités.

L'hypothèse d'un monde ARN précédant l'ADN en sort renforcée, l'ADN ayant représenté une nouvelle étape de la fiabilité de l'information permettant une bien plus grande complexification.

2 107 vues

Vers une théorie mathématique du contenu signifiant des communications

Temps de lecture : 3 minutes

- Vers une théorie mathématique du contenu signifiant des communications

schéma

Malgré l'intérêt évident de prendre en compte le sens, celui-ci a été exclu de la plupart des approches théoriques de l'information en biologie. En conséquence, les réponses fonctionnelles basées sur une interprétation appropriée des signaux ont été remplacées par une description probabiliste des corrélations entre les symboles émis et reçus. Cette hypothèse conduit à des paradoxes potentiels. Les modèles de l'évolution du langage inspirés de la théorie des jeux utilisent cette méthode qui est celle de la théorie de Shannon, mais d'autres approches qui envisagent des agents communicants concrets montrent que la correspondance correcte (significative) résultant des échanges entre agents est toujours obtenue et que les systèmes naturels arrivent évidemment à résoudre le problème correctement. Comment la théorie de Shannon peut-elle être élargie de telle façon que le sens, du moins dans sa forme minimale référentielle, puisse y être correctement intégré ? En s'inspirant du concept de "dualité du signe" entre signifiant et signifié tel que promue par le linguiste suisse Ferdinand de Saussure, nous présentons ici une description complète du système minimal nécessaire pour mesurer la quantité d'information utile décodée. Plusieurs conséquences de nos développements sont étudiées, comme l'inutilité d'une approche quantitative de l'information transmise correctement dans la communication entre agents autonomes.

C'est intéressant car cela sort l'information du quantitatif et de toute proportionnalité au profit du qualitatif où une seule petite information peut déclencher un changement radical, ce que l'approche statistique quantitative masque (un peu comme les sondages) ignorant la spécificité des mécanismes en jeu (des informations pertinentes). Le sémantique est cependant réduit ici au référentiel commun (perception), permettant d'éliminer l'information non pertinente définie comme un "bruit référentiel" (qu'on pourrait dire contextuel?).

Il faudrait tenir compte aussi du fait qu'une information répétée n'en est plus une. Tout cela reste basique mais ouvre un nouveau domaine et pourrait s'avérer utile pour l'intelligence artificielle ou les communications entre robots, pas seulement pour la biologie cellulaire, dont ils sont partis, ou la théorie évolutionniste du langage en fonction du changement de référentiel qu'ils invoquent. Ce qui peut nous intéresser aussi, c'est de voir comme la communication entre agents suppose un monde commun qui n'est donc pas la caractéristique du langage même si celui-ci lui donne une toute autre dimension.

719 vues

Le dégagement du méthane arctique sera bien catastrophique

Temps de lecture : 2 minutes

- Le dégagement du méthane arctique sera bien catastrophique

"Une libération brusque de 50 milliards de tonnes de méthane est possible à tout moment".

Des milliards de tonnes de méthane sont piégés juste sous la surface du plateau continental arctique de la Sibérie orientale. La fonte de la région signifie qu'elle est susceptible de produire à tout moment un dégagement gigantesque de gaz qui pourrait avancer le réchauffement climatique de 35 ans, et coûter l'équivalent du PIB mondial.

Telles sont les conclusions de la première analyse systématique du coût économique de la fonte de l'Arctique.

Ils ont calculé qu'une émission de 50 milliards de tonnes serait possible d'ici une décennie, à partir des zones connues de fonte du permafrost et de failles géologiques. Puisque le méthane est un gaz à effet de serre 25 fois plus puissant que le dioxyde de carbone, un tel scénario devrait déclencher une «catastrophe climatique» avec une augmentation de 12 fois la teneur en méthane de l'atmosphère et une augmentation des températures de 1,3˚C.

Un relâchement de 50 milliards de tonnes de méthane dans l'atmosphère devrait avancer de 15 à 35 ans la date à laquelle la hausse des températures sera supérieure à 2˚C.

Cela fait longtemps que je considère la bombe méthane comme la principale menace, très sous-estimée par le GIEC et la censure des prévisions trop catastrophistes. Ce n'est pas seulement l'effet du réchauffement global mais aggravé par un changement du régime des vents. Alors même qu'on se berce d'illusion avec une apparente pause des températures forcément démobilisatrice, on ne voit pas comment on pourra éviter cette catastrophe annoncée, et c'est à très brève échéance...

898 vues

Pas de thermodynamique à l’échelle nanométrique

Temps de lecture : 3 minutes

- Pas de thermodynamique à l'échelle nanométrique

Il n'y a rien de plus logique que les lois de la thermodynamique ne soient pas applicables à l'échelle atomique dès lors que ce sont des lois statistiques. L'augmentation de l'entropie n'est rien d'autre que la probabilité qu'un ensemble tende vers son état de plus grande probabilité si rien ne l'en empêche, ce qui n'a aucun sens au niveau d'un atome isolé. A ce niveau, on a affaire à l'autre sorte d'entropie liée à la transformation de l'énergie (par frottement, réaction chimique, décohérence, etc.) et qui n'est pas du même ordre que l'entropie statistique. Ce que cette étude montre, c'est que ce type d'entropie est beaucoup plus irréversible que l'entropie statistique, ce qu'ils attribuent à des effets quantiques.

La distinction entre ces deux types d'entropie n'a pas été assez soulignée jusqu'ici, il est bon que cela devienne un problème de physique à l'échelle nanométrique. Les auteurs qui ont essayé de récupérer l'énergie mise dans un moteur nanométrique n'ont pu que constater des pertes bien plus importantes qu'au niveau macroscopique, une plus grande irréversibilité (ce que désigne le mot entropie). Ils en concluent que des moteurs nanométriques seraient forcément très dispendieux en énergie ce qui ne tient pas compte d'autres phénomènes dont on pourrait tirer parti à cette échelle mais disqualifie sans doute les moteurs thermiques à cette échelle.

Les chercheurs ont découvert un ensemble de lois qui déterminent ce qui arrive à ces systèmes microscopiques lorsqu'on les chauffe ou les refroidit. Une conséquence importante de leurs lois, c'est qu'il y a une irréversibilité bien plus fondamentale dans les petits systèmes, ce qui signifie que des moteurs thermiques microscopiques ne peuvent pas être aussi efficaces que leurs homologues plus grands.

Avec les grands systèmes, si vous mettez de l'énergie dedans, vous pouvez récupérer toute cette énergie pour alimenter un moteur qui peut effectuer un travail (comme soulever un poids lourd). Mais les chercheurs ont constaté que ce n'était pas le cas pour les systèmes microscopiques. Si vous mettez en œuvre un système quantique vous ne pouvez généralement pas tout récupérer.

La "Thermodynamique à l'échelle microscopique est fondamentalement irréversible. Ceci est radicalement différent de grands systèmes où tous les processus thermodynamiques peuvent être largement réversibles si on change ces systèmes assez lentement".

750 vues