Francis Bacon, la méthode scientifique contre la connerie humaine

Temps de lecture : 31 minutes

Tenant pour assuré que l'entendement humain créait ses propres embarras et n'usait pas avec modération et justesse des aides véritables qui sont au pouvoir de l'homme, que de là provenait une ignorance infinie des choses et, avec cette ignorance, des maux sans nombre [..] Mais il ne fallait nullement espérer que les erreurs qui se sont imposées et qui continueront de s'imposer éternellement se corrigeassent d'elles-mêmes (si l'esprit demeurait laissé à lui-même). p61

Si nous avons fait quelque progrès dans une telle entreprise, la méthode qui nous a frayé la voie n'a été autre que l'humiliation vraie et légitime de l'esprit humain. [...] C'est ainsi que peu de place est laissée à la puissance et à l'excellence du talent. p71

C'est bien tardivement que j'ai dû me résoudre à reconnaître l'étendue de notre connerie congénitale (au lieu de notre supposé bon sens), et qu'on ne pense jamais par soi-même (malgré l'injonction de la pensée critique), ne faisant d'une façon ou d'une autre que répéter ce qu'on nous avait mis dans la tête (à l'instar des Grands Modèles de Langage). Or, ces constats qui paraissent encore audacieux, sinon insultants au regard de l'humanisme démocratique, n'ont bien sûr rien de nouveaux puisqu'ils sont au fondement des sciences tels que Francis Bacon les théorisait, notamment avec son "Novum Organum" de 1620, dans une époque enfoncée dans l'obscurantisme et les guerres de religions (ranimées aujourd'hui par l'islamisme). Comme on le verra, son combat contre les faux savoirs et nos limites cognitives n'est pas la seule résonance avec notre actualité de cet auteur trop négligé, alors qu'il a été le fondateur du progressisme et des institutions scientifiques. On peut certes lui reprocher bien des choses, et d'avoir péché par trop d'optimisme à faire miroiter un avenir qui n'est pas si radieux. Il n'est pas exempt non plus de conceptions archaïques (sur les femmes notamment), sa pensée étant datée de plus de quatre siècles. Il ne faisait qu'anticiper une science sortant à peine des limbes, et ne pouvait sauter par-dessus son temps - selon son propre principe que "la vérité est fille du temps".

Lorsque Bacon avait dit, de son accent à la fois simple et pathétique, que la logique formelle était plus propre à consolider et perpétuer les erreurs qu'à découvrir la vérité, que le syllogisme liait les intelligences et n'atteignait pas les choses ; qu'il ne fallait plus jurer sur les paroles des maîtres, ne plus adorer les idoles, changer de méthode, pratiquer l'observation, recourir à l'expérience, il avait semé les idées qui quelques cent ans après le "Novum Organum", ont germé, ont levé, ont formé une moisson couvrant toute l'Europe. Paul Hazard, La pensée européenne au XVIIIe siècle

Lire la suite

256 vues

Dialectique cognitive et Intelligences Artificielles

Temps de lecture : 9 minutes

Sur le temps long, le seul progrès incontestable et cumulatif, est celui des connaissances (de la techno-science). Bien sûr, cela ne veut pas dire que tout le monde y ait accès ni qu'il n'y aurait pas des retours en arrière, des savoirs oubliés ou refoulés à court terme avant d'être redécouverts, mais, en tout cas, et malgré ce qu'on prétend, ce progrès objectif est largement indépendant de nous, imposé par l'expérience contredisant la plupart du temps nos croyances. Loin d'atteindre un savoir absolu pourtant, cette accumulation de connaissances dévoile plutôt à chaque fois de nouvelles terres inconnues, si bien qu'on peut dire que l'ignorance croît à mesure de notre savoir qui détruit nos anciennes certitudes et préjugés.

Effectivement, les sciences ne progressent que par la rencontre de faits qui échappent aux théories en cours, obligeant à les reformuler. Ainsi, leurs avancées pas à pas démontrent qu'on n'accède pas directement au réel comme à une vérité révélée définitive devenue transparente mais qu'il y a une dialectique cognitive à l'oeuvre corrigeant à chaque fois la position précédente, la complexifiant par une négation partielle ou par un changement de paradigme qui ne peut être anticipé avant. Cette dialectique cognitive à partir de l'état des savoirs illustre bien qu'il n'y a pas d'accès à l'être, comme le disait déjà Montaigne, il n'y a que des approximations, des approches, comme d'une canne d'aveugle qui va de gauche à droite afin de cerner son objet, tester ses limites (Fichte définit le savoir par la rencontre d'un moi libre qui se cogne au non-moi qui lui résiste). Il y a un dualisme irrémédiable entre le savoir et le réel auquel il doit s'ajuster en tâtonnant, la connaissance n'est pas originelle, immédiate, directe, instinctive, mais s'élabore petit à petit avec le temps, se précise, se complète, se nuance.

Pour les sciences, même les théories les plus établies ne sont donc pas à l'abri d'une réinterprétation totale, comme la relativité a réinterprété la physique newtonienne, sans que cela puisse constituer un aboutissement définitif (problème de la gravité quantique, etc). Aucun argument ici pour les théories les plus farfelues ou spiritualistes contestant les sciences mais, au contraire, pour ne pas se fier à nos convictions et suspendre notre jugement en restant ouvert aux remises en cause par l'expérience de nos représentations (plus que des équations elles-mêmes qui restent vérifiées dans leur domaine de validité). On voit que, ce que l'histoire des sciences implique, c'est bien leur temporalité, tout comme l'évolution du vivant et nos propres apprentissages, entre l'héritage du passé et les découvertes à venir impossibles à prévoir, devant passer comme l'enfant par une série de stades de développement et s'enrichissant au cours du temps. Il n'y a dès lors aucune raison qu'on arrête de progresser et que le temps s'arrête. Si Hegel en avait fait l'hypothèse, c'était seulement pour l'accès à un "savoir absolu" qui n'était en réalité que le dépassement de la religion par la conscience de soi comme produit de l'histoire, et non une totale omniscience impensable pour des êtres finis (même artificiels).

Ceci rappelé rend douteux, en effet, que la situation puisse être complètement différente avec des Intelligences Artificielles, même si elles nous surpassent en tout, pouvant exploiter toutes les données disponibles et accélérer significativement les progrès des connaissances. Elles constituent incontestablement un nouveau stade cognitif avec l'accès au savoir pour tous (après wikipédia), mais on ne peut en attendre une révélation soudaine de la vérité (cachée), une "singularité" dont il n'y aurait plus d'au-delà, comme si le temps s'arrêtait. Certes, répétons-le, les IA devraient produire nombre de nouvelles connaissances ou équations en trouvant des corrélations inaperçues entre domaines éloignés, et pourraient même déboucher sur des théories révolutionnaires dépassant nos idées reçues. Cependant, pas plus que les humains, elles ne pourraient inventer des lois effectives et se passer de l'expérience - comme s'il n'y avait plus de monde extérieur, d'incertitudes, de questions. De même, malgré ses compétences universelles, l'Intelligence Artificielle, bien que nourrie aux meilleures sources, ne saurait tenir le rôle d'un Dieu omniscient et de garant ultime de la vérité. Elle peut tout au plus prendre une place de juge de première instance, peut-on dire, assez fiable et fort utile mais dont on sait qu'il peut se tromper et être désavoué par des juridictions supérieures.

Lire la suite

169 vues

Repenser le langage après ChatGPT

Temps de lecture : 7 minutes

Il y a quelques années encore, on désespérait de jamais pouvoir implanter dans un robot nos capacités langagières tant les agents conversationnels étaient limités. L'échec (relatif) du traitement du langage malgré tout ce que la linguistique croyait savoir, entretenait la croyance dans une essence mystique du langage, inaccessible à notre raison comme aux intelligences artificielles. Les performances de ChatGPT ont permis de résoudre ce dernier mystère de notre humanité (celui du langage qui nous sépare de l'animalité), en dévoilant à l'étonnement de tous son mécanisme de prédiction probabiliste de la suite, éclairant du même coup les raisons pour lesquelles nous ne pouvions pas l'imaginer quand nous réduisions le langage à la logique et la grammaire. Ce qui nous semblait l'essence du langage y serait seulement sous-entendu, sélection par l'usage, et ne nous est pas si naturel sous cette forme de règles plaquées de l'extérieur (ainsi on prendra un exemple avec cheval/chevaux pour savoir si on doit employer le pluriel dans une expression, sans être bien clair avec la règle elle-même). Il nous faut donc réexaminer les théories linguistiques précédentes, de Saussure à Chomsky.

Il semble, en effet, que la critique du rationalisme et du réductionnisme trouve ici une pertinence inattendue car remettant en cause ce qui pourrait être considéré comme les deux péchés originels de la linguistique : se focaliser sur les mots, au lieu de leurs assemblages en syntagmes, et croire que la pensée (parole) était fondamentalement logique et créative (combinatoire) - quand elle est probabiliste et répétitive. L'atomisme du mot (du signifiant) est aussi erroné qu'une supposée parole appliquant la grammaire, le langage se révélant holiste dans sa mémorisation et son usage statistique, que ce soit au niveau du syntagme, de la phrase, du paragraphe, du livre, du groupe, de l'idéologie, de la culture... Le langage procède par formules "qui sonnent bien" ou dictons qui ont un sens que le mot n'a pas en soi car, contrairement à un code, les mots du langage ont presque toujours plusieurs sens, parfois même opposés, le signifiant ne pouvant être réduit à un mot isolé pour avoir un signifié défini. Certes, les grands modèles de langage codent malgré tout des mots mais quand même [depuis word2vec en 2013 et transformer en 2017] comme vecteurs les reliant à d'autres mots ou tout bonnement pré-assemblés dans des "jetons" (tokens).

Lire la suite

277 vues

Evolution et révolutions anthropologiques

Temps de lecture : 25 minutes

- Humanité et langage

Alors que l'avenir de l'humanité est en jeu, aussi bien par les transformations technologiques que par la destruction de ses écosystèmes, il est bon de revenir sur notre préhistoire, et notamment sur la révolution culturelle qui commencerait vers 80 000 ans pour s'épanouir dans le registre fossile vers 40 000 ans. On peut considérer cette période comme notre véritable origine d'Homo sapiens, Homme de Cro-Magnon très semblable à nous, même s'il est resté chasseur-cueilleur jusqu'à il y a 12 000 ans au moins, et pas plus de 6000 ans la plupart du temps, avant de devenir agriculteur-soldat, et depuis seulement deux siècles, salarié de l'industrie et chair à canon. On entre désormais dans l'ère technologique et de l'Intelligence Artificielle qui annonce déjà une forme de post-humanisme aussi bien par rapport à une nature sauvage que cultivée, ce qui pourrait nous transformer presque aussi profondément qu'il y a 80 000 ans ?

Cette émergence de "l'homme moderne" est liée pour la plupart des préhistoriens à l'apparition de la "pensée symbolique" et, plus précisément, à l'émergence d'un langage tel que le pratiquent depuis tous les humains dans leur diversité. La façon dont on caractérise ce nouveau langage dépend des auteurs, mettant en avant ses capacités combinatoires ou symboliques, sa grammaire ou son vocabulaire, mais assez rarement le fait d'accéder au récit, au langage narratif, comme s'il allait de soi qu'un langage avait toujours servi à raconter des histoires. Pascal Picq fait même remonter le récit aux premiers bifaces, et donc à Homo erectus, il y aurait plus d'un million d'années ! Cela ne me semble pas crédible car les petits groupes de l'époque ne pouvaient avoir qu'un langage minimal (animal) et l'apprentissage de la taille des pierres ne se faisait pas du tout par la parole mais par l'observation. Il y a bien des arguments génétiques pour remonter si loin, si ce n'est vers 200 000 ans pour des gènes plus récents, car l'aire de Broca supposée la zone du langage est aussi celle de la mémoire procédurale, indispensable celle-là pour acquérir des méthodes de fabrication. Elles ne sont pas sans rapport et peuvent aisément se confondre.

Lire la suite

387 vues

Conscience animale, humaine et artificielle

Temps de lecture : 13 minutes

Loin de tous les archaïsmes qui nous hantent encore, nous sommes vraiment à un moment historique de notre "conscience de soi", et si presque tout ce qu'on pensait de l'esprit est devenu obsolète depuis le lancement de ChatGPT, quelques unes des théories précédant cette révélation peuvent au contraire s'en trouver confortées, telle cette théorie de la conscience comme mémoire épisodique (de la suite des événements), que j'avais signalée par un tweet en octobre 2022 mais qui vaut qu'on y revienne, alors que, d'un autre côté, l'évolution de ChatGPT semble impliquer non seulement une possibilité des Intelligences Artificielles d'avoir une conscience mais son inévitabilité pour des systèmes d'apprentissage évolués voués à la prédiction de la suite : "le cerveau apprend à être conscient en essayant continuellement de prédire les conséquences de ses actions à la fois sur lui-même et sur le monde extérieur", ce qui donne une forme de conscience du contexte et de soi, y compris aux robots conversationnels capables d'apprentissage. C'est ce que confirme un article s'interrogeant sur "Comment l'IA sait des choses que personne ne lui a dites" - ce qui étonnait même ses concepteurs. Cela viendrait de l'acquisition d'une capacité connue sous le nom d'apprentissage en contexte. "C'est un type d'apprentissage différent dont on ne comprenait pas vraiment l'existence auparavant" bien qu'il suive une "procédure d'apprentissage standard, connue sous le nom de descente de gradient" - sauf que ce n'était pas programmé, le système l'a découvert tout seul.

On verra qu'on peut à peine parler de conscience pour cette sorte de conscience de soi qui participe quand même à l'éclairer comme propriété commune à tout apprentissage (ou réseaux de neurones) aussi bien animale qu'humaine ou artificielle (bien que la plupart des IA spécialisées en soient dépourvus). Cela oblige à redéfinir la conscience, sujette à tous les fantasmes (comme l'Esprit) et à laquelle on a même voulu donner un rôle décisif dans la physique quantique ! Il faut maintenir que notre conscience humaine (la voix de la conscience) comme conscience morale se différencie largement d'une simple conscience de soi animale, mais tout en admettant une nouvelle continuité entre différents niveaux de conscience qui ne se recouvrent pas, depuis la perception jusqu'à la conscience de soi et la culpabilité. Encore une fois, il ne s'agit pas de tout réduire au mécanisme de base des modèles de langage ou de la mémoire comme s'il n'y avait rien d'autre, mais de réduire quand même drastiquement le rôle du sujet humain à constater tout ce qu'on explique sans avoir besoin de lui, ni d'ailleurs d'autres composants indispensables de correction, de validation ou de modèle du monde (qui sont déjà en développement). Les générateurs de langage actuels manquent pourtant non seulement de raison mais surtout de tout ce qui est lié à un corps autonome et son histoire, ce qu'ils pourraient cependant acquérir bientôt par leur incarnation dans un robot mobile ou un avatar qui devront être doués de sensibilité et intégrer une certaine conscience morale...

Lire la suite

254 vues

Ce que ChatGPT révèle de notre esprit

Temps de lecture : 18 minutes

Il est difficile de mesurer à quel point, bien au-delà de leur utilité immédiate, les modèles de langage génératifs comme ChatGPT vont bouleverser nos représentations du monde et donc le changer profondément, religions, idéologies, philosophies devenant instantanément obsolètes. En cela, on peut dire que l'IA va bien détruire les anciennes civilisations mais ce sera par la révélation (si déceptive) du fonctionnement de notre esprit. En effet, partout on répète à foison que ces intelligences artificielles n'ont rien à voir avec notre propre intelligence or il n'y a rien de plus faux.

Certes il est exact qu'elles n'ont aucune conscience ni même compréhension de ce qu'elles produisent et il est indéniable qu'il leur manque plusieurs dimensions de notre psychisme. Il y a d'abord l'absence des dimensions biographiques et morales (un long apprentissage par renforcement et la construction de récits de soi) qui constituent notre véritable conscience personnelle - qui est bien essentiellement une conscience morale impliquant une compréhension de sa situation - mais, de plus, comme on va le voir, il manque au simple niveau cognitif (pour peu de temps encore?) l'indispensable complémentarité entre intuition ou perception et raison (soulignée d'Aristote à Kant) y compris pour la production de langage, la fonction critique de l'intelligence, l'esprit qui dit non, modérant la crédulité et le conformisme de la pensée. Ce dualisme des processus utilisés, un peu comme les "réseaux adverses", est effectivement incontournable pour valider l'insertion de l'information reçue dans une base de connaissances fiable.

Sauf que ces vérifications sont beaucoup moins omniprésentes qu'on ne le suppose dans ce qu'on dit, la plupart du temps très semblable au traitement automatique des modèles génératifs de langage, qui reproduisent d'ailleurs tout autant la connerie humaine, ce qui a été dénoncé dès le début. La fiabilité de wikipédia avait été dénigrée de la même façon, non sans raisons mais sans que cela n'annule les apports considérables de l'encyclopédie (en progrès). Il ne s'agit pas de faire croire qu'on aurait avec ChatGPT une intelligence parfaite, seulement une intelligence au moins aussi imparfaite que la nôtre mais ayant accès à plus de sources. On peut considérer du reste la connerie comme l'inévitable conséquence d'un apprentissage qui n'est pas tiré de l'expérience mais de ce qu'on nous a dit depuis l'enfance, apprentissage forcément servile et dogmatique, lié de plus à nos appartenances, arrivant à nous faire croire au Père Noël. Pas étonnant que cette connerie se soit retrouvée dans les IA précédentes, reprenant toute la connerie humaine telle qu'elle s'exprime abondamment sur les réseaux sociaux - ce qui les avait disqualifiées. Il a donc fallu y remédier (partiellement) par des corrections programmées, pour être simplement utilisables, tout comme on ne peut se passer de modération dans les forums. Cela montre quand même qu'on est loin de l'idéal rêvé et que, comme toujours, il n'y aura pas que des conséquences positives à cette révolution cognitive qui n'est pas immunisée contre toute connerie ni contre son détournement vers des usages dangereux. Non, mais leurs performances remarquables tout autant que leurs faiblesses posent de nouvelles questions à notre compréhension de l'intelligence et de notre propre pensée, décidément devenue sans mystère et débarrassée de cette supériorité qui faisait notre orgueil.

Ce qu'on ne dit pas assez, en effet, voire pas du tout, c'est que l'IA et la neuro-imagerie progressent ensemble depuis l'utilisation des réseaux de neurones. Il vaudrait mieux faire savoir qu'on a ainsi avec ces modèles de langage un fonctionnement à peu près identique à celui du cerveau humain pour traiter le langage, basé de façon très surprenante sur la mémoire à court terme et la prédiction du mot suivant en fonction du mot précédent et du contexte, tout comme ChatGPT, procédure très simple mais qui se révèle étonnamment puissante. On le sait depuis octobre 2021 au moins et j'avais déjà souligné en avril 2022 l'importance de cette nouvelle convergence entre l'Intelligence Artificielle et le fonctionnement du cerveau, mais il faut avouer que cette découverte assez incroyable restait abstraite avant d'avoir pu la tester et avoir constaté les prouesses époustouflantes de ce mécanisme minimal (avant d'en éprouver toutes les limites malgré tout). Pour parler et répondre, il suffirait donc d'appliquer la règle la plus simple qui est de dire ce qui est la norme, le mot qu'on attend de nous, c'est-à-dire trouver le mot le plus probable à dire dans cette circonstance pour compléter les phrases et les conversations. [C'est un peu plus compliqué, il faut ajouter un certain nombre de "réglages fins", en fonction du contexte et de l'expérience, corrigeant des erreurs courantes mais le mécanisme reste bien , comme dans le cerveau, la prédiction du mot suivant]. En tout cas, comme toute découverte scientifique, ce n'est pas du tout une invention humaine, les sciences depuis Galilée contredisant systématiquement nos anciennes théories, déshumanisant notre savoir en l'universalisant, et ce truc qui semble miraculeux n'est encore une fois qu'une imitation du vivant et de ses processus d'apprentissage, consistant neurologiquement à prédire ce qui doit suivre pour comparer ensuite avec ce qui arrive vraiment (prédiction récompensée ou non par la dopamine).

Lire la suite

534 vues

L’irrationalité d’Homo sapiens

Temps de lecture : 26 minutes

Les premiers hommes se sont distingués comme homo faber, par leurs outils, mais autour des 70 000 à 50 000 ans, il n'y a pas si longtemps, et bien après les premiers Sapiens, s'est produite une révolution culturelle à l'origine des hommes actuels et des tribus de chasseurs-cueilleurs tels qu'on a pu les connaître dans toute leur diversité (de langues et coutumes) alors que régnait avant une grande uniformité. Désormais ce qui va distinguer les hommes modernes (semblables à nous), ce sont surtout les signes de leurs fausses croyances, de la pensée symbolique dit-on pour ce qui est pur délire, histoires à dormir debout et mises en scène rituelles. Dès qu'on parle de culture, et non plus de techniques, c'est bien l'irrationnel de mythes invraisemblables qui se manifeste sous toutes sortes de formes artificielles et par la fabrication d'idoles ou d'amulettes, d'objets magiques ou sacrés, jusqu'à des constructions monumentales.

On est élevé, dès les contes de l'enfance, dans l'idée qu'on serait des êtres supérieurs, au moins par rapport aux animaux (mais souvent aussi par rapport aux autres par privilège de naissance). On se voit en maître de l'univers et d'un avenir qui dépendrait de nous, de notre bonne volonté, de notre foi, de notre excellence alors que nous n'arrêtons pas d'échouer, de faire des erreurs et nous montrer malhabiles devant l'inhabituel. En tout cas, selon la tradition, notre supériorité serait dans la raison qui nous permettrait de maîtriser nos instincts et de nous donner accès à la vérité comme à la liberté et la citoyenneté. Nous désigner comme Homo sapiens ou animal rationnel revient effectivement à situer notre supériorité à l'animal dans notre bien plus gros cerveau et dans le travail intellectuel, non dans nos capacités physiques. Cette intelligence supérieure aux animaux est indéniable, de même que notre accès à la rationalité, en particulier la rationalité procédurale dont les outils fossiles témoignent suffisamment mais encore plus le langage narratif et sa logique avec la question de sa vérité ou du mensonge. Pour autant, il n'est absolument pas raisonnable de nous identifier à cette intelligence quand nous donnons le spectacle permanent de notre bêtise (pandémie, guerres, idéologies, religions, etc).

Lire la suite

1 118 vues

Ce que les extraterrestres nous apprennent

Temps de lecture : 12 minutes

Il y a des révolutions cognitives à bas bruit qui passent d'abord inaperçues dans le fracas des actualités, n'étant pas de l'ordre d'une découverte soudaine mais d'un progressif changement de paradigme, de façon de poser les questions.

C'est le cas pour l'existence d'extraterrestres qui est passée du statut de pure fiction plus ou moins délirante, témoignant d'un excès de crédulité, à celle d'hypothèse scientifique de plus en plus fondée au regard des connaissances sur les possibles origines de la vie - dont on retrouve tous les composants dans les météorites - ainsi que par l'évolution animale vers la complexité jusqu'à un cerveau développé dont les capacités cognitives sont de mieux en mieux comprises. Tout ceci ajouté à la détection de planètes "habitables" suffit à rendre incontournable l'hypothèse de la reproduction sur d'autres planètes d'une telle évolution qui n'a aucune raison d'être unique, vie extraterrestre devenue dès lors objet scientifique.

Lire la suite

1 583 vues

La dissymétrie quantique entre droite et gauche

Temps de lecture : 3 minutes

Le modèle standard de la physique des particules est encore un exemple de l'énigme que reste pour nous la matière, prenant la forme d'un tableau où apparaissent des symétries mais incomplètes, comportant des exceptions. Ainsi, toutes les particules sont chargées, sauf le neutrino. Les bosons qui transmettent les interactions peuvent transformer une particule dans une autre (en changeant la charge ou la couleur), sauf le photon qui transmet une impulsion, augmente juste son énergie.

Le plus curieux, et pas assez connu, c'est que les particules se diviseraient selon l'orientation vers la gauche ou la droite de leur rotation ou spin : selon qu'elles tournent dans le sens des aiguilles d'une montre ou dans le sens inverse par rapport à leur direction de mouvement [en fait le spin ne serait pas tant une propriété des particules que de leur fonction d'onde]. Le neutrino se fait là aussi remarquer en étant toujours gaucher (on n'en détecte pas avec un spin vers la droite [ce qui pourrait en faire la matière noire n'interagissant que par la gravité]) de même qu'il n'y a pas de boson W droitier avec pour conséquence qu'il ne peut y avoir de transformation d'un quark up en down, ce qui supprime une interaction possible lorsqu'il tourne vers la droite (et produit plus de up que de down) !

Tout cela me semble extraordinaire mais serait lié au champ de Higgs situé à l'origine de la masse inertielle comme réduction de la vitesse par interaction avec son spin, entre droite et gauche. De plus, par ce champs de Higgs, "le couplage de la particule gauchère à son homologue droitière est ce qui confère une masse aux fermions". En tout cas, c'est ce que le physicien Chris Quigg représente avec le schéma ci-dessus dont il donne aussi une version 3D. Il y a sinon une vidéo.

Lire la suite

1 025 vues

En avant

Temps de lecture : 8 minutes

Non seulement tout le monde connaît et discute de ce qui est là et arrive, de ce qui se passe comme on dit, mais tout le monde s'emploie aussi à parler de ce qui ne doit intervenir que plus tard, de ce qui n'est pas encore là, et même de ce qu'il faudrait faire pour s'y préparer. Chacun a toujours déjà anticipé ce que les autres ont également anticipé et dont il se mettent en quête. Le bavardage s'irrite même, à la fin, que ce qu'il avait pressenti et réclamait constamment se produise effectivement car cela lui ôte du même coup l'occasion de pouvoir continuer à en rêver. Heidegger 1925, p403

Comme la pandémie et la guerre en témoignent abondamment, l'incertitude la plus grande de l'avenir suscite le besoin irrépressible d'en raconter la suite malgré tout, aussi incompétent soit-on. C'est d'autant moins chose nouvelle que ce mécanisme se révèle au principe même du fonctionnement du cerveau et de l'apprentissage, y compris pour l'Intelligence Artificielle (ou apprentissage automatique) qui progresse en validant ou non ses prévisions (on peut même utiliser pour cela ce qu'on appelle des "generative adversarial networks"). Ce mécanisme fait partie d'un nécessaire feedback qui relève plus généralement de la cybernétique, de la correction d'erreurs comme seul accès au réel (qui reste extérieur) et moteur de la dialectique cognitive. Celle-ci progresse inévitablement par l'erreur, dans l'après-coup du résultat indécidable d'avance, et pour cela même occupant l'imagination des suites possibles du récit, au-delà de nos propres intentionalités. Le plaisir musical témoigne même de son lien à la surprise déjouant nos prédictions, à ce décalage qui est le signe du réel.

Le prendre en compte devrait nous amener à réfuter la conception antérieure du futur, comme dimension temporelle assimilée à l'espace, et d'une humanité trop rapidement identifiée à ses finalités et sa projection dans un avenir présenté comme absolument prévisible et avec un volontarisme revendiquant une maîtrise illusoire (paranoïaque), véritable négation de l'histoire. Notre horizon est bien plus limité, non pas à l'instant présent mais à l'instant suivant et son après-coup, pas à pas, activité de l'esprit comme perception qui n'a pas de repos. Si la mémoire à court terme, mémoire de l'immédiat, est le coeur de la conscience, celle-ci sert à en tirer des prédictions grâce à la mémoire à long terme (réseaux de neurones). L'inquiétude de la suite et la tentative permanente de la deviner ou de redresser la barre sont plus fondamentales que le souci pratique qui nous en divertit, ou même de l'ennui qui nous en prive momentanément. On peut appeler cela notre liberté d'esprit et de toujours pouvoir renier ce qu'on croyait faussement jusque là.

Lire la suite

1 292 vues

Les bienfaits des psychédéliques

Temps de lecture : 15 minutes

Alors que la légalisation du cannabis gagne de plus en plus de pays, nos gouvernements qui s'y refusent obstinément se couvrent d'autant plus de ridicule que, malgré leurs rodomontades, jamais les drogues n'ont été aussi disponibles qu'aujourd'hui. On a beau mettre en scène le démantèlement de quelques points de deal vite reconstitués, le marché a bien changé maintenant puisqu'on peut se faire livrer son herbe à domicile par des entreprises de plus en plus professionnelles fournissant des produits standardisés et utilisant toutes les ficelles du marketing. Bien sûr, à la différence d'une légalisation contrôlée, et comme cela a toujours existé dans le marché de la drogue, on vous refile en plus des petits cadeaux que vous n'avez pas demandés, cocaïne, ecstasy, en espérant vous accrocher. On ne fait pas plus contre-productif pour une politique prétendue de contrôle des drogues.

Du moins, la situation est favorable pour compléter l'article sur la dépression en étudiant toutes sortes de psychédéliques (autres que le cannabis qui n'en fait pas vraiment partie), substances ayant prouvé leur capacité de modifier la conscience depuis des millénaires et qui font aujourd'hui l'objet du regain d'intérêt des scientifiques et psychiatres.

Ces molécules opèrent un retour en force depuis le début des années 2000, notamment parce que les médecins ont dû reconnaître que la pharmacopée psychiatrique limitée dans ses mécanismes d'action s'avérait inefficace pour nombre de patients. Depuis, le nombre d'essais et d'indications potentielles va croissant : dépressions résistantes aux antidépresseurs classiques, troubles du stress post-traumatique, addictions voire troubles obsessionnels compulsifs (TOC) ou symptômes anxio-dépressifs chez les patients cancéreux ou en fin de vie…

Lire la suite

1 944 vues

L’espace-temps entre onde et particule

Temps de lecture : 15 minutes

J'avais signalé en novembre 2020 un article de Paul A. Klevgard qui donnait une interprétation ontologique de la dualité onde/particule en fonction de leur existence dans l'espace ou dans le temps, c'est-à-dire sous une forme locale ou non locale. En y repensant, après mon récent article sur la physique quantique, j'ai éprouvé le besoin, là encore sans en avoir les compétences, de revenir sur la notion d'espace-temps qui lie indissolublement l'espace et le temps (par les vitesses ou la gravitation), continuité qu'aussi bien la philosophie que le sens commun ont bien du mal à intégrer, non sans raisons, d'autant plus à y mêler la dualité onde/particule amenant à parler, comme Gilles Cohen-Tannoudji, de "matière-espace-temps". Il s'agit, en effet, de montrer une nouvelle fois ce qui, dans la physique, met en défaut notre entendement ordinaire du simple fait qu'on s'éloigne de ce que l'espace et le temps sont pour nous.

Lire la suite

1 530 vues

Déterminisme quantique, entropie et liberté

Temps de lecture : 17 minutes

J'aime bien Carlo Rovelli et je suis bien incapable de juger ses théories, que ce soit la gravité quantique à boucles ou l'interprétation relationnelle et relativiste de la mécanique quantique, mais si une physique relationnelle le mène à des formulations qu'une philosophie écologique ne saurait renier, rejoignant de très anciennes spiritualités, il vaut mieux sans doute se garder de sauter directement de l'une à l'autre.

Le monde émergeant d’une conception relationnelle de la physique quantique n’est plus constitué d’éléments indépendants avec des caractéristiques spécifiques mais d’éléments dont les propriétés n’apparaissent que par rapport à d’autres éléments. La réalité en devient ponctuelle, discontinue et de nature probabiliste.

L’interprétation relationnelle nous empêche de décrire le monde physique dans sa globalité : on peut seulement décrire une partie du monde par rapport à une autre.

Comprendre que nous n’existons pas en tant qu’entité autonome nous aide à nous libérer de l’attachement et de la souffrance. C’est précisément en raison de son impermanence, de l’absence de tout absolu, que la vie a un sens et est précieuse.

Cette proximité jointe à la difficulté d'adhérer à plusieurs de ses théories (la place de l'observateur, les réalités multiples, la réversibilité mécanique) m'a incité, non pas à le réfuter, ce qui serait d'une prétention ridicule, mais à présenter une conception alternative, me paraissant plus rationnelle, ce qui, on le sait, n'est pas du tout un gage de sa vérification en physique mais peut susciter des éclaircissements.

C'est surtout l'occasion d'essayer de limiter le déterminisme quantique au niveau quantique justement et non aux autres niveaux, notamment celui du vivant, y réintroduisant une part de liberté, certes très limitée mais qui est au moins la part de doute et de réflexion, d'un vouloir tâtonnant tendu vers sa finalité, son objectif.

Dans ce cadre, qu'on ne puisse avoir une conception globale du monde ne tiendrait pas tant au relativisme de la relation (au perspectivisme nietzschéen) qu'à une multiplicité de niveaux, notamment selon les échelles de grandeur ou d'organisation (passage de la quantité à la qualité) laissant place à de nouvelles déterminations (et degrés de liberté).

Lire la suite

3 237 vues

Dernières nouvelles de notre préhistoire

Temps de lecture : 13 minutes

Il faut toujours prendre les dernières découvertes scientifiques avec des pincettes, surtout quand elles contredisent ce qu'on croyait bien établi avant mais, comme je le répète souvent, il n'y a rien qui change plus que notre passé, la préhistoire étant basée sur un nombre de faits assez réduit (contrairement à la physique par exemple, beaucoup plus difficile à prendre en défaut). Ainsi, après la tendance ces dernières années à repousser toujours plus nos origines (notamment l'Homo sapiens à 300 000 ans), deux études les rapprochent radicalement au contraire, bien que sur des temporalités différentes.

La première, étudiant les crânes des premiers Homo (Habilis, etc) depuis 2,6 millions d'années, montre qu'ils restaient très proches de ceux des singes jusqu'à l'Homo erectus à partir de 1,7 millions d'années, ce qui n'est pas si nouveau mais permet maintenant d'établir que les premières migrations hors d'Afrique, qui remonteraient à plus de 2 millions d'années, ont précédé le développement du cerveau. Comme l'utilisation des premiers outils et la bipédie commencent avec les Australopithèques, ce qui particularise les tout premiers Homo, s'adaptant à un changement climatique majeur, serait plutôt, non seulement une bipédie plus exclusive et le recours plus systématique aux pierres taillées mais surtout la construction d'abris de fortune et le début de l'acquisition de l'aptitude à la course (avec sans doute une perte des poils favorisant la sudation ? La plus grande indépendance des forêts que cela donnait, bien qu'ils étaient encore en partie arboricoles, pourrait suffire alors à expliquer leur extension à l'Europe et l'Asie ?). Ils étaient aussi devenu omnivores, commençant à manger de la viande (en charognards) sans être encore vraiment carnivores, alors que les australopithèques étaient presque exclusivement végétariens.

Lire la suite

3 080 vues

Le point sur la dépression, causes et remèdes

Temps de lecture : 19 minutes

L'épidémie de dépressions, depuis le confinement et les mesures de distanciation sociale, manifeste à quel point nous ne nous suffisons pas à nous-mêmes et qu'on est loin de pouvoir se satisfaire de "demeurer en repos, dans une chambre" ni du simple plaisir d'exister. Notre état naturel serait plutôt dépressif et d'un terrible ennui si la vie sociale ne nous divertissait pas de nous-même - ce qu'on peut mettre sur le compte de notre nature d'animal grégaire ou celui d'être parlant. En tout cas, comme on le verra, Alain considérait avec raison que le meilleur traitement des humeurs dépressives serait de parler à d'autres que nos proches, nous sortant de notre enfermement intérieur et de notre complaisance avec notre malheur, ce qui ne veut pas dire que cela suffirait à soigner les dépressions mais expliquerait que, pour la plupart (pas tous), les états dépressifs sont certainement aggravés dans l'isolement.

Cette actualité de la dépression justifie de tenter de faire le point sur cette maladie, une des plus douloureuses et courantes, d'autant plus qu'elle reste, en dépit de progrès récents, relativement incomprise et mal soignée, mais aussi qu'elle reste largement déniée et considérée même comme une maladie honteuse. C'est pourtant une maladie non seulement très répandue mais qui est partie intégrante de la condition humaine et remarquable à combiner les dimensions biologiques, psychologiques, sociales, la façon dont l'état du corps est interprété par les discours, les histoires qu'on se raconte et les représentations sociales.

Ainsi, un peu comme dans l'amour (dont il serait l'envers), où l'instinct sexuel nourrit les idéalisations de la personne aimée, de même le malaise du corps (l'écoeurement digestif par exemple) trouve facilement des raisons à son angoisse et l'écoeurement du monde (il faut voir comme la dépression raisonne d'une raison raisonnante!). Il y a bien à la fois un fondement biologique à la dépression et de bonnes raisons d'être déprimé. L'étonnement serait dès lors qu'on ne soit pas tous dépressifs si la sélection naturelle n'avait été contrainte de s'y opposer, fournissant ordinairement sa dose d'antidépresseurs pour nous faire voir la vie en rose, la dépression étant l'échec de nos antidépresseurs naturels faits pour refouler nos échecs et nos blessures.

Lire la suite

4 295 vues

Les leçons de la préhistoire

Temps de lecture : 6 minutes

Une bonne partie de mon travail aura été de vulgarisation des sciences et des recherches actuelles, donnant accès à des connaissances encore peu enseignées, notamment sur notre préhistoire, et qui sont indispensables pour se faire une idée plus juste de notre monde comme de notre humanité. C'est pourquoi j'ai rassemblé ces quelques textes sur les aspects les plus importants des dernières découvertes paléo-anthropologiques.

Il ne s'agit pas ici de faire preuve d'originalité, ces connaissances étant bien sûr accessibles partout ailleurs avec les moyens actuels, et ces écrits sont sans doute ce qui vieillira le plus à mesure qu'on fera de nouvelles découvertes. C'est toujours le cas pour la préhistoire basée sur de trop rares données, contrairement aux autres sciences, et se trouvant obligée de changer de récit à chaque nouvelle découverte, ce qui fait que, paradoxalement, rien ne change autant que notre passé. Du moins jusqu'ici.

Il est probable en effet qu'on soit arrivé enfin à une représentation plus juste de nos origines multiples et d'une évolution buissonnante, remisant aux antiquités l'ancienne vision trop linéaire et uniforme de la descendance de l'Homme comme développement de son essence. Une nouvelle fois, nous avons dû apprendre que nous ne sommes pas le centre du monde mais que nous sommes le produit de l'évolution technique, tout comme ce n'est pas le soleil qui tourne autour de nous mais bien le contraire !

Lire la suite

855 vues

CRISPR, le Nobel OGM de tous les dangers

Temps de lecture : 7 minutesPour les lecteurs de ce blog, et de son ancienne revue des sciences, il n'y a rien de surprenant à ce que la découverte de l'édition génétique ait été récompensée par un prix Nobel car c'est indubitablement une des découvertes les plus importantes qui soient. En effet, le mécanisme CRISPR-Cas9 utilisé par des bactéries pour se défendre des virus en coupant leur ADN s'est révélé un outil puissant d'intervention sur des séquences du génome, facilitant énormément les modifications génétiques jusqu'à les mettre à la portée de n'importe quel biologiste. Si ce n'est donc évidemment pas le début des OGM, c'est un changement d'échelle considérable qui devrait généraliser les manipulations génétiques, y compris sur notre propre génome (un Chinois l'a déjà fait), pour des améliorations qui seront le plus souvent très utiles mais pouvant constituer tout aussi bien une nouvelle "bombe nucléaire" (s'attaquant à l'ADN du noyau) plus dangereuse encore que la menace atomique.

Il est on ne peut plus logique qu'à chaque fois qu'on augmente notre puissance technique, on augmente le risque de son utilisation destructrice. Emmanuelle Charpentier admet d'ailleurs tout-à-fait que sa découverte pourrait être mal employée mais ce qui renforce l'inquiétude cette fois, c'est que, contrairement à la physique nucléaire, il n'y a pas besoin d'un Etat ni même d'un véritable laboratoire pour qu'un savant fou fabrique un virus bien plus dévastateur que notre coronavirus. J'y vois un risque majeur bien qu'il ne soit pas pris du tout au sérieux, à ce qu'il semble.

Lire la suite

1 406 vues

Les malheurs de Cro-Magnon

Temps de lecture : 12 minutesFrançois Durpaire fait paraître une Histoire mondiale du bonheur très intéressante, montrant l'évolution historique de cette notion de bonheur (qui est d'abord religieuse) en même temps qu'elle permet de retrouver les mêmes débats partout dans le monde, oppositions entre bonheur hasardeux ou mérité, entre Confucius (Maître Kong) et Mozi (Maître Mo), entre Job et protestants. Analyser les représentations du bonheur à différentes époques est certainement très éclairant.

Il est beaucoup plus problématique que Jean-Paul Demoule prétende répondre à la question Cro-Magnon était-il heureux ? Impossible cette fois, en l'absence d'écriture, d'avoir accès à leur idée du bonheur, à laquelle on ne fait que substituer la nôtre. La question n'a effectivement aucun sens sinon de projeter ses propres fantasmes, notamment, comme il le fait, sur une sexualité qu'on ne peut pourtant imaginer libre, prise au contraire dans des lois contraignantes et des tabous organisant les structures élémentaires de la parenté, sans parler des enlèvements et des viols. C'est comme Marylène Patou-Mathis qui projette sur Néandertal ses fantasmes rousseauistes de société sans violence, ou Marshall Sahlins fantasmant sur les sociétés sans Etat, sociétés d'abondance où le travail est minime. Cela lui semble suffisant pour être heureux mais c'est parce que les loisirs sont de nos jours très "valorisés", et le temps libre supposé créatif, épanouissant et non pas terriblement ennuyeux parfois (pour de nombreux chômeurs et retraités ou provinciaux).

Lire la suite

1 281 vues

La cause des pandémies et des virus

Temps de lecture : 9 minutesPourquoi y a-t-il des virus plutôt que rien ? Pourquoi n'y a-t-il pas de vie sans virus, pas d'organisme sans système immunitaire pour s'en défendre mais pas non plus d'organisme qui ne soit infecté par des virus ? Il faut bien une forte raison.

Le statut des virus reste encore très incertain alors qu'ils sont omniprésents depuis l'origine. La question n'est pas de savoir si un virus est "vivant" mais de comprendre qu'il fait partie intégrante du vivant, qu'il en est un élément vital bien qu'extérieur, sorte d'information circulante auto-reproductrice pouvant transmettre des gènes mais régulant surtout les populations. Il y a des épidémies bactériennes comme la peste se substituant aux virus pour coloniser les corps et s'y reproduire mais, contrairement aux bactéries, les virus n'ont aucune autonomie par rapport aux espèces qu'ils infectent, dépouillés de toute la machinerie métabolique pour se réduire à leur reproduction par la cellule qu'ils pénètrent, incarnant ainsi une pure fonction reproductive soumise à la sélection naturelle de l'évolution. Surtout, les virus sont loin d'être un détail marginal du vivant et de simples parasites alors qu'ils sont plus nombreux que les bactéries elles-mêmes ("Les virus sont dix fois plus nombreux que les procaryotes et on estime qu’ils tuent la moitié des bactéries présentes sur Terre tous les deux jours").

Plus on descend dans les profondeurs océanes, plus les virus interviennent dans la mortalité des bactéries. Ils sont responsables de 16% de cette mortalité dans les sédiments côtiers, de 64% entre 160 et 1000 mètres, et de 89% au-delà. (La Recherche no 424, p17)

Ce fait trop méconnu illustre parfaitement leur rôle dans les profondeurs de l'océan : plus les ressources se font rares, plus il y a de virus dont la fonction principale, à l'évidence ici, est de réduire des populations qui deviennent trop nombreuses, évitant ainsi l'épuisement des ressources pouvant mener à l'extinction de l'espèce au sommet de son expansion. Un organisme sans virus qui en régule la reproduction ne fait pas long feu et peut disparaître après avoir tout dévasté (ça nous parle). Les organismes vivants ne sont jamais que les survivants des virus, qui eux-mêmes ne peuvent se reproduire s'ils éliminent tous leurs hôtes à être trop contagieux et mortels. C'est une question d'équilibre, résultat d'une coévolution sur le long terme et d'une sélection écologique (où des espèces peuvent disparaître avec leurs virus, ou des virus s'intégrer au génome, y apportant de nouvelles fonctions favorisant leur survie).

Il est important de bien mesurer le fait qu'un virus est presque toujours spécifique à une espèce, un récepteur (même s'il y a quelques passages d'une espèce à l'autre qui servent d'ailleurs à des transferts de matériel génétique entre espèces, ce qui est très important à l'échelle de l'évolution cette fois). C'est donc bien la densité d'une espèce qui se trouve régulée par les virus, ce qui est un facteur de conservation de la biodiversité en limitant l'explosion démographique d'une espèce par rapport aux autres, favorisant ainsi la complémentarité dans l'exploitation des ressources pour en maximiser la productivité biologique et la durabilité.

C'est à ce niveau de généralité qu'il faut situer la cause des virus et des pandémies, cause bien plus déterminante que la cause particulière de tel ou tel virus, la plupart du temps transmis par des animaux selon des conditions contingentes. Il y a toujours la tentation de trouver un coupable (chauve-souris ou pangolin) et d'idéologiser la question, en faire notamment la conséquence de notre destruction des milieux, intention louable de faire servir chaque catastrophe à une juste cause. Cela occulte cependant la véritable cause qui est la combinaison d'une surpopulation, notamment des mégapoles, avec l'intensification des transports longue distance, notamment par avion. On peut facilement vérifier comme la propagation de la pandémie a suivi les voies aériennes cette fois, alors que c'étaient les navires auparavant qui apportaient le bacille de la peste. Il est inévitable que des virus, en mutations constantes, finissent pas profiter de ces vecteurs de dissémination accélérée. On ne peut rêver s'en délivrer, seulement se préparer à la prochaine et renforcer nos défenses.

Lire la suite

1 221 vues

La science et la vérité

Temps de lecture : 9 minutesBien qu'ayant arrêté ma revue des sciences fin 2018, j'avais continué quand même à suivre l'actualité scientifique jusqu'au mois dernier mais n'y trouve plus assez d'intérêt, devenu trop répétitif, occasion d'en esquisser un bilan. Quand j'ai commencé, on était dans l'excitation d'une attendue convergence NBIC (entre Nanotechnologies, Biotechnologies, Informatique, Cognitif) suscitant toutes sortes de fantasmes qui ont eu le temps de se dissiper depuis, montrant qu'on s'emballe trop facilement alors qu'une découverte n'est jamais qu'à moitié aussi importante qu'on le croyait. Si les nanotechnologies sont partout, ce n'est pas la révolution attendue, pas plus que la biologie synthétique. L'Intelligence Artificielle, dont l'explosion a été sans doute l'événement principal de la période (avec les smartphones), va par contre certainement beaucoup plus bouleverser nos vies, mais si elle a bien fait des progrès spectaculaires avec le deep learning, il semble qu'elle atteint un seuil ne devant pas être dépassé avant longtemps. Surtout, le réchauffement climatique et l'écologie qui étaient ma préoccupation principale étaient sujets alors à des controverses qui n'ont plus vraiment cours, le GIEC ayant bien fait avancer les connaissances qui ne s'affinent plus qu'à la marge, confirmant l'urgence d'une transition énergétique qui est d'ailleurs en cours désormais.

Il serait absurde de prétendre que le progrès des sciences va s'arrêter alors qu'il n'y a jamais eu autant de chercheurs et de travaux publiés mais on est passé sans doute d'un moment d'effervescence et de changement de paradigme, à ce que Thomas Kuhn appelait la science normale, celle des petits pas et non plus des révolutions scientifiques. Le rythme des découvertes n'est pas constant et connaît des accélérations suivies de longues stagnations comme on l'a vu en physique par exemple, où une nouvelle révolution théorique est attendue en vain depuis des dizaines d'années pour résoudre les question fondamentales de la gravitation quantique et de la matière noire, entre autres.

J'évoquais d'ailleurs en 1994, dans mon "Prêt-à-penser", "La structure des révolutions scientifiques" de Thomas Kuhn, ainsi que la théorie des catastrophes, les fractales, les structures dissipatives de Prigogine et la théorie du chaos, qui étaient à la mode à l'époque, promettant des révolutions conceptuelles qui ont été ramenées depuis, là aussi, à des proportions plus modestes bien que restant importantes. Lorsque j'ai intégré le GRIT (Groupe de Recherche Inter et transdisciplinaire), en 2002, je me suis plus focalisé sur la physique, la biologie et la théorie de l'information ou des systèmes, puis de 2005 à 2018 j'ai donc fait une revue mensuelle des nouvelles scientifiques et ce que cela m'a enseigné, c'est surtout l'étendue de notre ignorance, loin de ce qu'on s'imagine de l'extérieur, notamment la nécessité de ne pas avoir d'opinions en science, presque toujours contredites par l'expérience, alors que les réseaux rendent si facile la manipulation des opinions et la diffusion de fausses nouvelles.

Lire la suite

2 078 vues