Théorie de l'information et physique


Je n'ai cité qu'en passant la thèse de Jérôme SEGAL signalée par La Recherche et qui devrait particulièrement intéresser les participants du GRIT puisque son sujet est l'histoire de la Théorie de l'information : 

Théorie de l’information : sciences, techniques et société de la seconde guerre mondiale à l’aube du XXIe siècle
http://www.mpiwg-berlin.mpg.de/staff/segal/thesis/

Une version entièrement remaniée et augmentée est à paraître en 2003, aux éditions Syllepse, www.syllepse.net

J'ai surtout découvert grâce à cette thèse, Léon Brillouin, physicien que je ne connaissais pas et qui est pourtant essentiel pour son interprétation de la physique au moyen de la théorie de l'information.

Voir particulièrement sur l'entropie et l'information :
http://www.mpiwg-berlin.mpg.de/staff/segal/thesis/thesehtm/chap5/ch5b.htm

Son interprétation de l'indétermination quantique est intéressante, liée au coût énergétique de l'information. Alors qu'habituellement l'information se transmet avec des énergies négligeables par rapport à leurs effets, dans le domaine quantique le coût de l'information devient démesuré. Plus on veut mesurer une longueur infime, plus il faut d'énergie.

“La situation est analogue à celle de communications où l’information contenue dans le signal ne décroît qu’à cause du bruit.”

“Un des résultats les plus importants de la théorie de l’information appliquée à la physique est la preuve selon laquelle il est impossible de déterminer l’état d’un système avec une précision infinie”, puisqu'alors il faudrait une énergie infinie.

Brillouin reprend souvent la citation de Gabor, “on ne peut pas avoir quelque chose pour rien, même pas une observation”. C'est un principe qui le mène à des positions très conservatrices et libérales, ce qu'on doit critiquer mais cela n'est pas pour nier l'intérêt du coût de l'information. Simplement il faut investir dans le futur et, comme la nature généreuse, investir souvent en pure perte pour tomber sur la perle qui paiera tous ces échecs d'un progrès acquis pour tous. La nature n'a rien à voir avec la justice comme le savait déjà Job. La dure justice nous mènerait vite à l'extinction devant les agressions extérieures. Le développement humain ne se mesure pas à court terme mais constitue la richesse de la société et sa capacité de production, d'invention et d'échange. Ce qui est faux dans la mesure de la productivité individuelle et de la proportionnalité des gains c'est leur calcul à court terme ne prenant pas en compte le hors-travail, la nature, la coopération, la formation, les infrastructures, l'investissement dans l'avenir. Ce n'est pas qu'on n'a rien sans rien mais, de même qu'il a fallu abandonner la logique du sacrifice (ce n'est pas parce qu'on se fait mal que ça fait du bien, la valeur ne se mesure plus à la peine), il faut abandonner désormais toute proportionnalité dans la production immatérielle et l'individuation. Le domaine de l'information est celui de la statistique et de l'improbabilité. La vie dans sa générosité ne se confond pas avec la physique, la sociologie et l'économie sont bien autre chose, et la morale ou la politique autre chose encore

Reste que l'information a un coût (énergétique et/ou monétaire). Le plus souvent ridicule. C'est ce qui fait toute la valeur de l'information. Dans cette incommensurabilité entre l'importance d'une information et l'énergie dépensée dans son acquisition et sa transmission réside tout le potentiel de la nouvelle économie informatisée. En allant un peu plus loin que Brillouin, on peut définir ainsi une sorte de "plus-value" énergétique de l'information se substituant à la plus-value capitaliste comme moteur de la création de richesse d'une économie cognitive. L'économie d'énergie d'une information peut avoir une efficacité sans commune mesure avec une optimisation mécanique ou l'intensification de l'exploitation. Le savoir devient le véritable pouvoir, "décisif". Brillouin parle de "l'efficience d'une expérience, par le rapport entre l'information acquise sur le coût entropique".

“Toute la vie moderne repose sur la possibilité de multiplier les informations pour un prix minime”.

C'est donc en 1953, un des premiers à avoir compris l'enjeu économique de l'informatique naissante à laquelle il a participé (conception des mémoires notamment). Physicien avant tout, Brillouin explore plus généralement les conséquences de la théorie de l'information dans les phénomènes physiques comme la gravitation interprétée selon le point de vue du signal/bruit avec une pertinence certaine. Il faut savoir que l'unification des forces électromagnétiques avec la gravitation (théorie du Tout) assimile les différentes interactions dont la portée (distance d'action) est fonction du brouillage introduit par les autres interactions environnantes.

“ Même si les ondes de gravitation sont d’une énergie très petite, notons que la valeur absolue de cette énergie n’est pas la quantité significative. Ce qui est important c’est le rapport signal à bruit. ”

Il faut revenir à la question politique qui est celle de la régulation des systèmes auto-organisés, question cruciale dans la médecine, l'économie et l'écologie et pour laquelle on ne peut accepter des principes trop simplistes (ne pas se soigner ou faire n'importe quoi). Segal souligne les liens des théoriciens de l'information avec la droite (eugénisme), le libéralisme (Hayek), voire des sectes comme la scientologie. Il est certain que le concept d'auto-organisation peut mener à une mystique du laisser-faire rejetant toute tentative de régulation mais on peut considérer que c'est une théorie contradictoire car, d'une part en voulant imposer le laisser-faire, elle ne nous laisse pas faire, et d'autre part en rejetant toute régulation elle renie ce qui permet justement l'auto-organisation, et la conscience de soi voudrait nier l'intervention de la conscience à l'origine de toute théorie pourtant, le rôle de l'apprentissage et de l'adaptation. Finalement, ces théories de l'information viennent à nier le concept d'information qui doit mener à une décision. C'est bien sûr un point qu'il faudrait plus développer, la critique du dogmatisme et de l'étatisme doit dépasser la sophistique libérale par une recherche philosophique et démocratique qui devra concilier l'autonomie de la personne avec la construction collective de notre avenir commun. Les problèmes de régulation et d'information sont au coeur de la question politique comme de tout pilotage, même si la politique ne peut se réduire au système, il faut y introduire en premier lieu la question de la reconnaissance et de la dignité humaine, ne pas rester à un niveau unilatéral, réductionniste et technicien.

L'histoire de la théorie de l'information ne se limite pas à Léon Brillouin, loin de là, et passe en revue les principaux apports des théoriciens de l'information, du moins au niveau mathématique et physique. La biologie est très sous-estimée mais l'ensemble est très riche sur le plan scientifique, avec des avancées plus récentes :

http://www.mpiwg-berlin.mpg.de/staff/segal/thesis/thesehtm/chap9/ch9c/ch9ctxt.htm

Robert Stetson Shaw (né en 1946) est parmi les plus intéressants. Pour lui l'information "mesure la surprise d'une occurrence". Il précise le rôle du "bruit" dans les phénomènes chaotiques, bruit qui est structurant par sa pression constante et non par sa variabilité aléatoire.

Ainsi la propriété de sensibilité aux conditions initiales se trouve-t-elle tout à fait secondaire dans la définition des phénomènes chaotiques : cela “obscurcit le trait essentiel de la turbulence qui est la génération continue d’information intrinsèque au flux lui-même.”

Sur le plan épistémologique, à la distinction entre déterminisme et prévisibilité il ajoute celle entre déterminisme et réversibilité, montrant qu’une évolution tout à fait déterminée n’implique pas la réversibilité si la quantité d’information produite est suffisante. Le déterminisme laplacien est donc non seulement battu en brèche par les résultats de la mécanique quantique mais aussi par les phénomènes chaotiques qui créent de l’information.

“Des limites sur la prévisibilité impliquent une perte d’information et justifie que l’on se tourne vers le formalisme et les concepts de la théorie de l’information. (…) Un des buts principaux de cette publication est de démontrer, à l’aide d’exemples, comment on peut prendre un flux de données issues d’expériences physiques et calculer des quantités telles que a) la quantité d’information qu’un système est capable de garder ou de transmettre d’un instant de temps au suivant, et b) le taux de perte de l’information.”

Parmi beaucoup d'autres citations, il en est que je désapprouve dans leur extrémisme :

Rothstein (1951) “ (…) toutes les lois physiques deviennent des relations entre des types d’information, ou des fonctions d’information rassemblées ou construites selon diverses procédures. ”

Car je pense qu'il faut maintenir la distinction de la pensée et de l'être, du savoir et du réel. L'information implique l'extériorité et l'improbabilité de l'existence. La matière physique se manifeste par sa résistance qui l'oppose à la transmission de l'information. On ne peut pas confondre non plus une force énergétique, force de symétrie se caractérisant par sa quantité, son poids qui n'a rien à voir avec sa rareté qualitative, et ce qui fait la valeur d'une information. Je préfère donc la constatation suivante :

Ashby  : pour qu’un système reste dans un petit nombre d’états dits acceptables, il doit disposer d’un nombre de réponses d’autant plus élevé que les perturbations auxquelles il peut être soumis sont diversifiées

Un système soumis au bruit, aux agressions, au changement, développe une plus grande stabilité et adaptabilité que des systèmes isolés et figés. Il vaut mieux qu'un système immunitaire soit exposé aux germes pathogènes plutôt que de vouloir éviter toute contamination. Pour Simondon c'est la problématisation qui provoque une individuation, comme pour René Thom c'est le stress de la contrainte extérieure qui produit la singularité.

Je ne peux reproduire toute la thèse qui se termine par les nouvelles applications quantiques de la théorie de l'information, basées sur la propriété quantique de deux états superposés qui peuvent être transmis en une seule opération.

“La découverte selon laquelle la physique quantique permet des modes de traitement de l’information fondamentalement nouveaux a rendu nécessaire le remplacement des théories existantes du calcul (Turing) et de l’information (Shannon) par leurs généralisations quantiques.”


17/11/02
Jean Zin - http://jeanzin.fr/ecorevo/grit/informat.htm


Information, biologie et régulation

Comme toujours lorsqu'un nouveau paradigme scientifique s'impose, (l'information ici après la matière et l'énergie), son extension a tendance à devenir trop générale, dogmatisme ou impérialisme menant à des applications à l'évidence illégitimes. Comme dit Hegel, un parti se prouve comme vainqueur en se divisant, c'est-à-dire en réussissant à combattre en lui-même l'ennemi vaincu à l'extérieur. Après avoir éprouvé l'universalité du concept d'information, il convient donc de le spécifier, le limiter rigoureusement (coupure épistémologique). On peut tirer parti de la révolution informationnelle et linguistique sans tout réduire pourtant à une nuit où toutes les vaches sont noires.

- L'enjeu politique de la théorie de l'information

Nos sociétés subissent une mutation majeure encore mal comprise. Nous sommes submergés par l'information, les réseaux et les technologies numériques qui ont profondément transformés nos vies et les modes de production, accélérant la mondialisation et modifiant les questions politiques, notamment la question des régulations. La domination des marchés et le néolibéralisme que nous subissons depuis 25 ans, ne sont pas le retour au libéralisme originel, comme on le croit trop souvent. La théorie de Hayek, qui sert de référence depuis l'échec des politiques de régulation keynésiennes (sombrant dans la stagflation après la crise pétrolière), différe profondément des anciennes théories néoclassiques de l'équilibre et de l'optimum puisque le néolibéralisme se construit sur le caractère imparfait de l'information et non plus sur l'hypothèse d'une concurrence parfaite. Ce caractère imparfait de l'information, rencontré depuis toujours par le renseignement militaire, va de la simple dissymétrie de l'information, à la rationalité limitée jusqu'à la théorie des jeux (stratégie) et au marketing (propagande). C'est au nom de cette théorie de l'information et de l'auto-organisation, de la complexité et de l'ordre spontané "naturel" que toute régulation est assimilée au totalitarisme ("La route de la servitude", "La présomption fatale ", ouvrages de Hayek voulant nous persuader que nous ne pouvons comprendre notre monde, encore moins le diriger). Il nous faut montrer le paradoxe qu'il y a à se servir du concept d'information (certes imparfaite) pour nous persuader qu'on ne pourrait tirer aucune conséquence d'informations répétées sur les désastres annoncés, ni donc corriger notre action à temps. De même c'est au nom de la liberté qu'on prétend ne pouvoir rien faire (There Is No Alternative disait Tatcher qui se référait tout le temps aux théories d'Hayek). Cela nous semble contradictoire puisque l'information suppose la rétroaction, et la liberté (du citoyen) l'action (politique).

Les conséquences d'une mauvaise compréhension de la portée des concepts d'information et de régulation sont considérables, aussi bien sur le plan politique (biopouvoir et libéralisme) que médical économique, écologique, scientifique, se traduisant dans la pratique effective des régulations sociales. Une meilleure compréhension de ces concepts semble bien nécessaire pour fonder une régulation souple et vivante basée sur l'autonomie, d'autant plus que c'est seulement par l'information que peut se tisser au niveau planétaire une coopération sans violence.

- Références et orientation des recherches

L'histoire de la "théorie de l'information" (voir http://www.mpiwg-berlin.mpg.de/staff/segal/thesis/) suggère que la confusion entre "ordre naturel" et régulation s'origine dans la confusion du signal physique et de l'information biologique, confusion qu'on retrouve entre les phénomènes analogiques et numériques comme dans l'assimilation pure et simple de l'information à l'entropie. Les travaux de Laborit ou Rossi qui ne sont pas pris en compte dans la thèse citée, peuvent nous servir à opposer le caractère spécifiquement biologique de l'information et des régulations par rapport aux phénomènes physiques de transmission, d'entropie, de rapport signal/bruit et d'auto-organisation.

- Argument

L'important, en effet, semble de bien distinguer la communication et l'information elle-même, ce qui relève d'un flux continu analogique (Wiener) et ce qui relève de l'information discontinue numérique (Shannon). Les deux notions ne sont pas sans rapports, bien évidemment, et partagent notamment les problèmes de l'entropie et du bruit. On peut déjà remarquer cependant que du côté des processus continus on a affaire à une perte, une diminution du signal, son brouillage, alors que du côté de la transmission numérique ce qu'il faut traiter c'est l'erreur, avec beaucoup moins d'entropie grâce aux corrections d'erreur par redondances cycliques (CRC). La véritable révolution est numérique, comme chacun le sait aujourd'hui. Le caractère discontinu de l'information est ce qui lui donne son caractère signifiant, décisionnel, par sa capacité à déclencher une réaction conditionnelle, mais aussi sa capacité à se reproduire à l'identique. Pour transmettre une information numérique on a besoin pourtant d'une porteuse continue (ou quasi-continue) sur laquelle se découpent les éléments significatifs selon un codage de l'information en unités discrètes (phonèmes ou bits). Il y a donc bien une théorie de la transmission du signal qui est l'application de l'entropie à la communication. Cette théorie du signal est fondamentale par elle-même puisqu'elle concerne aussi la portée des forces physiques qui ne sont pas infinies et ne se propagent pas dans le vide mais traversent un univers bruyant, agité et perturbant, le rapport signal/bruit diminuant toujours avec la distance (on peut même interpréter la matière comme défaut de transmission de l'énergie, défaut de communication des forces de symétrie, brisure de symétrie qui semble se répéter fractalement à tous les niveaux de stabilité. Le bruit serait ainsi la cause de la matière, de l'improbabilité et de la forme). Un bruit de fond peut aussi par sa permanence structurer des phénomènes dynamiques instables.

La théorie de l'information est tout autre chose, théorie statistique de l'improbabilité et de la redondance (quantité d'information) mais surtout théorie de l'adaptation, de la sélection, de la décision, de l'apprentissage, de la signification, de l'erreur, de la correction, du pilotage, du vivant et du langage. On ne gagne rien à mélanger les deux théories même si la théorie de l'information doit inclure la théorie de la communication, comme la biologie doit se construire sur la physique et la chimie. Il faut distinguer la réaction mécanique de la rétroaction biologique. L'information est complètement liée à la biologie. Pour Rossi "la vie est une qualité de la matière qui surgit du contenu informationnel inhérent à l'improbabilité de la forme". Grâce à l'information il y a non seulement beaucoup moins d'erreurs mais une portée sans commune mesure de la communication et de sa reproduction, une persistance de la vie, son foisonnement, son évolution, sa complexification malgré l'entropie physique et l'indétermination quantique ou phénoménale. Les mondes physique et biologique s'opposent complètement même si un signal continu peut constituer une information pour nous (une mesure discontinue) et que l'indispensable indétermination du monde est bien d'origine physique. Pas d'information, en effet, sans indétermination puisqu'une information se définit par la réduction de l'incertitude, mais pas d'information sans rétroaction non plus, souvent imprévisible, orientée vers une fin, une régulation. En effet, l'information n'existe pas sans récepteur pour lequel elle prend sens. L'information c'est la contingence, la liberté, l'intériorité, le savoir, la décision, la rétroaction, l'intentionnalité, le désir, le projet, le sens, l'existence, l'organisation, la vie alors que la communication tout comme les systèmes dynamiques sont du domaine des causes mécaniques.

Ces précisions doivent permettre de comprendre qu'il n'y a de véritable information, feed-back, rétroaction, qu'au niveau d'une régulation d'origine biologique, d'une réaction conditionnelle (qui peut être biochimique, individuelle, sociale ou automatisée). La biochimie est une chimie conditionnelle, liée à des récepteurs spécifiques, et comparable dans le principe au fonctionnement d'un transistor ou d'un servomécanisme auto-correcteur. On ne peut mettre sur le même plan la régulation des flux d'un bassin par équilibration hydraulique et la régulation systémique d'un organisme, inséré dans son environnement, par circulation d'informations chimiques ou symboliques. Assimiler l'équilibre de marchés prétendus auto-régulés à une régulation biologique revient à nier le rôle de l'information et de la rétroaction inséparable de tout phénomène vivant. Les notions d'auto-organisation et de régulation sont un enjeu politique essentiel dans de nombreux domaines : économie, écologie, médecine, etc. Ce pourquoi il est crucial de distinguer les phénomènes dissipatifs, stabilités dynamiques spontanées mais purement mécaniques, d'une vie orientée vers sa perpétuation, habitée par le dur désir de durer, capable d'apprendre et de maintenir son homéostasie.
 
Il ne suffit pourtant pas de séparer théorie (physique) du signal et théorie (biologique) de l'information, il faut encore comprendre ce qui les rend inséparables et cause leur confusion. On a vu que la théorie de l'information devait inclure la théorie du signal comme la biologie doit se construire sur des lois physiques et chimiques, mais la physique elle-même dépend de la théorie de l'information, en tant qu'activité cognitive dépendante de la mesure et du langage, de la notion d'événement, de catégories a priori, d'un système de représentation (d'une grille de lecture), même si elle s'applique à des flux continus. La théorie de l'information s'applique donc bien à la Physique aussi, selon une perspective kantienne, phénoménologique ou constructiviste, mais on ne peut réduire pour autant une chose à sa représentation, ni la matière à l'information comme certains ont tendance à le faire. Le caractère corpusculaire et discontinu des quanta, manifeste dans le rebondissement de la lumière sur un miroir, n'est pas l'effet du caractère discret de l'information mais bien de l'énergie elle-même. On peut tirer parti de cette analogie entre quanta et information pour concevoir des ordinateurs quantiques sans confondre les deux phénomènes. Tenir compte de l'interpénétration de la pensée et de l'être ne doit pas tomber dans l'idéalisme ou le matérialisme qui les confondrait. Toute matière a une forme, toute forme une matérialité, mais la forme n'est ni matière, ni énergie, elle est relation et durée. Comme la matière pourtant, et malgré son apparente ubiquité, l'information a toujours un lieu, un positionnement dans l'espace et le temps, car elle est toujours liée au contexte, aussi bien du côté de l'émetteur que du récepteur.

Distinguer dans la communication ce qui relève de la transmission ou de l'information est un préalable, même si ce n'est pas toujours facile. Dans l'information, définie par son improbabilité, il faut distinguer aussi ce qui relève de la grammaire (code, média, redondance improbable, signifiant), de la sémantique (émetteur/récepteur, contexte commun, interrogation, commande, signifié) et de la pragmatique (précision,  pertinence, efficience, émotion, décision, réaction conditionnelle, sélection, correction, signification). Là encore il faut prendre garde à ne pas mettre au même niveau ce qui relève du langage ou de la communication biologique. La parole ne se réduit pas à une boucle de régulation. Avec le langage une nouvelle rupture s'opère, un changement de niveau, basé certes sur l'information, comme le biologique est basé sur la chimie, mais comportant son efficace propre, imposant ses structures à nos représentations ainsi que son exigence d'universalité et de réciprocité tout en apportant une bien plus grande souplesse et inventivité, l'histoire accélérant considérablement l'évolution.

- Conclusion

Sans confondre la société avec un corps, on peut du moins réfuter le libéralisme, le laisser-faire, l'individualisme sans système social ou biosphère, et ceci tout autant que le totalitarisme volontariste et violent outrepassant nos limites et détruisant la complexité des équilibres et des différenciations locales. Les règles d'une bonne gouvernance impliquent sans doute de mobiliser des citoyens autonomes sur des objectifs partagés et de mettre en place des régulations prudentes mais décidées. S'il faut connaître la limite de nos pouvoirs, ce n'est pas pour ne rien faire mais pour donner à nos remèdes un peu plus d'efficacité. L'imperfection de l'information oblige à corriger le tir en permanence grâce à de nouvelles évaluations. C'est le principe même des régulations, de la rétroaction, du thermostat. Pas d'action sans évaluation ni contrôle, ce n'est certes pas le plus facile. Il faut donc opposer une systémique "de gauche", des finalités humaines préservant notre avenir, aux théories de l'équilibre naturel, d'un progrès subi, d'une course en avant sans direction ni limite, d'un libéralisme ne profitant qu'aux plus favorisés et qui n'est pas durable, livré à une entropie galopante. Si l'information a un sens, c'est de conduire à l'action et sa correction afin de permettre une régulation conforme à nos objectifs et se protéger de l'extérieur. Il n'y a pas de marché sans Etat ni régulations, jamais. L'information est toujours imparfaite mais on ne peut l'ignorer pour autant, se réfugier dans l'inconscience et l'irresponsabilité, comme nos modernes sophistes, sous prétexte qu'on peut toujours se tromper. On ne peut se fier non plus, et pour les mêmes raisons, à une gouvernance extérieure par de prétendus experts, à une gestion technique des populations, dont il faudrait au contraire développer l'autonomie, la réactivité pour mobiliser l'action au service d'objectifs construits démocratiquement et corrigés sans cesse face à leurs dérives ou à leurs effets pervers, aux réalités locales ou bien aux urgences du moment.
 
Enfin, il faut être conscient que malgré la formidable efficience de l'information par rapport à l'optimisation énergétique ou l'intensification de l'exploitation, on doit s'attendre à rencontrer, comme dans la physique des hautes énergies, une limite à cette efficience et un épuisement de l'information au-delà d'un certain seuil (trop d'information tue l'information). On peut parler d'un coût croissant de l'information. La loi des 90-10 (ou 80-20) énonce qu'il faut 10% du temps pour avoir 90% de l'information et donc 90% du temps pour obtenir les 10% restant. On peut même dire que ce coût est exponentiel lorsqu'on s'approche des 100%. L'information sera toujours ce qui manque mais il est donc probable que la plus-value informationnelle n'aura qu'un temps. Nous sommes dans une période intermédiaire, une transition de phase qui ne durera pas très longtemps. Impossible de prédire la suite, nous avons assez à faire à essayer de comprendre notre actualité, mais la fin de l'histoire n'est certes pas en vue !

23/11/02
Jean Zin - http://jeanzin.fr/ecorevo/grit/informat.htm

Index