Je suis supposé vous présenter l'histoire de la théorie
de l'information mais à voir l'épaisseur de la thèse
de Jérôme Segal sur le sujet il est bien évident qu'en
dix minutes je ne peux en donner qu'un faible aperçu. Pourtant le
concept d'information, c'est un peu le secret de notre monde actuelle.
C'est un concept qui a de nombreuses conséquences dans la physique,
la biologie, l'économie, la politique, la philosophie, la robotique
mais bizarrement il n'a pas encore répondu à ses promesses.
Ce qui domine, en effet, dans tout le mouvement autour de la théorie
de l'information, mouvement dont le GRIT prolongeant le groupe des dix fait
partie intégrante, c'est la déception par rapport à
ce qu'on pouvait en attendre. D'ailleurs, il y a eu beaucoup de conférences
où les intervenants faisaient part de cette déception.
Alors ce que voudrais essayer de vous faire sentir c'est pourquoi ça n'a pas donné ce qu'on pouvait en espérer. Il me semble que cela vient de la confusion entre l'information au niveau biologique et ce qui peut y correspondre au niveau physique. Cette confusion entre les deux notions physique et biologique est d'ailleurs à l'origine du néolibéralisme de Hayek par exemple, ce qui a donc des conséquences politiques assez importantes, même si ce n'est pas évident à première vue.
Avant d'en venir aux origines de la théorie de l'information et de voir d'où vient cette confusion, je vais énoncer de manière un petit peu rapide quelles sont, à mon avis, les caractéristiques essentielles du concept d'information, afin de montrer en quoi ce n'est pas compatible avec une notion physique comme l'énergie notamment même s'il y a des physiciens actuellement qui veulent tout réduire à l'information. Par exemple ils vont dire que lorsque deux forces se rencontrent, il n'y a pas deux forces, il y a deux informations qui effectuent un calcul et que le résultat de ce calcul donne d'autres informations. Moi je trouve cela absurde.
L'information se définit en effet par son improbabilité, sa singularité aussi bien physique que sémantique. Une simple répétition ne constitue pas une information. Un signal (comme une sonnerie) apparaît toujours en se détachant d'un fond. L'information se caractérise donc par une discontinuité, à l'opposée d'une force continue.
La valeur d'une information étant d'apporter une réduction de l'incertitude (ou la visibilité de l'invisible), cela implique qu'il y a toujours de l'incertitude et qu'il y a toujours de l'improbable, et donc que toute information est imparfaite et doit toujours être corrigée. C'est ce que réalise un thermostat et il faut bien comprendre l'opposition entre une régulation et une programmation mécanique. Vous ne savez pas combien vous aller utiliser de gaz ou de fuel pour vous chauffer. Vous auriez pu programmer : « Je vais utiliser tant de fuel par minute ou par heure ». Au lieu de cela, vous mettez la température désirée et vous avez certes le risque de consommer plus que ce que vous vouliez, mais vous avez beaucoup plus de chances malgré tout de consommer moins que si vous vous étiez contenté de programmer le débit sur moyen ou fort comme sur les appareils dépourvus de thermostat.
Non seulement l'information, est improbable, discontinue et lève une incertitude tout en étant imparfaite, exigeant des corrections incessantes, mais surtout, il lui faut un récepteur. C'est-à-dire qu'il n'y a pas d'information en soi. L'information n'est pas un concept simple, on ne peut pas dire « c'est une caractéristique de tel objet » puisque c'est le récepteur qui la constitue comme telle. L'information est un élément d'un ensemble reliant émetteur et récepteur.
Enfin on peut dire aussi que ce qui caractérise l'information c'est d'être le signe d'autre chose. Ce n'est pas toujours évident et on n'a pas le temps d'en discuter en détail, mais le fait que l'information soit le signe d'autre chose est primordial puisque cela montre qu'on ne peut avoir qu'un rapport indirect aux choses, ce qui veut dire que le monde, par rapport au récepteur de l'information, est toujours transcendant. On n'y a pas accès directement. Ce qui peut sembler un défaut se révèle au contraire comme la puissance même de l'information. C'est le fait de renvoyer à autre chose qu'elle-même qui va la rendre productive. L'énergie ne peut se reproduire elle-même alors que le fait de pointer avec l'information sur quelque chose d'autre va permettre sa reproduction sans dépenser d'énergie ou presque. C'est une caractéristique cruciale de l'information puisqu'elle est à la base de la vie. Il faut que l'ADN puisse se reproduire, sinon il n'y aurait pas de vie. Or pour qu'il puisse se reproduire, il faut que ce soit à la fois une structure discrète (qui n'est pas continue) et qu'il y ait des mécanismes de corrections d'erreurs. C'est la grande différence entre un signal (une énergie) et l'information qu'il porte. En effet, le signal physique va être brouillé par le bruit et va perdre de son énergie. On pourra toujours le réamplifier après mais il y aura toujours de la perte, de l'entropie. Quand on est dans l'analogique, on n'a jamais une reproduction totale alors qu'avec le numérique (et l'information en général) on peut avoir une reproduction absolument parfaite, non pas parce qu'il n'y aurait plus d'entropie du tout, mais grâce à la correction d'erreur permise par une redondance de l'information.
On voit bien que l'univers de l'information et de la reproduction ne peut
absolument pas se confondre avec celui de l'énergie et de l'entropie,
mais ce qui achève de les opposer c'est le caractère disproportionné
entre une information et ses effets. En effet, ce qui caractérise
l'énergie ou la force c'est la proportionnalité entre la cause
et l'effet alors que vous pouvez avoir une toute petite information qui
change tout. Vous pouvez avoir un courant très faible qui va commander
une énorme puissance électrique. C'est à chaque fois
un effet de seuil binaire. L'effet peut être zéro mais l'effet
peut être aussi de tout changer. Ce qui veut dire aussi qu'un petit
groupe, ou une minorité, peut tout changer, voire une seule personne.
On n'est plus dans un rapport de force comme on a coutume de le penser dans
la société de l'énergie.
Il y a de quoi s'étonner des confusions qui perdurent encore entre ce qui relève de la physique et ce qui relève de l'information. Pour le comprendre il faudrait revenir sur les trois sources du concept scientifique d'information (alors que la notion d'information existait déjà bien avant, que ce soit dans la police, l'exploration de nouvelles contrées, voire la médecine, mais elle était difficilement mesurable).
Le concept d'information s'est d'abord imposé dans les statistiques qui ont permis de quantifier l'information (Fischer). On était donc déjà dans le numérique mais les statistiques s'appliquaient à des phénomènes physiques comme les gaz.
C'est ensuite la théorie du signal qui reprendra la notion, Shannon ayant montré qu'on pouvait identifier une information par sa "redondance improbable". Bien qu'on parle ici de théorie de la communication supposant un émetteur et un récepteur, on ne s'intéresse alors qu'au signal physique et à sa transmission. C'est bien là ce qui sera à l'origine de la confusion avec la physique donnant l'impression que ce serait des phénomènes physiques continus qu'on veut reproduire grâce à des filtres ou des amplifications (dolby). Comme on ne peut jamais reproduire exactement le signal et qu'il y a des pertes inévitables, on va se rendre compte que ce qu'on cherche à garder c'est une forme, une information caractérisée par une certaine définition ou approximation, un échantillonnage qui peut être numérisé et n'est donc plus continu.
Ce n'est qu'avec les boucles de régulation et la cybernétique qu'on entre vraiment dans la théorie de l'information. Le thermostat constitue son paradigme mais les travaux théoriques ont surtout concerné la correction de tir des DCA pendant la deuxième guerre mondiale. En effet, le principe d'une boucle de rétroaction (ou d'un thermostat) c'est de se régler sur l'écart entre le résultat mesuré et la cible. On n'est plus alors dans la physique mais dans le pilotage par objectifs introduisant la finalité dans la chaîne des causes et rejoignant les régulations biologiques. En effet, alors que la physique est le domaine de la causalité (où les causes ont des effets), le domaine de l'information ou de la vie est celui des régulations et des finalités (où les effets deviennent causes). Mon temps étant écoulé je ne peux en dire plus mais on voit que l'opposition est totale entre ces deux logiques dont l'une ne fait que prolonger le passé alors que l'autre vise l'avenir.