Alors même que le marché informatique piétine une nouvelle révolution est en marche bouleversant les conceptions traditionnelles de la construction comme de la programmation des systèmes informatisés, utilisant enfin les principes de la cybernétique et du cognitivisme, engageant ainsi véritablement, après les réseaux neuronaux et systèmes experts, la convergence de l'informatique avec la biologie et les sciences humaines.I. Autonomic Computing (SVM février, no 201)
L'informatique autonome ouvre une ère nouvelle de l'informatique, submergée de plus en plus par la complexité et la multiplication des erreurs ou pannes, il fallait bien prendre acte du fait que les applications actuelles dépassent les capacités humaines et qu'aussi bien pour la maintenance matérielle que pour mise au point logicielle il fallait en transférer la responsabilité à l'informatique et aux machines elles-mêmes. Ce qui apparaît décisif ici, ce n'est pas tant le fantasme d'une domination totalitaire des machines (Matrix) que la réduction d'une "fracture numérique" qui se creusait beaucoup trop. Le niveau d'exigence devenant de plus en plus élevé, la sélection se faisait beaucoup trop sévère. Si les machines se mettent à notre service, c'est une façon de dire qu'elles ne sont plus aux mains des spécialistes, qu'elles se démocratisent, c'est la fin du racisme des machines envers les non-informaticiens et la revanche de tous ceux qui ont été écrasés d'impuissance devant leur PC (d'un autre côté rien de tel pour l'humilité de l'informaticien, ne risquons nous pas le fantasme de toute-puissance?). Un autre aspect de cette autonomisation des nouveaux robots, à la fois précieux et troublant, c'est le passage à une phase expérimentale des sciences humaines qui renouvelle notre interrogation sur ce qui constitue notre existence humaine. Ce qui est frappant c'est que ce qui pouvait faire craindre une déshumanisation totale semble se retourner tout au contraire en valorisation de la subjectivité et de nos caractères les plus humains et les plus universels.
II. Les nouveaux robots (La Recherche février, no 350)
Il y a d'abord le grand projet d'IBM, dont SVM rend compte ce mois, de l'Autonomic Computing.
Il s'agit de tenir compte du fait que la complexité des systèmes informatiques a dépassé notre seuil de compétence, ils doivent donc être capables de se gérer de façon autonome. "Ce n'est pas l'homme qui doit s'adapter aux machines pour les utiliser mais elles doivent évoluer en fonction des enjeux". Il s'agit "d'adopter une démarche holistique, c'est-à-dire d'envisager les problématiques comme faisant partie d'un tout indivisible, d'un système global, d'un réseau".
Pour que les ordinateurs deviennent autonomes, il doivent évoluer selon 6 axes :
1) Apprendre à se connaître soi-même : chaque élément doit s'identifier et communiquer son état et ses performances
2) Détecter les pannes et les éviter : la panne détectée, l'élément doit pouvoir être isolé et ses tâches déportées automatiquement.
3) Réparer les pannes et les erreurs commises : aussi bien au niveau matériel que logiciel des mécanismes de réparation doivent être intégrés. Les ordinateurs aussi doivent avoir une fonction annuler.
4) Garder la maîtrise des données : elles doivent être indépendante des machines et partagées entre tous les systèmes.
5) S'optimiser donc s'auto-éduquer : le système doit rechercher en permanence de meilleures voies et tirer parti de ses propres erreurs.
6) Comprendre les intentions des humains : c'est le plus difficile mais essentiel, les informations devant être configurées selon l'utilisateur et ses intentions comprises par la machine, mais pour cela l'utilisateur doit fournir des informations qui manquent au système.
Ce programme a déjà un début de réalisation par la combinaison de technologies déjà existantes, la généralisation des fonctions d'auto-diagnostic, et de nouveaux développements comme eLiza (serveur d'entreprise).
Si on peut croire que l'homme est devenu obsolète, comme Jean-Michel Truong pour qui ce sont déjà les machines qui se servent de nous pour leur reproduction, à notre détriment et non pour augmenter notre productivité (paradoxe de Solow), il semble au contraire que les machines s'humanisent et sollicitent de nous de plus en plus ce qui est le plus proprement humain. En ce sens, les machines participent bien à notre identité en nous permettant d'être plus nous-mêmes, nous déchargeant de la part mécanique de la vie.
Ce n'est pas la seule voie par laquelle nous pouvons apprendre sur nous-même de l'autonomie des automates. Le dernier numéro de La Recherche est ainsi consacré aux nouveaux robots où la robotique est envisagée comme "la phase expérimentale des sciences cognitives", mettant en évidence à la fois la pertinence de notre connaissance du cerveau et de l'apprentissage mais aussi les limites actuelles de notre savoir et des performances des robots.
La nouvelle robotique autonome intègre en effet les données des neurosciences et de la biologie, alliées à leur modélisation mathématique, dans une approche système de la compréhension du cerveau. La définition de l'autonomie d'un robot est troublante puisqu'elle implique une cohérence de son action, la capacité d'atteindre ses objectifs et une certaine imprévisibilité.
A - Matériel
Si les robots sont encore beaucoup moins performants que les animaux, ils ont un avantage sur les organismes biologiques, c'est la rapidité de transmission de l'information mais si on peut s'affranchir ainsi des délais de réponse biologique, on s'aperçoit aussi que ces délais sont souvent indispensables. Ainsi la nécessité est vite apparu, dans la programmation de robots autonomes, d'introduire une persistance des états et des décisions sauf à s'exposer à des changements de stratégie incessants. C'est la fonction d'inertie de l'humeur pour nous (entre dopamine, noradrénaline et sérotonine).
La lenteur des transmissions biologiques exclut en tout cas toute centralisation excessive et favorise au contraire les processus "massivement parallèles" de régulations autonomes agissant au plus bas niveau d'un processus et s'ajustant globalement selon une "approximation distribuée" constituant la base d'un apprentissage décentralisé de l'organisme.
C'est cette structure en réseaux qui est privilégiée dans la conception des nouveaux robots plutôt que l'ancien modèle cerveau-commande. Ceci acquis, la complexité en jeu exclut des réponses simples et connues d'avance, impliquant une évolution qui doit s'appuyer sur une accumulation progressive et la combinaison d'éléments stables permettant de créer des structures fonctionnelles de plus en plus complexes et adaptées.
Il semble que pour qu'une combinaison d'éléments soit stable, il soit indispensable que ces éléments soient "contractants", c'est-à-dire qu'ils "oublient exponentiellement leurs conditions initiales", pouvant être perturbés et revenir à leur fonction, sorte d'élasticité des organes qui est aussi la condition de tout apprentissage ou adaptation, dans leur réversibilité même.
B - Logiciel
Dans les derniers modèles, pensée et conscience résultent de l'interaction massive entre structures spécialisées et non d'un processus centralisé. La fonction de la conscience est d'abord inhibitrice (on arrête tout et on réfléchit), bloquant toute réaction immédiate alors qu'il manque une information, détour nécessaire pour une réponse adaptée à une situation incertaine. La première fonction de la pensée est d'apprendre à répondre à l'incertitude (on nous raconte l'histoire de l'ascidie qui digère son cerveau une fois fixée sur un rocher dont elle ne bougera plus!). Il faut donc mettre en action des capacités prédictives à partir de mesures partielles, bruitées et insuffisantes. On s'aperçoit que la métonymie qui prend la partie pour le tout est un principe biologique essentiel, perceptif, de la marque, de la signature (odeur, son, forme). C'est ce qu'on appelle en robotique une "mémoire adressable par le contenu" où un trait particulier renvoie à une typologie, un ensemble de données descriptives, un modèle comparé à la situation perçue. Il est à remarquer aussi que les données ambiguës exprimant deux valeurs à la fois (position+vitesse par exemple) sont les plus efficientes.
De même qu'un point de vue évolutionniste s'impose dans la construction des éléments du robot, par le hasard et la sélection à la place de la programmation, de même les capacités cognitives s'organisent progressivement par combinaisons de réflexes élémentaires et couches successives d'approximation pour une réflexion finalisée, selon des étapes comparables à la construction de l'intelligence et de la morale chez l'enfant pour Piaget. Comme nous, un robot doit toujours partir d'informations a priori, d'un modèle, du plus simple au plus élaboré mais toujours incomplet et qu'il doit enrichir et corriger dans l'interaction avec son environnement. Ce qui fait la vertu d'un modèle, d'une connaissance, c'est d'être plus simple et plus général que la réalité, focalisant l'intérêt sur les traits saillants : le réel est ce qui fait trou dans le savoir comme dit Lacan, c'est la rencontre, la surprise, ce qui rate et ne colle pas à la représentation. C'est l'intrusion de ce nouveau, son assimilation, son accommodation qui provoque la réorganisation des probabilités et de nos anticipations comme la mémoire du robot doit construire son adaptation sur l'inattendu rencontré. A chaque fois il doit y avoir reconstitution holistique à partir d'un ensemble d'éléments partiels permettant de faire référence à une situation passée et de rappeler la stratégie adoptée (répétition et habitudes sont la base de l'apprentissage).
La "navigation" notamment (le déplacement) implique de s'orienter avec des données incomplètes dans un contexte incertain. On n'est plus dans l'ordre de la programmation, de la preuve rigoureuse, mais du pari, des probabilités (Bayes). On s'aperçoit du même coup comme notre conduite automobile par exemple obéit à cette confiance souvent excessive dans les probabilités mais aussi qu'il n'y a pas d'autonomie sans cette dimension de pari, d'indécidable, d'imprévisibilité et de risque. On découvre aussi que "contrairement à toutes les hypothèses précédemment émises par les ingénieurs ou les éthologues, celles-ci proposent que l'acte choisi soit celui qui aura été le moins inhibé, et non celui qui aura reçu le plus de signaux excitateurs." 67 Ajoutez à cela qu'on doit introduire les émotions dans les "robots sociaux" ainsi que récompenses et punitions pour guider l'apprentissage (même si, à mon avis, on n'utilise pas assez les concepts de saillance et prégnance de René Thom).
C. Les robots et nous
Il semble vraiment qu'il nous reste bien peu en propre, pourtant c'est l'essentiel et il ne faut pas surestimer les performances actuelles. La robotique pourrait même nous enseigner ce qui nous différencie des robots :
"Nous sommes bien sûr encore très éloignés d'humanoïdes entièrement autonomes dont les capacités cognitives s'approcheraient, même de loin, de celles de l'homme. mais la fabrication de machines est bien un moyen puissant pour mieux comprendre ce qui nous rend uniques en tant qu'humains, ne serait-ce que parce que ces machines constituent des points de comparaison. Nos travaux montrent qu'un ancrage dans le monde par l'intermédiaire d'un corps physique et l'appartenance sociale à une communauté sont d'une grande importance pour apprendre les concepts et le langage utilisés dans les communautés humaines. Si nous sommes intelligents, c'est en partie parce que nous vivons en société. Si nous voulons des robots intelligents, nous devrons beaucoup interagir avec eux". 76
"En définitive, les recherches actuellement menées dans ce domaine consistent à tenter de (re)mettre systématiquement l'homme dans la boucle, c'est-à-dire, par exemple, à considérer que, quelque soit le problème posé au robot, il ne possèdera jamais, s'il fonctionne en présence d'êtres humains, qu'une partie de sa solution, l'autre étant entre les mains de ses utilisateurs et échappant, de fait, en partie à ses concepteurs. cette perspective se traduit sous ses airs anodins, par une véritable révolution en robotique : l'homme n'est plus un "obstacle" (mobile et imprévisible), qu'il convient au mieux, d'ignorer ou d'éviter, au pire de contrôler par tous les moyens adéquats, mais une ressource qu'il va être nécessaire d'apprivoiser." 94
L'efficacité de la robotique passe ainsi par la socialisation, la communication, engageant une reconstruction artificielle de nos échanges humains qui augmente le contrôle que nous pouvons avoir des automates. La compréhension du langage implique toutes les dimensions sociales, économiques, techniques, locales, spirituelles, morales qui font notre vie humaine. Il ne s'agit pas de prétendre que la technologie n'a pas ses mauvais côtés, ses effets pervers, mais qu'au lieu de s'autonomiser comme technique, la technique de l'autonomie doit au contraire s'humaniser, se mettre à notre service, dépendre de nous et adopter nos comportements, jusqu'à nos préjugés, dans nos multiples dimensions qui ne pourront plus être rabattues sur une vision unilatérale.
Sans surestimer ses résultats actuels, il faut retenir au contraire qu'au-delà d'un certain niveau de complexité il nous faut imiter la nature : par des processus évolutionnistes d'abord, afin de constituer des fonctions de base robustes, souples et compactes, ensuite par une construction décentralisée et largement auto-régulatrice, enfin par le processus d'apprentissage, de compréhension ou de reconnaissance des formes par approximations.
De même, lorsqu'on aborde les rapports sociaux, les règles de la communication sont les nôtres. Il semble bien que nous prenions enfin notre revanche sur les machines. Plutôt que de tomber dans la crainte ou la fascination, c'est cette différence de plus en plus absolue qu'il faut comprendre, qui nous est ainsi dévoilée, entre fin et moyen, nos outils et nous, question devenue plus brûlante encore de ce que nous sommes comme être parlant, de nos finalités, de notre inquiétude réciproque, nos luttes de pur prestige, esprit coupable et corps souffrant tendus vers l'inaccessible étoile et donnant corps à nos rêves ou nos cauchemars peut-être.
Car il est de fait que l'instrument est un prolongement matériel de l'organisme : c'est le vecteur d'une prégnance d'origine biologique, le support d'une action et le prolongement extérieur de cette activité organique.
René Thom, Esquisse d'une Sémiophysique p66