Repenser le langage après ChatGPT

Temps de lecture : 6 minutes

Il y a quelques années encore, on désespérait de jamais pouvoir implanter dans un robot nos capacités langagières tant les agents conversationnels étaient limités. L'échec (relatif) du traitement du langage malgré tout ce que la linguistique croyait savoir, entretenait la croyance dans une essence mystique du langage, inaccessible à notre raison comme aux intelligences artificielles. Les performances de ChatGPT ont permis de résoudre ce dernier mystère de notre humanité (celui du langage qui nous sépare de l'animalité), en dévoilant à l'étonnement de tous son mécanisme de prédiction probabiliste de la suite, éclairant du même coup les raisons pour lesquelles nous ne pouvions pas l'imaginer quand nous réduisions le langage à la logique et la grammaire. Ce qui nous semblait l'essence du langage y serait seulement sous-entendu, sélection par l'usage, et ne nous est pas si naturel sous cette forme de règles plaquées de l'extérieur. Il nous faut donc réexaminer les théories linguistiques précédentes, de Saussure à Chomsky.

Il semble bien, en effet, que la critique du rationalisme et du réductionnisme trouve ici une pertinence inattendue car remettant en cause ce qui pourrait être considéré comme les deux péchés originels de la linguistique : se focaliser sur les mots, au lieu de leurs assemblages en syntagmes, et croire que la pensée (parole) était fondamentalement logique et créative (combinatoire) - quand elle est probabiliste et répétitive. L'atomisme du mot (du signifiant) est aussi erroné qu'une supposée parole appliquant la grammaire, le langage se révélant holiste dans sa mémorisation et son usage statistique, que ce soit au niveau du syntagme, de la phrase, du paragraphe, du livre, du groupe, de l'idéologie, de la culture... Le langage procède par formules "qui sonnent bien" ou dictons qui ont un sens que le mot n'a pas en soi car, contrairement à un code, les mots du langage ont presque toujours plusieurs sens, parfois même opposés, le signifiant ne pouvant être réduit à un mot isolé pour avoir un signifié défini. Certes, les grands modèles de langage codent malgré tout des mots mais quand même [depuis word2vec en 2013 et transformer en 2017] comme vecteurs les reliant à d'autres mots ou tout bonnement pré-assemblés dans des "jetons" (tokens).

De toutes façons, c'est un fait, le sens d'un énoncé dépend de son contexte, constitué pour GPT par le mécanisme d'attention. L'unité de base du langage va effectivement bien au-delà du simple mot ou, comme le supposait Chomsky, de l'application d'une grammaire générative pour exprimer une pensée préalable (ce qui d'ailleurs prendrait trop de temps par rapport à notre débit de paroles). Les mots viennent en grappe, déjà arrangés grammaticalement, grammaire immanente de la mémoire des énoncés, formée par l'usage, l'ouïe-dire, répétée, relevant de la reconnaissance des formes, et non reconstituée par une rationalité procédurale (le contenu de pensée lui-même n'étant que répétition des discours actuels). Il se révèle juste de considérer le langage comme un système fait d’habitudes (Gehlen). Les différentes grammaires obéissent à des contraintes communicationnelles tout comme l'évolution relative des phonèmes, et cela sans aucune conscience de leur structure interne que le structuralisme a pu formaliser mathématiquement. On peut même dire qu'il n'y a de véritable structure qu'inconsciente, garantissant ainsi son efficace. De même, la logique d'Aristote a pu être extraite de son enseignement de la rhétorique où elle est implicite, le syllogisme étant déduit de l'argumentation elle-même - qui rencontre un réel objectif, tout comme les mathématiques. L'implémentation d'une logique explicite ne peut être que le produit d'un apprentissage secondaire, réflexif.

Il y a aussi la façon dont j'abordais l'origine du langage narratif et de la structure signifiante qu'il faut repenser. Le langage narratif ne pouvant être né de rien et d'un seul coup me semble pouvoir dès lors être beaucoup plus ancien sous une forme réduite de figures convenues et de formules toutes faites pouvant décrire des scènes familières - cela même en utilisant un langage phonétique relevant plutôt d'un code (noms propres). Mais ce serait l'effet de masse qui introduit une différence radicale au paléolithique supérieur, saut évolutif qu'on peut attribuer, comme le font la plupart des paléoanthropologues, à la constitution de groupes bien plus nombreux (baisse de la testostérone) et donc à un échantillon plus large d'énoncés dont la mémoire a pu se transmettre à travers les générations (ce qui était impossible avant). En effet, une des leçons des grands modèles de langage, c'est bien qu'il leur faut une accumulation phénoménale d'exemples pour acquérir une maîtrise du langage semblable à la nôtre - sans besoin d'une décision ni d'une reconstruction à partir d'éléments premiers.

Tout comme la logique est tirée de l'usage, on peut penser que le dépassement du langage phonétique pour une langue "arbitraire" spécifique à une population (totalité distincte d'autres totalités, d'autres langues) ne serait là aussi qu'un effet émergent du nombre, de la multiplication des récits et de leurs formulations bien trouvées qui sont reprises couramment (ce que Richard Dawkins appelle des mèmes). Une fois ce langage maternel appris, on assiste bien à un foisonnement de mythes parlant de ce qu'on ne voit pas dans l'immédiat et constituant un monde commun en dehors de nous sur lequel s'accorde notre communauté (bien que ce soient des pures fictions). C'est là qu'est la rupture dépassant les premiers babillages encore animaux et les représentations de chasses pour nous faire entrer dans le monde humain des discours et de la fiction où le mensonge est toujours possible, invoquant la fausse garantie d'un Dieu ou d'un Maître, du tiers suprême (l'Autre de l'Autre qui n'existe pas mais que le langage instaure entre les interlocuteurs d'une même langue). Il y a bien des sauts qualitatifs où la quantité devient qualité, pour le meilleur ou pour le pire...

172 vues