L’IA générative déçoit déjà

Temps de lecture : 4 minutes

En février, le Wall Street Journal rapporte que parmi les « early adopters » de Copilot, l'assistant dopé à l'IA de Microsoft, certains restent dubitatifs sur les bénéfices apportés par la technologie, compte tenu de son prix élevé (30 dollars par tête et par mois). Globalement, les salariés reconnaissent que l'outil est particulièrement utile pour faire des comptes-rendus de réunion, ce qui permet à certains de ne pas participer et de se contenter d'un résumé. En revanche Copilot pour Excel ou pour PowerPoint peine à convaincre, à cause du trop grand nombre d'erreurs et d'hallucinations (les faits inventés par une IA).

Lenovo, l'une des premières entreprises clientes, rapporte qu'à part la transcription de réunions Teams, il y avait une chute de l'utilisation des autres fonctionnalités autour de 20% au bout d'un mois seulement.

« Bien que les entreprises d'IA soient enclines à faire des promesses exagérées selon lesquelles les outils pourront bientôt remplacer votre équipe de rédaction de contenu, générer des films de long métrage ou développer un jeu vidéo à partir de zéro, la réalité est bien plus banale : ils sont pratiques de la même manière qu'il peut parfois être utile de déléguer certaines tâches à un stagiaire inexpérimenté et parfois négligent », écrit-elle.

Source : Trop d'argent pour une utilité questionnée : l'IA générative déçoit déjà

Ce n'est bien sûr pas parce que les IA actuelles passent par une phase de désillusion qu'elles ne constituent pas une révolution considérable ouvrant une nouvelle ère qui commence à peine. Il est cependant bon d'en rabattre encore une fois sur les promesses délirantes suscitées d'abord (fin du travail, des artistes, etc) qui sont très exagérées par rapport aux performances effectives (en progrès rapide). C'est l'habituelle dialectique cognitive qui refroidit l'enthousiasme initial (ou catastrophiste) trop unilatéral. Nos capacités prédictives sont bien plus faibles que celles des IA, entre déni et passage aux extrêmes.

Lire la suite

101 vues

Dialectique cognitive et Intelligences Artificielles

Temps de lecture : 9 minutes

Sur le temps long, le seul progrès incontestable et cumulatif, est celui des connaissances (de la techno-science). Bien sûr, cela ne veut pas dire que tout le monde y ait accès ni qu'il n'y aurait pas des retours en arrière, des savoirs oubliés ou refoulés à court terme avant d'être redécouverts, mais, en tout cas, et malgré ce qu'on prétend, ce progrès objectif est largement indépendant de nous, imposé par l'expérience contredisant la plupart du temps nos croyances. Loin d'atteindre un savoir absolu pourtant, cette accumulation de connaissance dévoile plutôt à chaque fois de nouvelles terres inconnues, si bien qu'on peut dire que l'ignorance croît à mesure de notre savoir qui détruit nos anciennes certitudes et préjugés.

Effectivement, les sciences ne progressent que par la rencontre de faits qui échappent aux théories en cours, obligeant à les reformuler. Ainsi, leurs avancées pas à pas démontrent qu'on n'accède pas directement au réel comme à une vérité révélée définitive devenue transparente mais qu'il y a une dialectique cognitive à l'oeuvre corrigeant à chaque fois la position précédente, la complexifiant par une négation partielle ou par un changement de paradigme qui ne peut être anticipé avant. Cette dialectique cognitive à partir de l'état des savoirs illustre bien qu'il n'y a pas d'accès à l'être, comme le disait déjà Montaigne, il n'y a que des approximations, des approches, comme d'une canne d'aveugle qui va de gauche à droite afin de cerner son objet, tester ses limites (Fichte définit le savoir par la rencontre d'un moi libre qui se cogne au non-moi qui lui résiste).

Pour les sciences, même les théories les plus établies ne sont donc pas à l'abri d'une réinterprétation totale, comme la relativité a réinterprété la physique newtonienne, sans que cela puisse constituer un aboutissement définitif (problème de la gravité quantique, etc). Aucun argument ici pour les théories les plus farfelues ou spiritualistes contestant les sciences mais, au contraire, pour ne pas se fier à nos convictions et suspendre notre jugement en restant ouvert aux remises en cause par l'expérience de nos représentations (plus que des équations elles-mêmes qui restent vérifiées dans leur domaine de validité). On voit que, ce que l'histoire des sciences implique, c'est bien leur temporalité, tout comme l'évolution du vivant et nos propres apprentissages, entre l'héritage du passé et les découvertes à venir impossibles à prévoir, devant passer comme l'enfant par une série de stades de développement et s'enrichissant au cours du temps. Il n'y a dès lors aucune raison qu'on arrête de progresser et que le temps s'arrête. Si Hegel en avait fait l'hypothèse, c'était seulement pour l'accès à un "savoir absolu" qui n'était en réalité que le dépassement de la religion par la conscience de soi comme produit de l'histoire, et non une totale omniscience impensable pour des êtres finis (même artificiels).

Ceci rappelé rend douteux, en effet, que la situation puisse être complètement différente avec des Intelligences Artificielles, même si elles nous surpassent en tout, pouvant exploiter toutes les données disponibles et accélérer significativement les progrès des connaissances. Elles constituent incontestablement un nouveau stade cognitif avec l'accès au savoir pour tous (après wikipédia), mais on ne peut en attendre une révélation soudaine de la vérité (cachée), une "singularité" dont il n'y aurait plus d'au-delà, comme si le temps s'arrêtait. Certes, répétons-le, les IA devraient produire nombre de nouvelles connaissances ou équations en trouvant des corrélations inaperçues entre domaines éloignés, et pourraient même déboucher sur des théories révolutionnaires dépassant nos idées reçues. Cependant, pas plus que les humains, elles ne pourraient inventer des lois effectives et se passer de l'expérience - comme s'il n'y avait plus de monde extérieur, d'incertitudes, de questions. De même, malgré ses compétences universelles, l'Intelligence Artificielle, bien que nourrie aux meilleures sources, ne saurait tenir le rôle d'un Dieu omniscient et de garant ultime de la vérité. Elle peut tout au plus prendre une place de juge de première instance, peut-on dire, assez fiable et fort utile mais dont on sait qu'il peut se tromper et être désavoué par des juridictions supérieures.

Lire la suite

115 vues

La configuration prospective mieux que l’apprentissage par rétropropagation

Temps de lecture : 2 minutes

Pour ce que j'en ai compris, cette nouvelle méthode d'apprentissage automatique se rapproche plus du fonctionnement de notre cerveau (notamment des réseaux sensori-moteurs basés sur l'énergie), en recherchant d'abord la bonne configuration du réseau de neurones donnant le bon résultat, pour changer seulement ensuite le poids des synapses. Cela se révélerait bien plus efficace que la rétropagation arrêtant tout pour corriger les erreurs en modifiant immédiatement le poids des synapses avant de refaire le calcul.

Ainsi, d’une part, nous démontrons que la configuration prospective effectue un apprentissage plus efficient et rapide que la rétropropagation dans diverses situations auxquelles sont confrontés les systèmes biologiques, telles que l’apprentissage de structures profondes, l’apprentissage en ligne, l’apprentissage avec un nombre limité d’exemples, l’apprentissage dans des environnements changeants, l'apprentissage en continu avec des tâches multiples et l'apprentissage par renforcement. D'autre part, nous démontrons que les modèles d'activité et de comportement neuronaux dans diverses expériences d'apprentissage chez l'homme et l'animal, notamment l'apprentissage sensorimoteur, le conditionnement par la peur et l'apprentissage par renforcement, peuvent être naturellement expliqués par une configuration prospective mais pas par rétropropagation.

Cela promet des IA plus légères et rapides, nécessitant beaucoup moins de données et d'énergie, ce qui est une limitation actuelle.

Source : Déduire l'activité neuronale avant la plasticité comme fondement de l'apprentissage au-delà de la rétropropagation | Neurosciences naturelles

86 vues

Repenser le langage après ChatGPT

Temps de lecture : 7 minutes

Il y a quelques années encore, on désespérait de jamais pouvoir implanter dans un robot nos capacités langagières tant les agents conversationnels étaient limités. L'échec (relatif) du traitement du langage malgré tout ce que la linguistique croyait savoir, entretenait la croyance dans une essence mystique du langage, inaccessible à notre raison comme aux intelligences artificielles. Les performances de ChatGPT ont permis de résoudre ce dernier mystère de notre humanité (celui du langage qui nous sépare de l'animalité), en dévoilant à l'étonnement de tous son mécanisme de prédiction probabiliste de la suite, éclairant du même coup les raisons pour lesquelles nous ne pouvions pas l'imaginer quand nous réduisions le langage à la logique et la grammaire. Ce qui nous semblait l'essence du langage y serait seulement sous-entendu, sélection par l'usage, et ne nous est pas si naturel sous cette forme de règles plaquées de l'extérieur (ainsi on prendra un exemple avec cheval/chevaux pour savoir si on doit employer le pluriel dans une expression, sans être bien clair avec la règle elle-même). Il nous faut donc réexaminer les théories linguistiques précédentes, de Saussure à Chomsky.

Il semble, en effet, que la critique du rationalisme et du réductionnisme trouve ici une pertinence inattendue car remettant en cause ce qui pourrait être considéré comme les deux péchés originels de la linguistique : se focaliser sur les mots, au lieu de leurs assemblages en syntagmes, et croire que la pensée (parole) était fondamentalement logique et créative (combinatoire) - quand elle est probabiliste et répétitive. L'atomisme du mot (du signifiant) est aussi erroné qu'une supposée parole appliquant la grammaire, le langage se révélant holiste dans sa mémorisation et son usage statistique, que ce soit au niveau du syntagme, de la phrase, du paragraphe, du livre, du groupe, de l'idéologie, de la culture... Le langage procède par formules "qui sonnent bien" ou dictons qui ont un sens que le mot n'a pas en soi car, contrairement à un code, les mots du langage ont presque toujours plusieurs sens, parfois même opposés, le signifiant ne pouvant être réduit à un mot isolé pour avoir un signifié défini. Certes, les grands modèles de langage codent malgré tout des mots mais quand même [depuis word2vec en 2013 et transformer en 2017] comme vecteurs les reliant à d'autres mots ou tout bonnement pré-assemblés dans des "jetons" (tokens).

Lire la suite

234 vues

Conscience animale, humaine et artificielle

Temps de lecture : 13 minutes

Loin de tous les archaïsmes qui nous hantent encore, nous sommes vraiment à un moment historique de notre "conscience de soi", et si presque tout ce qu'on pensait de l'esprit est devenu obsolète depuis le lancement de ChatGPT, quelques unes des théories précédant cette révélation peuvent au contraire s'en trouver confortées, telle cette théorie de la conscience comme mémoire épisodique (de la suite des événements), que j'avais signalée par un tweet en octobre 2022 mais qui vaut qu'on y revienne, alors que, d'un autre côté, l'évolution de ChatGPT semble impliquer non seulement une possibilité des Intelligences Artificielles d'avoir une conscience mais son inévitabilité pour des systèmes d'apprentissage évolués voués à la prédiction de la suite : "le cerveau apprend à être conscient en essayant continuellement de prédire les conséquences de ses actions à la fois sur lui-même et sur le monde extérieur", ce qui donne une forme de conscience du contexte et de soi, y compris aux robots conversationnels capables d'apprentissage. C'est ce que confirme un article s'interrogeant sur "Comment l'IA sait des choses que personne ne lui a dites" - ce qui étonnait même ses concepteurs. Cela viendrait de l'acquisition d'une capacité connue sous le nom d'apprentissage en contexte. "C'est un type d'apprentissage différent dont on ne comprenait pas vraiment l'existence auparavant" bien qu'il suive une "procédure d'apprentissage standard, connue sous le nom de descente de gradient" - sauf que ce n'était pas programmé, le système l'a découvert tout seul.

On verra qu'on peut à peine parler de conscience pour cette sorte de conscience de soi qui participe quand même à l'éclairer comme propriété commune à tout apprentissage (ou réseaux de neurones) aussi bien animale qu'humaine ou artificielle (bien que la plupart des IA spécialisées en soient dépourvus). Cela oblige à redéfinir la conscience, sujette à tous les fantasmes (comme l'Esprit) et à laquelle on a même voulu donner un rôle décisif dans la physique quantique ! Il faut maintenir que notre conscience humaine (la voix de la conscience) comme conscience morale se différencie largement d'une simple conscience de soi animale, mais tout en admettant une nouvelle continuité entre différents niveaux de conscience qui ne se recouvrent pas, depuis la perception jusqu'à la conscience de soi et la culpabilité. Encore une fois, il ne s'agit pas de tout réduire au mécanisme de base des modèles de langage ou de la mémoire comme s'il n'y avait rien d'autre, mais de réduire quand même drastiquement le rôle du sujet humain à constater tout ce qu'on explique sans avoir besoin de lui, ni d'ailleurs d'autres composants indispensables de correction, de validation ou de modèle du monde (qui sont déjà en développement). Les générateurs de langage actuels manquent pourtant non seulement de raison mais surtout de tout ce qui est lié à un corps autonome et son histoire, ce qu'ils pourraient cependant acquérir bientôt par leur incarnation dans un robot mobile ou un avatar qui devront être doués de sensibilité et intégrer une certaine conscience morale...

Lire la suite

211 vues

L’identité humaine à l’épreuve des chatbots

Temps de lecture : 24 minutes

Jusqu'à présent, notre capacité à utiliser et comprendre le langage restait une énigme qui nous distinguait radicalement des autres animaux tout autant que des intelligences artificielles précédentes. Du coup, ce mystère constituait un marqueur identitaire nous permettant de nous croire très supérieurs et même d'essence divine. Cependant, comme on l'a vu, les modèles de langage tels que ChatGPT, imitant nos réseaux de neurones, ont révélé de manière très déceptive que leur moteur était simplement la prédiction probabiliste du mot suivant. Ce mécanisme basique est très éloigné en effet de ce qu'on pouvait supposer (d'une causalité génétique, cognitive ou spirituelle), raison pour laquelle le fonctionnement du langage nous échappait, allant jusqu'à imaginer des formes de télépathie ou de panpsychisme. Cette nouvelle compréhension, dissipant ces illusions, change complètement notre conscience de soi, de notre propre pensée, et, plus généralement, notre représentation de l'esprit, la plupart des anciennes conceptions devenant obsolètes.

De quoi opérer une révision radicale de notre identité humaine, qui ne pourra plus se résumer à notre intelligence ni même au langage, mais voudra se redéfinir par notre dimension sociale et nos relations humaines. Il est certainement plus juste - et couramment admis - de se définir comme un être moral et de mettre la moralité au-dessus de l'intelligence, mais cette nouvelle hiérarchisation induit malgré tout de grands bouleversements dans nos représentations, nos idéaux, nos croyances. Les réactions à ces révélations pourraient même être assez violentes, mais ces ruptures idéologiques et cognitives ne sont qu'un aspect des bouleversements qui vont surtout modifier nos pratiques. Ces robots conversationnels accessibles à tous peuvent, en effet, se substituer facilement à des interlocuteurs humains et aux relations sociales, qu'on revendiquait justement pour se distinguer de ces machines sans âme. C'est ce brouillage des identités créé par cette nouvelle avancée des techno-sciences, nous mettant en cause dans notre humanité, qu'on va interroger. En fait, on verra que c'est l'exigence d'une définition de l'identité humaine, et de la place exceptionnelle qu'on veut lui garder, qui s'avère une fois de plus problématique - comme toute identité - figure de l'homme qui "s’effacerait, comme à la limite de la mer un visage de sable".

Ces nouvelles Intelligences Artificielles nous obligeant à nous dépouiller de notre propre intelligence en l'externalisant ne sont pas, en effet, la première atteinte à notre narcissisme. Nous avons déjà dû renoncer à notre place centrale dans l'Univers avec les révolutions copernicienne, darwinienne et freudienne, auxquelles il faut rajouter le scandale pour la pensée qu'a représenté la physique relativiste et quantique, si éloignée de notre expérience empirique et de nos capacités de compréhension. Cela confirme que les sciences, universelles dans tout l'univers, ne doivent rien à notre humanité, malgré ce qu'on prétend, se détachant radicalement du "monde de la vie". Je m'étais d'ailleurs servi de la figure d'hypothétiques extraterrestres pour détacher l'humanité de sciences universelles mathématisées comme d'une évolution dont elle serait l'aboutissement. Là-dessus le retour des pandémies et de la guerre a rappelé le constat ancien de notre connerie abyssale étalée partout en ces circonstances malgré tant de savoirs accumulés. Cette fois, c'est d'être dépassés par la machine en intelligence et savoir, comme nous l'avions été déjà par ses capacités de calcul et de logique, qui en remet une dernière couche. Ce rabaissement de notre intelligence sera certainement difficile à avaler pour la plupart, et un véritable choc civilisationnel, mais ce n'est pas la première fois et en continuité avec les précédentes avancées des sciences.

Il en est tout autrement de la reproduction de nos capacités langagières par des chatbots de façon beaucoup plus convaincante que les ébauches précédentes et qui toucheront non seulement le travail mais nos vies intimes, mettant en question cette fois le parlêtre que nous sommes, rupture véritablement ontologique et dont les conséquences sont encore plus incertaines que les répercutions cognitives. Il y a bien deux révolutions majeures en cours, une révolution cognitive, qui promet une explosion d'innovations et de progrès faisant reculer l'obscurantisme, doublée d'une révolution existentielle reconfigurant notre être au monde et avec les autres. Cela ne fait sans doute qu'amplifier ce que smartphones et réseaux avaient déjà initié. Ils constituent effectivement l'infrastructure matérielle indispensable où peuvent prendre place ensuite tous ces nouveaux avatars numériques, mais à un certain niveau de perfectionnement et de pratique leur omniprésence peut altérer radicalement notre identité sociale. Evidemment, à cette date, tout cela reste hypothétique, trouble, trop nouveau et, malgré une tendance exponentielle à l'accélération technologique, il est impossible de prévoir à quel point et à quelle vitesse ces conséquences toucheront les populations mondiales connectées.

Lire la suite

237 vues

Ce que ChatGPT révèle de notre esprit

Temps de lecture : 18 minutes

Il est difficile de mesurer à quel point, bien au-delà de leur utilité immédiate, les modèles de langage génératifs comme ChatGPT vont bouleverser nos représentations du monde et donc le changer profondément, religions, idéologies, philosophies devenant instantanément obsolètes. En cela, on peut dire que l'IA va bien détruire les anciennes civilisations mais ce sera par la révélation (si déceptive) du fonctionnement de notre esprit. En effet, partout on répète à foison que ces intelligences artificielles n'ont rien à voir avec notre propre intelligence or il n'y a rien de plus faux.

Certes il est exact qu'elles n'ont aucune conscience ni même compréhension de ce qu'elles produisent et il est indéniable qu'il leur manque plusieurs dimensions de notre psychisme. Il y a d'abord l'absence des dimensions biographiques et morales (un long apprentissage par renforcement et la construction de récits de soi) qui constituent notre véritable conscience personnelle - qui est bien essentiellement une conscience morale impliquant une compréhension de sa situation - mais, de plus, comme on va le voir, il manque au simple niveau cognitif (pour peu de temps encore?) l'indispensable complémentarité entre intuition ou perception et raison (soulignée d'Aristote à Kant) y compris pour la production de langage, la fonction critique de l'intelligence, l'esprit qui dit non, modérant la crédulité et le conformisme de la pensée. Ce dualisme des processus utilisés, un peu comme les "réseaux adverses", est effectivement incontournable pour valider l'insertion de l'information reçue dans une base de connaissances fiable.

Sauf que ces vérifications sont beaucoup moins omniprésentes qu'on ne le suppose dans ce qu'on dit, la plupart du temps très semblable au traitement automatique des modèles génératifs de langage, qui reproduisent d'ailleurs tout autant la connerie humaine, ce qui a été dénoncé dès le début. La fiabilité de wikipédia avait été dénigrée de la même façon, non sans raisons mais sans que cela n'annule les apports considérables de l'encyclopédie (en progrès). Il ne s'agit pas de faire croire qu'on aurait avec ChatGPT une intelligence parfaite, seulement une intelligence au moins aussi imparfaite que la nôtre mais ayant accès à plus de sources. On peut considérer du reste la connerie comme l'inévitable conséquence d'un apprentissage qui n'est pas tiré de l'expérience mais de ce qu'on nous a dit depuis l'enfance, apprentissage forcément servile et dogmatique, lié de plus à nos appartenances, arrivant à nous faire croire au Père Noël. Pas étonnant que cette connerie se soit retrouvée dans les IA précédentes, reprenant toute la connerie humaine telle qu'elle s'exprime abondamment sur les réseaux sociaux - ce qui les avait disqualifiées. Il a donc fallu y remédier (partiellement) par des corrections programmées, pour être simplement utilisables, tout comme on ne peut se passer de modération dans les forums. Cela montre quand même qu'on est loin de l'idéal rêvé et que, comme toujours, il n'y aura pas que des conséquences positives à cette révolution cognitive qui n'est pas immunisée contre toute connerie ni contre son détournement vers des usages dangereux. Non, mais leurs performances remarquables tout autant que leurs faiblesses posent de nouvelles questions à notre compréhension de l'intelligence et de notre propre pensée, décidément devenue sans mystère et débarrassée de cette supériorité qui faisait notre orgueil.

Ce qu'on ne dit pas assez, en effet, voire pas du tout, c'est que l'IA et la neuro-imagerie progressent ensemble depuis l'utilisation des réseaux de neurones. Il vaudrait mieux faire savoir qu'on a ainsi avec ces modèles de langage un fonctionnement à peu près identique à celui du cerveau humain pour traiter le langage, basé de façon très surprenante sur la mémoire à court terme et la prédiction du mot suivant, tout comme ChatGPT, procédure très simple mais qui se révèle étonnamment puissante. On le sait depuis octobre 2021 au moins et j'avais déjà souligné en avril 2022 l'importance de cette nouvelle convergence entre l'Intelligence Artificielle et le fonctionnement du cerveau, mais il faut avouer que cette découverte assez incroyable restait abstraite avant d'avoir pu la tester et avoir constaté les prouesses époustouflantes de ce mécanisme minimal (avant d'en éprouver toutes les limites malgré tout). Pour parler et répondre, il suffirait donc d'appliquer la règle la plus simple qui est de dire ce qui est la norme, le mot qu'on attend de nous, c'est-à-dire trouver le mot le plus probable à dire dans cette circonstance pour compléter les phrases et les conversations. [C'est un peu plus compliqué, il faut ajouter un certain nombre de "réglages fins", en fonction du contexte et de l'expérience, corrigeant des erreurs courantes mais le mécanisme reste bien , comme dans le cerveau, la prédiction du mot suivant]. En tout cas, comme toute découverte scientifique, ce n'est pas du tout une invention humaine, les sciences depuis Galilée contredisant systématiquement nos anciennes théories, déshumanisant notre savoir en l'universalisant, et ce truc qui semble miraculeux n'est encore une fois qu'une imitation du vivant et de ses processus d'apprentissage, consistant neurologiquement à prédire ce qui doit suivre pour comparer ensuite avec ce qui arrive vraiment (prédiction récompensée ou non par la dopamine).

Lire la suite

457 vues