La question se pose de l’enseignement du numérique à l’école, entre simple apprentissage de son utilisation ou initiation à la programmation. J’avais émis l’opinion à Antonio Casilli, qui m’avait pris pour un débile, qu’il faudrait enseigner les rudiments du langage machine pour comprendre l’interface entre hardware et software, comment l’esprit venait à la matière, dissiper enfin le mystère de nos appareils numériques en même temps que celui de la pensée.
En effet, rien mieux que le numérique ne rend visible le dualisme de la pensée et de l’étendue, de l’esprit et du corps qui ne sont pas « une seule et même chose » comme le prétend Spinoza, le programme n’est pas l’envers de la machine, leurs existences sont à la fois distinctes et liées (mais pas inséparablement). Les conséquences philosophiques du numérique me semblent complètement négligées tant on rechigne à réduire « Les lois de la pensée » à une algèbre booléenne. Le risque de réductionnisme existe si on n’y introduit pas le langage narratif au moins et le mode de fonctionnement des réseaux de neurones ou du machine learning qui n’ont rien à voir avec un programme linéaire, cela ne doit pas empêcher de savoir par quelles procédures le numérique se matérialise, une pensée s’incarne (comme dans l’écriture) et les instructions s’exécutent (« comment l’esprit meut le corps »).
La première chose à comprendre, c’est comment on passe de l'étendue à la pensée, du signal continu à l'information discontinue, des disques analogiques qui s’usent vite à la reproduction numérique qui ne connaît plus d’entropie, car c’est bien la fonction anti-entropique (ce qu’on appelle la néguentropie) qui est le coeur du numérique et de la cybernétique avec la correction d’erreur et la reproduction à l’identique qui ne connaît plus de limites.
Il ne s’agit plus, en effet, de l’enregistrement brut d’un signal physique sur une bande, mais de sa transformation en information. Toute communication a besoin d’un signal physique, un courant énergétique, une porteuse continue qui relie émetteur et récepteur, mais pour le transformer en information, il ne faut en garder que les événements signifiants, éliminer le bruit sur lequel se découpe une information discontinue. Pour en extraire le contenu, la numérisation décompose le signal continu en unités discrètes, en ignorant délibérément les variations entre deux bornes, deux limites arbitrairement découpées. C'est ce qu'on appelle le degré de définition ou d'échantillonnage d'une image ou d'un son. Pour un son, on passe d'un signal sinusoïdal à un signal carré (voir illustration) représentant une suite de 0 et de 1 au lieu du signal analogique originel. Curieusement, par cette soustraction de la qualité initiale (nettoyée de ses plus petits détails) on obtient une bien meilleure qualité de restitution car on s'affranchit ainsi du bruit, c'est-à-dire des fluctuations non significatives qui recouvrent normalement les petites nuances qu’on a perdues. Pour obtenir une reproduction à l'identique il faut donc commencer d'abord par renoncer à une reproduction intégrale. Mais, dès lors, c'est un véritable changement de nature du signal qui s'opère, ne reflétant plus du tout le son originel mais seulement une suite de codes binaires ne produisant aucun son directement.
Un code binaire s’enregistre facilement, sur un support magnétique la plupart du temps, où le 0 et le 1 correspondent par convention à des états physiques opposés mais cette information ne peut être lue que par un programme approprié (lecteur MP3 par exemple), elle n’a aucun sens en elle-même (aucun son). On n'est plus du tout dans le signal physique brut et, du coup, n’importe quelle suite de 0 et de 1 peut être interprétée comme un nombre, même si elle représente en fait des lettres, un son ou une image. C’est ce qui permet que ces enregistrements numériques puissent être désormais compressés, transmis et reproduits complètement à l'identique.
L’entropie universelle n’ayant pas disparue, cette reproduction à l’identique n’est possible que grâce à la correction d’erreurs et donc à la rétroaction, la validation du résultat, c’est-à-dire la comparaison entre la copie et le modèle. En effet, les communications numériques ne sont pas unilatérales, comme une radio par exemple, mais exigent une validation du récepteur pour chaque paquet de données (signal "Ack" pour acknowledgment : re-connaissance, accusé de réception). C’est ce qui en assure la qualité (numérique). La manière la plus simple de vérifier une reproduction exacte, c’est celle de l’ADN : d’avoir un double de l’information, ce qui permet de comparer point à point et de corriger ou de détruire en cas de mutations. Les méthodes adoptées en informatique sont plus légères, évitant de tout envoyer en double et se contentant d’une « checksum », c’est-à-dire en envoyant à la fin d’une suite de 0 et 1, leur somme. A la réception, on refait la somme et si ce n’est pas la même on ne valide pas, ce qui provoque le renvoi des données. Au niveau le plus basique, on se contente de la parité, c’est à dire indiquer par le 0 ou le 1 final si la somme d'un octet (8 chiffres binaires) est paire ou impaire, sinon il y a des systèmes plus élaborés comme les CRC (Code de Redondance Cyclique) dont le but est non seulement de repérer une erreur en prenant le moins de place mais même de pouvoir la réparer (quand il n'y en a qu'une). On voit que la part de l’entropie qui est celle de l’erreur de transmission est surmontée par le contrôle et la répétition qui sont une dépense supplémentaire d’énergie, donc une production supplémentaire d’entropie au niveau thermodynamique mais assez minime et qui permet de supprimer l’entropie de l’information en obtenant une reproduction parfaite à l’arrivée. Une autre façon de valider une transmission, c’est de lui faire respecter un protocole avec notamment un code de départ et de fin (comme pour les gènes). Si le protocole n’est pas respecté, là encore ce qui avait été reçu est ignoré (déchet de l’entropie) et une retransmission est demandée pour supprimer l’entropie du résultat.
Il n’y a donc rien de mystérieux dans la capacité du numérique à surmonter la loi universelle de l’entropie selon des méthodes qui sont assez semblables à celles du vivant. On a vu comment on passait du physique au numérique, du signal au code, comment on pouvait s’appuyer sur des données fiables mais il faut comprendre maintenant comment un programme les manipule, comment une machine effectue des calculs et quel est le support matériel de ces opérations logiques. La programmation actuelle consiste à utiliser des bibliothèques de fonctions. Les langages informatiques de « haut niveau », sont lisibles et modifiables facilement par des programmeurs mais ont besoin être « compilés » pour être traduits en code binaire compris par la machine, ayant une correspondance électronique. De mon temps, on était obligé de programmer quelque fois en « langage machine » les parties les plus critiques ayant besoin d’être optimisées (sur les ordinateurs très lents de l’époque). Ce langage machine a besoin lui aussi d’être compilé mais, s’il est très difficilement lisible (il faut le suivre pas à pas), il a l’avantage cependant de mieux refléter le fonctionnement matériel et donc de comprendre comment les instructions sont exécutées, comment l’esprit immatériel devient puissance matérielle.
Il faut d’abord parler de la mémoire, son organisation spatiale (étendue) et son contenu (pensée). La matérialité de la mémoire, du hardware, se traduit par ce qu’on appelle des adresses mémoires qui désignent un emplacement matériel, comme on peut désigner des cases d’un tableau ou d’une bataille navale par sa colonne et sa ligne. Un pointeur sur cette adresse (matérielle) va lire son contenu qui est un code numérisé dont le sens est déterminé par le programme, le software, comme on l’a vu, et n’est déjà plus matériel. Le programme lui-même est chargé dans la mémoire, constitué de codes interprétés séquentiellement par le microprocesseur. Ces instructions sont soit spatiales (matérielles), soit logiques. L’ordre MOV va ainsi prendre le contenu d’une adresse mémoire (une case) pour la recopier à une autre adresse (une autre case), ce qui veut dire affecter une valeur à une variable. Ecrire A=B consiste à un MOV du contenu trouvé à l’adresse de la variable B pour le recopier à l’adresse de la variable A. Le dualisme se trouve ici entre l’adresse et son contenu, le pointeur et ce qu’il pointe, l’écriture matérielle et le sens immatériel. L’autre instruction spatiale concerne le programme lui-même et lui permet de sauter des instructions soit par un GOTO, soit par un JMP (jump), utile avec un test conditionnel en général mais qui se réfère bien à la matérialité du programme et l’adresse mémoire des instructions.
Il est bien connu que la base de la programmation, c’est de mettre une condition à une action : IF (conditions) THEN … ELSE …, les boucles n’en étant qu’une variante répétitive. Toute la programmation consiste à déterminer des bifurcations de comportement en fonction d’une condition donnée (ou ensemble de conditions). L’ordinateur, ce qu’il sait faire, ce sont des calculs (ce que les machines à calcul savent faire depuis Pascal). Donc, lorsqu’on veut tester une condition, on va comparer une variable à une valeur, c’est-à-dire le contenu d’une adresse mémoire comparé au contenu indiqué dans le programme. L’opérateur CMP va donc faire un MOV matériel du contenu trouvé dans ce qu’on appelle un registre qui va y soustraire la valeur à comparer. Si le résultat est 0, c’est qu’il y a bien égalité, la condition est remplie - mais on peut tester aussi bien si la valeur est plus grande ou plus petite. Ensuite, en fonction du résultat, le programme va sauter à une ligne de programme ou une autre. Reste à y ajouter les opérateurs logiques AND, OR, NOT pour disposer de presque toutes les ressources de la programmation mais un programme n’est rien s’il n’agit pas sur l’extérieur, au moins un écran, une « sortie » comme on dit, l’entrée étant soit le clavier, soit le réseau, soit des capteurs qui branchent le numérique sur le monde. C’est ainsi que l’esprit agit sur la matière, d’avoir déjà une matérialisation électrique (tout comme dans le cerveau), ce qui permet à l’ordinateur de déclencher un relais de commande (un muscle), sans rien de mystérieux, la merveille étant juste qu’un courant infime puisse mettre en route une machine de grande puissance (tout comme une toute petite information peut faire basculer un empire).
Ce ne sont pas des choses compliquées ni qui prennent beaucoup de temps à apprendre mais qui mériteraient d’être apprises, mieux connues et méditées dans nos sociétés numériques, permettant de recadrer les réflexions sur l'esprit et illustrant le dualisme fondamental entre signifiant et signifié, le signal et l’information, le hardware et le software, l’adresse mémoire et son contenu, aussi éloigné du dualisme de Descartes que du monisme de Spinoza. On peut bien sûr protester qu’on n’est pas des machines, encore faudrait-il le prouver ! Du moins cela devrait être l’occasion de mieux déterminer ce qui nous en distingue radicalement, maintenant qu’on ne peut plus croire que notre esprit immatériel d'essence divine flotterait dans l’air mais qu’il y a bien une matérialisation de l’immatériel tout comme le langage matérialise la pensée, lui donne objectivité. La question doit être reprise à nouveaux frais d’un matérialisme spirituel, d’un dualisme assumé redonnant tout son poids au corps et aux émotions (la socialité), en même temps que les machines, bien qu'il leur manque un certain nombre de nos capacités, apprennent à penser selon les mêmes lois universelles.
PS 2023 : Depuis que ChatGPT a montré l'étendue de ses performances, éclairant le fonctionnement de notre esprit (procédant de la prévision probabiliste de la suite, à partir de très grandes bases de données), on voit mieux ce qui manque à cet article pour prétendre parler d'esprit quand il s'agit seulement ici d'information et de calcul. C'est un premier niveau de matérialisation de l'immatériel mais ce qui manque à ces simples computers, ce sont les réseaux de neurones et leur traitement statistique à partir de l'expérience ou de l'apprentissage pour donner un langage à l'esprit, l'implantation numérique de ces réseaux de neurones ayant montré leur puissance (à l'étonnement de tous). Qu'on soit mieux ainsi au niveau de l'esprit ne veut pas dire qu'on atteint encore l'esprit humain mais on s'en rapproche rapidement.
Ca correspond tout à fait à mes études après le bac, je savais pas trop quoi faire, j'avais lu un peu Spinoza, et j'ai choisi une filière qui était à très large spectre, physique, chimie, matériaux, optique, électronique, un peu de programmation...
De la théorie et de la pratique en labo, mesures, validations, interprétations, asservissements...
On savait comment fabriquer une mémoire avec des transistors, comment utiliser les courbes caractérisantes d'un transistor pour le faire, comment un fabriquer un chip silicium dopé, comment était agencée une unité arithmétique et logique avec des mémoires, programmer en langage machine puis assembleur puis basic.
J'avais trouvé très stimulantes ces études, permettant de décortiquer toutes les étapes, allant de la matière la plus intime au langages logiques et systèmes de régulations en tous genres, y compris chimiques.
Votre article est très "dérangeant" d'un point de vue culturel, en particulier pour notre cosmologie naturaliste. Comment notre culture peut-elle évoluer pour s'accomoder de cette représentation très matérialiste et dualiste du vivant? Pourquoi une telle perspective, qui se dessine malgré tout, produit tant de réactions religieuses?
Que de blessures narcissiques depuis le géocentrisme.
Quelles que soient nos représentations, quelle que soit leur justesse, elles sont une réalité en interaction avec les autres réalités.
Il n'y a pas identification de l'homme et de la machine, seulement des mécanismes anti-entropiques par lesquels l'information se matérialise. L'homme n'est pas une machine mais la machine calcule de la même façon qu'un homme. Il s'agit de savoir comment fonctionnent nos instruments avec le dualisme fondamental du hardware et du software, du son et du sens. Cela permet de passer de la fascination de l'esprit et de ses représentations, à sa dynamique vivante qui l'anime et qui manque tout-à-fait aux machines.
Les deux, machine et homme, calculent mais l'homme passe du coq à l'âne en une fraction de seconde, ce que ne fait pas la machine calculatoire. Toute la différence est là, la machine est conçue pour rester dans un domaine de stabilité.
"On peut bien sûr protester qu’on n’est pas des machines, encore faudrait-il le prouver !"
Qu'est ce qui peut bien nous séparer d'une machine en effet?
Jorion dit que nous faisons des bébés et pas les machines.
C'est une boutade de dire qu'il faut prouver qu'on n'est pas des machines, je dis juste après qu'on s'en distingue radicalement, mais il est vrai que la plus grande partie de notre vie est machinique et qu'il faut toujours prouver qu'on est un homme.
Ce qui nous distingue de la machine est du côté du vivant, sans doute, plus que de la pensée logique et même s'il n'est pas dit que des machines évolutives n'arriveront pas à copier le vivant dans sa spontanéité interne. J'ai montré qu'on peut identifier le vivant au cognitif dès la première cellule, mais ce cognitif là n'est pas de la pensée même s'il partage déjà tous les procédés cybernétiques (boucle de rétroactions, réactions conditionnelles, correction d'erreurs). Sans doute ce qui fait l'organique, c'est cette combinaison de cellules à la base, avec un fonctionnement autonome, et le fait de fonctionner comme un tout, de manière très forte, jusqu'à l'indiscernable. Je serais tenté d'y adjoindre la pulsion vitale, l'effort permanent pour se maintenir en vie, se nourrir, se régénérer mais il y a déjà des robots militaires autonomes qui se nourrissent de déchets végétaux...
Il y a quand même une différence radicale aussi entre notre pensée et celle des robots, liée au langage, aux rapports sociaux, à la culture et à l'histoire mais il n'est pas certain qu'on ne puisse apprendre tout cela à une intelligence artificielle. Sauf que c'est loin d'être toujours positif, qu'il y a toute la bêtise humaine et la folie qui va avec !
La question n'est pas réglée de ce qui nous spécifie et on peut dire que c'est assez étonnant tant on accumule de savoirs, que ce soit sur le cerveau ou la cellule qu'on commence même à reconstituer numériquement mais qui gardent inexplicablement leur mystère (pour combien de temps encore ?).
Bien qu'il ait travaillé dans l'intelligence artificielle, je trouve que Jorion dit pas mal de bêtises sur les robots.
Quelques sketchs de Dilbert de Scot Adams sur les relations humains-robots.
Toutes nos certitudes et tous nos repères sont bouleversés par nos connaissances. Dans un autre registre que les robots, Dolly, la brebis clonée, avait marqué les esprits et chamboulé en profondeur nos repères culturo/religieux les plus intimes... et c'est pas fini!
Et Jorion qui insiste avec sa taxe Sismondi sur les automatismes, comme si toutes les autres innovations concernant la matière, chimie, nantech, biologie, modes d'organisation, législation, fiscalité n'intervenaient pas dans les gains de productivité. Ce type est franchement borné :
"Bruno Colmant et moi proposions dans ce même ouvrage une taxe Sismondi sur la productivité des machines, qui permette – comme l’avait suggéré l’économiste-philosophe suisse Jean Charles Léonard de Sismondi (1773 – 1842) – que le travailleur remplacé par un logiciel ou un robot bénéficie aussi de cette mécanisation globale qui constitue un progrès pour l’espèce humaine dans sa totalité, au lieu d’en être simplement la victime."
http://www.pauljorion.com/blog/2015/02/13/trends-tendances-le-robot-a-gagne-jeudi-12-fevrier-2015/
oui, j'ai vu et c'est affligeant, montrant à quel point on ne peut s'en sortir avec de multiples propositions farfelues - la bonne volonté ne suffit pas !
Je suis justement, depuis quelques jours, en train d'écrire le prochain article qui réfute le lien du chômage avec l'automatisation alors que son origine est budgétaire. Ce n'est pas à l'adresse de Jorion que je me suis lancé sur ce thème car il n'est malheureusement absolument pas le seul à craindre le grand remplacement par les robots !
La fixette de Jorion sur la taxe Sismondi est à peu près équivalente à ceux qui pensent que le protectionnisme est la solution sans vouloir voir les effets probables en retour. On peut leur faire toutes le démonstrations, ils restent religieusement collés à leurs recettes magiques.
Une étude concernant la relation entre emplois post-industriels et charges sociales qui telles quelles pénalisent les finances publiques :
http://www.institutmontaigne.org/fr/publications/marche-du-travail-la-grande-fracture#.VN26oXnjEQU.twitter
Jorion est bien gentil, mais il a un surmoi hypertrophié. C'est bien pire que Lordon que vous qualifiez de professeur.
Jorion compense ses déceptions de n'avoir pas été adoubé par la gente universitaire, le désir de l'autre. J'ai rarement vu un gus se la jouer à ce point rebelle et autorité incontournable, il est ridicule dans sa recherche de fondations de son autorité.
Il est insupportable de prétention, même ses photos montrent sa rigidité professorale.
Qui donc n'a pas un surmoi hypertrophié ?
Jorion est comme il est .
Ce qui compte c'est de pouvoir accepter et dépasser ça et nous mettre en confrontation raisonnée vers un objectif de bien commun.
Le chômage est le produit de notre système complexe et pourrait comme tous les autres effets négatifs s'aborder par la réforme ( mesures, programmes, ajustements) si la logique même de ce système n'arrivait pas dans tous domaines , au bout du bout de son absurdité ; ce qui nous met en danger .S'il est vrai qu'on est déterminé et qu'on ne l'est pas , il est absolument stupide de s'enfiler dans un système qui nous détermine entièrement , c'est à dire sur lequel on a plus aucune prise.
En parlant de robot , voilà un truc génial qui peut vraiment aider :
http://www.dailymotion.com/video/x14gv4n_oz-un-robot-au-service-des-maraichers-toulouse_tech
Je n'accable pas Paul Jorion pour qui j'ai de la sympathie et je sais bien que le moindre petit succès ou pic de fréquentation monte facilement à la tête. J'en fait l'épreuve à chaque fois et c'est une des raisons pour me tenir éloigné du monde et des "témoignages d'admirations", impossible de ne pas s'y croire et il faut que je me rappelle toutes les conneries de mon existence ou même du dernier texte avant que je ne le corrige pour revenir sur terre et devoir déprimer à ne pas pouvoir répondre à la demande d'avoir la solution et d'entraîner les foules...
Le problème, c'est que Paul Jorion n'est qu'une des individualités qui se distinguent par des discours différents tout en espérant pouvoir les unifier avec ses propres idées, bien sûr. Je n'échappe pas à la règle en constatant à quel point, hélas, je suis en désaccord avec la plupart, sauf que je ne me fais plus d'illusions sur ma capacité à convaincre le monde entier !
Il est vrai que la taxe Sismondi, c'est n'importe quoi, tout comme la peur des robots, mais toutes les autres vedettes "hétérodoxes" sont à côté de la plaque et enfermés dans leur propre dogmatisme et leur bonne volonté, que ce soient Méda, Larrouturou, Friot ou dans un autre genre que Paul Jorion préfère apparemment, celui du national-capitalisme des Lordon, Sapir, Todd. Il faut ne plus avoir le choix comme les Grecs pour s'entendre, sinon impossible de savoir quoi faire dans la diversité des opinions, analyses, propositions. Dans ces conditions, on ne peut rêver à aucune victoire quand on ne s'accorde pas sur leur objet même.
On voit qu'on n'a pas tellement à la ramener y compris par rapport aux robots, notre merveilleuse intelligence ne nous mène pas bien loin, les biais cognitifs pèsent de tout leur poids et ne nous permettent pas de peser sur les événements, spectateurs atterrés ou partisans enthousiastes d'une nouvelle mode. Et il faudrait avoir peur d'une intelligence qui dépasse la nôtre ?!
En plus des innombrables bouleversements qui érodent nos repères culturels, les robots sont en passe d'assurer l'essentiel de la production de nos besoins matériels. Une des analyses qui me semblent le mieux poser le pb du travail se trouve ici, c'est de Yves Caseau.
Pour Yves Caseau, le principal domaine de travail qui sera peu accessible aux robots serait celui des "interactions".
Est-ce que vous croyez que le levier budgétaire serait à même de rééquilibrer la destruction/création de places?
Je crois que rien n'est simple et que, donc, il ne suffit pas d'une bonne politique budgétaire. Quand elle est inappropriée, cela produit beaucoup de chômage, cela ne veut pas dire qu'une bonne politique supprime le chômage, elle le fait seulement baisser mais il y a d'autres facteurs extérieurs que le budget ne suffit pas à régler dès lors qu'on n'est pas isolé du reste du monde. Il y a donc d'autres mesures à prendre, comme toujours, il faut toujours s'adapter et lorsqu'on est confronté à de grands bouleversement et la fin de l'ère industrielle, il faut se préparer à ces difficiles reconversions. Comme cela dépend des territoires et de leur situation, une bonne partie est locale. Je trouve que des monnaies locales et des coopératives municipales rempliraient bien ces fonctions mais cela ne semble pas à la hauteur du problème...
Je trouve curieux qu'on s'imagine que le numérique épargnera les interactions alors que c'est son domaine privilégié ! Il y aura des destructions d'emplois par millions mais ce qui fait le chômage, c'est de ne pas pouvoir monnayer ses talents, ce n'est pas de répondre à des besoins supposés limitées comme ceux d'animaux d'élevage. Y aurait-il un monde où l'on n'aurait plus de talents ? plus besoin les uns des autres ?
Je crois quand même que ce qui nous fout dans l'eau , c'est notre méthode et objectifs de gouvernance , la gouvernance étant elle même structurée et structurante de ce qui se construit :
Les évolutions technologiques , les progrès qu'on peut faire sont en soi positifs ; ils nous donnent beaucoup plus d'efficacité et de pouvoir , nous libèrent de nombreuses contraintes . Mais si face à cela on a un système fondé sur la croissance , la compétition économique, l'accumulation des biens, des richesses et du pouvoir ; on a effectivement des destruction d'emplois ; mais pas que ; des destructions dans tous les domaines .
Il faut penser global ; c'est devenu une nécessité ; il faut qu'on parvienne à choisir des options , des directions , on est contraint de réfléchir et planifier ;et par conséquent de changer de régime politique ; la régulation avale , la simple gestion ,qui repose sur la démocratie représentative et les élections ne suffit plus . Il faudra introduire en complément des structures institutionnelles de réflexion ,recherche , débat , adossées à la décision référendaire .
Par exemple l'agriculture se robotise , on peut empiler les vaches et grâce aux robots de traite , de nettoyage , d'alimentation , une seule personne peut s'occuper d'un cheptel important . Sauf que le laissez allez au fil de l'eau , l'eau étant la rentabilité et le profit , dans ce secteur , comme dans les autres conduit à des aberrations ; si on pense global on introduit beaucoup d'autres données qui font que ces concentrations animales ne sont sans doute pas le fin du fin en matière d'aménagement et développement du territoire ; au niveau écologique aussi , et au niveau du travail : il serait beaucoup plus profitable sur le plan humain et écologique de développer de petites fermes , qui peuvent aussi utiliser des nouvelles technologies !
Le but ultime de l'humain n'est pas d'amasser de l'argent grâce à la création de ce type de structures et de pouvoir aller faire du ski ou partir en croisière ; on a abandonné le plaisir simple de travailler , d'inventer .....Il est aberrant de souhaiter que 1% de la population s'acquitte de loger , habiller ,chauffer , nourrir les autres pour permettre à ces autres de s'empiler dans des méga cités aller au musée , au mac do et embouteiller les routes pour fuir ces constructions cinglées.
Je ne crois pas que le principe de rentabilité soit un principe naturel de sélection ; du moins pas comme on l'organise ; il est en effet évident que l'évolution s'opère par ce qui marche ou ce qui ne marche pas; mais je crois que la manière dont on s'y prend n'est pas celle là ; effectivement le jeu du marché parvient au bout d'un temps à sélectionner ce qui marche ou pas mais cette sélection dite naturelle n'a rien de rationnelle et est un grand gaspillage et il lui manque surtout la référence du raisonnement global : on a des voitures à essence au gasoil au gaz électrique et hydrogène et des modèles et options en veux tu en voilà et tout ce petit monde se sélectionne par la demande , comme si la demande savait ce qu'on veut vraiment au bout du compte ; c'est un fonctionnement borné , court terme ..Il faudrait analyser le potentiel des techniques nouvelles , il faudrait replacer la problématique transport dans un cadre plus global et impulser des politiques publiques ; ce qui s'appelle projeter et planifier.
Alors bien sûr si en plus il y a les robots et de fabuleux autres progrès , si au nom de la divine sélection par l'argent on laisse les choses aller au fil de l'eau ......ça va devenir compliqué !
Temps qu'on a pas trop de pouvoir sur les choses et qu'on les subit , on peut se permettre d'avancer en se laissant porter ; mais à partir du moment où on s'est rendu maître et qu'on s'est libéré , les limites du passé doivent être elles mêmes réinventées politiquement ; Sinon question sélection , ce qui marche et ce qui ne marche pas , on pourra dire que l'espèce humaine , ça n'aura pas marché .D'autres formes de vie nous survivront.
L'argument des rapports de force qui sont ce qu'ils sont est exact mais ce rapport de force lui même est nourri et produit par le système politique ; il est intégré au fonctionnement croissance compétitivité libre entreprise libre accumulation ,et il ne s'inverse que dans les moments de crise ; l'inversion permanente dont nous aurions besoin ne peut se concevoir que dans un régime de démocratie cognitive adossée au référendum.
Salut Jean,
J'ai lu l'article jusqu'à plus de la moitié, je lirais la suite demain.
Je tiens à préciser pour le domaine de l'humain (socio-culturel) qui contient aussi de la neg-entropie et de l'entropie, qu'il puisse exister selon certain témoignage subjectifs propartisans de la spontaneité, une neg entropie paranoïaque qui puisse désservir la neg entropie. C'est cette même neg entropie paranoïaque (fondée sur l'angoisse ?) qui les a rendu pro entropie... ceux-ci restant pourtant alter mondialiste et écologiste libertaires. Je n'adhère pas à leur vision dialectique mais tiens à la pointer.
Je reste partisan de la neg entropie en tant que partisan de la vie, et reste même assurément certain qu'une neg entropie trop spontanée est plus entropique dans notre système qu'autre chose... Je tenais juste à nuancé ou plutôt apporté cet ajout qui stratégiquement parlant et même dans notre ressentis instinctif peut se confirmer : la neg entropie sociale ou autre de nature paranoïaque pourrait apparemment nous desservir.
Amitiés
Merci de cet article fait toujours avec passion et coeur.
Baz
Oui, toute néguentropie n'est pas bonne et peut se rigidifier ou s'emballer. De toutes façons toute inversion de l'entropie est locale, située, l'entropie elle-même ayant un côté subjectif qui dépend de l'intentionalité et des informations à notre disposition. On peut ainsi, comme Lévi-Strauss, vouloir s'opposer à l'entropie humaine qui mêle tous les peuples et fermer les frontières pour sauvegarder la diversité des cultures mais cela ne pourrait plus se faire à l'époque du réseau global, ne pouvant que mener à des politiques criminelles. Toute entropie n'est pas mauvaise comme la réduction des inégalités. Donc, oui, il ne faut pas en faire un dogme, transformer un fait en norme sinon en religion, mais cela ne doit pas nous faire ignorer les processus anti-entropiques à la base de la vie, comme on fait le ménage chaque matin pour remettre un peu d'ordre dans la maison sans avoir besoin que tout soit un peu trop impeccable (l'obsessionnel rejoint souvent le paranoïaque).
Il ne faudrait peut être pas perdre de vue non plus ce que les économistes appellent "l'effet Rebond", c'est à dire une annulation des possibilités de réduction d'énergie offertes par les technologies numériques. Pour reprendre l'exemple de la correction d'un code en communications, il peut exister un seuil au delà duquel l'énergie économisée pour transmettre sans bruit, c'est à dire selon un processus néguentropique, pourrait se retourner en son contraire (?) sous l'effet de l'augmentation de la quantité d'information à transmettre. Dans ce cas, l'énergie dépensée pour corriger le code, représentant nécessairement un processus entropique, pourrait finir par représenter une quantité significative, à même de tempérer les effets néguentropiques escomptés.
Il ne s'agit pas tant là d'un effet rebond que de la contre-productivité d'une optimisation qui passée un seuil devient trop coûteuse (80/20). Tout programmeur doit faire la balance entre le temps passé à optimiser un code et le temps que cela fera gagner à l'utilisateur. Comme je l'ai déjà dit, la néguentropie est toujours locale, on ne peut en faire une loi générale, voulant par exemple augmenter les inégalités. Je n'en ferais pas cependant une question d'énergie, l'énergie n'étant pas le problème (le soleil nous en donne plus qu'on en a besoin), notre problème, ce sont les énergies fossiles et les émissions de gaz à effet de serre !
Enseignement "numérique".
Oui, enseigner le "fonctionnement d'un programme" me parait indispensable à des gens qui manipuleront toute leur vie des ordinateurs sous différentes formes PC, téléphones, robots, 'objets connectés' etc. Encore faudrait-il parvenir à faire entendre aux décideurs (le plus souvent ignares) l’intérêt d'une telle approche. A la fois très pragmatique mais aussi théorique au sens montrer l'automate basique qu'est un ordinateur (et que nous sommes plus ou moins).
Montrer les ressemblances et les différences et permettre à chacun de comprendre et par là de repenser ou inventer d'autres fonctionnements, d'autres usages.
La volonté affichée de mettre dans les classes l'internet plus des machines ne me parait pas une bonne solution pour apprendre l'informatique - un peu comme croire enseigner les maths avec une calculette. Je pense que chaque élève doit d'une certaine manière parcourir l'évolution des techniques pour en comprendre les mécanismes d'apprentissage, d'essais et d'erreurs, de l'effort nécessaire au raisonnement. formuler une idée ou même plus simplement ses sentiments ne vient que par le dialogue organisé, l'écoute la prise de parole.
Le truchement par la technique ne devant venir que plus tard, après une formation et des capacités minimums.
Je ne dis pas de ne pas montrer et faire fonctionner des machines en classe, c'est une sujet d'étude important, je dis que mettre trop tôt à disposition en classe et pour chaque élève (comme préconisé) une machine (tablette, PC ..) branchée sur l'internet risque de retarder certains apprentissages plus fondamentaux et par là handicaper les élèves.
Je suis informaticien (vieux et très éclectique), donc très au courant des plaisirs de la programmation, du bonheur du processus d'inventer (et de l'invention qui fonctionne et qu'on perfectionne) ... Mais maîtriser un seul outil est une aliénation si on n'apprend pas à maîtriser (au moins comprendre) tous les outils (je parle de tous les aspects de l'informatique - différentes classes de langages mais aussi des multiples usages, de la machine à laver au simulateur de climat en passant par le site web, le téléphone, le robot ... ), les concepts, les théories et l'ensemble de la 'mécanique'. Il faut d'abord un minimum d'agilité intellectuelle, une approche multiple, variée qui est fort éloignée de l'apprentissage de l'informatique que voit et comprend le vulgum pecus, à savoir se promener sur des pages internet, composer un courriel, chatter etc ...
La présentation du langage assembleur comme indiquée dans l'article, est UN aspect du fonctionnement, déjà élaboré bien que tout proche des 'tripes' de la machine. Dans un cours d'initiation j'aborderais d'autres aspects plus 'simples' tout en y incluant bien-sûr celui-ci.
On a vu il y a quelques années un ratage imbécile en mettant des machines dans les classes. Personne ne savait qu'en faire et rares furent les veinards qui purent en profiter. Un gâchis sauf pour le fabricant....
Les pouvoirs publics recommencent l'expérience mais à l'envers, on offrira à chacun une machine qui, dans la course technologique très contestable par de nombreux aspects, tombera dans l'obsolescence en quelques mois. Il faudra donc les remplacer rapidement et contribuer à faire des montagnes de machines en excellent état mais ringardes, dépassées - donc délaissées - aux yeux des consommateurs, avides de nouveautés. Certes on pourra toujours les revendre aux pauvres ...
L'informatique n'est PAS qu'une technologie bien que très dépendante. C'est d'abord une science, un objet d'étude au même titre que d'autres. Ce n'est pas tout à fait vrai j'en conviens c'est pourquoi j'en préconise l'apprentissage assez tôt.
L'informatique permet des 'émergences' par exemple comme le langage permet de manipuler des concepts d'exprimer d'échanger des idées et non pas simplement énoncer la perception du réel.
désolé d'être si long.
Zebu continue la discussion sur robots et emplois ici.
Dans cet article (non ouvert aux commentaires) la distinction "travail nécessaire" et "travail choisi/travail autonome" ne m'y semble pas assez soulignée dans la mutation en cours. A la place du travail choisi, il utilise le terme de "travail présentiel" qui ne me semble pas approprié, mais qui se marie assez bien avec un concept de revenu d'existence dans l'air du temps.
L'article frôle l'idée de mutualisation du travail social qui est assimilé à un travail présentiel:
"On pourrait ainsi retrouver la question du revenu garanti, ou de l’accès garanti à un ensemble de ressources (santé et éducation justement, mais aussi transports, communication et culture, et pourquoi pas logement) comme non pas des ‘contreparties’ mais bien plutôt comme le juste retour socialisé d’un travail social effectué et facilité par la robotisation : demain, quelqu’un interviendra dans le quartier d’un de mes proches en besoin de présence à ma place, parce que je ne peux pas le réaliser (éloignement géographique, indisponibilité…), grâce à des réseaux sociaux sur internet qui faciliteront la mise en oeuvre de ce travail présentiel." Ce qui est très certainement sous-estimer le travail réalisé par ceux qu'on nomme aujourd'hui, depuis qu'ils ont un statut, les aidants, dont le travail n'est pas productif, mais est beaucoup plus que présentiel.
L'article a l'avantage de ne pas opposer le développement des robots aux évolutions du travail mais de faire avec, ce qui me semble beaucoup plus raisonnable et réaliste.
Je note que les notions de travail productif autonome et de travail social sont très souvent plus ou moins mélangées dans les divers argumentations sur l'évolution du travail, comme c'est le cas dans cet article de Zebu, alors qu'ils relèvent de deux logiques assez différentes. La notion de travail productif autonome y est trop peu mobilisée.
Il passe effectivement à côté du problème central ontologique, à savoir l'autonomie pour émanciper de la subordination salariale qui est une plaie.
Sa distinction entre travail présentiel et travail productif me parait assez fumeuse et en fait datée.
Ce commentaire aurait dû se faire sur l'article suivant ! (recopié désormais sur le bon article)
J'avoue que je n'ai pas trop bien compris son argumentation qui m'a paru confuse (identifiant production et destruction) et faisant l'impasse sur le travail choisi, en effet, mais la distinction productif/présentiel ne vient pas de lui, ce sont les termes utilisés par l'INSEE dans la référence qu'il donne. Je trouve moi aussi ces catégories mal nommées, le productif étant l'exportable et le présentiel le local (pas seulement le social). On voit bien cependant que les créations d'emplois se font surtout dans ces "services à la personne" pour lesquels les robots sont très utiles mais ne remplacent pas le contact humain. Ce que Gorz et d'autres mépriseraient à tort comme travail de serviteur ne peut certes pas rendre riche ni offrir une grande carrière, mais ce n'est certainement pas un travail en voie de disparition. Il n'y a quand même pas que le local qui se développe, tout ce qui est jeu, programmation, graphisme, etc., tout le secteur créatif prend de l'importance même si c'est réservé à une "élite" constituée d'un sous-prolétariat pléthorique et d'un petit nombre de vedettes qui touchent le gros lot.