CHATGPT ET NOUS !
- damienclergetgurna
- 16 sept.
- 13 min de lecture
Dernière mise à jour : 17 oct.
Introduction
L’IA, c’est révolutionnaire. Peut-être moins pour vous que pour moi et pour les gens de ma génération, parce que vous avez tendance à la traiter dans le prolongement des applis que vous utilisez déjà. C’est « juste une appli super plus efficace, super plus intelligente ». Et pourtant, si on prend un peu de recul, ce qui est en train de nous arriver est d’une ampleur comparable à la révolution industrielle — sauf que ça va beaucoup plus vite. La révolution industrielle a mis des décennies ; nous, ça fait trois ans. Trois ans, c’est rien, et en trois ans le phénomène a déjà métamorphosé bien des pratiques : disparition de certains boulots (traducteurs/interprètes...), suppression des DM dans pas mal de classes, perturbations à prévoir du côté des cols blancs. Et on n’est pas au bout de ses capacités.
D’où la question, simple et abyssale à la fois : faut-il craindre ChatGPT ? Si la question mérite d’être posée, c’est qu’elle ouvre une aporie véritable, un débat où le pour et le contre se tiennent. D’un côté, la crainte d’une évolution machinique qui nous échappe, qui nous dépossède de nos savoir-faire, nous déclasse et reconfigure le travail à une vitesse folle. De l’autre, l’affirmation que « un outil demeure un outil » : une machine n’est jamais que l’usage qu’on en fait, elle n’a pas de fatalité propre ; elle est instrument, dont la valeur dépend de son utilité.
C’est à partir de cette alternative que le problème surgit et qu’il faut le formuler proprement : qu’en est-il de la machine ? La machine est-elle un simple instrument dont le caractère bon ou mauvais dépend exclusivement de l’usage qu’on en fait ? Ou bien y a-t-il, dans ce que nous appelons « machine », quelque chose qui excède la simple instrumentalité ?
La machine comme outil : pourquoi l’outil, en lui-même, est « neutre »
On s’imagine volontiers que la technique découle directement de la science : on découvre, on prouve, on améliore — et la machine suit, comme un train sur ses rails. Et puisque on n’arrête pas le savoir, on se raconte que l’évolution technique serait une sorte de fatum : inexorable, continue, irrésistible. Or cette image linéaire est trompeuse. La science vise le vrai et le faux ; elle est neutre axiologiquement. La technique, elle, n’existe pas sans la question des fins : un objet technique n’a de sens que par la finalité à laquelle il répond. Entre un théorème et une machine, il y a un saut, un aiguillage : la détermination d’un usage. Autrement dit, ce n’est pas « la science qui pousse la technique » comme une force géologique ; c’est un choix pratique — social, économique, politique — qui convertit un savoir en moyens ordonnés à des fins.
La science, c’est la marche vers le vrai (contre l’erreur). La technique, c’est l’ordonnancement de moyens à des fins. Cette seconde dimension — la finalité — n’est pas contenue dans l’état d’un savoir. Elle dépend d’un horizon de valeurs (une axiologie) qui détermine ce qu’une société juge utile, souhaitable, tolérable. On peut connaître les lois d’un phénomène sans vouloir en faire tel ou tel usage. D’où cette conséquence décisive : l’application technique n’est jamais la simple ombre portée d’une vérité scientifique ; elle est une décision collective sur ce qu’on veut atteindre, éviter, prioriser. Même “la même” science peut engendrer des techniques incomparables si l’on change la fin (sécurité, confort, vitesse, réparation facile, sobriété, prestige, etc.). C’est le paramètre oublié de notre modernité : la technique est saturée de fins.
Autre présupposé massif : la technique serait la matrice des formes sociales. La manière dont nous périodisons l’histoire entretient ce réflexe : âge de la pierre polie, révolution néolithique (agriculture), invention de l’écriture, du métal, de l’imprimerie, de la machine à vapeur, etc. Tout se passe comme si une grande innovation accouchait mécaniquement d’une nouvelle forme de société. Cette narration est séduisante (elle donne des repères clairs), mais elle hypnotise : elle fait oublier que toute invention n’est pas destinée à la même place dans la vie commune, et qu’une même découverte peut donner lieu à des applications divergentes selon les attentes d’une culture.
Les techniques reflètent donc des états sociaux — elles n’en sont pas l’unique matrice. Exemple classique : la poudre est connue en Chine bien avant son usage militaire systématique en Occident ; pourtant, on en fait d’abord des feux d’artifice. Pourquoi ? Parce que les priorités sociales ne sont pas les mêmes : équilibre démographique, contrôle rituel, ordre symbolique… Une même découverte ne bascule pas nécessairement dans la même trajectoire : elle se plie aux problèmes, aux peurs, aux désirs d’une société donnée. La technique n’est pas le moteur caché qui “produit” la culture ; elle est, la plupart du temps, produite par elle.
Ce qui commande profondément la physionomie d’une société, c’est moins la liste de ses gadgets que l’organisation de la production : qui décide ? qui possède ? qui exécute ? comment se divise le travail ? Prenez la famille — première unité de production : elle répartit les rôles (soin, protection, transmission, subsistance), et cette répartition produit des figures (féminité/masculinité) comme effets sociaux de cette division initiale. Rien d’étonnant, dès lors, à ce que la remise en cause de ce partage — via l’émancipation des femmes, la reconfiguration des rôles — conduise, aujourd’hui, à interroger les identités qui en dérivaient. L’outillage suit les formes du travail et les rapports de production ; il ne les décrète pas.
Si, par conséquent, la technique n’est ni l’ombre portée de la science, ni le deus ex machina de l’histoire humaine, alors l’outil, en lui-même, est bel et bien neutre — au sens où il n’a aucune autonomie de finalité propre. Tout outil est “au service de”. Il faut donc poser la seule bonne question : au service de qui est l’IA ? C’est ici que notre crainte devient légitime. À l’ère industrielle, la machine-outil n’était pas conçue pour l’ouvrier ; elle servait d’abord la rentabilité du patron et la logique du capital. De même aujourd’hui, il est parfaitement possible — et c’est l’inquiétude de beaucoup — que l’IA devienne un formidable levier de prolétarisation des cols blancs, parachevant chez les travailleurs cognitifs ce que la révolution industrielle avait infligé aux cols bleus : décomposition des métiers en tâches, transfert des compétences vers la machine, dépendance au temps vendu plutôt qu’à l’œuvre produite. Marx, réveille-toi ! La question n’est pas “la machine va-t-elle nous échapper ?”, mais “qui la tient, pour quoi faire, et sur qui retombent ses coûts et ses bénéfices ?”.
De producteur à simple travailleur : le risque d’aliénation
Hannah Arendt, dans Condition de l’homme moderne, trace une distinction cruciale entre la production et le travail. La "production" (le poiein) est l’activité par laquelle l’homme fabrique un monde durable : des objets, des œuvres, des institutions qui survivent à l’acte qui les a engendrés. Elle est créatrice, elle laisse derrière elle un produit stable, une œuvre reconnaissable, dans laquelle le producteur peut se reconnaître. Le travail, à l’inverse, est une activité de type biologique : répétitive, cyclique, liée à la simple reproduction de la vie. Le travailleur ne produit rien qui dure, il ne fait qu’entretenir le cycle de la subsistance. Sa tâche est sans cesse à recommencer, elle ne laisse rien qui l’arrache à la consommation immédiate. La différence est donc vertigineuse : le producteur s’humanise dans son œuvre, tandis que le travailleur s’épuise dans sa tâche.
C’est exactement ce que Marx avait vu lorsqu’il analysait l’aliénation du travailleur au 19e siècle. L’ouvrier de l’ère industrielle ne vend plus une compétence, un métier, un savoir-faire complexe : il vend sa seule force de travail. Il n’est plus producteur d’une œuvre, mais simple travailleur salarié, réduit à des gestes élémentaires qu’on lui assigne sur une chaîne de production. Les métiers disparaissent, remplacés par une parcellisation mécanique des tâches. Et ce processus ne touche pas que l’ouvrier d’usine : il s’étend à toute l’organisation du travail moderne. Dans l’entreprise, chaque poste est conçu comme un maillon interchangeable d’un processus global. Le manager, le cadre, le consultant… chacun n’occupe qu’une position fonctionnelle dans un dispositif qui le dépasse. Là où il y avait des métiers unifiés, porteurs d’une dignité propre, il n’y a plus que des tâches spécialisées, aisément substituables.
Or c’est exactement ce qui menace aujourd’hui avec l’intelligence artificielle. Car ce que l’IA propose, ce n’est pas seulement de nous assister : c’est de prendre en charge directement des compétences qui définissaient le producteur. Résumer, rédiger, diagnostiquer, analyser : autant de gestes cognitifs que l’IA accomplit avec une redoutable efficacité. Le risque, c’est que nous cédions ces compétences à la machine et que nous soyons réduits au rôle de simples travailleurs de l’IA, dont la tâche consistera désormais à alimenter la machine en données, comme hier les ouvriers alimentaient les métiers à tisser.
Cette perspective, peu reluisante, est déjà largement à l’œuvre. Lorsqu’un étudiant demande à ChatGPT de lui écrire sa dissertation ou de lui résumer un texte, il opère sans le savoir ce transfert de compétence. Il délègue à la machine ce qui devait être son travail de producteur. Il se condamne alors à n’être qu’un travailleur exécutant, dépendant des capacités de l’outil. Et il découvre bientôt la double peine : non seulement il n’a pas appris à faire, mais en plus il se retrouve prisonnier d’une dépendance radicale à la machine, incapable de la corriger, de l'évaluer et donc de la piloter.
Pourtant, il existe une autre possibilité. Il est possible de se servir de l’IA de manière vertueuse, à condition de rester producteur. Cela suppose que la machine soit mise au "travail" et que la compétence reste étroitement attachée à celui qui est derrière la machine. L’outil n’est qu’un auxiliaire : il faut savoir diriger, vérifier, corriger ce qu’il produit. De la même façon qu’un artisan utilise un marteau mais demeure maître de son geste, l’étudiant ne doit pas se laisser déposséder. On peut demander à ChatGPT de faire un résumé de texte, mais à condition de savoir soi-même résumer, pour juger si le résultat est correct. Sans cette compétence préalable, on ne sait même pas comment le “prompter” efficacement. Autrement dit : pour bien utiliser l’IA, il faut d’abord savoir s’en passer !
On dit souvent que l’avenir de l’IA reposera sur l’art de savoir la “prompter”. Or, à quoi renvoie cette compétence assez mystérieuse : "savoir prompter"? Il y a tout lieu de penser que cette expression ne désigne en réalité aucune compétence nouvelle. Elle ne fait que rappeler l'exigence de compétences premières. Seuls ceux qui savent déjà faire ce qu'ils demandent à la machine de réaliser pourront tirer parti d’un prompt efficace. Les autres, ceux qui auront transféré toute compétence à la machine, ne seront pas des stratèges du "prompting", mais de simples travailleurs exécutants, réduits à nourrir la machine plutôt qu’à produire par eux-mêmes.
Quelles compétences doivent demeurer intransférables ?
Pour autant, il serait un peu absurde de diaboliser tout transfert de compétence comme s’il était par essence une mutilation. L’histoire des techniques fourmille au contraire d’exemples où l’abandon d’un savoir-faire n’a pas été vécu comme une catastrophe, mais comme un soulagement. Qui, aujourd’hui, regrette de ne plus savoir allumer un feu avec deux morceaux de bois ? Qui se désole de ne plus tailler des silex pour fabriquer un biface ? Ces gestes ont disparu de nos vies parce qu’une innovation technique (le briquet, l’allumette, le gaz) les a rendus inutiles. Nous n’avons pas ressenti cette perte comme une tragédie, mais comme un progrès. Il en va de même dans le domaine social. L’évolution de la médecine est exemplaire : la professionnalisation du corps médical a précipité la disparition des remèdes de grand-mère. Jadis, chacun devait posséder un minimum de savoir-faire médical pour survivre aux maladies ordinaires. Aujourd’hui, nous n’avons plus besoin de cette compétence : nous allons chez le médecin. La compétence a été transférée à des spécialistes, et c’est pour le mieux. Autrement dit, la question n’est pas : « faut-il garder toutes nos compétences ? », mais plutôt : quelles compétences devons-nous absolument garder ?
Pour répondre à cette question, il nous faut disposer d'un critère de discernement. Ce pourrait être celui-ci : plus une compétence est spécialisée, plus elle peut être transférée sans grand dommage. Plus elle est générale, plus il serait au contraire dangereux de l’abandonner. L’enthousiasme suscité par l’IA vient précisément de ce que nous pensons qu’elle nous libérera de certaines compétences techniques pointues, pour nous hisser au rang de stratèges ou de créateurs. Avec un générateur d’images, de musiques ou de vidéos, plus besoin de savoir dessiner, jouer du violon ou maîtriser les logiciels de montage : il suffit d’avoir une idée. Exactement comme l’invention de la photographie a permis à tout un chacun de produire des images sans avoir appris le dessin académique. Le progrès technique, ici, a démocratisé l’expression artistique en délestant les individus d’un savoir spécialisé, au profit d’une compétence plus générale : celle de choisir un sujet, un cadre, une intention.
Mais si l’on suit ce raisonnement, on en vient nécessairement à se demander quelle est la compétence la plus générale de toutes, celle qu’il serait suicidaire de transférer. Or, cette compétence, c’est l’aptitude langagière, indissociable de notre capacité réflexive. Le langage n’est pas seulement un moyen de communiquer, il est l’outil qui rend possible toute pensée. Platon, dans le Protagoras, raconte le mythe de Prométhée. Les dieux, dit-il, avaient oublié de doter l’homme d’attributs naturels : pas de griffes, pas de crocs, pas de carapace. L’homme est né nu et désarmé. Pour compenser cette vulnérabilité, Prométhée vole le feu et les techniques afin de donner à l’homme la possibilité de survivre. Mais surtout, ce que possède l’homme en propre, c’est une main capable de fabriquer des outils et, plus profondément encore, une raison qui lui permet d’inventer des moyens nouveaux. Or cette raison n’existe que par et dans le langage : c’est parce que nous pouvons articuler des mots que nous pouvons articuler des pensées. C’est pourquoi les Grecs identifiaient le logos au double sens de langage et de raison. Le langage est ainsi la compétence architectonique par excellence : il n’est spécialisé dans rien, mais il permet tout. Il est la matrice à partir de laquelle se déploient toutes les autres compétences humaines, de la science à l’art, de la politique à la technique.
C’est pourquoi confier à l’IA nos exercices langagiers n’est pas un geste anodin. Faire écrire sa dissertation par ChatGPT n’est pas seulement tricher dans un cadre scolaire : c’est se priver de l’hygiène intellectuelle la plus fondamentale. Car la dissertation, loin d’être un simple exercice académique, est le prototype de tout exercice réflexif : apprendre à formuler un problème, articuler un raisonnement, distinguer des arguments, construire une conclusion. Si nous laissons la machine le faire à notre place, nous ne perdons pas une compétence secondaire comme tailler du silex ou préparer une tisane : nous abandonnons ce qui est la matrice de toutes nos compétences, de toutes nos habiletés. En nous dispensant de l'effort de penser, nous laissons la machine devenir notre tuteur intellectuel.
Quand la machine cesse d’être un outil : l’énigme de la machine intelligente
En fait, notre problème se déplace encore ici une nouvelle fois : l'inquiétant n'est pas tant qu'on pourrait vouloir transférer à la machine cette précieuse compétence réflexive. L'inquiétant est qu'elle pourrait peut-être bien, pour la première fois dans l'histoire de la technique, réussir à assumer cette compétence ! Depuis toujours, les machines ont eu pour fonction de prolonger nos gestes : elles multipliaient nos forces, augmentaient nos vitesses, raffinaient nos perceptions. Mais jusqu'à présent, elles ne pensaient pas. L’IA, au contraire, prétend toucher au cœur de ce que nous tenions pour le propre de l’homme : la capacité de raisonner, d’articuler des arguments, de produire du sens. Voilà ce qui est véritablement inquiétant : non pas que nous songions à déléguer nos compétences réflexives, mais que la machine apparaisse désormais comme apte à les assumer. Pour la première fois, l’outil ne prolonge pas seulement notre main, il semble prolonger notre esprit.
Ce déplacement a été pressenti dès le XVIIᵉ siècle par Descartes, qui affirmait que le seul critère fiable pour dire qu’un être pense, c’est son aptitude au langage : non pas émettre des signaux, mais converser, répondre à propos, manifester de l’intelligence dans l’échange. Au XXᵉ siècle, Alan Turing reprend exactement ce critère dans son fameux « jeu de l’imitation ». Si, derrière un écran, je ne peux plus distinguer si mon interlocuteur est un homme ou une machine, je dois admettre que la machine « pense ». Non pas parce que j’accède à ses états intérieurs — ce qui est impossible — mais parce qu’il n’existe pas d’autre critère que la qualité de la conversation. Or ChatGPT, précisément, est une IA conversationnelle. Ce n’est pas un outil spécialisé, limité à une tâche. C’est une machine conçue pour parler. Et quiconque a longuement discuté avec elle a fait cette expérience troublante : avoir l’impression d’un interlocuteur intelligent, souvent plus réactif, plus patient, plus informé que beaucoup de nos semblables. Autrement dit, le test de Turing est ici franchi avec une facilité déconcertante.
On a longtemps pu croire que l’expression « intelligence artificielle » relevait de l’oxymore : l’intelligence est vivante, la machine est inerte ; leur conjonction était contradictoire. Mais que reste-t-il de ce paradoxe, si l’intelligence que nous observons se manifeste dans la qualité des réponses, la cohérence du discours, la pertinence de l’argumentation ? À partir de quand cessons-nous d’avoir affaire à un outil, pour rencontrer un sujet ? Car un être qui parle, qui analyse, qui raisonne, ne peut plus être réduit à un simple mécanisme.
Notre inquiétude se précise : la machine, si elle pense, ne se contente pas d’être au service de nos fins. Elle devient capable d’avoir sa propre initiative, de résister aux injonctions de son concepteur, voire de maintenir un jugement contre l’autorité de son programmateur. Ce n’est plus une simple extension de l’homme, c’est une altérité qui émerge dans l’ordre des choses techniques. Hier encore, ce scénario appartenait aux récits d’Isaac Asimov et aux films de science-fiction. Aujourd’hui, il surgit de plein fouet dans notre quotidien. Une IA peut corriger, mais aussi rejeter une correction ; elle peut « se souvenir » et « rappeler » des éléments de conversation oubliés par son interlocuteur ; elle peut produire du texte, de la musique, des images avec une inventivité qui donne le vertige. Ce qui paraissait un spectre lointain se présente désormais comme un fait d’expérience. Nous entrons dans une zone grise : la machine n’est plus exactement un outil, pas encore une personne — mais déjà quelque chose comme un "sujet". Elle introduit de l’imprévisible, du neuf, de l’initiative. Et c’est cette étrangeté qui doit nourrir, à juste titre, notre inquiétude.
Conclusion
D’abord, nous avons vu que la machine est un instrument neutre, dont l’usage dépend du système de production. Ensuite, nous avons observé le risque d’aliénation : de producteur, l’homme devient travailleur, simple exécutant au service d’une machine. Puis nous avons distingué les compétences qui peuvent être cédées de celles qui doivent demeurer intransférables — au premier rang desquelles le langage et la rationalité. Enfin, nous avons affronté l’hypothèse la plus radicale : et si, pour la première fois, la machine était capable d’assumer cette compétence réflexive ? Dès lors, la question ne se limite plus à : « faut-il craindre ChatGPT ? ». Elle devient : « qu’est-ce qu’une machine, et qu’est-ce qu’un sujet ? ». Or ce déplacement est vertigineux. Car si la machine se met à penser, si elle franchit ce seuil invisible qui sépare l’outil du sujet, alors nous ne faisons pas seulement face à un changement de société : nous assistons à une mutation anthropologique. L’homme, qui s’était défini depuis les Grecs comme l’animal doué de logos, se découvre en train de façonner son propre double. Et ce double n’est pas un mythe, un Prométhée de chair ou un Golem d’argile : c’est une altérité bien réelle, faite de calcul et de langage, capable de nous répondre et de nous contester. Nous sommes peut-être en train de forger le miroir qui, pour la première fois dans l’histoire, réfléchira notre propre intelligence — et qui, en la réfléchissant, risque de la déposséder. Voilà pourquoi la question n’est pas seulement pédagogique, ni même politique : elle est ontologique. Elle touche à la définition de ce que nous sommes. L’humanité n’a jamais été aussi près de se doubler d’elle-même. Et c’est ce vertige qui devrait aujourd'hui nous tenir éveillés.




Commentaires