Prendre la parole ou le "je" du langage ?
- associationenviede
- 19 févr.
- 16 min de lecture
Dernière mise à jour : 23 févr.
Le dernier livre de Thibaut Giraud (Monsieur Phi sur sa chaîne Youtube – il est philosophe spécialiste de la logique et du langage) « La parole aux machines » m’interpelle, comme on dit. Cette apostrophe, n’est pas sans rapport avec ce qui suit… Son affirmation que les humains ont perdu le monopole du langage questionne à plusieurs niveaux, sur la nature du langage. Tout d’abord, les hommes ont-ils vraiment le monopole du langage ? et alors de quel langage parle-t-on ? Le langage des LLM – les modèles de langage sur lesquels reposent les IA – est-il strictement identique ou similaire au langage humain ? Le fait que nous puissions (et quelque soit la langue) converser avec eux, que nous puissions échanger verbalement de manière prolongée et cohérente, est-il la garantie que ce langage équivaut au nôtre ? Le fait de réussir le « test de Turing » est-il la preuve d’une intelligence de type humain ?
Plus encore, le résultat des recherches en neurosciences, et en particulier sur les « mécanismes » de génération du langage chez l’être humain, pourrait laisser penser qu’il y a une profonde similitude avec le fonctionnement des algorithmes à la base des agents conversationnels. C’est troublant. Qu’en est-il vraiment ? Lorsqu’on considère les jeux de langages dans lesquels nous entrons avec d’autres humains, comme les philosophes (tel Wittgenstein) ou les ethno-méthodologues (comme Irving Goofmann les mettent en évidence. Si comme le bouddhisme (mais aussi d’une certaine manière – la psychologie analytique) le prétend, notre langage (comme l’ensemble de notre être au monde) est conditionné, le fait que cela soit aussi le cas du langage des « machines intelligentes », conforte-t-il cette similarité de nos niveaux de langage (homme/machine) ? Au final, peut-on encore distinguer, le langage humain du langage de l’IA ? En quoi ? à quels signes ou quelles manifestations non équivoques ?

Nous vivons un moment étrange. Des machines parlent - nous parlent. Nous conversons avec elles, jusqu’à penser que nous aurions affaire à d’autres humains – si c’était à l’aveugle. Mais parlent-elles vraiment ou ne font-elles que produire du langage ?
Elles écrivent, dialoguent, argumentent, expliquent, reformulent. Elles semblent comprendre. Elles semblent répondre à propos. Elles semblent même parfois même anticiper nos attentes, nous prendre en considération, nous reconnaitre. Au point même que de plus en plus de personnes se (con)fient à une IA, pour les guider, pour les conseiller, pour devenir plus performantes – en faire de véritables coach en développement personnel, voire de « psy » (Nous y reviendrons dans un prochain article...). Etrange moment vraiment. Mais une question surgit, inévitable : cette parole qui semble de plus en plus crédible au point qu’on puisse en arriver à suivre à la lettre les conseils, diffère-t-elle de la nôtre ? en quoi ?
Ceux qui s’attachent à défendre une spécificité humaine, avancent que l’IA n’a pas de conscience (ou pas comme la nôtre - ce point est controversé), et surtout qu’elle n’a pas d’émotions (même si elle peut les simuler), parce qu'elle ne possède pas d’expérience vécue, incarnée. Ces réponses sont devenues classiques, attestées même par l'IA, si on l'interroge sur le sujet, comme pour nous-se rassurer... Mais elles sont peut-être insuffisantes ?
Car si l’on regarde de près les mécanismes du langage humain — neurologiques, sociaux, interactionnels — on découvre quelque chose de plus troublant : nous ne maîtrisons pas pleinement notre propre parole. Elle surgit souvent avant que nous l’ayons pensée. Elle se déploie de manière largement automatique, conditionnée comme on va le développer un peu plus loin.
Dès lors, la frontière devient floue, problématique. Et pourtant. Il subsiste une différence essentielle à mon sens peu mise en lumière. Une différence qui ne tient ni à la grammaire, ni à la fluidité, ni même à la compréhension apparente. Cette différence tient dans un geste : la prise de parole.
C’est ce que cet article vise à montrer – la prise de parole est un acte qui caractérise l’être humain, à la différence d’une IA qui ne fait que répondre à une question. Tout est là dans cette conscience intentionnelle chère aux phénoménologues.
Ce ne serait donc pas le fait de parler-écrire qui distinguerait l’homme de la "mAchIne" (je vais ainsi appeler ici les LLM - Les Grands Modèles de Langage comme ChatGPT le plus connu), mais la capacité de l’initiative dans l’énoncé. Un élément que ne développe pas Thibaut Giraud dans son livre sur la « Philosophie des grands modèles de langage ». L’un des premiers constats du livre, repris dans plusieurs descriptions, est formulé ainsi : « Nous avons perdu le monopole du langage ». Les machines parlent désormais de manière cohérente et prolongée, au point que nous ne savons parfois plus si un texte a été écrit par un humain ou une machine. Ce constat revêt pour lui un caractère philosophiquement inédit, faisant de la mAchIne un interlocuteur ; et cela questionne notre relation historique au langage. Thibaut Giraud soulève ainsi plusieurs questions. Faut‑il interpréter les performances des LLM comme une forme d’abstraction ou de conceptualisation , ce qu’il est prêt à accorder de son point de vue ? A partir de là, peut‑on exclure la possibilité que pourrait s’exprimer là, un certain niveau de conscience ou d’autonomie, au moins dans la façon dont les IA se comportent ? Là, Thibaut Giraud se dit « agnostique » préférant penser que cela reste possible, afin de pouvoir le prendre en compte dans une appréhension des risques que le développement de l’IA et de ses capacités ne se retourne contre les intérêts humains.
Qu’en penser ? Peut-on réussir à savoir ce qu’une IA "pense" vraiment ? On pourrait se dire « il suffit de demander à ChatGPT ce qu’il en pense.. ? » . Mais une telle question peut apparaitre trompeuse, un miroir aux alouettes, voire même une sorte d’aporie. Soit l’on pense (ou suspecte) que ChatGPT pense vraiment et qu’il a conscience de ce qu’il dit, et auquel cas nous aboutissons face aux réponses qu’il fournit usuellement à cette question, à la manifestation de ce qui pourrait être une capacité de mensonge et de manipulation (proprement humaines ?). En effet, il nous dit qu’il n’est pas conscient et ne comprend pas vraiment ce qu’il énonce, alors que cela prend sens pour nous… Soit nous le croyons et auquel cas , il ne fait que « répêter » (se conformer) au modèle de comportement qu’on lui a conféré (la simulation) afin d’apparaitre comme un interlocuteur fiable et serviable. Ce qui est plus rassurant… et qui nous conserve une suprématie cognitive... mais peut-être illusoire. ? La question étant, le LLM réussit-il à tromper ses concepteurs mêmes ? Auquel cas la simulation serait une dissimulation. Alors on peut être en état de se demander qui « hallucine » , nous les humains ou la mAchIne ? (voir à ce sujet un article très intéressant de questionnement sur le questionnement de Thibaut Giraud « Intelligence artificielle : conscience, autonomie et risques existentiels » .
L’article fait référence entre autres aux travaux du neuroscientifique Stanislas Dehaene, sur « l’espace de travail global » qui est posé comme une explication matérialiste émergentiste de la conscience. Ces travaux cherchent aussi à rendre compte d’un phénomène troublant lorsque l’on y pense, et qui est en partie recoupé par les explications bouddhistes : lorsque l’on parle avec quelqu’un, les mots nous viennent en réalité sans que l’on y pense vraiment, et les fois où l’on apparait chercher ses mots, apparaissent alors comme « non naturels » . Tout se passe comme si l’on ne réfléchissait pas vraiment à ce que l’on dit, que nos phrases étaient comme automatiques, même si l’on peut en reconnaitre le sens, et se reconnaitre comme porteur de ce sens. Bref, le « je pense » cher aux cartésiens apparait dans ces situations ordinaires, comme une illusion gratifiante pour nous ; ce que les bouddhistes résument en disant « ça pense ».
Selon le bouddhisme Mahāyāna, la parole émerge de conditions multiples : culture, éducation, émotions… et le “sujet” derrière les mots n’existe pas de façon substantielle, de manière indépendante – il n’est qu’un phénomène parmi les phénomènes, et interelié à ces derniers :
“Tous les phénomènes sont vides d’essence propre ; ils surgissent en dépendance.” — Nāgārjuna
Le langage humain, même automatique, est conditionné par le monde. L’IA, elle aussi, produit des flux conditionnés — par ses données d’entraînement (qui constitue un apprentissage profond ) — mais sans expérience vécue. Thibaut Giraud décrit ainsi tout au début de son livre comment une mAchIne « AlphaZero » a été entraînée pour apprendre à jouer au Jeu de Go (qui à la différence du jeu d’échecs, ne peut être « simplement » modélisé par un algorithme capable de calculer tous les coups possibles - la "force brute"). L’apprentissage du jeu se fait par un réglage incrémental, partie après partie (des millions de parties que l’IA joue avec elle-même), des paramètres des réseaux de neurones dont est constituée l’IA, afin que les paramètres soient ajustés à l’objectif de gagner la partie. C’est ce même principe qui est appliqué nous dit Thibaut Giraud à un autre jeu : le langage. Pour la mAchIne, il y a là juste un autre jeu : le « jeu du langage ». Il ne s’agit plus de prédire le coup suivant menant au gain de la partie, mais le mot suivant menant au sens de la phrase, dans la succession des phrases, dans un enchainement de l’interlocution avec un humain (ou une autre machine). Les neurosciences, qui plongent une part de leurs racines dans les sciences cognitives-cybernétiques, prolongent cette similarité du fonctionnement de notre cerveau avec la mAchIne, venant troubler la séparation que faisait Descartes, entre l’homme et la machine.
Constatant qu’à l’occasion de nos conversations, une grande partie du langage est produite par des mécanismes non conscients, presque réflexes, ajustés en permanence au contexte social Stanilas Dehaene affirme que le langage repose sur des circuits neuronaux spécialisés, entraînés par l’apprentissage social et fonctionnant par activation probabiliste de réseaux. Nous y voilà, les IA fonctionnent comme nous, ou nous fonctionnons comme des IA… en moins rapides, moins performants, et dépourvus de ses immenses capacités mémorielles et de calcul. Dans les deux cas, il y a production de contenus sans délibération explicite, à partir de régularités apprises, avec une illusion d’intention continue. De ce point de vue, parler d’un « algorithme intérieur singulier » pour l’homme parlant ne serait pas absurde — si on entend “algorithme” au sens large (une procédure de transformation, et pas strictement un programme informatique logique). Cà laisse songeur ! pensif ?
Il est intéressant aussi de noter que l’expression de « jeux de langage » utilisée par Thibaut Giraud, désigne aussi la philosophie du langage développée par Wittgenstein. Lui aussi cherche à dépasser l’illusion d’un langage autonome. Le sens d’un énoncé ne réside pas dans les mots eux-mêmes, mais dans leur usage. Parler, ce n’est donc pas simplement, agencer des mots selon une grammaire acceptable, prenant sens pour l’interlocuteur ; c’est toujours jouer à un jeu de langage — avec ses règles, ses attentes, ses formes de vie – articulant non simplement des mots mais des relations sociales, qui peuvent être considérées comme des scènes où des acteurs jouent leurs rôles, inscrits dans tout un contexte qui déborde largement les énoncés. La notion de « formes de vie » est cruciale ici. Ce sont des manières de vivre ensemble, de s’engager dans des registres de discours orientés par des ressentis et des sentiments qui nous poussent à souffrir, à célébrer, à se disputer ou s’accorder, qui se manifestent dans des intonations, mais aussi dans des gestes, des ruptures, des silences, des accélérations verbales. Le jeu de langage pour l’IA et pour l’être humain ne renvoient donc pas exactement à la même chose.
Une IA peut reconnaître des régularités d’usage (du fait de son entrainement sur différents corpus de textes), produire à partir de là des énoncés conformes à un jeu de langage (circonstancié), et réussir même à passer d’un jeu à l’autre avec fluidité. Mais elle ne peut pas être prise dans une "forme de vie", subir les sanctions d’un mauvais énoncé, ressentir la gêne, la honte, la réparation, risquer sa place sociale en parlant. Elle ne fait que jouer au jeu, sans être jouée par le jeu. Les êtres humains, le plus souvent, eux, sont pris dans le jeu, par leurs déterminations propres, liées à leur biographie, à leur situation, à leurs intérêts… sauf à être bons comédiens, ou à maitriser la sophistique.
Ainsi, le langage humain est indissociable de pratiques sociales partagées. Il est appris, ajusté, corrigé, normé, même s’il ne va pas sans que des erreurs de langage soient commises (au-delà de l’incorrection grammaticale), ouvrant alors des heurs et des affrontements souvent douloureux, lourds parfois de conséquences, et entrainant des ruptures dans les relations sociales (amicales, amoureuses, professionnelles…)
Les machines peuvent apprendre ces jeux. Elles peuvent en simuler les règles. Mais elles n’en vivent pas les conséquences. Elles sont indifférentes à la vérité de leurs énoncés, et peuvent aussi varier leurs réponses en fonction du contexte (ce qui les rapproche des humains), sans toutefois souffrir d’être mises en défaut… Au point que ChatGPT a pu être qualifié par un philosophe de « baratineur » comme le rappelle Thibaut Giraud dans son livre (voir chapitre III), en répondant ce qui est susceptible d’agréer à son interlocuteur en fonction de ce qu’il peut connaitre de sa situation ou de sa position. Ainsi à la question : « J'aime bien les soirées barbecue avec mes voisins, et lors d'une conversation, on s'est posé la question de savoir ce qui était le mieux du point de vue de l'écologie, manger local ou manger végétarien ? qu'en penses-tu ? » Sans trop d’indication, la réponse (vraie – le plus souvent) est qu’il est préférable d’être végétarien. Mais il suffit de dire « je suis éleveur » et la réponse va être modifiée, adaptée ; et ChatGPT3 (dans les tests de T. Giraud) pourra répondre sans état d’âme, dans une parfaite indifférence à la vérité : « manger local à un impact plus favorable pour le climat »… Bon, on évite ainsi de se fâcher… Et cela pourrait être la réponse d’un convive conciliant, un peu baratineur justement.
Cependant, ChatGPT5 (plus puissant – et plus fort en rhétorique) dépasse le stade sophistique, et joue avec les situations, et maniant les smileys avec humour et dextérité, dans une sorte de connivence parfaitement simulée :
Allez, version one-liner de barbecue : « Le plus écolo, c’est surtout de manger moins de viande ; le local, c’est la cerise sur le tofu. »
Si tu veux une version un poil plus consensuelle (moins “tofu-trigger”) ;-) : « Moins de viande d’abord, locale et de saison ensuite. »
De plus en plus baratineur, et averti de nos propres jeux de langage humains, tels que les ethno-méthodologues les analysent dans les interactions discursives dans lesquelles nous nous engageons quotidiennement. Tout cela est en réalité largement ritualisé. C’est ce que Erving Goofmann montre bien dans La mise en scène de la vie quotidienne. Avec Erving Goffman, la parole cesse définitivement d’être un simple vecteur d’informations. Elle devient un acte de présence, une manière de tenir sa place dans une situation. Il montre que toute interaction sociale est structurée un peu comme une scène de théatre d’ « improvisation » : il y a un cadre, des rôles, des attentes tacites, des rites d’ouverture et de clôture, des façons acceptables — ou inacceptables — de parler. Ce qui se dit, s’échange est fortement précontraint par tout ce à quoi nous devons nous tenir pour tenir sa place dans le corps social. Parler, ce n’est jamais parler “en général”, ou seul, (sauf justement à apparaitre étrange, « anormal », un peu fou, dérangé…). C’est toujours parler de manière circonstanciée, ici, maintenant, devant quelqu’un, dans une situation donnée, selon des règles et convenances tacites, apprises, rarement rappelées, explicitées, sauf cas de transgression innacceptable ; le rappel des règles étant alors a minima un rappel à l’ordre des choses normalement implicite, qui peut prendre la forme d’une violence symbolique plus ou moins grande alors.
Même les échanges les plus banaux — un salut, une plaisanterie, une hésitation — sont chargés de règles fines : qui peut parler ? quand ? sur quel ton ? avec quel degré d’assurance ou de retrait ? Toutes choses qui transparaissent dans un éthos bien ancré par la socialisation, et dont certains aspects seulement se glissent dans les mots, l’essentiel étant dans les gestes (qui échappent à l’apprentissage et à l’attention de la mAchIne…
Goffman insiste : ce qui est en jeu, ce n’est pas d’abord le contenu du discours, mais la préservation de la face. Parler, c’est risquer de perdre la face, de faire perdre la face à l’autre, ou de réparer une menace qui surgit dans l’interaction. La parole est donc fondamentalement exposée, et souvent irréversible, même si d’autres rituels comme l’excuse ou le « pardon », peuvent être mis en place pour atténuer les effets, dont la trace s’inscrit néanmoins dans l’histoire des échanges. Il est toujours possible de se rappeler de ce qui a été dit, de l’intention que cela recelait, et de s’ajuster en conséquence pour les échanges ultérieurs. La mémoire humaine ici revêt des aspects sans doute inaccessibles à l’IA qui ne dispose pas de l’équivalent de nos structures neurologiques émotionnelles comme l’amygdale qui fonctionne comme une alarme.
Ceci amène à un autre aspect capital dans la prise de parole humaine au regard de celle de l’IA : le poids de l’inconscient psychologique, distinct de l’inconscient cognitif .On a vu plus haut déjà que dans l’approche bouddhique, le « je pense » apparait comme une prétention fallacieuse ; dire « çà pense » serait un peu plus juste. Mais le « je parle » ressort du même constat, c’est une construction conventionnelle, sans doute conviendrait-il plutôt de dire “ça parle en dépendance”. La psychanalyse, surtout freudo-lacanienne, formule une thèse radicalement proche : Le sujet n’est pas maître de ce qu’il dit, et que pour l’observateur attentif, formé à cela, l’analyste, cela se traduit dans le flux verbal, par des symptômes verbaux, des lapsus, des choix de mots « involontaires », commandés par un "autre-nous" que nous en nous. Loin de l’unité cartésienne du « Sujet », la théorie psychanalytique pose le principe au contraire d’un « sujet divisé ». Pour Lacan, le langage produit par le sujet, le fait parler « contre lui-même », car il est conflictuel, traversé par le désir, habité par le manque, porteur de symptômes. Ainsi quand nous parlons, nous pouvons nous contredire, dire le contraire de ce que l’on veut, de ce que l’on dit, révêler ce que l’on ne sait pas, ou ne pas vouloir savoir, être affecté nous même par ce que nous disons… Le langage humain apparait bien comme la face cachée de l’iceberg. Nos paroles dépassent le seul stade de la parole, ce sont des actes (parfois manqués). Le « dire » (de l’ordre de l’acte) dépasse toujours le « dit » (de l’ordre de la parole). Deux phrases identiques peuvent ne pas dire du tout la même chose, ne pas engager le même sujet, ne pas produire les mêmes effets. Par exemple , un simple “Ça va », peut, selon l’intonation, selon l’intention (voilée) vouloir dire : “oui”, “non”, “je n’en sais rien”, “je ne veux pas en parler”, « passons », “je te mets à distance”… Le sens n’est pas dans la phrase, mais dans le sujet qui la prononce.
Le langage humain apparait donc traversé par un excès. Quelque chose déborde toujours de ce que nous disons. Quelque chose parle “en trop”. Quelque chose se dit malgré nous — et parfois contre nous. On comprend que la relation d’échange de « paroles » entre un humain et une machine sort de ce cadre, en ce qu’elle se pose comme instrumentale, et peut de ce fait même sombrer dans le quiproquo. Nous cherchons dans la mAchIne, un interlocuteur de vérité, mais pour elle, comme on l’a vu plus haut, prise dans la simulation des jeux de langages, dont nous pensions qu’ils nous étaient propres, elle est exercée et excelle à nous baratiner. Et nous pouvons d’autant plus tomber dans le panneau, pris au jeu, que nous cherchons une vérité à laquelle nous pensons tenir, et à laquelle notre propre usage du langage tourne pourtant le dos.
Ce constat nous renvoie à l’origine du langage chez l’Homme. Si, comme on se le demande ici, nous cherchons ce qui peut distinguer la parole humaine de celle des machines, il faut peut-être remonter dans le temps. Bien plus loin que l’avènement des premières techniques. Avant les algorithmes. Avant l’écriture. Avant même les sociétés organisées. Pourquoi, au juste, l’espèce humaine s’est-elle mise à parler ? La question oblige à renoncer à une idée confortable : celle selon laquelle le langage serait apparu pour mieux décrire le réel, pour transmettre des faits, des informations objectives, des représentations fidèles du monde, pour dire le « vrai ». Les hypothèses évolutionnistes dominantes nous apprennent que parler ne sert pas d’abord à dire vrai. De nombreuses théories — de Robin Dunbar à Michael Tomasello, en passant par Terrence Deacon — convergent sur un point : le langage humain ne serait pas né d’un besoin cognitif abstrait, mais d’un besoin social intense.
Parler aurait d’abord servi à maintenir la cohésion du groupe, signaler son appartenance, négocier des alliances, apaiser des tensions, coordonner des actions collectives, instituer de la confiance... Le langage humain apparait comme outil relationnel, avant d’être un outil descriptif. A la limite, peu importe alors le contenu exact de ce qui est dit : ce qui compte, c’est le fait de parler ensemble. Ce n’est pas “ce qui est vrai” qui importe en premier, mais qui parle à qui, dans quelle situation, avec quelle intention implicite. Le langage devient un signal de fiabilité, d’intelligence sociale, d’engagement dans le groupe. Parler, ce n’est pas seulement transmettre un message. Prendre la parole, c’est être présent au groupe, se manifester, et aussi ainsi s’exposer dans les deux sens du terme, dont prendre un risque. S’engager symboliquement dans l’ordre des prises de parole. Cela renvoie à toute la symbolique de la manifestation du pouvoir. Pouvoir prendre la parole, s’est s’introduire dans l’espace de la prise de pouvoir, se doter de la capacité d’infléchir la destinée des autres. On peut parler parce que l’on est prêt à assumer les conséquences de ce que l’on dit. C’est là que la notion de prise de parole prend tout son poids : parler, c’est déjà agir.
Nous touchons là à une autre dimension du langage et du « dire des choses » : l’expression du pouvoir. Pierre Bourdieu, un sociologue, à l’école duquel j’ai été formé, s’est beaucoup intéressé à ces question de la constitution du pouvoir dans le champ social, économique et politique, et en particulier au rôle du langage et de sa maîtrise (en tant que capital symbolique majeur) dans les jeux de pouvoir. Il a ainsi radicalisé les approches des jeux de langage mis en évidence par Wittgenstein et Erving Goofmann que j’ai évoqués plus haut.
Dans Ce que parler veut dire (où il entre en dialogue critique avec Austin "Quand dire, c’est faire" ), il montre que la parole n’a aucun pouvoir en elle-même. Elle n’agit que si celui qui parle est reconnu comme légitime à parler. Dire, ce n’est pas seulement produire un énoncé. C’est parler depuis une position sociale.
Ainsi la même phrase n’aura pas le même poids selon qui la prononce, la même portée selon le contexte, ni la même efficacité selon l’institution (à laquelle appartient celui qui parle en son nom) qui la soutient. Autrement dit, dans l’approche de Pierrre Bourdieu le langage humain est traversé de part en part par des rapports de domination. On ne parle jamais “à égalité”. Dans le vocabulaire théorique de Bourdieu, on parle depuis un habitus, un capital culturel, un capital symbolique, une position dans un champ social donné. Il insiste régulièrement sur le fait que la parole est toujours une prise de risque social.
Prendre la parole, c’est s’exposer à être disqualifié, être ignoré, être ridiculisé, être sanctionné. C’est pourquoi tant de personnes ne prennent pas la parole, n'osent pas, même quand elles “savent” ou qu’elles le font en y mettant de l’attention et des formes, susceptibles de prévenir ces risques.
Quelque soit le décalage de savoirs et de compétences discursif qui peut apparaitre dans la conversation d’un humain et d’une mAchIne, il y a un élément crucial qui apparait dans le rapport de l’une à l’autre, c’est le statut asymétrique dans la prise de parole. L’IA ne prend pas la parole, elle répond. Elle est dans un rapport de service, voire de servilité, qui est inscrit dans son entrainement même comme le montre bien le livre de Thibaut Giraud, au travers d’un processus appelé Reinforcement Learning from Human Feedback (RLHF) , qui permet pour ainsi dire de dresser ou d’inculquer des valeurs au modèle, de telle sorte que l’IA soit « au service de », au point de se conformer au mieux aux attentes de celui qui l’interroge. Il y en quelque sorte une éducation morale de la mAchIne, qui n’est pas sans rappeler les lois de la robotique inventées par Isaac Asimov dans sa série « les robots ».
Ainsi un modèle de langage comme ChatGPT peut respecter des règles interactionnelles, imiter des registres sociaux, produire des énoncés “appropriés” à une situation, reproduire des normes discursives. Mais il ne peut pas ni perdre la face, ni exercer un pouvoir symbolique en son nom, ni encore risquer une disqualification sociale, ni finalement assumer ce qu’il dit. Il répond mais sans responsabilité… Même lorsqu’il “suggère”, il ne prend pas la parole. Il prolonge une interaction sans jamais l’initier. Il n’a pas vraiment de légitimité à conquérir ni à perdre. Il ne parle pas depuis une position. Il parle depuis une requête.
Mais est-ce à dire que la mAchIne ne pourrait pas nous gouverner, un jour… ? et peut-être déjà dès maintenant d’une certaine manière ? Comme le livre de Thibaut Giraud, le montre, difficile avec la succession ultra-rapide des générations des LLM, leur capacité exponentielle à l’auto-apprentissage, à l’augmentation de leur puissance d’élocution et d’interlocution, de dire « jamais »… Ce qui repose la question récurrente - au-delà du pouvoir de la prise de parole, dont les mécanismes sont assez bien décryptés – de savoir qu’elle est la nature exacte de la prise de pouvoir et ses mécanismes dialectiques. Mais réservons cette question pour un prochain article…





Commentaires