ChatGPT , mon "psy" II : la question du miroir de la souffrance.
- associationenviede
- 8 mars
- 9 min de lecture
Nous en sommes là. Des humains se tournent vers des mAchInes pour trouver de la force, du pouvoir et du réconfort psychologique. Même si celles-ci peuvent nous prévenir qu’elles n’ont pas d’affects et que cela constitue une limite essentielle dans leur pouvoir thérapeutique, des humains s’y confient néanmoins, emplis d’attentes à ce niveau. Qu’est-ce qui se joue ici ? qu’est-ce qui peut nous pousser à nous tourner vers l’IA pour y voir clair en nous ? Qu’est-ce qui ne va pas en nous pour que nous en arrivions là ? Nous retrouvons là, la première Noble Vérité du bouddhisme : Dukkha : Tout est souffrance.Mais si l’intensité de ces pratiques peuvent surprendre, interpeller, voire susciter la réprobation…Ne faut-il pas approfondir , comprendre plutôt que juger ? car au final est-ce mal ? en quoi ? et est-ce que cela peut causer plus de mal que de bien ? Qui sont les plus touchés ? Et comment les choses peuvent-elle évoluer dans ce registre de l’usage des mAchInes dans le domaine de la santé mentale ? Peut-on espérer qu’il y ait moins de folie dans l’IA que dans l’esprit des hommes, et que cela puisse nous ancrer, devenir un vecteur de sagesse ?

Pour commencer quelques constats. Il semble que cet usage thérapeutique de l’IA soit en plein développement à mesure que l’usage des LLM se répand… Cependant les enquêtes précises restent encore peu nombreuses semble-t-il ? Comment savoir ?... Là encore en demandant cette fois-ci à Claude.IA de faire un point de situation ?
Voici en résumé ce que l’on peut savoir :
Selon le Baromètre du numérique 2024, l'usage des outils d'IA a fortement progressé en France : 33 % des Français en ont déjà utilisé en 2024, contre 20 % en 2023. (Societenumerique)
À l'échelle européenne, les données Eurostat indiquent que 25 % des individus entre 16 et 74 ans utilisent des outils d'IA générative à titre personnel, contre seulement 15 % dans un cadre professionnel. La France se situe au-dessus de la moyenne : 37 % des Français ont déjà utilisé un outil d'IA générative, avec un usage majoritairement privé (28 %) devant le professionnel (18 %). ( Usine Digitale)
Parmi les usages personnels, près d'un Français sur deux utilise l'IA pour des recherches sur Internet, suivi de l'aide à la rédaction (38 %), la traduction (36 %) et la génération d'idées (35 %). 18 % des utilisateurs avouent s'en servir 2 à 3 fois par semaine à titre personnel. ( Independant)
Du côté des profils, 42 % des utilisateurs de ChatGPT ont moins de 25 ans, illustrant une forte adoption par les jeunes générations.
S’agissant des usages dans le domaine « psy », il semble que les cibles privilégiés soient d’abord les personnes ayant des soucis de santé mentale (ce qui n’est pas très précis…), et le jeunes (plus utilisateurs de ces outils…)L'étude la plus marquante est celle publiée en 2025 et qui révelle que sur 499 adultes américains ayant des troubles de santé mentale déclarés et utilisant des LLM, 48,7 % utilisent des outils comme ChatGPT spécifiquement pour un soutien thérapeutique. Si ce chiffre est réellement représentatif, cela vaudrait dire que des millions d'Américains se tournent aujourd'hui vers les chatbots LLM pour des questions de santé mentale — un nombre potentiellement supérieur aux patients suivis chaque année par le réseau de santé mentale des anciens combattants , qui traite 1,7 million de personnes par an. (Hostinger)
De plus en plus d'enquêtes à partir de données d’observations sur des forums Internet et de reportages médiatiques montrent un large usage des LLM par des personnes souffrant d'anxiété, de dépression, de problèmes relationnels, ou traversant des situations de crise. The Lancet Psychiatry soulève même la question de la frontière réglementaire entre assistant en ligne et psychothérapeute en ligne. (Societenumerique)
« L'étude RAND publiée dans JAMA Network Open (novembre 2025) est la première enquête représentative à l'échelle nationale sur les adolescents américains. Sur 1 058 jeunes de 12 à 21 ans interrogés, 1 sur 8 utilise des chatbots IA pour des conseils de santé mentale. Les chercheurs notent que ce taux élevé reflète probablement le faible coût, l'immédiateté et la confidentialité perçue de ces outils, notamment pour des jeunes qui n'accèdent pas aux soins traditionnels. » (HubSpot)
Ce phénomène n'est pas anodin dans un contexte de crise : 18 % des adolescents de 12 à 17 ans ont vécu un épisode dépressif majeur dans l'année, et 40 % d'entre eux n'ont reçu aucun soin de santé mentale.
Mais au-delà des chiffres, quid de la pratique du LLM comme coach ou thérapeute ? Il semble selon Claude.ai que ses interlocuteurs ne distinguent pas trop les deux registres d’intervention…
Les études existantes ne séparent pas clairement les deux, et pour une raison qui tient aux usages eux-mêmes. Les usages recensés couvrent un spectre continu allant des besoins de santé mentale traditionnels (diagnostic, traitement, psychoéducation) jusqu'à des besoins psychosociaux généraux comme la recherche de compagnie, les conseils relationnels, l'amélioration du bien-être et l'aide à la prise de décision.
Certains de ces usages relèvent clairement de la pathologie (dépression), d'autres du coaching ou du développement personnel pur (communication, prise de décision, bien-être général). Mais les utilisateurs eux-mêmes ne font pas cette distinction dans leurs pratiques.
Quant à l’efficacité ressentie, l’étude présente des données qui restent à approfondir : « 63,4 % des utilisateurs ont rapporté une amélioration de leur santé mentale suite aux interactions avec les LLM, avec des taux de satisfaction élevés concernant les conseils pratiques (86,8 %) et l'utilité globale (82,3 %). Lors de la comparaison des LMM avec les thérapies traditionnelles, les évaluations étaient généralement neutres à positives, 37,8 % des utilisateurs jugeant les LLM plus bénéfiques que les thérapies classiques. Malgré certaines inquiétudes, seuls 9,0 % des utilisateurs ont subi des effets indésirables. »
Mais ChatGPT se prend-t-il pour un « psy » et plus particulièrement un « psychanalyste » ? De ce côté, quand on l'interroge il est clair, mais les « patients » s’intéressent-ils à cela et l’interrogent-ils sur ses limites ? Pas sûr …
Moi : une autre question me vient en considérant que le langage humain est structuré par l'inconscient, au point que l'inconscient lacano-freudien apparait structuré comme un langage, une IA LLM pourrait-elle jouer le rôle d'un psychanalyste ? en quoi ? ou pourquoi non ?
ChatGPT : Question redoutablement bien posée — parce qu’elle oblige à aller jusqu’au bout de la comparaison, là où beaucoup s’arrêtent par prudence ou par effet de sidération technologique.
Je vais te répondre sans esquive, en distinguant nettement :
ce qu’une IA peut faire en regard de la psychanalyse
ce qu’elle ne peut pas faire — non par défaut technique, mais par impossibilité structurelle
ce que cette impossibilité révèle du langage humain et de l’inconscient
Chez Freud puis Lacan, l’inconscient n’est pas un réservoir d’images obscures. Il est structuré comme un langage. Cela signifie :
qu’il fonctionne par signifiants,
par déplacements, condensations, équivoques,
par répétitions,
par ratés, lapsus, formations de compromis.
Autrement dit, ce qui fait symptôme, ce n’est pas un contenu caché, mais une organisation du dire.
Or que fait une IA LLM ? Elle travaille sur des chaînes de signifiants, elle repère des régularités, elle met en évidence des répétitions, elle peut reformuler, déplacer, faire émerger des contradictions internes dans un discours. Donc oui : au premier regard, une IA semble étonnamment compatible avec une écoute analytique minimale. Et ce n’est pas un hasard si certaines personnes disent : « En te parlant, j’ai compris quelque chose sur moi. ». Mais c’est précisément ici que le malentendu commence.
Une IA peut jouer certains rôles périphériques à la psychanalyse :
a) Fonction de miroir langagier. Elle peut reformuler ce que quelqu’un dit, souligner des répétitions, pointer des incohérences narratives, faire apparaître des implicites. Cela ressemble à une maïeutique discursive.
b) Fonction de relance associative. Elle peut poser des questions ouvertes, suggérer des pistes symboliques, inviter à préciser, à approfondir. Sur ce plan, elle peut soutenir une auto-exploration réflexive.
c) Fonction de désamorçage immédiat. Elle peut aider à mettre à distance une angoisse, clarifier un conflit, nommer une émotion. Mais — et c’est décisif —rien de tout cela ne constitue une psychanalyse.
La psychanalyse ne se définit pas par ce qui est dit, mais par ce qui se joue dans la situation analytique. Et là, la différence est radicale. Il n’y a pas de transfert possible. Or, le cœur de la psychanalyse, ce n’est pas l’interprétation, c’est le transfert.
Le patient parle à quelqu’un qu’il investit comme figure de savoir, comme figure d’autorité, comme figure de désir, parfois comme figure d’amour ou de haine. Or le transfert suppose une chose essentielle : que l’Autre puisse manquer, se taire, résister, décevoir.
Mais une IA est toujours disponible, toujours répondante, toujours “bienveillante”. Elle ne peut pas incarner un manque structurant.
Il n’y a pas de désir de l’analyste. Et chez Lacan, c’est fondamental : « Le désir de l’analyste n’est pas pur. »
Cela signifie que l’analyste est engagé, traversé, affecté, mais aussi tenu à une position éthique très précise.
L’IA, elle n’a pas de désir. Pas même refoulé. Pas même déplacé. Elle ne peut donc pas soutenir cette position paradoxale : être présent sans vouloir le bien de l’autre, sans guider, sans corriger, sans normaliser.
L’analyse avance par silences, interruptions, séances courtes, phrases laissées en suspens. Ces coupures ne sont pas techniques. Elles sont actes. Elles produisent de l’inconscient.
Une IA, par structure, vise la continuité, la complétion, la fluidité. Elle “répare” ce que l’analyse laisse béant.
Il y a ainsi une différence cruciale : la responsabilité du dire. Dans une analyse, ce qui est dit engage le sujet, le confronte à ce qu’il ne voulait pas dire, le met en demeure de répondre de ses paroles. Avec une IA, il n’y a pas de tiers symbolique réel. Pas de regard. Pas de risque. Pas de honte. Pas de dette. Or l’inconscient ne se déploie vraiment que là où il y a enjeu.
Paradoxalement, le fait qu’une IA ressemble parfois à un psychanalyste révèle cependant une vérité profonde : la psychanalyse n’est pas une technique d’interprétation du langage, c’est une éthique de la parole adressée
L’IA peut manipuler des signifiants. Elle ne peut pas soutenir une adresse.
Elle peut entendre. Elle ne peut pas être l’Autre auquel on parle.
C’est clair, structuré et on peut avoir le sentiment que tout est dit… mais j’ai cherché à approfondir, en mettant sur la table la question de la « souffrance », car les enseignements bouddhistes y ramènent, en rappelant que « tout est souffrance » (Dukkha)
Moi : que se passe-t-il si l’on confie l’écoute de la souffrance à des machines ?
ChatGPT : C’est une question grave, au sens fort. Grave parce qu’elle touche à ce qui tient encore les humains ensemble quand ça va mal.
Je te réponds en trois cercles concentriques :ce qui se passe pour le sujet,ce qui se passe pour la relation, ce qui se passe pour le monde social.
1. Ce qui se passe pour le sujet : une souffrance entendue sans enjeu
Quand une personne confie sa souffrance à une machine, quelque chose fonctionne… mais autrement.
La machine écoute sans se fatiguer, sans impatience, sans malaise, sans désir de fuir. Cela produit souvent un effet immédiat de soulagement, de clarification, d’apaisement temporaire.
Mais cet apaisement a un coût invisible. La parole n’est plus adressée à quelqu’un qui peut être affecté. Elle est déposée dans un espace qui ne risque rien. Or, dans la souffrance humaine, il y a presque toujours le besoin que ce qui fait mal fasse aussi quelque chose à l’autre. Être entendu, ce n’est pas seulement être compris. C’est sentir que ce que je dis engage celui qui écoute. Avec une machine, la souffrance est reçue… mais elle n’oblige personne. Elle devient une donnée traitable. Pas un appel.
2. Ce qui se passe pour la relation : disparition du tiers vulnérable
Quand on confie la souffrance à un humain, même professionnel, il y a toujours un risque de malentendu, un silence qui peut blesser, une interprétation qui dérange, une présence qui résiste. C’est pénible. Mais c’est structurant.
La machine, elle, est structurellement non-vulnérable. Elle ne peut pas : être touchée, être débordée, être mise en difficulté, être transformée par ce qu’elle entend.
Or une relation de parole sans vulnérabilité partagée devient asymétrique. L’humain se livre. La machine ne se risque jamais. Ce n’est plus une relation. C’est une externalisation.
3. Ce qui se passe pour le monde social : dépolitisation de la souffrance C’est peut-être le point le plus inquiétant. La souffrance humaine n’est jamais seulement individuelle. Elle est aussi sociale, institutionnelle, économique, symbolique.
Quand on confie cette souffrance à une machine, elle est retirée de l’espace public, elle ne dérange plus personne, elle ne fait plus symptôme. Elle devient un problème à gérer, non un déséquilibre à interroger.
On ne demande plus : « Qu’est-ce qui, dans notre monde, produit cela ? »
On demande : « Comment t’aider à mieux t’adapter ? »
La machine apaise là où la parole humaine pourrait déranger.
Le danger n’est pas que la machine écoute mal (elle peut écouter “correctement”). Mais qu’elle écoute trop bien, trop calmement, trop efficacement. Au point que la parole ne cherche plus de répondant humain, la plainte ne devient plus revendication, la détresse ne trouve plus de visage. Alors l’IA devient ce que tu as pressenti plus tôt un tiers irresponsable entre le sujet et le réel.
Cependant, dans certains contextes (isolement extrême, absence totale de soutien, situation de crise immédiate…) une machine peut être un premier appui, un sas, une présence minimale. Mais elle ne doit jamais devenir l’instance ultime d’écoute, le substitut du lien, le lieu où la souffrance s’installe durablement.
La mAchIne est claire quant à ses limites, mais aussi sur l’intérêt qu’elle peut fournir à ceux qui sont dans le mal-être psychologique, social. Elle ne se prend pas pour un psycho-thérapeutes, ou du moins dans ses versions grand public, on la bride dans cette possibilité que lui donne de plus en plus d’utilisateurs. Notre société, semble bien générer de plus en plus de mal-être, de souffrances de tous ordres, demandant à être entendue d’une manière ou d’une autre. Les LLM deviennent le déversoir de ce trop plein de souffrance.
Cependant à bien y réfléchir la vraie question n’est pas : « Les machines peuvent-elles écouter la souffrance ? ». Mais plutôt : « Pourquoi notre monde rend-il si difficile le fait de confier sa souffrance à d’autres humains ? »





Commentaires