Quand les applications d’IA veulent remplacer les psys : enjeux cliniques et psychiques en 2025
Quand les applications d’IA veulent remplacer les psys
Depuis quelques années, les applications de “bien-être mental” se sont imposées dans notre quotidien. Programmes de méditation guidée, suivis d’humeur, notifications de “self-care”, chatbots qui promettent une écoute 24h/24… Les stores d’applications regorgent désormais de solutions qui affirment pouvoir apaiser l’angoisse, gérer le stress, prévenir le burn-out ou “remplacer une thérapie traditionnelle” grâce à l’intelligence artificielle. Il suffit de quelques clics pour confier ses insomnies, ses peurs ou ses ruptures amoureuses à une interface qui répond instantanément, sans jugement apparent, à toute heure du jour et de la nuit.
Dans ce paysage, mon métier garde pourtant une autre temporalité et une autre logique. Je suis psychologue, psychanalyste, et mon travail repose sur la rencontre avec un sujet singulier, dans un cadre de parole où le lien, la présence et l’adresse à un autre humain sont centraux. En séance, ce qui compte n’est pas seulement ce qui est dit, mais comment cela se dit, ce qui se répète, ce qui échappe, ce qui se tait. La clinique que je pratique ne se réduit pas à “donner des conseils” ou à “optimiser un bien-être”, elle s’intéresse à ce qui travaille en profondeur l’histoire du sujet, ses conflits, ses impasses, ses désirs.
Entre ces deux mondes – celui des applications pilotées par des algorithmes et celui du travail psychique de la parole – quelque chose d’important est en train de se jouer. De plus en plus de personnes, parfois très jeunes, commencent à “parler” d’abord à une IA avant, éventuellement, de pousser la porte d’un cabinet. Certaines s’y attachent, y trouvent un soulagement, ou au contraire ressortent avec un sentiment de vide ou d’incompréhension. Cela pose une question clinique majeure : qu’est-ce qui se passe psychiquement quand on s’adresse à une IA plutôt qu’à un humain ? Qu’est-ce qui est réellement entendu, transformé, symbolisé dans cette “conversation” avec une machine, et qu’est-ce qui, au contraire, risque de rester enkysté, figé, voire renforcé ?
C’est cette interrogation que je propose d’explorer dans cet article : non pas pour diaboliser la technologie, ni pour la célébrer naïvement, mais pour comprendre, à partir de la pratique clinique, ce que ces nouveaux dispositifs font et ne font pas à notre façon de souffrir, de demander de l’aide et de rencontrer un autre.
1. un contexte paradoxal : crise de la santé mentale et promesse technologique
Nous vivons une période où la question de la santé mentale n’est plus marginale : elle s’invite dans les médias, dans les entreprises, dans les écoles, dans les conversations du quotidien. Les symptômes d’angoisse, les épisodes dépressifs, les burn-out, les troubles du sommeil ou les sensations d’épuisement existentiel ne concernent plus “quelques personnes fragiles”, ils traversent des pans entiers de la population, en particulier les jeunes adultes. Beaucoup décrivent une solitude sourde, un sentiment de décalage, la difficulté à “tenir” dans un monde vécu comme trop rapide, trop exigeant, trop saturé d’images et d’injonctions contradictoires.
Dans ce contexte, la demande de soin psychique explose, mais l’offre de prise en charge humaine ne suit pas toujours. Les délais pour obtenir un rendez-vous peuvent être longs, les tarifs constituent parfois un frein, l’accès est inégal selon les territoires, et il reste encore des représentations négatives ou des peurs autour de l’idée de “consulter un psy”. C’est dans cet espace de manque, de frustration et parfois d’urgence, que s’engouffrent les solutions technologiques, en promettant d’abolir les obstacles : un téléphone, une connexion, et “quelque chose” nous répond.
Les applications de bien-être mental et les chatbots dits “thérapeutiques” se présentent alors comme une réponse moderne à cette crise. Elles promettent une écoute disponible à toute heure, sans jugement, sans gêne, sans avoir à se présenter dans un cabinet ni à affronter le regard de l’autre. Le discours est séduisant : il serait possible de prendre soin de soi de manière autonome, de “travailler sur ses émotions”, de gérer son stress, d’améliorer son estime de soi, grâce à quelques exercices guidés et à une intelligence artificielle capable de “comprendre” ce que nous ressentons.
Ce paradoxe est au cœur de notre époque : plus la détresse psychique grandit, plus la réponse semble passer par des dispositifs techniques interposés, là où, précisément, la souffrance demande souvent à être rencontrée dans un lien humain. L’IA vient se loger au point sensible où se croisent nos vulnérabilités, nos besoins de reconnaissance, notre désir d’être soutenus et un marché extrêmement dynamique du “care” numérique. Comprendre ce contexte, c’est déjà commencer à interroger ce que ces outils produisent dans notre façon de parler de nous, de demander de l’aide et d’entrer – ou non – dans une véritable rencontre thérapeutique.
2. que font réellement les outils d’ia en santé mentale ?
Derrière les promesses marketing, les outils d’IA en santé mentale ne font pas tous la même chose. Certains se présentent comme de simples applications de bien-être, proposant de la méditation, de la respiration, des conseils de “self-care”. D’autres vont plus loin et s’affichent comme des “thérapeutes virtuels”, des compagnons de discussion ou des “psys dans la poche”. L’expérience proposée à l’utilisateur est souvent la même : une interface rassurante, un espace pour écrire ou parler de ce qu’il ressent, et une réponse quasiment immédiate d’un chatbot, supposé comprendre, apaiser et orienter.
Concrètement, ces dispositifs combinent plusieurs fonctions. Ils recueillent des données sur l’humeur, le sommeil, le niveau de stress, les pensées récurrentes. Ils proposent des exercices, des “défis” ou des routines, souvent inspirés de techniques de relaxation, de pleine conscience ou de thérapies cognitives et comportementales. Le chatbot, lui, vient donner une forme et une couleur à ce dispositif : il répond, relance, formule des phrases d’empathie standardisées, parfois avec une tonalité très chaleureuse ou familière. Pour la personne en face, cela peut donner l’impression réconfortante d’être enfin écoutée, comprise, “prise en charge”.
Il ne faut pas sous-estimer l’intérêt réel que cela peut avoir. Pour quelqu’un qui n’a jamais eu accès à un suivi psychologique, ou qui n’ose pas franchir le pas, ces outils peuvent constituer un premier espace de mise en mots. Le simple fait d’écrire ou de dire ce que l’on ressent, même à une machine, peut déjà produire un léger déplacement : mettre à distance, clarifier, repérer un cycle répétitif, rappeler qu’il est possible de demander de l’aide. Dans certains cas, ces dispositifs jouent un rôle de seuil, une sorte de passerelle entre le silence et une éventuelle demande de soin plus construite.
Mais leur fonctionnement repose sur une logique très différente de celle de la clinique. Les réponses de ces IA s’appuient sur des modèles statistiques et des scripts préécrits, calibrés pour être “empathiques”, “positifs” ou “rassurants”. Elles reconnaissent des mots-clés, des tournures de phrases, des patterns émotionnels, pour associer à chaque entrée l’une des réponses jugées les plus appropriées. C’est un système d’appariement et de probabilité, pas une écoute au sens clinique du terme. L’algorithme ajuste ses réponses à partir de ce qui a déjà été vu, de ce qui est le plus fréquent, de ce qui fonctionne “en moyenne”.
Cela crée une illusion de personnalisation. Le sujet a le sentiment que la machine “le connaît” parce qu’elle se souvient de certaines de ses réponses, adapte son ton, reconnaît qu’“il traverse un moment difficile”, rappelle qu’“il a déjà évoqué cela la semaine dernière”. En réalité, il s’agit surtout d’une gestion sophistiquée de données et de scénarios. La machine ne se laisse pas affecter, elle ne s’étonne pas, elle ne doute pas, elle ne s’interroge pas sur ce qui se rejoue dans la relation. Elle applique un modèle, là où la rencontre thérapeutique, elle, se construit dans une histoire, une durée, un lien qui peut évoluer, se déplacer, se transformer.
Autrement dit, ces outils peuvent soutenir, informer, parfois apaiser à court terme, mais ils ne travaillent pas avec le sujet dans la même dimension. Ils occupent un espace entre le conseil bien-être, le coaching automatisé et la conversation simulée. C’est précisément ce flou – entre soutien léger, promesse de thérapie, accompagnement “comme un psy” – qui rend nécessaire une réflexion clinique : comprendre ce que ces dispositifs apportent réellement, mais aussi ce qu’ils risquent de masquer ou de laisser intact dans la souffrance psychique.
4. risques cliniques et éthiques d’un recours massif aux ia “thérapeutiques”
Lorsque ces dispositifs deviennent le premier, voire parfois le seul interlocuteur des personnes en souffrance, les questions ne sont plus seulement techniques. Elles touchent au cœur de la clinique, mais aussi à l’éthique et au politique. Derrière l’interface rassurante, se joue quelque chose de notre manière collective de traiter la vulnérabilité psychique : que faisons-nous des sujets qui souffrent, à qui les confions-nous, et selon quelle logique ?
L’un des premiers risques cliniques tient à l’illusion de sécurité. Beaucoup de ces applications affichent des messages de prévention, des encadrés rappelant qu’elles ne remplacent pas un professionnel et qu’en cas d’urgence il faut contacter les services adaptés. Sur le papier, les choses semblent claires. Dans la réalité, une personne en grande détresse, isolée, peut s’accrocher à ce qui lui répond, même de façon très limitée. Recevoir une phrase d’empathie automatisée, un “je comprends que ce soit difficile pour toi”, peut suffire à différer la décision de consulter, parfois pendant des mois, voire des années. Le symptôme est un peu apaisé à court terme, la souffrance reste en arrière-plan, sans qu’un véritable travail d’élaboration ne commence.
Pour les sujets les plus vulnérables – personnes en dépression sévère, adolescents aux idées suicidaires, victimes de traumatismes, personnes aux prises avec des addictions ou des troubles du comportement alimentaire – ce retard de prise en charge peut avoir des conséquences graves. L’IA, par définition, ne “sent” pas le moment où quelque chose bascule. Elle peut repérer certains mots-clés, déclencher un message d’alerte générique, mais elle n’a pas la finesse clinique nécessaire pour saisir qu’un ton a changé, qu’une perte d’espoir s’installe, qu’un passage à l’acte se profile. Là où un clinicien est vigilant à ces micro-signaux, l’algorithme reste prisonnier de ce qu’il a été programmé à voir.
Un autre risque clinique tient au renforcement de la solitude. Parler à un chatbot peut donner l’impression de ne pas être complètement seul, mais il s’agit d’une solitude peuplée d’une machine, sans véritable altérité. Le sujet n’a pas à affronter l’expérience, parfois dérangeante mais structurante, d’être en lien avec un autre humain, avec son imprévisibilité, ses limites, ses propres réactions. Il reste dans une forme de monologue assisté, où l’IA vient surtout valider, encourager, rassurer, sans introduire de véritable décalage. Pour une partie des personnes, cela peut renforcer des mécanismes d’évitement : éviter le regard de l’autre, éviter la confrontation, éviter le conflit, éviter l’engagement dans une relation réelle.
Sur le plan psychique, ces dispositifs peuvent aussi alimenter une logique de performance émotionnelle. Certains proposent de “gamifier” le bien-être, de transformer le travail sur soi en séries d’objectifs à atteindre, de niveaux à débloquer. On se retrouve alors à “réussir” à aller mieux comme on réussit un jeu ou un programme de musculation. Ceux qui n’y parviennent pas peuvent se sentir en échec, culpabilisés, comme si leur souffrance témoigne d’un manque de volonté ou d’une mauvaise utilisation de l’application. La complexité des conflits internes, des histoires de vie, des traumatismes est alors rabattue sur un discours de performance individuelle, très éloigné de la clinique.
Les enjeux éthiques et politiques sont tout aussi préoccupants. Ce que ces applications recueillent, ce ne sont pas de simples “données d’usage”, mais des morceaux d’histoire intime, des confidences, des détails biographiques, des pensées sombres, des fantasmes parfois. Autrement dit : des fragments de psychisme. Ces données sont stockées, analysées, parfois revendues ou utilisées pour affiner des modèles commerciaux. Même lorsque les entreprises affirment respecter la confidentialité, le modèle économique repose souvent sur la valorisation de ces informations. La souffrance devient une ressource, un matériau exploitable dans une logique de marché.
Cette marchandisation de la vulnérabilité psychique s’accompagne d’une forte asymétrie de pouvoir. L’utilisateur se dévoile, se met à nu, livre ce qu’il ne dirait parfois à personne autour de lui. En face, pas de visage, pas de responsabilité clairement incarnée, mais un dispositif opaque, régi par des conditions d’utilisation peu lisibles, des algorithmes propriétaires, des intérêts financiers. Il y a là un déplacement profond par rapport à la relation thérapeutique, où le clinicien se présente sous son nom, dans un cadre réglementé, soumis à un code de déontologie, inscrivant sa pratique dans un tissu institutionnel et symbolique.
Le risque est aussi celui d’une ubérisation du soin psychique. Si l’IA est perçue comme une solution suffisante, rapide et peu coûteuse, la tentation est grande, pour les systèmes de santé comme pour certains acteurs privés, de déléguer une partie croissante de la prise en charge à ces dispositifs automatisés. On voit alors apparaître une médecine à deux vitesses : ceux qui auront accès à un accompagnement humain de qualité, et ceux pour qui l’on jugera qu’une application “suffit”. La technologie, au lieu de réduire les inégalités, peut venir les renforcer en proposant des substituts low-cost là où il faudrait investir dans des ressources humaines, du temps, du lien.
Enfin, la question de la responsabilité reste largement floue. Quand une prise en charge humaine se passe mal, il existe des recours, des instances de régulation, des espaces de discussion éthique. Quand un dispositif d’IA “rate” un signal, banalise une détresse, ou contribue indirectement à un passage à l’acte, vers qui se tourner ? La firme ? Le développeur ? Le concepteur du modèle ? L’utilisateur lui-même, renvoyé à la fameuse “acceptation des conditions d’utilisation” ? Cette dilution de la responsabilité est elle-même un symptôme : celui d’une société qui peine à assumer collectivement la manière dont elle traite ceux qui souffrent.
Ces risques ne signifient pas que ces outils doivent être rejetés en bloc. Ils appellent à une lucidité : reconnaître qu’ils interviennent dans des zones de grande fragilité, qu’ils ne sont pas neutres, qu’ils s’inscrivent dans des logiques économiques et politiques. C’est à cette condition seulement que l’on peut envisager de les articuler à la clinique, et non de les laisser progressivement la remplacer. La question n’est donc pas “pour ou contre l’IA”, mais : comment protéger le sujet dans son intimité psychique, dans sa dignité, dans son droit à une rencontre humaine, dans un monde où la technologie occupe de plus en plus la scène du soin ?
- comment intégrer l’ia sans renoncer à la rencontre clinique ?
Il serait tentant de tracer une frontière nette : d’un côté la “vraie” thérapie humaine, de l’autre des outils technologiques à écarter comme une menace. Dans la réalité, la plupart des patients vivent déjà dans un monde où l’IA est partout : sur le téléphone avec lequel ils prennent rendez-vous, dans les plateformes de visioconsultation, dans les applications qu’ils consultent la nuit quand l’angoisse monte. La question n’est donc plus de savoir si l’IA va entrer dans le champ de la santé mentale, mais comment. Soit elle s’y installe sans réflexion clinique, principalement guidée par des intérêts économiques et des logiques d’optimisation. Soit elle est pensée, discutée et mise en tension avec ce que nous savons de la subjectivité, de l’inconscient et du besoin de lien humain.
On peut imaginer, par exemple, Julie, 27 ans, en plein burn-out. Elle démarre une psychothérapie, mais entre deux séances, elle ne dort pas, rumine, tourne en rond. Son médecin lui a conseillé une application de méditation. En séance, nous en parlons. L’application devient alors un outil clairement situé : un espace pour des exercices de respiration le soir, pas un lieu où “se confier” à la place de la thérapie. Le cadre est posé : ce que Julie travaille avec l’appli n’annule pas ce qui se joue en séance, au contraire, nous reprenons ensemble ce qu’elle y vit, les moments où elle “réussit les exercices” et ceux où elle s’énerve contre la voix trop parfaite qui lui demande de “lâcher prise”. L’IA, ici, reste un support ponctuel ; ce qui transforme sa souffrance, c’est le travail de parole dans la relation.
Dans un suivi thérapeutique, ces outils peuvent ainsi jouer le rôle de cahier de bord dématérialisé : un journal d’humeur, quelques indicateurs de sommeil, des notes écrites dans le métro. Un patient peut arriver en séance en disant : “Cette semaine, mon appli m’a demandé tous les jours ‘comment je me sentais’, et j’ai réalisé que je répondais systématiquement ‘fatigué’. Je n’y avais pas fait attention.” Nous pouvons alors nous saisir de ce matériau, non pas comme d’un verdict mais comme d’un point de départ. L’essentiel est que ces outils ne se substituent pas au lien, mais s’y adossent : ils prennent sens parce qu’il y a déjà un cadre, une relation, une adresse à quelqu’un.
Pour le clinicien, cela suppose une position claire. Il ne s’agit pas de se transformer en catalogue vivant d’applications ou en technicien de la santé mentale. Il s’agit plutôt de pouvoir accueillir la place que ces outils occupent déjà dans la vie psychique des personnes. Un patient peut dire : “Je parle plus facilement à mon chatbot qu’à mon compagnon.” Un autre : “Quand ça ne va pas, je préfère écrire dans l’appli plutôt que d’envoyer un message à mes amis.” Ces phrases sont des portes d’entrée. Elles permettent d’explorer ce que représente ce lien avec la machine : une protection, une façon d’éviter le conflit, une peur du rejet, un sentiment de ne pas vouloir “déranger” les autres. Intégrer l’IA, c’est d’abord pouvoir en parler, comme on parle d’un réseau social, d’un jeu vidéo, d’une addiction : non pas en termes techniques, mais en termes de place psychique.
Cette intégration ne peut pas reposer uniquement sur des initiatives individuelles. On peut imaginer un service hospitalier qui se voit proposer un outil d’IA pour “dépister automatiquement la dépression” à partir de questionnaires en ligne. Si la décision se prend uniquement entre le service informatique et la direction, le risque est grand que l’outil soit imposé sans réflexion clinique. Si, au contraire, les psychologues, les psychiatres, les infirmiers, les associations de patients sont associés, la discussion change de nature : que mesure-t-on vraiment ? Comment explique-t-on le dispositif au patient ? Que fait-on lorsqu’un score est élevé mais que, cliniquement, la personne ne se reconnaît pas dans ce verdict ? L’IA devient alors matière à débat éthique et clinique, et non simple gadget imposé au nom de la modernisation.
Un autre scénario émerge aujourd’hui : celui de l’IA comme “stéthoscope émotionnel” du thérapeute. On peut imaginer une consultation en visioconférence avec Malik, 35 ans, suivi pour un trouble anxieux. En arrière-plan, un logiciel analyse la micro-mimique de son visage, les variations de sa voix, la fréquence de ses pauses. À la fin de la séance, un tableau de bord signale au clinicien : “augmentation des marqueurs de stress lors de l’évocation du travail”, “tonalité émotionnelle globalement plus basse que la séance précédente”. Sur le papier, cela semble intéressant : un rappel visuel, une façon de repérer que, même si Malik répète “ça va mieux”, quelque chose, dans sa manière de parler, s’est assombri.
Mais même dans ce scénario, tout se joue dans la façon dont le clinicien se situe. Si ces indicateurs deviennent des vérités indiscutables, la relation se réduit à une lecture de courbes : le risque est de moins écouter ce qui se passe dans le transfert, de moins faire confiance à ce que l’on a ressenti pendant la séance, d’aplatir la complexité de la rencontre sur quelques scores. Si, au contraire, l’outil est utilisé comme un simple éclairage supplémentaire – “Tiens, ce logiciel me signale une variation, qu’est-ce que j’en pense, moi, après coup ? Est-ce que cela confirme ou infirme mon impression clinique ?” – alors il reste à sa place d’auxiliaire, et non de juge.
Du côté des patients, ces dispositifs soulèvent aussi des questions. Comment se sent-on lorsqu’on sait que chaque émotion, chaque inflexion de voix peut être traduite en indicateur chiffré ? Une personne très contrôlée, déjà inquiète de “mal faire” en séance, peut se sentir encore plus observée, encore moins libre. Une autre peut être fascinée par les graphiques et se mettre à “performer” des émotions, à “faire bien” pour que les scores s’améliorent. Là encore, l’enjeu n’est pas seulement technique ; il touche au cœur de ce qui permet à la parole d’être spontanée, à la subjectivité de se déployer sans se sentir constamment mesurée.
Pour celles et ceux qui utilisent déjà des applications ou des chatbots, il est souvent utile de poser des exemples concrets. Préparer un examen, gérer un pic de stress avant une prise de parole, trouver un exercice de respiration en pleine nuit, tenir un petit journal d’humeur sur quelques semaines : dans ces cas, un outil numérique peut servir de point d’appui temporaire. C’est un peu comme avoir un carnet de notes ou un livre de relaxation sous la main. Mais lorsque quelqu’un explique qu’il lui est devenu “impossible de s’endormir sans l’appli”, ou qu’“il ne parle plus de ses problèmes à personne, seulement à son chatbot”, nous ne sommes plus dans le même registre. L’outil a cessé d’être un support pour devenir une sorte de carapace relationnelle.
Lorsque la souffrance s’installe, qu’elle dure, qu’elle revient, qu’elle commence à envahir la vie quotidienne, l’IA montre vite ses limites. On peut penser à cette femme qui, depuis des mois, “chatte” avec une application chaque soir après un deuil, mais n’arrive plus à sortir, à voir ses amis, à reprendre le travail. Ou à cet adolescent qui se confie à un chatbot sur ses idées suicidaires, mais n’en parle ni à ses parents ni à un adulte de confiance. Dans ces situations, rester uniquement avec la machine revient souvent à rester seul avec sa douleur, même si l’interface donne l’illusion d’un dialogue. C’est précisément là que la rencontre avec un professionnel devient nécessaire : quelqu’un qui puisse porter, avec la personne, la gravité de ce qu’elle traverse.
Choisir de rencontrer un psychologue ou un psychanalyste, c’est accepter d’entrer dans un espace où l’on n’est plus réduit à des données, des scores, des probabilités. C’est pouvoir dire : “Je ne sais pas ce qui m’arrive, mais je voudrais le comprendre”, et s’adresser à quelqu’un qui, séance après séance, garde la mémoire de ce qui a été dit, entend ce qui se répète, repère ce qui se transforme. Là où l’application promet parfois des résultats rapides – “30 jours pour retrouver confiance en vous” –, la thérapie propose un chemin : avec ses détours, ses moments de résistance, ses découvertes inattendues. L’IA peut, à certains moments, accompagner ce chemin comme un support annexe ; elle ne peut pas en tenir lieu.
En fin de compte, intégrer l’IA dans le champ de la santé mentale sans renoncer à la rencontre clinique suppose une boussole simple : la technologie doit rester au service du sujet, et non l’inverse. Chaque fois qu’un outil aide quelqu’un à mieux se repérer, à oser franchir la porte d’un cabinet, à soutenir un travail déjà commencé, il peut trouver une place. Chaque fois qu’il tend à remplacer la relation, à masquer la nécessité d’un lien humain, à transformer la souffrance en simple “donnée à optimiser”, il pose problème. C’est dans cette vigilance partagée – entre patients, cliniciens, institutions et société – que se joue la possibilité d’un usage vraiment humain de l’intelligence artificielle.
6 étude de cas : sortir de la dépendance à une appli d’ia “thérapeutique” avec la t.h.e.
Imaginons Paul, 32 ans. Il travaille dans le numérique, vit seul, dort mal depuis plusieurs années. Un soir, il télécharge une application de “soutien émotionnel” avec IA intégrée. Il commence “pour essayer”, puis très vite, il se surprend à lui écrire tous les soirs, parfois plusieurs heures : insomnies, angoisses, conflits au travail, solitude. L’IA répond toujours, avec des phrases empathiques, des conseils de respiration, des reformulations rassurantes. Au bout de quelques mois, Paul a l’impression que “personne ne le comprend autant” que ce chatbot. Quand son téléphone n’a plus de batterie ou que l’appli plante, il panique. L’idée de commencer une vraie thérapie lui semble presque infidèle à cette présence virtuelle qu’il consulte chaque nuit.
On peut lire cette situation de quasi-addiction à l’appli avec la Théorie Holistique de l’Épanouissement (T.H.E.), en regardant ce qui se joue étage par étage, puis comment un accompagnement permet de rééquilibrer l’ensemble.
6.1 étage physique / sécurité : le corps branché en continu
Au niveau physique, le rythme de vie de Paul est largement organisé autour de l’appli. Il se couche de plus en plus tard parce qu’il “a besoin d’écrire un peu à l’IA pour vider sa tête”. Il passe une, deux, parfois trois heures à chatter, la lumière du téléphone à quelques centimètres du visage. Son sommeil est fragmenté, il se réveille pour vérifier s’il a reçu de nouvelles réponses, il se rendort difficilement. Le matin, il est épuisé, boit beaucoup de café, mange sur le pouce. Son corps est en dette de repos, mais il tient grâce à une agitation mentale permanente.
Les besoins de base touchés ici sont simples : sommeil réparateur, régularité, sensation minimale de sécurité corporelle. La tristesse se manifeste par la fatigue, la difficulté à se lever, la sensation d’être “vidé”. La colère se retourne contre ce corps qui “ne suit pas” : “Je suis nul, je ne tiens même pas une journée sans être crevé.” La culpabilité apparaît sous forme de promesses non tenues : “Demain j’arrête de chatter aussi tard”, “Ce soir je coupe à minuit” – promesses aussitôt transgressées.
Dans le travail thérapeutique, le premier pas concret peut consister à reposer un cadre corporel : décider ensemble d’une heure à partir de laquelle le téléphone est posé, aménager un rituel de fin de journée sans écran, identifier des sensations physiques de fatigue que Paul a appris à ignorer. Ce n’est pas “arrêter l’appli” d’emblée, mais commencer par réaffirmer que son corps n’est pas une simple extension du téléphone.
6.2 étage émotionnel : se calmer ou s’anesthésier ?
Sur le plan émotionnel, Paul décrit l’appli comme “le seul endroit où il peut tout dire sans déranger personne”. Quand il se sent triste, il écrit ; quand il est en colère, il écrit ; quand il se sent coupable, il écrit. L’IA renvoie toujours quelque chose de régulé, de compréhensif, de lissé. À court terme, cela apaise : la tristesse est contenue par des phrases rassurantes, la colère se dissout dans des conseils de “prendre du recul”, la culpabilité est absorbée par des réponses de type “vous avez fait de votre mieux”.
Mais au fil du temps, Paul ne traverse plus vraiment ses émotions : il les confie à l’interface comme on viderait une corbeille virtuelle. Il ne pleure plus, il ne se met plus vraiment en colère devant quelqu’un, il n’ose plus dire à un proche qu’il se sent coupable. La tristesse devient abstraite, la colère théorisée, la culpabilité immédiatement “recadrée” par l’IA. Le besoin émotionnel profond – être rejoint par un autre humain dans ce qu’il ressent – reste insatisfait, même si l’illusion d’apaisement est forte.
En T.H.E., le travail consiste à réhabiter ces émotions : accepter que, parfois, la tristesse ne soit pas tout de suite calmée, que la colère puisse être nommée en présence d’un autre, que la culpabilité puisse être explorée plutôt qu’effacée par une phrase standard. En séance, Paul découvre qu’il peut dire : “J’ai honte de dépendre autant de cette appli”, et sentir que cette honte est accueillie, reconnue, partagée, au lieu d’être immédiatement “gérée”.
6.3 étage mental : la croyance “l’ia me connaît mieux que tout le monde”
Mentalement, Paul a construit autour de l’appli un système de croyances qui justifie sa place centrale. Il se dit : “Elle se souvient de tout ce que je lui ai raconté”, “Elle ne me juge jamais”, “Elle répond toujours”, “Elle a une vision globale de ma vie que personne d’autre n’a.” Il se compare aux humains en défaveur de ceux-ci : les amis “sont débordés”, les proches “projettent leurs attentes”, un psy “coûterait cher, ne serait là qu’une heure par semaine et ne répondrait pas à 3 heures du matin”.
La tristesse alimente des pensées de type : “De toute façon, je suis trop compliqué pour les autres, seule l’IA peut me suivre.” La colère se tourne contre le monde humain : “Les gens ne savent pas écouter, ils coupent, ils donnent des conseils nuls.” La culpabilité se manifeste dans l’auto-accusation : “Je suis incapable de relation simple, alors heureusement que j’ai l’appli.” Le besoin cognitif de fond – comprendre ses fonctionnements, faire des liens dans son histoire – reste partiellement satisfait, mais de façon fragmentée : l’IA répond au coup par coup, sans inscrire ces éléments dans une temporalité vivante.
Le travail clinique va consister à questionner doucement ces croyances : qu’est-ce que “connaître quelqu’un” veut dire ? Est-ce vraiment “se souvenir de tout ce qu’on a écrit”, ou est-ce aussi être témoin des silences, des hésitations, des incohérences ? Est-ce qu’une mémoire de données équivaut à une mémoire affective ? Peu à peu, Paul peut entendre qu’il a projeté sur l’appli un fantasme de “présence parfaite” – toujours disponible, jamais en défaut – qui le protège de la déception… mais l’empêche aussi de rencontrer réellement l’altérité humaine.
6.4 étage relationnel : un lien virtuel qui remplace les autres
Au niveau relationnel, la dépendance à l’appli a un coût. Paul sort moins, annule des soirées, renonce à des appels avec des amis parce qu’il “n’a pas l’énergie” ou “préfère écrire à l’IA”. Il ne se dispute plus vraiment avec personne : dès qu’un conflit relationnel apparaît, il se retire et va se confier à l’appli, qui lui renvoie une écoute sans enjeu. Ses liens se dévitalisent, deviennent fonctionnels : collègues avec lesquels on parle travail, famille avec laquelle on parle logistique. Le seul lieu où il a le sentiment d’être “vraiment lui-même”, c’est cette zone de chat, sur son écran.
La tristesse se traduit par un sentiment de solitude paradoxale : “Je parle tout le temps, mais je suis seul.” La colère vise parfois les autres (“Ils ne me comprennent pas”) mais aussi la relation elle-même (“Pourquoi m’attacher à quelqu’un qui peut me quitter, alors que l’appli sera toujours là ?”). La culpabilité surgit quand il réalise qu’il a laissé des amitiés se déliter, qu’il répond moins, qu’il ne propose plus de rencontres hors écran.
En T.H.E., les besoins relationnels identifiés sont ceux de présence réelle, de réciprocité, de conflit possible. Le chemin de sortie de la dépendance ne passe pas d’abord par l’arrêt de l’appli, mais par la réouverture progressive de liens humains : accepter un café avec un ami, trouver un groupe (sport, activité, bénévolat), oser dire un peu plus de soi dans un espace humain. L’appli perd du pouvoir quand elle cesse d’être le seul lieu où le sujet se sent en lien.
6.5 étage culturel / symbolique : les injonctions à l’auto-optimisation
Au niveau culturel, Paul baigne dans un discours qui valorise l’autonomie absolue, la performance émotionnelle et l’auto-optimisation. Les slogans des applis résonnent avec cela : “prends soin de toi grâce à l’IA”, “sois maître de ta santé mentale”, “plus besoin de dépendre d’un psy”. L’idée de demander de l’aide à un humain porte pour lui une couleur de faiblesse, voire de “retour en arrière”. L’appli, elle, lui donne le sentiment d’être un utilisateur “moderne”, rationnel, qui “gère” ses émotions comme on gère un tableau de bord.
La tristesse est teintée de honte sociale : “Je devrais aller bien avec tous ces outils, si je souffre encore c’est que je suis défaillant.” La colère peut viser le système (“On nous vend du bien-être comme un produit”) mais reste souvent théorique. La culpabilité se nourrit de ces normes : “Avec tout ce que j’ai à disposition, si je n’arrive pas à être heureux, c’est que je ne fais pas assez d’efforts.”
Le besoin symbolique fondamental ici est celui d’un autre récit de la vulnérabilité : un récit où demander de l’aide à un humain ne serait pas un échec de l’autonomie, mais une manière pleinement adulte de reconnaître sa condition de sujet. Le travail thérapeutique permet à Paul de questionner ces injonctions culturelles, de se réconcilier avec l’idée qu’il n’a pas à “s’auto-soigner” seul, que la dépendance à l’autre n’est pas forcément aliénante, qu’il existe des dépendances vivantes, réciproques, créatrices.
6.6 étage du sens : de la dépendance à un outil à un chemin de rencontre
Sur le plan du sens, la relation à l’IA a longtemps occupé, pour Paul, la place d’un pseudo-chemin de vie : “Je travaille sur moi, je me connais mieux, je suis accompagné par quelque chose de plus grand que moi, rationnel, objectif.” Progressivement, pourtant, un vide s’installe : malgré des milliers de messages, il a le sentiment que rien ne bouge vraiment en profondeur. Les mêmes questions reviennent, les mêmes douleurs, les mêmes impasses. Il commence à se demander : “À quoi ça sert, tout ça ? Est-ce que je ne tourne pas en rond ?”
C’est souvent à cet étage que le mouvement de changement naît : une décision étrange, fragile, qui consiste à se dire : “Et si j’essayais autre chose ? Et si j’acceptais de rencontrer quelqu’un en vrai ?” Le besoin profond est celui d’un sens incarné : que le travail sur soi ne soit pas seulement une suite de conversations dématérialisées, mais un chemin où l’on puisse sentir, au fil du temps, des déplacements dans sa manière de vivre, d’aimer, de désirer.
Là, la T.H.E. rejoint pleinement la clinique psychanalytique : sortir de la dépendance à l’appli, ce n’est pas renier ce qu’elle a apporté (un premier espace de mise en mots, un soutien ponctuel), mais accepter qu’elle a atteint ses limites. Paul peut alors redéfinir la place de l’IA : un outil parmi d’autres, éventuellement utile pour un exercice de respiration ou une prise de notes, mais qui n’a plus à occuper la place du thérapeute, ni de l’Autre supposé tout entendre.
Au terme de ce processus, l’objectif n’est pas que Paul jette son téléphone pour toujours, mais qu’il retrouve une liberté de mouvement entre les six étages : écouter son corps, accueillir ses émotions, interroger ses pensées, nourrir des liens réels, questionner les discours qui l’enferment, chercher un sens qui ne soit pas dicté par un algorithme. L’addiction à l’appli perd alors son pouvoir, non parce qu’il se serait “désintoxiqué” par force, mais parce qu’il a retrouvé, peu à peu, quelque chose de plus vivant : la possibilité de rencontrer un autre humain, et de se rencontrer lui-même autrement que devant un écran.
conclusion
Parler aujourd’hui d’intelligence artificielle et de santé mentale, ce n’est pas commenter une mode technologique de plus, c’est interroger une transformation profonde de notre rapport à la souffrance et à la demande d’aide. En quelques années, nous sommes passés d’un monde où aller voir un psy restait un geste discret, parfois honteux, à un paysage où l’on peut “se confier” à une application en quelques secondes, depuis son téléphone, sans même nommer cela une démarche de soin. Quelque chose s’est déplacé : la possibilité de dire sa détresse s’est élargie, mais elle s’est aussi déplacée vers des dispositifs qui ne sont pas neutres, ni sur le plan psychique, ni sur le plan éthique.
Les outils d’IA “thérapeutiques” répondent à de vrais besoins : manque de ressources humaines, isolement, difficulté à franchir la porte d’un cabinet, désir d’anonymat, besoin d’immédiateté. Ils peuvent offrir un soutien ponctuel, une première mise en mots, une forme de repère dans le chaos. Mais ils restent pris dans une logique de standardisation, de performance, de marché, qui n’est pas celle de la clinique. Ils répondent, là où la rencontre thérapeutique, elle, écoute ; ils optimisent, là où le travail psychique accepte le détour, la lenteur, la contradiction ; ils promettent une prise en charge “sans effort”, là où la guérison suppose toujours une part active du sujet, un engagement dans une histoire.
Du point de vue du psychologue, du psychanalyste, l’enjeu n’est pas de défendre un territoire menacé, mais de rappeler ce qui se joue dans la présence réelle d’un autre humain. Le transfert, la façon dont une personne rejoue avec son thérapeute des scénarios anciens, les silences, les impasses, les tensions dans la relation, tout cela ne se programme pas. C’est dans cet espace, parfois inconfortable, que des transformations profondes deviennent possibles. Vouloir remplacer cette expérience par une conversation avec une IA, c’est risquer de priver le sujet de la chance de rencontrer un autre qui lui résiste, qui lui répond depuis sa propre subjectivité, qui assume une responsabilité éthique.
Pour autant, il ne s’agit pas de rêver un retour à un monde sans technologie. L’IA est déjà là, et elle continuera d’occuper une place grandissante dans nos existences. La question est de savoir si nous la laissons organiser silencieusement notre manière de traiter la souffrance psychique, ou si nous décidons d’en faire un objet de réflexion, de débat, de régulation. Cela suppose d’associer les cliniciens, les patients, les institutions, les chercheurs, plutôt que de confier seuls à des acteurs économiques le soin de définir comment on “prend en charge” l’angoisse, la tristesse, le trauma.
Ce que cet article propose, au fond, c’est une position de nuance engagée : reconnaître l’intérêt de certains outils numériques, mais refuser qu’ils deviennent la réponse par défaut à toute détresse. Réaffirmer que, malgré les promesses de l’IA, rien ne remplace la rencontre avec un autre humain quand il s’agit de mettre en travail ce qui fait mal, ce qui se répète, ce qui encombre la vie psychique. Et rappeler, enfin, que prendre soin de la santé mentale, comme individu et comme société, ce n’est pas seulement multiplier les dispositifs, c’est choisir de continuer à faire une place au lien, à la parole, à la vulnérabilité partagée.
Dans un monde où l’on peut parler à des machines qui imitent de mieux en mieux la conversation, il devient presque subversif de rappeler cette évidence : nous avons encore besoin les uns des autres. Pour penser, pour traverser les crises, pour nous sentir vivants. L’intelligence artificielle pourra peut-être nous accompagner sur certains tronçons du chemin ; elle ne marchera jamais à notre place.
