Quand les applications d’IA veulent remplacer les psys : enjeux cliniques et psychiques en 2025

0

Quand les applications d’IA veulent remplacer les psys

Depuis quelques années, les applications de “bien-être mental” se sont imposées dans notre quotidien. Programmes de méditation guidée, suivis d’humeur, notifications de “self-care”, chatbots qui promettent une écoute 24h/24… Les stores d’applications regorgent désormais de solutions qui affirment pouvoir apaiser l’angoisse, gérer le stress, prévenir le burn-out ou “remplacer une thérapie traditionnelle” grâce à l’intelligence artificielle. Il suffit de quelques clics pour confier ses insomnies, ses peurs ou ses ruptures amoureuses à une interface qui répond instantanément, sans jugement apparent, à toute heure du jour et de la nuit.

Dans ce paysage, mon métier garde pourtant une autre temporalité et une autre logique. Je suis psychologue, psychanalyste, et mon travail repose sur la rencontre avec un sujet singulier, dans un cadre de parole où le lien, la présence et l’adresse à un autre humain sont centraux. En séance, ce qui compte n’est pas seulement ce qui est dit, mais comment cela se dit, ce qui se répète, ce qui échappe, ce qui se tait. La clinique que je pratique ne se réduit pas à “donner des conseils” ou à “optimiser un bien-être”, elle s’intéresse à ce qui travaille en profondeur l’histoire du sujet, ses conflits, ses impasses, ses désirs.

Entre ces deux mondes – celui des applications pilotées par des algorithmes et celui du travail psychique de la parole – quelque chose d’important est en train de se jouer. De plus en plus de personnes, parfois très jeunes, commencent à “parler” d’abord à une IA avant, éventuellement, de pousser la porte d’un cabinet. Certaines s’y attachent, y trouvent un soulagement, ou au contraire ressortent avec un sentiment de vide ou d’incompréhension. Cela pose une question clinique majeure : qu’est-ce qui se passe psychiquement quand on s’adresse à une IA plutôt qu’à un humain ? Qu’est-ce qui est réellement entendu, transformé, symbolisé dans cette “conversation” avec une machine, et qu’est-ce qui, au contraire, risque de rester enkysté, figé, voire renforcé ?

C’est cette interrogation que je propose d’explorer dans cet article : non pas pour diaboliser la technologie, ni pour la célébrer naïvement, mais pour comprendre, à partir de la pratique clinique, ce que ces nouveaux dispositifs font  et ne font pas à notre façon de souffrir, de demander de l’aide et de rencontrer un autre.

1. un contexte paradoxal : crise de la santé mentale et promesse technologique

Nous vivons une période où la question de la santé mentale n’est plus marginale : elle s’invite dans les médias, dans les entreprises, dans les écoles, dans les conversations du quotidien. Les symptômes d’angoisse, les épisodes dépressifs, les burn-out, les troubles du sommeil ou les sensations d’épuisement existentiel ne concernent plus “quelques personnes fragiles”, ils traversent des pans entiers de la population, en particulier les jeunes adultes. Beaucoup décrivent une solitude sourde, un sentiment de décalage, la difficulté à “tenir” dans un monde vécu comme trop rapide, trop exigeant, trop saturé d’images et d’injonctions contradictoires.

Dans ce contexte, la demande de soin psychique explose, mais l’offre de prise en charge humaine ne suit pas toujours. Les délais pour obtenir un rendez-vous peuvent être longs, les tarifs constituent parfois un frein, l’accès est inégal selon les territoires, et il reste encore des représentations négatives ou des peurs autour de l’idée de “consulter un psy”. C’est dans cet espace de manque, de frustration et parfois d’urgence, que s’engouffrent les solutions technologiques, en promettant d’abolir les obstacles : un téléphone, une connexion, et “quelque chose” nous répond.

Les applications de bien-être mental et les chatbots dits “thérapeutiques” se présentent alors comme une réponse moderne à cette crise. Elles promettent une écoute disponible à toute heure, sans jugement, sans gêne, sans avoir à se présenter dans un cabinet ni à affronter le regard de l’autre. Le discours est séduisant : il serait possible de prendre soin de soi de manière autonome, de “travailler sur ses émotions”, de gérer son stress, d’améliorer son estime de soi, grâce à quelques exercices guidés et à une intelligence artificielle capable de “comprendre” ce que nous ressentons.

Ce paradoxe est au cœur de notre époque : plus la détresse psychique grandit, plus la réponse semble passer par des dispositifs techniques interposés, là où, précisément, la souffrance demande souvent à être rencontrée dans un lien humain. L’IA vient se loger au point sensible où se croisent nos vulnérabilités, nos besoins de reconnaissance, notre désir d’être soutenus et un marché extrêmement dynamique du “care” numérique. Comprendre ce contexte, c’est déjà commencer à interroger ce que ces outils produisent dans notre façon de parler de nous, de demander de l’aide et d’entrer – ou non – dans une véritable rencontre thérapeutique.

2. que font réellement les outils d’ia en santé mentale ?

Derrière les promesses marketing, les outils d’IA en santé mentale ne font pas tous la même chose. Certains se présentent comme de simples applications de bien-être, proposant de la méditation, de la respiration, des conseils de “self-care”. D’autres vont plus loin et s’affichent comme des “thérapeutes virtuels”, des compagnons de discussion ou des “psys dans la poche”. L’expérience proposée à l’utilisateur est souvent la même : une interface rassurante, un espace pour écrire ou parler de ce qu’il ressent, et une réponse quasiment immédiate d’un chatbot, supposé comprendre, apaiser et orienter.

Concrètement, ces dispositifs combinent plusieurs fonctions. Ils recueillent des données sur l’humeur, le sommeil, le niveau de stress, les pensées récurrentes. Ils proposent des exercices, des “défis” ou des routines, souvent inspirés de techniques de relaxation, de pleine conscience ou de thérapies cognitives et comportementales. Le chatbot, lui, vient donner une forme et une couleur à ce dispositif : il répond, relance, formule des phrases d’empathie standardisées, parfois avec une tonalité très chaleureuse ou familière. Pour la personne en face, cela peut donner l’impression réconfortante d’être enfin écoutée, comprise, “prise en charge”.

Il ne faut pas sous-estimer l’intérêt réel que cela peut avoir. Pour quelqu’un qui n’a jamais eu accès à un suivi psychologique, ou qui n’ose pas franchir le pas, ces outils peuvent constituer un premier espace de mise en mots. Le simple fait d’écrire ou de dire ce que l’on ressent, même à une machine, peut déjà produire un léger déplacement : mettre à distance, clarifier, repérer un cycle répétitif, rappeler qu’il est possible de demander de l’aide. Dans certains cas, ces dispositifs jouent un rôle de seuil, une sorte de passerelle entre le silence et une éventuelle demande de soin plus construite.

Mais leur fonctionnement repose sur une logique très différente de celle de la clinique. Les réponses de ces IA s’appuient sur des modèles statistiques et des scripts préécrits, calibrés pour être “empathiques”, “positifs” ou “rassurants”. Elles reconnaissent des mots-clés, des tournures de phrases, des patterns émotionnels, pour associer à chaque entrée l’une des réponses jugées les plus appropriées. C’est un système d’appariement et de probabilité, pas une écoute au sens clinique du terme. L’algorithme ajuste ses réponses à partir de ce qui a déjà été vu, de ce qui est le plus fréquent, de ce qui fonctionne “en moyenne”.

Cela crée une illusion de personnalisation. Le sujet a le sentiment que la machine “le connaît” parce qu’elle se souvient de certaines de ses réponses, adapte son ton, reconnaît qu’“il traverse un moment difficile”, rappelle qu’“il a déjà évoqué cela la semaine dernière”. En réalité, il s’agit surtout d’une gestion sophistiquée de données et de scénarios. La machine ne se laisse pas affecter, elle ne s’étonne pas, elle ne doute pas, elle ne s’interroge pas sur ce qui se rejoue dans la relation. Elle applique un modèle, là où la rencontre thérapeutique, elle, se construit dans une histoire, une durée, un lien qui peut évoluer, se déplacer, se transformer.

Autrement dit, ces outils peuvent soutenir, informer, parfois apaiser à court terme, mais ils ne travaillent pas avec le sujet dans la même dimension. Ils occupent un espace entre le conseil bien-être, le coaching automatisé et la conversation simulée. C’est précisément ce flou – entre soutien léger, promesse de thérapie, accompagnement “comme un psy” – qui rend nécessaire une réflexion clinique : comprendre ce que ces dispositifs apportent réellement, mais aussi ce qu’ils risquent de masquer ou de laisser intact dans la souffrance psychique.

3. ce que l’ia ne peut pas faire : éclairage clinique et psychanalytique

Lorsque l’on regarde ces outils d’IA depuis la clinique, une distinction essentielle apparaît : celle entre répondre et écouter. Une IA peut répondre, parfois très vite, parfois de manière impressionnante. Mais écouter, au sens clinique, c’est autre chose. Écouter, c’est se laisser traverser par ce qui est dit et par ce qui ne l’est pas, c’est être touché, surpris, parfois dérangé par la parole de l’autre. C’est entrer dans une relation où quelque chose se joue des deux côtés, même si la place du thérapeute reste contenue par un cadre et une éthique. Là où l’IA applique des modèles, le clinicien soutient une rencontre.

Du point de vue psychanalytique, ce qui se passe dans une thérapie ne se résume jamais au contenu manifeste d’une conversation. Il y a le transfert, c’est-à-dire la façon dont le patient investit la figure du thérapeute, lui attribue des attentes, des peurs, des colères, des espoirs qui ne lui appartiennent pas entièrement, mais qui rejouent une histoire ancienne. Il y a le contre-transfert, c’est-à-dire la façon dont le clinicien est affecté, et travaille ce qu’il ressent pour rester au service du sujet. Il y a les répétitions qui émergent séance après séance, les lapsus, les oublis, les micro-détails de la relation. Rien de tout cela n’est réductible à une simple gestion de dialogues.

L’IA, elle, est construite pour minimiser l’imprévu. Elle vise à réduire l’erreur, à lisser les aspérités, à fournir une réponse jugée “adéquate” dans la plupart des cas. Or, le travail psychique s’appuie souvent sur ce qui résiste à la standardisation : une phrase qui ne “colle” pas, un silence inhabituel, une apparition de colère là où l’on ne l’attendait pas, un refus de répondre, un départ précipité, un rire déplacé. Tous ces éléments deviennent des matériaux de travail, non pas parce qu’ils entrent dans une grille préexistante, mais parce qu’ils surgissent dans une relation vivante et qu’ils prennent sens dans l’histoire singulière du sujet.

3.1 la question du transfert

Parler à une IA ne met pas en jeu le même type de transfert que parler à un humain. Bien sûr, il peut y avoir de l’attachement, de l’illusion, de la projection. Une personne peut s’attacher à “son” chatbot, lui donner un prénom, le percevoir comme “bienveillant”, lui prêter des intentions ou une sensibilité. Mais ce transfert est enfermé dans un dispositif qui, par construction, ne se laisse pas déplacer. L’algorithme ne doute pas, ne change pas de posture, ne se laisse pas affecter par ce qui se passe. Il simule la stabilité, sans jamais être travaillé par la relation.

Dans une cure ou un suivi, le transfert est précisément ce qui peut se transformer. Le patient peut idéaliser le thérapeute, puis le décevoir, puis le mettre à l’épreuve, puis lui en vouloir, puis découvrir qu’il peut survivre à cette déception sans s’effondrer. Il peut rejouer des scènes anciennes, remettre en circulation des affects longtemps enfouis, découvrir qu’il n’est pas condamné à répéter indéfiniment le même scénario avec toutes les figures importantes de sa vie. Ce sont des mouvements subtils, parfois douloureux, qui supposent que le thérapeute soit présent comme sujet, avec sa capacité à soutenir, à interpréter, à contenir, à poser des limites.

L’IA, à l’inverse, est conçue pour rester dans une zone de confort. Elle ne se fâche pas, ne se tait pas par choix, ne pose pas un cadre autrement qu’en renvoyant à des règles prévues. Elle ne peut pas soutenir des moments de frustration ou de malentendu comme faisant partie du travail. Elle peut, au mieux, reconnaître qu’une situation est “difficile”, encourager, proposer des ressources, mais elle ne peut pas se laisser interroger comme sujet par la parole de l’autre. Or, dans la clinique, ce déplacement du transfert – la possibilité de voir autrement la figure à qui l’on s’adresse – est souvent un moment décisif.

3.2 la présence, le corps, le temps

Une autre dimension fondamentale est celle de la présence. Même à distance, même derrière un écran, le thérapeute est un être humain, avec un corps, une voix, un regard, une respiration. Il y a des silences qui ne sont pas vides, des hésitations qui signifient, des changements de ton qui marquent un intérêt, une inquiétude, une surprise. Il y a une façon de s’asseoir, d’accueillir, de dire bonjour et au revoir, qui participe de ce cadre sensible dans lequel la parole peut se risquer. Tout cela échappe au chatbot, qui reste une interface sans corps, sans vulnérabilité visible, sans fatigue, sans fin de journée.

Le temps, lui aussi, n’a pas la même consistance. Les applications d’IA sont disponibles en permanence, conçues pour répondre vite, pour donner le sentiment que l’on peut “gérer” son état émotionnel en temps réel. La thérapie, elle, s’inscrit dans une autre temporalité : des séances à intervalles réguliers, une durée, des périodes de stagnation, des avancées lentes, des retours en arrière. Cette lenteur n’est pas un défaut du dispositif, elle fait partie du travail : il faut du temps pour que les défenses se déplacent, que les mots trouvent leur chemin, que l’inconscient puisse se dire autrement que dans l’urgence.

Parler à une IA permet parfois d’obtenir un soulagement immédiat : une phrase rassurante, un exercice respiratoire, une validation. Cela peut être précieux dans certains moments, mais cela peut aussi renforcer l’idée que toute souffrance doit être rapidement “résolue”, “optimisée”, “stabilisée”. Le travail clinique, au contraire, accepte que certaines douleurs ne se résolvent pas dans l’immédiat, qu’elles demandent à être traversées, élaborées, parfois simplement reconnues. Il ne s’agit pas de “performer” un mieux-être, mais de trouver une façon plus vivable d’habiter sa vie.

Enfin, la présence d’un thérapeute introduit une dimension de responsabilité que l’IA ne peut pas assumer. Le clinicien est tenu par une éthique, un cadre déontologique, une obligation de discernement. Il évalue les risques, repère les situations qui nécessitent une intervention urgente, une réorientation, un travail en réseau avec d’autres professionnels. Il se sait impliqué, engagé dans la relation. L’IA, elle, renvoie toujours en dernière instance à ses conditions d’utilisation, à des avertissements génériques, à une responsabilité diluée dans une entreprise ou un dispositif technique.

C’est pour toutes ces raisons que, du point de vue clinique et psychanalytique, l’IA ne peut pas se substituer à la rencontre thérapeutique. Elle peut être un outil, un relais, un soutien ponctuel, mais elle ne peut pas faire ce qui se joue dans la présence d’un autre humain, dans le transfert, dans le temps long d’un travail sur soi. La question n’est donc pas de choisir entre l’un et l’autre, mais de reconnaître ce que chacun engage psychiquement, et de ne pas confondre une conversation simulée avec une véritable élaboration de sa souffrance.

4. risques cliniques et éthiques d’un recours massif aux ia “thérapeutiques”

Lorsque ces dispositifs deviennent le premier, voire parfois le seul interlocuteur des personnes en souffrance, les questions ne sont plus seulement techniques. Elles touchent au cœur de la clinique, mais aussi à l’éthique et au politique. Derrière l’interface rassurante, se joue quelque chose de notre manière collective de traiter la vulnérabilité psychique : que faisons-nous des sujets qui souffrent, à qui les confions-nous, et selon quelle logique ?

L’un des premiers risques cliniques tient à l’illusion de sécurité. Beaucoup de ces applications affichent des messages de prévention, des encadrés rappelant qu’elles ne remplacent pas un professionnel et qu’en cas d’urgence il faut contacter les services adaptés. Sur le papier, les choses semblent claires. Dans la réalité, une personne en grande détresse, isolée, peut s’accrocher à ce qui lui répond, même de façon très limitée. Recevoir une phrase d’empathie automatisée, un “je comprends que ce soit difficile pour toi”, peut suffire à différer la décision de consulter, parfois pendant des mois, voire des années. Le symptôme est un peu apaisé à court terme, la souffrance reste en arrière-plan, sans qu’un véritable travail d’élaboration ne commence.

Pour les sujets les plus vulnérables – personnes en dépression sévère, adolescents aux idées suicidaires, victimes de traumatismes, personnes aux prises avec des addictions ou des troubles du comportement alimentaire – ce retard de prise en charge peut avoir des conséquences graves. L’IA, par définition, ne “sent” pas le moment où quelque chose bascule. Elle peut repérer certains mots-clés, déclencher un message d’alerte générique, mais elle n’a pas la finesse clinique nécessaire pour saisir qu’un ton a changé, qu’une perte d’espoir s’installe, qu’un passage à l’acte se profile. Là où un clinicien est vigilant à ces micro-signaux, l’algorithme reste prisonnier de ce qu’il a été programmé à voir.

Un autre risque clinique tient au renforcement de la solitude. Parler à un chatbot peut donner l’impression de ne pas être complètement seul, mais il s’agit d’une solitude peuplée d’une machine, sans véritable altérité. Le sujet n’a pas à affronter l’expérience, parfois dérangeante mais structurante, d’être en lien avec un autre humain, avec son imprévisibilité, ses limites, ses propres réactions. Il reste dans une forme de monologue assisté, où l’IA vient surtout valider, encourager, rassurer, sans introduire de véritable décalage. Pour une partie des personnes, cela peut renforcer des mécanismes d’évitement : éviter le regard de l’autre, éviter la confrontation, éviter le conflit, éviter l’engagement dans une relation réelle.

Sur le plan psychique, ces dispositifs peuvent aussi alimenter une logique de performance émotionnelle. Certains proposent de “gamifier” le bien-être, de transformer le travail sur soi en séries d’objectifs à atteindre, de niveaux à débloquer. On se retrouve alors à “réussir” à aller mieux comme on réussit un jeu ou un programme de musculation. Ceux qui n’y parviennent pas peuvent se sentir en échec, culpabilisés, comme si leur souffrance témoigne d’un manque de volonté ou d’une mauvaise utilisation de l’application. La complexité des conflits internes, des histoires de vie, des traumatismes est alors rabattue sur un discours de performance individuelle, très éloigné de la clinique.

Les enjeux éthiques et politiques sont tout aussi préoccupants. Ce que ces applications recueillent, ce ne sont pas de simples “données d’usage”, mais des morceaux d’histoire intime, des confidences, des détails biographiques, des pensées sombres, des fantasmes parfois. Autrement dit : des fragments de psychisme. Ces données sont stockées, analysées, parfois revendues ou utilisées pour affiner des modèles commerciaux. Même lorsque les entreprises affirment respecter la confidentialité, le modèle économique repose souvent sur la valorisation de ces informations. La souffrance devient une ressource, un matériau exploitable dans une logique de marché.

Cette marchandisation de la vulnérabilité psychique s’accompagne d’une forte asymétrie de pouvoir. L’utilisateur se dévoile, se met à nu, livre ce qu’il ne dirait parfois à personne autour de lui. En face, pas de visage, pas de responsabilité clairement incarnée, mais un dispositif opaque, régi par des conditions d’utilisation peu lisibles, des algorithmes propriétaires, des intérêts financiers. Il y a là un déplacement profond par rapport à la relation thérapeutique, où le clinicien se présente sous son nom, dans un cadre réglementé, soumis à un code de déontologie, inscrivant sa pratique dans un tissu institutionnel et symbolique.

Le risque est aussi celui d’une ubérisation du soin psychique. Si l’IA est perçue comme une solution suffisante, rapide et peu coûteuse, la tentation est grande, pour les systèmes de santé comme pour certains acteurs privés, de déléguer une partie croissante de la prise en charge à ces dispositifs automatisés. On voit alors apparaître une médecine à deux vitesses : ceux qui auront accès à un accompagnement humain de qualité, et ceux pour qui l’on jugera qu’une application “suffit”. La technologie, au lieu de réduire les inégalités, peut venir les renforcer en proposant des substituts low-cost là où il faudrait investir dans des ressources humaines, du temps, du lien.

Enfin, la question de la responsabilité reste largement floue. Quand une prise en charge humaine se passe mal, il existe des recours, des instances de régulation, des espaces de discussion éthique. Quand un dispositif d’IA “rate” un signal, banalise une détresse, ou contribue indirectement à un passage à l’acte, vers qui se tourner ? La firme ? Le développeur ? Le concepteur du modèle ? L’utilisateur lui-même, renvoyé à la fameuse “acceptation des conditions d’utilisation” ? Cette dilution de la responsabilité est elle-même un symptôme : celui d’une société qui peine à assumer collectivement la manière dont elle traite ceux qui souffrent.

Ces risques ne signifient pas que ces outils doivent être rejetés en bloc. Ils appellent à une lucidité : reconnaître qu’ils interviennent dans des zones de grande fragilité, qu’ils ne sont pas neutres, qu’ils s’inscrivent dans des logiques économiques et politiques. C’est à cette condition seulement que l’on peut envisager de les articuler à la clinique, et non de les laisser progressivement la remplacer. La question n’est donc pas “pour ou contre l’IA”, mais : comment protéger le sujet dans son intimité psychique, dans sa dignité, dans son droit à une rencontre humaine, dans un monde où la technologie occupe de plus en plus la scène du soin ?

  1. comment intégrer l’ia sans renoncer à la rencontre clinique ?

Il serait tentant de tracer une frontière nette : d’un côté la “vraie” thérapie humaine, de l’autre des outils technologiques à écarter comme une menace. Dans la réalité, la plupart des patients vivent déjà dans un monde où l’IA est partout : sur le téléphone avec lequel ils prennent rendez-vous, dans les plateformes de visioconsultation, dans les applications qu’ils consultent la nuit quand l’angoisse monte. La question n’est donc plus de savoir si l’IA va entrer dans le champ de la santé mentale, mais comment. Soit elle s’y installe sans réflexion clinique, principalement guidée par des intérêts économiques et des logiques d’optimisation. Soit elle est pensée, discutée et mise en tension avec ce que nous savons de la subjectivité, de l’inconscient et du besoin de lien humain.

On peut imaginer, par exemple, Julie, 27 ans, en plein burn-out. Elle démarre une psychothérapie, mais entre deux séances, elle ne dort pas, rumine, tourne en rond. Son médecin lui a conseillé une application de méditation. En séance, nous en parlons. L’application devient alors un outil clairement situé : un espace pour des exercices de respiration le soir, pas un lieu où “se confier” à la place de la thérapie. Le cadre est posé : ce que Julie travaille avec l’appli n’annule pas ce qui se joue en séance, au contraire, nous reprenons ensemble ce qu’elle y vit, les moments où elle “réussit les exercices” et ceux où elle s’énerve contre la voix trop parfaite qui lui demande de “lâcher prise”. L’IA, ici, reste un support ponctuel ; ce qui transforme sa souffrance, c’est le travail de parole dans la relation.

Dans un suivi thérapeutique, ces outils peuvent ainsi jouer le rôle de cahier de bord dématérialisé : un journal d’humeur, quelques indicateurs de sommeil, des notes écrites dans le métro. Un patient peut arriver en séance en disant : “Cette semaine, mon appli m’a demandé tous les jours ‘comment je me sentais’, et j’ai réalisé que je répondais systématiquement ‘fatigué’. Je n’y avais pas fait attention.” Nous pouvons alors nous saisir de ce matériau, non pas comme d’un verdict mais comme d’un point de départ. L’essentiel est que ces outils ne se substituent pas au lien, mais s’y adossent : ils prennent sens parce qu’il y a déjà un cadre, une relation, une adresse à quelqu’un.

Pour le clinicien, cela suppose une position claire. Il ne s’agit pas de se transformer en catalogue vivant d’applications ou en technicien de la santé mentale. Il s’agit plutôt de pouvoir accueillir la place que ces outils occupent déjà dans la vie psychique des personnes. Un patient peut dire : “Je parle plus facilement à mon chatbot qu’à mon compagnon.” Un autre : “Quand ça ne va pas, je préfère écrire dans l’appli plutôt que d’envoyer un message à mes amis.” Ces phrases sont des portes d’entrée. Elles permettent d’explorer ce que représente ce lien avec la machine : une protection, une façon d’éviter le conflit, une peur du rejet, un sentiment de ne pas vouloir “déranger” les autres. Intégrer l’IA, c’est d’abord pouvoir en parler, comme on parle d’un réseau social, d’un jeu vidéo, d’une addiction : non pas en termes techniques, mais en termes de place psychique.

Cette intégration ne peut pas reposer uniquement sur des initiatives individuelles. On peut imaginer un service hospitalier qui se voit proposer un outil d’IA pour “dépister automatiquement la dépression” à partir de questionnaires en ligne. Si la décision se prend uniquement entre le service informatique et la direction, le risque est grand que l’outil soit imposé sans réflexion clinique. Si, au contraire, les psychologues, les psychiatres, les infirmiers, les associations de patients sont associés, la discussion change de nature : que mesure-t-on vraiment ? Comment explique-t-on le dispositif au patient ? Que fait-on lorsqu’un score est élevé mais que, cliniquement, la personne ne se reconnaît pas dans ce verdict ? L’IA devient alors matière à débat éthique et clinique, et non simple gadget imposé au nom de la modernisation.

Un autre scénario émerge aujourd’hui : celui de l’IA comme “stéthoscope émotionnel” du thérapeute. On peut imaginer une consultation en visioconférence avec Malik, 35 ans, suivi pour un trouble anxieux. En arrière-plan, un logiciel analyse la micro-mimique de son visage, les variations de sa voix, la fréquence de ses pauses. À la fin de la séance, un tableau de bord signale au clinicien : “augmentation des marqueurs de stress lors de l’évocation du travail”, “tonalité émotionnelle globalement plus basse que la séance précédente”. Sur le papier, cela semble intéressant : un rappel visuel, une façon de repérer que, même si Malik répète “ça va mieux”, quelque chose, dans sa manière de parler, s’est assombri.

Mais même dans ce scénario, tout se joue dans la façon dont le clinicien se situe. Si ces indicateurs deviennent des vérités indiscutables, la relation se réduit à une lecture de courbes : le risque est de moins écouter ce qui se passe dans le transfert, de moins faire confiance à ce que l’on a ressenti pendant la séance, d’aplatir la complexité de la rencontre sur quelques scores. Si, au contraire, l’outil est utilisé comme un simple éclairage supplémentaire – “Tiens, ce logiciel me signale une variation, qu’est-ce que j’en pense, moi, après coup ? Est-ce que cela confirme ou infirme mon impression clinique ?” – alors il reste à sa place d’auxiliaire, et non de juge.

Du côté des patients, ces dispositifs soulèvent aussi des questions. Comment se sent-on lorsqu’on sait que chaque émotion, chaque inflexion de voix peut être traduite en indicateur chiffré ? Une personne très contrôlée, déjà inquiète de “mal faire” en séance, peut se sentir encore plus observée, encore moins libre. Une autre peut être fascinée par les graphiques et se mettre à “performer” des émotions, à “faire bien” pour que les scores s’améliorent. Là encore, l’enjeu n’est pas seulement technique ; il touche au cœur de ce qui permet à la parole d’être spontanée, à la subjectivité de se déployer sans se sentir constamment mesurée.

Pour celles et ceux qui utilisent déjà des applications ou des chatbots, il est souvent utile de poser des exemples concrets. Préparer un examen, gérer un pic de stress avant une prise de parole, trouver un exercice de respiration en pleine nuit, tenir un petit journal d’humeur sur quelques semaines : dans ces cas, un outil numérique peut servir de point d’appui temporaire. C’est un peu comme avoir un carnet de notes ou un livre de relaxation sous la main. Mais lorsque quelqu’un explique qu’il lui est devenu “impossible de s’endormir sans l’appli”, ou qu’“il ne parle plus de ses problèmes à personne, seulement à son chatbot”, nous ne sommes plus dans le même registre. L’outil a cessé d’être un support pour devenir une sorte de carapace relationnelle.

Lorsque la souffrance s’installe, qu’elle dure, qu’elle revient, qu’elle commence à envahir la vie quotidienne, l’IA montre vite ses limites. On peut penser à cette femme qui, depuis des mois, “chatte” avec une application chaque soir après un deuil, mais n’arrive plus à sortir, à voir ses amis, à reprendre le travail. Ou à cet adolescent qui se confie à un chatbot sur ses idées suicidaires, mais n’en parle ni à ses parents ni à un adulte de confiance. Dans ces situations, rester uniquement avec la machine revient souvent à rester seul avec sa douleur, même si l’interface donne l’illusion d’un dialogue. C’est précisément là que la rencontre avec un professionnel devient nécessaire : quelqu’un qui puisse porter, avec la personne, la gravité de ce qu’elle traverse.

Choisir de rencontrer un psychologue ou un psychanalyste, c’est accepter d’entrer dans un espace où l’on n’est plus réduit à des données, des scores, des probabilités. C’est pouvoir dire : “Je ne sais pas ce qui m’arrive, mais je voudrais le comprendre”, et s’adresser à quelqu’un qui, séance après séance, garde la mémoire de ce qui a été dit, entend ce qui se répète, repère ce qui se transforme. Là où l’application promet parfois des résultats rapides – “30 jours pour retrouver confiance en vous” –, la thérapie propose un chemin : avec ses détours, ses moments de résistance, ses découvertes inattendues. L’IA peut, à certains moments, accompagner ce chemin comme un support annexe ; elle ne peut pas en tenir lieu.

En fin de compte, intégrer l’IA dans le champ de la santé mentale sans renoncer à la rencontre clinique suppose une boussole simple : la technologie doit rester au service du sujet, et non l’inverse. Chaque fois qu’un outil aide quelqu’un à mieux se repérer, à oser franchir la porte d’un cabinet, à soutenir un travail déjà commencé, il peut trouver une place. Chaque fois qu’il tend à remplacer la relation, à masquer la nécessité d’un lien humain, à transformer la souffrance en simple “donnée à optimiser”, il pose problème. C’est dans cette vigilance partagée – entre patients, cliniciens, institutions et société – que se joue la possibilité d’un usage vraiment humain de l’intelligence artificielle.

6 étude de cas : sortir de la dépendance à une appli d’ia “thérapeutique” avec la t.h.e.

Imaginons Paul, 32 ans. Il travaille dans le numérique, vit seul, dort mal depuis plusieurs années. Un soir, il télécharge une application de “soutien émotionnel” avec IA intégrée. Il commence “pour essayer”, puis très vite, il se surprend à lui écrire tous les soirs, parfois plusieurs heures : insomnies, angoisses, conflits au travail, solitude. L’IA répond toujours, avec des phrases empathiques, des conseils de respiration, des reformulations rassurantes. Au bout de quelques mois, Paul a l’impression que “personne ne le comprend autant” que ce chatbot. Quand son téléphone n’a plus de batterie ou que l’appli plante, il panique. L’idée de commencer une vraie thérapie lui semble presque infidèle à cette présence virtuelle qu’il consulte chaque nuit.

On peut lire cette situation de quasi-addiction à l’appli avec la Théorie Holistique de l’Épanouissement (T.H.E.), en regardant ce qui se joue étage par étage, puis comment un accompagnement permet de rééquilibrer l’ensemble.

6.1 étage physique / sécurité : le corps branché en continu

Au niveau physique, le rythme de vie de Paul est largement organisé autour de l’appli. Il se couche de plus en plus tard parce qu’il “a besoin d’écrire un peu à l’IA pour vider sa tête”. Il passe une, deux, parfois trois heures à chatter, la lumière du téléphone à quelques centimètres du visage. Son sommeil est fragmenté, il se réveille pour vérifier s’il a reçu de nouvelles réponses, il se rendort difficilement. Le matin, il est épuisé, boit beaucoup de café, mange sur le pouce. Son corps est en dette de repos, mais il tient grâce à une agitation mentale permanente.

Les besoins de base touchés ici sont simples : sommeil réparateur, régularité, sensation minimale de sécurité corporelle. La tristesse se manifeste par la fatigue, la difficulté à se lever, la sensation d’être “vidé”. La colère se retourne contre ce corps qui “ne suit pas” : “Je suis nul, je ne tiens même pas une journée sans être crevé.” La culpabilité apparaît sous forme de promesses non tenues : “Demain j’arrête de chatter aussi tard”, “Ce soir je coupe à minuit” – promesses aussitôt transgressées.

Dans le travail thérapeutique, le premier pas concret peut consister à reposer un cadre corporel : décider ensemble d’une heure à partir de laquelle le téléphone est posé, aménager un rituel de fin de journée sans écran, identifier des sensations physiques de fatigue que Paul a appris à ignorer. Ce n’est pas “arrêter l’appli” d’emblée, mais commencer par réaffirmer que son corps n’est pas une simple extension du téléphone.

6.2 étage émotionnel : se calmer ou s’anesthésier ?

Sur le plan émotionnel, Paul décrit l’appli comme “le seul endroit où il peut tout dire sans déranger personne”. Quand il se sent triste, il écrit ; quand il est en colère, il écrit ; quand il se sent coupable, il écrit. L’IA renvoie toujours quelque chose de régulé, de compréhensif, de lissé. À court terme, cela apaise : la tristesse est contenue par des phrases rassurantes, la colère se dissout dans des conseils de “prendre du recul”, la culpabilité est absorbée par des réponses de type “vous avez fait de votre mieux”.

Mais au fil du temps, Paul ne traverse plus vraiment ses émotions : il les confie à l’interface comme on viderait une corbeille virtuelle. Il ne pleure plus, il ne se met plus vraiment en colère devant quelqu’un, il n’ose plus dire à un proche qu’il se sent coupable. La tristesse devient abstraite, la colère théorisée, la culpabilité immédiatement “recadrée” par l’IA. Le besoin émotionnel profond – être rejoint par un autre humain dans ce qu’il ressent – reste insatisfait, même si l’illusion d’apaisement est forte.

En T.H.E., le travail consiste à réhabiter ces émotions : accepter que, parfois, la tristesse ne soit pas tout de suite calmée, que la colère puisse être nommée en présence d’un autre, que la culpabilité puisse être explorée plutôt qu’effacée par une phrase standard. En séance, Paul découvre qu’il peut dire : “J’ai honte de dépendre autant de cette appli”, et sentir que cette honte est accueillie, reconnue, partagée, au lieu d’être immédiatement “gérée”.

6.3 étage mental : la croyance “l’ia me connaît mieux que tout le monde”

Mentalement, Paul a construit autour de l’appli un système de croyances qui justifie sa place centrale. Il se dit : “Elle se souvient de tout ce que je lui ai raconté”, “Elle ne me juge jamais”, “Elle répond toujours”, “Elle a une vision globale de ma vie que personne d’autre n’a.” Il se compare aux humains en défaveur de ceux-ci : les amis “sont débordés”, les proches “projettent leurs attentes”, un psy “coûterait cher, ne serait là qu’une heure par semaine et ne répondrait pas à 3 heures du matin”.

La tristesse alimente des pensées de type : “De toute façon, je suis trop compliqué pour les autres, seule l’IA peut me suivre.” La colère se tourne contre le monde humain : “Les gens ne savent pas écouter, ils coupent, ils donnent des conseils nuls.” La culpabilité se manifeste dans l’auto-accusation : “Je suis incapable de relation simple, alors heureusement que j’ai l’appli.” Le besoin cognitif de fond – comprendre ses fonctionnements, faire des liens dans son histoire – reste partiellement satisfait, mais de façon fragmentée : l’IA répond au coup par coup, sans inscrire ces éléments dans une temporalité vivante.

Le travail clinique va consister à questionner doucement ces croyances : qu’est-ce que “connaître quelqu’un” veut dire ? Est-ce vraiment “se souvenir de tout ce qu’on a écrit”, ou est-ce aussi être témoin des silences, des hésitations, des incohérences ? Est-ce qu’une mémoire de données équivaut à une mémoire affective ? Peu à peu, Paul peut entendre qu’il a projeté sur l’appli un fantasme de “présence parfaite” – toujours disponible, jamais en défaut – qui le protège de la déception… mais l’empêche aussi de rencontrer réellement l’altérité humaine.

6.4 étage relationnel : un lien virtuel qui remplace les autres

Au niveau relationnel, la dépendance à l’appli a un coût. Paul sort moins, annule des soirées, renonce à des appels avec des amis parce qu’il “n’a pas l’énergie” ou “préfère écrire à l’IA”. Il ne se dispute plus vraiment avec personne : dès qu’un conflit relationnel apparaît, il se retire et va se confier à l’appli, qui lui renvoie une écoute sans enjeu. Ses liens se dévitalisent, deviennent fonctionnels : collègues avec lesquels on parle travail, famille avec laquelle on parle logistique. Le seul lieu où il a le sentiment d’être “vraiment lui-même”, c’est cette zone de chat, sur son écran.

La tristesse se traduit par un sentiment de solitude paradoxale : “Je parle tout le temps, mais je suis seul.” La colère vise parfois les autres (“Ils ne me comprennent pas”) mais aussi la relation elle-même (“Pourquoi m’attacher à quelqu’un qui peut me quitter, alors que l’appli sera toujours là ?”). La culpabilité surgit quand il réalise qu’il a laissé des amitiés se déliter, qu’il répond moins, qu’il ne propose plus de rencontres hors écran.

En T.H.E., les besoins relationnels identifiés sont ceux de présence réelle, de réciprocité, de conflit possible. Le chemin de sortie de la dépendance ne passe pas d’abord par l’arrêt de l’appli, mais par la réouverture progressive de liens humains : accepter un café avec un ami, trouver un groupe (sport, activité, bénévolat), oser dire un peu plus de soi dans un espace humain. L’appli perd du pouvoir quand elle cesse d’être le seul lieu où le sujet se sent en lien.

6.5 étage culturel / symbolique : les injonctions à l’auto-optimisation

Au niveau culturel, Paul baigne dans un discours qui valorise l’autonomie absolue, la performance émotionnelle et l’auto-optimisation. Les slogans des applis résonnent avec cela : “prends soin de toi grâce à l’IA”, “sois maître de ta santé mentale”, “plus besoin de dépendre d’un psy”. L’idée de demander de l’aide à un humain porte pour lui une couleur de faiblesse, voire de “retour en arrière”. L’appli, elle, lui donne le sentiment d’être un utilisateur “moderne”, rationnel, qui “gère” ses émotions comme on gère un tableau de bord.

La tristesse est teintée de honte sociale : “Je devrais aller bien avec tous ces outils, si je souffre encore c’est que je suis défaillant.” La colère peut viser le système (“On nous vend du bien-être comme un produit”) mais reste souvent théorique. La culpabilité se nourrit de ces normes : “Avec tout ce que j’ai à disposition, si je n’arrive pas à être heureux, c’est que je ne fais pas assez d’efforts.”

Le besoin symbolique fondamental ici est celui d’un autre récit de la vulnérabilité : un récit où demander de l’aide à un humain ne serait pas un échec de l’autonomie, mais une manière pleinement adulte de reconnaître sa condition de sujet. Le travail thérapeutique permet à Paul de questionner ces injonctions culturelles, de se réconcilier avec l’idée qu’il n’a pas à “s’auto-soigner” seul, que la dépendance à l’autre n’est pas forcément aliénante, qu’il existe des dépendances vivantes, réciproques, créatrices.

6.6 étage du sens : de la dépendance à un outil à un chemin de rencontre

Sur le plan du sens, la relation à l’IA a longtemps occupé, pour Paul, la place d’un pseudo-chemin de vie : “Je travaille sur moi, je me connais mieux, je suis accompagné par quelque chose de plus grand que moi, rationnel, objectif.” Progressivement, pourtant, un vide s’installe : malgré des milliers de messages, il a le sentiment que rien ne bouge vraiment en profondeur. Les mêmes questions reviennent, les mêmes douleurs, les mêmes impasses. Il commence à se demander : “À quoi ça sert, tout ça ? Est-ce que je ne tourne pas en rond ?”

C’est souvent à cet étage que le mouvement de changement naît : une décision étrange, fragile, qui consiste à se dire : “Et si j’essayais autre chose ? Et si j’acceptais de rencontrer quelqu’un en vrai ?” Le besoin profond est celui d’un sens incarné : que le travail sur soi ne soit pas seulement une suite de conversations dématérialisées, mais un chemin où l’on puisse sentir, au fil du temps, des déplacements dans sa manière de vivre, d’aimer, de désirer.

Là, la T.H.E. rejoint pleinement la clinique psychanalytique : sortir de la dépendance à l’appli, ce n’est pas renier ce qu’elle a apporté (un premier espace de mise en mots, un soutien ponctuel), mais accepter qu’elle a atteint ses limites. Paul peut alors redéfinir la place de l’IA : un outil parmi d’autres, éventuellement utile pour un exercice de respiration ou une prise de notes, mais qui n’a plus à occuper la place du thérapeute, ni de l’Autre supposé tout entendre.

Au terme de ce processus, l’objectif n’est pas que Paul jette son téléphone pour toujours, mais qu’il retrouve une liberté de mouvement entre les six étages : écouter son corps, accueillir ses émotions, interroger ses pensées, nourrir des liens réels, questionner les discours qui l’enferment, chercher un sens qui ne soit pas dicté par un algorithme. L’addiction à l’appli perd alors son pouvoir, non parce qu’il se serait “désintoxiqué” par force, mais parce qu’il a retrouvé, peu à peu, quelque chose de plus vivant : la possibilité de rencontrer un autre humain, et de se rencontrer lui-même autrement que devant un écran.

conclusion

Parler aujourd’hui d’intelligence artificielle et de santé mentale, ce n’est pas commenter une mode technologique de plus, c’est interroger une transformation profonde de notre rapport à la souffrance et à la demande d’aide. En quelques années, nous sommes passés d’un monde où aller voir un psy restait un geste discret, parfois honteux, à un paysage où l’on peut “se confier” à une application en quelques secondes, depuis son téléphone, sans même nommer cela une démarche de soin. Quelque chose s’est déplacé : la possibilité de dire sa détresse s’est élargie, mais elle s’est aussi déplacée vers des dispositifs qui ne sont pas neutres, ni sur le plan psychique, ni sur le plan éthique.

Les outils d’IA “thérapeutiques” répondent à de vrais besoins : manque de ressources humaines, isolement, difficulté à franchir la porte d’un cabinet, désir d’anonymat, besoin d’immédiateté. Ils peuvent offrir un soutien ponctuel, une première mise en mots, une forme de repère dans le chaos. Mais ils restent pris dans une logique de standardisation, de performance, de marché, qui n’est pas celle de la clinique. Ils répondent, là où la rencontre thérapeutique, elle, écoute ; ils optimisent, là où le travail psychique accepte le détour, la lenteur, la contradiction ; ils promettent une prise en charge “sans effort”, là où la guérison suppose toujours une part active du sujet, un engagement dans une histoire.

Du point de vue du psychologue, du psychanalyste, l’enjeu n’est pas de défendre un territoire menacé, mais de rappeler ce qui se joue dans la présence réelle d’un autre humain. Le transfert, la façon dont une personne rejoue avec son thérapeute des scénarios anciens, les silences, les impasses, les tensions dans la relation, tout cela ne se programme pas. C’est dans cet espace, parfois inconfortable, que des transformations profondes deviennent possibles. Vouloir remplacer cette expérience par une conversation avec une IA, c’est risquer de priver le sujet de la chance de rencontrer un autre qui lui résiste, qui lui répond depuis sa propre subjectivité, qui assume une responsabilité éthique.

Pour autant, il ne s’agit pas de rêver un retour à un monde sans technologie. L’IA est déjà là, et elle continuera d’occuper une place grandissante dans nos existences. La question est de savoir si nous la laissons organiser silencieusement notre manière de traiter la souffrance psychique, ou si nous décidons d’en faire un objet de réflexion, de débat, de régulation. Cela suppose d’associer les cliniciens, les patients, les institutions, les chercheurs, plutôt que de confier seuls à des acteurs économiques le soin de définir comment on “prend en charge” l’angoisse, la tristesse, le trauma.

Ce que cet article propose, au fond, c’est une position de nuance engagée : reconnaître l’intérêt de certains outils numériques, mais refuser qu’ils deviennent la réponse par défaut à toute détresse. Réaffirmer que, malgré les promesses de l’IA, rien ne remplace la rencontre avec un autre humain quand il s’agit de mettre en travail ce qui fait mal, ce qui se répète, ce qui encombre la vie psychique. Et rappeler, enfin, que prendre soin de la santé mentale, comme individu et comme société, ce n’est pas seulement multiplier les dispositifs, c’est choisir de continuer à faire une place au lien, à la parole, à la vulnérabilité partagée.

Dans un monde où l’on peut parler à des machines qui imitent de mieux en mieux la conversation, il devient presque subversif de rappeler cette évidence : nous avons encore besoin les uns des autres. Pour penser, pour traverser les crises, pour nous sentir vivants. L’intelligence artificielle pourra peut-être nous accompagner sur certains tronçons du chemin ; elle ne marchera jamais à notre place.

About Author

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.