Quand l’IA écoute nos jeunes avant nous : promesses et questions autour des nouveaux outils de santé mentale
1 une nouvelle scène du quotidien
Il est 23 h 17. Dans sa chambre, lumière éteinte, seulement l’écran du téléphone qui éclaire son visage, un·e jeune de 17 ans coche des cases sur son humeur, son sommeil, ses idées noires. Il ou elle n’est pas en train de parler à un parent, ni à un médecin, ni à un surveillant du lycée. C’est une plateforme, un “assistant virtuel”, qui demande : “Depuis deux semaines, avez-vous souvent eu l’impression que tout était sans intérêt ?”, “Avez-vous du mal à vous endormir ou à rester endormi·e ?”, “Avez-vous déjà pensé que les autres se porteraient mieux sans vous ?”. À chaque question, le pouce glisse sur l’écran : “jamais”, “parfois”, “souvent”, “presque tous les jours”.
Cette scène, qui aurait semblé étrange il y a encore quelques années, est en train de devenir ordinaire. En Île-de-France, MyMood propose maintenant aux 15–25 ans des auto-évaluations basées sur des échelles cliniques pour repérer précocement des symptômes de dépression, d’anxiété ou d’autres difficultés psychiques. Ailleurs, des outils comme Julia engagent les jeunes dans de vrais entretiens virtuels sur leur sommeil et leur moral, tandis que PsyCHARE croise des données biologiques, d’imagerie cérébrale et cliniques pour repérer des risques de psychose, et que MindStrong analyse la façon dont on utilise son smartphone pour détecter des fluctuations d’un trouble bipolaire. Par des voies différentes, tous poursuivent un même objectif : capter des signaux faibles de souffrance psychique et intervenir avant qu’ils ne se transforment en crise ouverte.
En quelques années, ces dispositifs sont passés des laboratoires de recherche aux poches des adolescents. Ils s’inscrivent dans un mouvement plus vaste : celui d’une psychiatrie qui, d’ici 2030, se veut plus précoce, plus personnalisée, plus numérique, articulée à des thérapies digitales, des suivis en continu, des modèles prédictifs. Pour beaucoup de jeunes, c’est déjà le quotidien : chercher “test dépression” sur un moteur de recherche, tomber sur MyMood, répondre à Julia entre deux révisions, accepter que son téléphone surveille ses nuits pour “voir si ça va mieux”.
Mais que se passe-t-il, psychiquement, quand une appli ou une IA devient le premier interlocuteur d’un jeune en difficulté ? Qu’est-ce que cela change, en bien, dans la façon de reconnaître sa souffrance, d’oser la nommer, de demander de l’aide ? Et qu’est-ce que cela vient bousculer dans notre manière, à nous adultes, d’écouter, d’accompagner, de nous rendre présents ? C’est à partir de cette nouvelle scène du quotidien – un adolescent face à son écran à 23 h 17 – que l’on peut commencer à interroger ce que ces outils numériques font au lien, à la honte, au corps et au récit intérieur des jeunes qui les utilisent.
2 .Quatre nouveaux “stéthoscopes mentaux”
MyMood, d’abord, ressemble à une porte d’entrée douce. Accessible gratuitement aux 15–25 ans en Île-de-France, la plateforme propose des questionnaires construits à partir d’échelles cliniques reconnues. On y retrouve des questions sur l’humeur, l’énergie, le sommeil, l’anxiété, la concentration. À la fin, un retour personnalisé situe le jeune par rapport à des repères cliniques et lui propose, si besoin, des ressources : structures de soins, lignes d’écoute, associations, consultations spécialisées. Pour beaucoup, c’est un premier miroir : un moyen de mettre un mot sur ce qui se passe, de vérifier que “ce n’est pas juste dans ma tête” au sens de “je l’invente”, mais bien un état qui mérite d’être pris au sérieux.
PsyCHARE va plus loin dans la sophistication. Ici, ce ne sont plus seulement des questionnaires, mais des données multiples qui sont analysées : imagerie cérébrale, marqueurs biologiques, évaluations cliniques, parfois même aspects du langage ou du comportement. L’IA croise ces informations pour repérer les jeunes présentant un risque élevé de développer une psychose et permettre des interventions précoces. On entre dans le champ de la “psychiatrie de précision” : l’idée que, comme en cancérologie, des profils de risque peuvent être modélisés pour adapter le suivi et les traitements.
Avec Julia, développée par Sanpsy, l’IA prend la forme d’un “interlocuteur” qui mène un entretien virtuel. Le jeune est invité à parler de son sommeil, de son moral, de son quotidien. Les réponses sont analysées, et l’outil évalue la présence de troubles du sommeil ou de symptômes dépressifs, avec une précision annoncée comparable à celle de cliniciens expérimentés. Julia ne remplace pas un entretien avec un humain, mais elle peut servir de triage, de première évaluation, avant d’orienter vers un professionnel.
MindStrong, enfin, illustre une autre tendance : l’analyse passive des comportements numériques. Ici, ce ne sont pas des questionnaires, mais la manière dont on utilise son smartphone – vitesse de frappe, fréquence des interactions, modes de navigation – qui sert de base à l’évaluation. L’IA repère des variations subtiles liées à l’évolution d’un trouble bipolaire, par exemple, et peut alerter en cas de risque de décompensation. Des adaptations sont déjà pensées pour les adolescents, avec la promesse d’un suivi “continu, discret et personnalisé”.
Quatre outils, quatre approches, un même fil : l’idée que l’IA peut devenir un “stéthoscope mental” capable de capter des signaux faibles et de servir de radar avant la crise.
3 Ce que ces outils apportent réellement aux jeunes
Pour beaucoup de jeunes, ces dispositifs répondent d’abord à un besoin très concret : pouvoir parler ou se tester sans avoir à franchir une porte, sans prendre rendez-vous, sans se justifier. Quand on a 15, 17 ou 20 ans, dire “je ne vais pas bien” à ses parents, à un médecin ou à un prof peut être extrêmement difficile. On a peur d’inquiéter, de passer pour “dramatique”, on se dit qu’il y a sûrement des gens “plus mal” que soi, donc qu’on n’a pas vraiment le droit de se plaindre. Le smartphone, lui, ne soupire pas, ne lève pas les yeux au ciel, ne répond pas “ça va passer”. Il est là, dans la main, à toute heure. Lancer MyMood à minuit, répondre aux questions de Julia un dimanche après-midi, c’est souvent plus acceptable, plus discret, que de dire “j’ai besoin d’aide” à voix haute devant quelqu’un. Pour certains, c’est la seule façon imaginable de commencer à parler.
L’auto-évaluation proposée par MyMood ou l’entretien virtuel avec Julia peuvent ainsi jouer un rôle de sas. Imaginons Léa, 16 ans, qui enchaîne les nuits courtes, n’arrive plus à se concentrer en cours et pleure régulièrement sans comprendre pourquoi. Elle tombe sur MyMood via une story Instagram de sa région, répond aux questionnaires en se disant “de toute façon, je vais sûrement être dans la moyenne”. À la fin, le résultat indique un niveau élevé de symptômes dépressifs et lui conseille de prendre contact avec un professionnel, en lui donnant des ressources près de chez elle. Ce n’est pas un diagnostic, mais c’est un premier cadrage : ce qu’elle vit n’est pas juste de la “paresse” ou un “coup de mou”, c’est quelque chose qui mérite d’être pris au sérieux. De la même manière, un jeune qui discute avec Julia de son sommeil et de son moral peut, en voyant s’afficher une recommandation de consulter, sentir que ce qu’il traverse a une consistance, un nom, une gravité suffisante pour justifier une démarche.
L’anonymat relatif de ces dispositifs est aussi un levier puissant. Beaucoup de jeunes disent qu’ils n’oseraient jamais dire à leurs parents “j’ai des idées noires” ou “parfois je me dis que si je n’étais plus là ce serait plus simple pour tout le monde”, mais qu’ils peuvent l’écrire dans un questionnaire, cocher une case, répondre “oui, souvent” à une question posée par une appli. C’est moins confrontant, moins honteux, parce qu’il n’y a pas de regard en face au moment où les mots sortent. Un étudiant de 19 ans, par exemple, qui se réveille toutes les nuits avec des pensées catastrophiques, peut cliquer sur un lien de MyMood après avoir vu passer une campagne de sa fac. Au lieu de se perdre sur des forums qui banalisent ou dramatisent, il arrive sur un outil structuré qui lui renvoie des informations claires, des signaux d’alerte, des numéros d’écoute et des adresses de consultation. Même s’il n’appelle pas tout de suite, il sait désormais qu’il existe des lieux, que ce qu’il vit n’est pas “hors catégorie”.
Ces solutions peuvent aussi réduire certains délais, ou au moins faire gagner du temps dans le parcours. Dans un contexte où les consultations de pédopsychiatrie, de psychologues ou de CMP sont souvent saturées, un premier repérage en amont peut orienter plus vite vers les bons interlocuteurs. Un jeune suivi dans un centre spécialisé, intégré à un dispositif comme PsyCHARE, peut par exemple être identifié comme à risque de trouble psychotique avant l’apparition d’un épisode aigu, ce qui permet d’ajuster la fréquence des rendez-vous, d’impliquer plus tôt la famille, de réfléchir à des aménagements scolaires ou universitaires. À un autre niveau, un médecin généraliste qui reçoit un adolescent avec les résultats de MyMood imprimés ou affichés sur son téléphone dispose déjà d’éléments structurés pour poser des questions plus ciblées, prioriser une orientation vers un CMP ou un psychiatre, rédiger un courrier en s’appuyant sur ces premiers scores. Ce n’est pas l’outil qui fait le diagnostic, mais il accélère la mise en mouvement du système autour d’une souffrance qui, sans cela, serait peut-être restée cachée encore des mois.
Enfin, ces dispositifs peuvent donner aux jeunes un sentiment de légitimité dans leur demande. Beaucoup d’entre eux ont intériorisé l’idée qu’il fallait “vraiment toucher le fond” pour avoir le droit de demander de l’aide. Voir noir sur blanc que leur niveau d’angoisse ou de tristesse dépasse les seuils d’alerte peut renverser cette logique : ce n’est plus seulement “mon ressenti”, c’est aussi quelque chose qui, selon des critères reconnus, mérite attention. À condition d’être bien accompagnée, cette reconnaissance peut casser le cercle de l’auto-minimisation (“je me fais des films”) et ouvrir la voie à une démarche vers un humain : un médecin, un psychologue, une infirmière scolaire, un proche. L’appli joue alors son rôle de tremplin : elle ne remplace pas la rencontre, elle lui prépare le terrain.
4 Ce que ces outils viennent bousculer
Il serait naïf de considérer ces innovations en santé mentale uniquement comme des solutions parfaites, car elles soulèvent aussi plusieurs questions complexes, en particulier du point de vue du vécu des jeunes et de leurs proches.
La première question porte sur la gestion des données personnelles. Ces outils nécessitent des informations très intimes, telles que les réponses à des questionnaires sensibles, des propos tenus lors d’entretiens virtuels, des données de sommeil, d’utilisation du téléphone, voire des marqueurs biologiques ou imageries cérébrales. Cela soulève des interrogations importantes sur la destination de ces données : où sont-elles stockées, qui y a accès, sont-elles réellement anonymisées, et dans quelles mesures sont-elles utilisées, que ce soit pour la recherche ou à d’autres fins ? Pour un adolescent, il est difficile de mesurer les implications à long terme de laisser des traces numériques de sa souffrance psychique, ce qui peut intensifier l’anxiété ou la méfiance à l’égard de ces technologies.
Ensuite, il y a le délicat équilibre entre aide et contrôle. Par exemple, l’outil MindStrong offre un suivi proactif capable de repérer des épisodes dépressifs ou maniaques avant même que le jeune ne s’en rende compte, ce qui est protecteur. Mais cette surveillance permanente peut aussi être ressentie comme intrusive, notamment chez des adolescents en quête d’autonomie. L’IA peut alors devenir une sorte de « surmoi numérique », un regard omniprésent qui observe en détail leurs comportements — comment ils tapent, dorment ou interagissent — ce qui peut générer une forme de pression additionnelle.
Un autre risque est la tentation de substituer ces outils à la relation humaine. Sous pression dans un système de soins souvent saturé, il pourrait être tentant de se contenter d’un diagnostic ou d’une évaluation algorithmique qui semble aussi fiable qu’un psychiatre expérimenté, au détriment de la consultation en face-à-face. Or, la complexité de l’échange humain, avec ses non-dits, ses émotions, les expressions corporelles, reste essentielle à la bonne compréhension et au soin, surtout pour des adolescents dont l’identité est en construction.
Enfin, ces outils posent le danger de réduire un jeune à des « scores de risque » ou à des étiquettes cliniques calculées par algorithme — « risque élevé de psychose », « probabilité de dépression majeure » ou « profil bipolaire à surveiller ». Si ces diagnostics précoces permettent d’agir vite, ils peuvent aussi fortement impacter l’image de soi d’un adolescent, qui doit déjà gérer la construction fragile de son identité et éviter d’être enfermé dans un profil figé.
Ainsi, bien que l’IA et ces innovations apportent des avancées notables en prévention et diagnostic précoces, leur intégration doit impérativement prendre en compte ces enjeux éthiques, psychologiques et sociaux pour protéger le bien-être réel et durable des jeunes utilisateurs.
5 Une boussole possible : les six étages de la T.H.E.
Pour ne pas se perdre dans cet entrelacs de promesses et de questions, il est utile de garder une boussole intérieure. Dans la perspective de la Théorie Holistique de l’Épanouissement (T.H.E.), un jeune ne se réduit pas à un diagnostic ni à un tableau de bord numérique. Il se déploie sur six étages qui interagissent en permanence : le corps, les émotions, la pensée, les relations, la culture, le sens. Les outils numériques peuvent toucher chacun de ces étages, parfois pour le meilleur, parfois en créant de nouvelles tensions. L’enjeu n’est pas de les rejeter ou de les idéaliser, mais de voir comment ils entrent en résonance avec cette architecture intérieure.
Au niveau du corps, ces outils peuvent aider à rendre visibles des signaux que l’on finit par considérer comme “normaux”. Un jeune qui utilise MyMood ou une appli de suivi de sommeil peut découvrir noir sur blanc qu’il ne dort que quatre heures par nuit depuis trois semaines, qu’il saute presque tous ses repas de midi, ou que son niveau de fatigue déclaré reste “élevé” jour après jour. Ce chiffre, cette phrase qui s’affiche à l’écran, peut faire l’effet d’un déclic : “Ah, ce n’est pas juste que je suis paresseux ou mauvais en organisation, mon corps est vraiment à bout”. Dans ce sens, l’application joue le rôle de miroir somatique, elle met en forme quelque chose que le jeune ressentait de manière diffuse. Mais le corps a aussi besoin qu’on le protège d’une hyper-surveillance permanente. Si chaque battement de cœur, chaque heure de sommeil, chaque pas est traqué, comment se reposer vraiment ? Un adolescent qui consulte compulsivement ses statistiques de sommeil peut finir par angoisser davantage, se coucher avec la pression “d’optimiser” sa nuit, et dormir encore moins. Le corps, dans la T.H.E., a besoin de moments où il n’est ni évalué ni mesuré, où il peut simplement ressentir, respirer, se détendre loin des écrans.
Au niveau émotionnel, les questionnaires et entretiens virtuels peuvent servir de déclencheur pour identifier une tristesse qui dure, une anxiété constante, une irritabilité qui ne ressemble plus à un simple “mauvais caractère”. Quand une appli renvoie des formulations du type “vos réponses suggèrent un niveau élevé de symptômes anxieux” ou “votre moral semble très bas depuis plusieurs semaines”, elle aide à mettre des mots là où il n’y avait que des sensations floues : lourdeur, boule au ventre, envie de pleurer sans raison apparente. Pour certains jeunes, lire ces phrases donne l’autorisation de dire “je ne vais pas juste mal, je souffre vraiment”. Mais cette mise en langage reste partielle tant qu’elle n’est pas reprise dans un échange vivant. Rien ne remplace l’expérience d’être accueilli avec ces émotions par quelqu’un qui écoute, qui ne détourne pas le regard, qui supporte de rester en présence d’une détresse sans chercher à la faire taire en deux conseils rapides ou en trois astuces de “gestion du stress”. L’outil peut ouvrir la porte, mais c’est la qualité de l’écoute humaine derrière qui permet à la tristesse ou à l’angoisse de devenir un matériau de travail et pas seulement un score inquiétant.
Au niveau mental, ces dispositifs s’adressent à notre besoin de comprendre, de mesurer, de savoir où l’on en est. Ils apportent des repères, des scores, des probabilités, des catégories. Un jeune peut se sentir soulagé en découvrant que ce qu’il traverse correspond à quelque chose de connu, de étudié, de nommé : “dépression”, “trouble anxieux”, “risque de trouble bipolaire”. Ce cadre peut rassurer, donner l’impression de sortir de l’absurde. Mais il y a un danger si ces chiffres ou ces mots deviennent des verdicts figés. Le risque, par exemple, est de se dire “je suis à 18 sur 21 à l’échelle de la dépression, donc je suis cassé” ou “l’IA dit que j’ai un risque élevé, donc mon histoire est écrite à l’avance”. La vie psychique ne se laisse jamais entièrement enfermer dans une case. La T.H.E. insiste sur cette part de nuance, de mouvement, de complexité : un score peut éclairer, il ne dit pas tout de la manière dont chacun vit sa souffrance, de ce qui l’a déclenchée, de ce qui peut la transformer.
Au niveau relationnel, ces outils peuvent devenir de véritables passerelles. Un jeune qui arrive en consultation en montrant les résultats de MyMood, un rapport Julia ou un graphique de suivi issu d’une appli ne vient plus “à vide” ; il a déjà commencé à se regarder, à s’interroger. Pour certains, cela facilite la première phrase : “Je ne savais pas comment expliquer, alors j’ai fait ce test, et voilà ce que ça donne”. Le professionnel, le parent, l’enseignant peuvent s’appuyer sur ce support pour engager la conversation. Mais si l’outil reste le seul interlocuteur, si aucune transition n’est organisée vers une rencontre humaine, la solitude risque au contraire de se renforcer. Un adolescent qui raconte ses angoisses à son téléphone toutes les nuits sans jamais en parler à personne peut finir par se sentir encore plus isolé : “je dis tout à cette appli, mais dans ma vraie vie, personne ne sait”. La T.H.E. rappelle que l’étage relationnel est vital : nous avons besoin d’au moins un autre être humain pour soutenir ce qui se passe en nous. Les dispositifs numériques peuvent relier, mais ils peuvent aussi devenir des confidents muets si on ne les inscrit pas dans une trame de liens.
Au niveau culturel, ces innovations s’inscrivent dans une société où le numérique est devenu l’un des principaux lieux de vie des jeunes. On confie déjà à son téléphone ses photos, ses conversations, ses recherches nocturnes, ses doutes. Le fait que des institutions publiques, des hôpitaux, des fondations proposent des applis de santé mentale contribue à déstigmatiser le fait d’aller mal : si une région crée MyMood, si une fondation développe une IA comme Julia, c’est que la souffrance psychique n’est plus seulement une affaire privée et honteuse. Cela envoie un message : “ce que tu vis mérite des outils, des moyens, de l’attention”. Mais ces mêmes innovations interrogent aussi une tendance culturelle forte : celle à tout quantifier, tout prédire, y compris nos crises intérieures. Une partie du risque tient là : si l’on attend d’un algorithme qu’il nous dise quand nous sommes tristes, en danger, fragiles, on peut peu à peu se déconnecter de ses propres ressentis. La T.H.E. invite à rester attentif à ce glissement : le numérique peut enrichir notre culture de la santé mentale, mais il ne doit pas se substituer à l’apprentissage de nos propres signaux internes.
Enfin, au niveau du sens, la question reste ouverte : qu’est-ce que ces outils permettent, ou non, de transformer dans la manière dont un jeune se raconte sa propre histoire ? Se voir classé “à risque”, “dépressif”, “en souffrance importante” peut être vécu comme une mise en lumière ou comme un enfermement. Pour certains, c’est le début d’un récit plus juste : “je ne suis pas juste quelqu’un de faible, j’ai traversé des choses difficiles, j’ai des symptômes qui ont une signification, et je peux être aidé”. Pour d’autres, c’est le sentiment de devenir un objet d’analyse pour des modèles prédictifs, une ligne de plus dans une base de données. La différence se joue souvent dans la manière dont ces dispositifs sont présentés et intégrés dans un parcours : est-ce qu’on explique au jeune qu’il reste au centre, que l’outil est là pour l’aider à mieux se connaître et à chercher du soutien, ou est-ce qu’on lui donne le sentiment que l’essentiel se joue entre l’algorithme et les professionnels, sans lui ? La T.H.E. rappelle que l’étage du sens est le lieu où chacun essaie de répondre à des questions comme “qui je suis ?”, “qu’est-ce que je vaux ?”, “où je vais ?”. Les technologies de santé mentale peuvent nourrir ces questions d’une manière féconde si elles sont au service du sujet, de sa parole, de sa capacité à faire des choix. Elles deviennent problématiques dès qu’elles font glisser le centre de gravité de sa vie vers un écran qui déciderait, à sa place, de ce qu’il est et de ce qu’il doit faire.
6 Comment les utiliser sans se perdre : quelques repères
Pour un jeune, utiliser ces outils peut être une bonne chose, à condition de garder en tête quelques repères simples. Un questionnaire, une appli, une IA peuvent être un premier pas, un miroir, un tremplin. Ils ne sont pas une fin en soi. On peut imaginer Inès, 16 ans, qui remplit MyMood un dimanche soir parce qu’elle ne dort plus, qu’elle pleure souvent sans trop savoir pourquoi et qu’elle n’ose pas en parler à ses parents qui sont déjà très stressés par leur travail. Elle répond aux questions, obtient un score qui indique un niveau élevé de symptômes dépressifs, voit s’afficher une phrase du type “vous gagneriez à en parler à un professionnel” et quelques liens vers des ressources locales. À ce moment-là, l’outil a joué son rôle de miroir : il a transformé un malaise flou en quelque chose de davantage nommé. Mais si Inès referme l’appli en se disant “c’est encore pire que ce que je pensais, je suis vraiment cassée” et qu’elle n’en parle à personne, le risque est que l’écran devienne une boîte noire de plus, où la souffrance reste enfermée. L’enjeu, pour elle, serait de pouvoir faire un pas de plus : montrer le résultat à son médecin traitant, envoyer un message à une infirmière scolaire, en parler à une tante en qui elle a confiance, ou même à une amie en disant “j’ai fait ce test, ça m’a fait peur, j’ai besoin que tu m’aides à trouver quelqu’un à qui en parler”. L’appli peut être le déclencheur, le support concret qui légitime la demande d’aide, mais la rencontre avec un humain reste la scène où quelque chose peut vraiment se transformer.
Pour un parent, un éducateur, un proche, découvrir que son enfant ou un jeune qu’on accompagne utilise MyMood, Julia ou d’autres outils peut être une occasion d’ouvrir un dialogue autrement. On peut penser, par exemple, à ce père qui tombe par hasard sur un onglet “Julia – entretien sommeil et moral” resté ouvert sur la tablette familiale. La tentation immédiate peut être de se sentir trahi, de se fâcher (“pourquoi tu me caches ça ?”), ou au contraire de paniquer et de vouloir tout contrôler (“montre-moi tes résultats, on va tout lire ensemble, il faut que tu arrêtes ça”). Une autre voie consisterait à prendre un temps, puis à dire à son adolescent : “Je suis tombé sur le site que tu as utilisé l’autre jour. Je ne savais pas que tu allais si mal. Qu’est-ce qui t’a donné envie de faire ce test ? Est-ce que ça t’a aidé ? Qu’est-ce que ça t’a fait de lire les réponses ?”. L’idée n’est pas d’arracher des informations, mais de se mettre à côté de lui, en curieux bienveillant. De laisser la possibilité au jeune de dire “j’avais besoin d’en parler à quelqu’un, même si c’est une machine”, ou au contraire “je ne sais pas quoi en faire”. Un enseignant ou un animateur qui apprend qu’un élève a utilisé MyMood peut aussi s’en servir comme point d’appui, par exemple en proposant un rendez-vous discret avec l’infirmière scolaire ou le psychologue de l’établissement, plutôt qu’en transformant cela en affaire publique. Dans tous les cas, l’enjeu est de ne pas confisquer l’initiative du jeune. C’est lui qui a fait ce premier pas numérique ; il a besoin de sentir qu’il garde une part de contrôle sur la suite, même s’il accepte d’être accompagné.
Pour les institutions, l’enjeu est de ne pas se laisser fasciner uniquement par la performance technologique, les courbes et les tableaux de bord. Intégrer ces dispositifs dans les parcours de soin, à l’école, à l’université, dans les structures jeunesse, suppose de penser l’éthique, la confidentialité, la formation des professionnels, le temps nécessaire pour accueillir ce qui va remonter. On peut imaginer un lycée qui déploie MyMood auprès de tous les élèves de seconde, avec une belle communication sur la santé mentale, mais sans renforcer l’équipe de vie scolaire ni les ressources médico-psychologiques. En quelques semaines, des dizaines de signalements “à risque” remontent, des élèves se voient conseiller de consulter, mais il n’y a pas assez de créneaux au CMP, le psychologue scolaire est déjà débordé et les infirmières n’ont que quelques minutes par élève. Le radar fonctionne, mais la piste d’atterrissage n’est pas prête. À l’université, un service de santé étudiante peut décider d’utiliser Julia pour proposer des entretiens de dépistage du mal-être et des troubles du sommeil lors des inscriptions. Si rien n’est prévu ensuite pour recevoir ceux qui sont repérés – temps de consultation, partenariats avec des structures extérieures, dispositifs d’urgence pour les situations graves –, on risque de créer un sentiment d’abandon : “on m’a dit que j’allais mal, et après plus rien”. Une collectivité qui souhaite intégrer ces outils dans ses politiques jeunesse peut, à l’inverse, choisir de commencer modestement : former des professionnels à la lecture des résultats, clarifier les circuits d’orientation, définir qui a accès à quelles données, associer les jeunes eux-mêmes à la réflexion. L’important n’est pas d’être “à la pointe” techniquement, mais de s’assurer que chaque signal de souffrance détecté trouve derrière une oreille humaine, un lieu, un temps, où il pourra être accueilli autrement que par une notification.
7 Et maintenant ?
Entre 2025 et 2030, tout indique que la santé mentale va continuer à se transformer sous l’effet du numérique et de l’intelligence artificielle. Les plans nationaux et internationaux parlent déjà de psychiatrie personnalisée, de thérapies digitales, de suivi continu, d’IA au service du diagnostic et du traitement. Pour les jeunes, ce n’est pas un futur lointain, c’est le présent. Pour beaucoup d’entre eux, demander de l’aide à leur téléphone, remplir un questionnaire à minuit, envoyer un message à un chatbot est plus simple, moins intimidant, que frapper à la porte d’un cabinet, d’une infirmerie scolaire ou même de la chambre d’un parent. Le smartphone est devenu un objet transitionnel moderne : on y écoute de la musique, on y cherche des réponses, on y confie des morceaux de soi.
Dans ce contexte, rester seulement dans la peur serait aussi réducteur que de se laisser emporter par l’enthousiasme technologique. La peur, c’est celle qui voit dans chaque IA une menace de déshumanisation, un “faux psy” qui volerait la place de la rencontre, un dispositif de contrôle déguisé en soutien. L’enthousiasme naïf, c’est celui qui croit que quelques algorithmes bien calibrés vont enfin “régler” le problème de la souffrance psychique, comme on corrige un bug dans un logiciel. Entre les deux, il existe une voie plus exigeante : reconnaître ce que ces outils apportent réellement, sans perdre de vue ce qu’ils ne pourront jamais faire à notre place. Ils peuvent ouvrir des portes, accélérer le repérage, légitimer le fait d’aller mal, surtout pour des jeunes qui se sentent souvent illégitimes dans leur souffrance. Ils peuvent donner un langage, des repères, des points d’appui. Mais ils ne peuvent pas, à eux seuls, offrir ce que donne une présence humaine qui s’engage, qui assume une responsabilité, qui accepte d’être touchée.
Cela suppose aussi de questionner lucidement ce que ces dispositifs impliquent. Chaque fois qu’une appli se propose de mesurer notre humeur, nos nuits, nos interactions, elle collecte des fragments de vie qui deviennent des données. Qui les voit, qui les stocke, qui les interprète, qui peut éventuellement y avoir accès demain ? Que se passe-t-il si un score élevé devient un critère de tri dans un système déjà en tension, ou un argument pour proposer certains traitements plutôt que d’autres ? Le risque n’est pas seulement théorique. Dans un monde où tout se mesure, se compare, se classe, la tentation est grande de laisser les algorithmes décider à notre place de ce qui est “normal”, “préoccupant”, “à corriger”. Rappeler que la santé mentale ne se résume pas à des indicateurs, c’est défendre l’idée qu’un jeune reste plus qu’un profil de risque, même si ces profils peuvent ponctuellement aider à agir plus tôt et mieux.
Revenir à une vision holistique, comme celle proposée par la T.H.E., c’est rappeler qu’il y a toujours un corps vivant derrière les courbes de sommeil, des émotions derrière les scores d’anxiété, une pensée derrière les questionnaires, des liens derrière les interfaces, une culture numérique qui façonne les usages, et une quête de sens qui traverse tout cela. Un jeune peut cocher toutes les cases d’une dépression sur une appli et, en même temps, se débattre avec une rupture, un harcèlement, un exil, un conflit familial, une question de genre ou d’orientation qui ne se laisse pas saisir par un algorithme. À l’inverse, un score “modéré” peut masquer une détresse existentielle profonde. C’est là que la rencontre humaine garde sa fonction irremplaçable : entendre l’histoire singulière qui se cache derrière les chiffres.
Les IA qui écoutent les jeunes ne doivent pas nous dispenser de les écouter nous-mêmes. Elles peuvent, au contraire, être vécues comme un signal d’alarme adressé à la société tout entière. Si tant de dispositifs se créent pour offrir une écoute 24 h/24 à des adolescents et des jeunes adultes, c’est peut-être aussi le signe que, dans leurs familles, leurs écoles, leurs formations, leurs lieux de vie, ils ne trouvent pas toujours des espaces où dire leur fatigue, leurs peurs, leurs colères, leurs questions. Un jeune qui se confie à MyMood, à Julia ou à un autre outil ne le fait pas contre ses proches ; il le fait souvent faute de mieux, faute de sentir qu’il peut déranger, pleurer, se répéter, sans être jugé ou minimisé. Les outils numériques peuvent être des passerelles, des tremplins ; mais pour qu’ils jouent ce rôle, il faut qu’en face il y ait des oreilles prêtes à accueillir ce qu’ils auront contribué à faire surgir.
Cela nous renvoie à une responsabilité partagée. Du côté des parents, des enseignants, des éducateurs, des professionnels, l’enjeu est d’oser poser des questions simples et directes lorsque l’on apprend qu’un jeune a utilisé une appli de santé mentale : “Qu’est-ce que ça t’a apporté ? Est-ce que quelque chose t’a inquiété ? Est-ce que tu aimerais qu’on en parle ensemble ?”. Du côté des institutions, il s’agit de ne pas déployer ces outils sans préparer les conditions de leur usage : clarifier les règles de confidentialité, prévoir des lieux et des temps d’accueil pour les jeunes repérés, associer ceux-ci à la conception des dispositifs plutôt que de les considérer comme de simples “utilisateurs”. Du côté des jeunes eux-mêmes, il s’agit, autant que possible, d’apprendre à se servir de ces technologies comme d’un appui et non comme d’un juge, à s’en servir pour mieux se connaître et oser demander de l’aide, plutôt que pour se surveiller et se condamner.
Entre 2025 et 2030, la santé mentale va continuer à se numériser, que nous le voulions ou non. La question n’est plus de revenir en arrière, mais de savoir quelle place nous voulons laisser à l’humain dans ce paysage en mutation. Si nous faisons le choix d’utiliser ces outils comme des prolongements de notre capacité à prendre soin, comme des signaux qui nous invitent à être plus présents, plus à l’écoute, plus disponibles, ils peuvent devenir de précieux alliés. Si, au contraire, nous leur abandonnons la mission d’écouter, de rassurer, de contenir, de décider, ils risquent de se transformer en murs invisibles entre les générations, chacun parlant à son écran sans plus se rencontrer vraiment. L’avenir se jouera dans cette nuance : faire de l’intelligence artificielle un support au service des liens, plutôt qu’un substitut silencieux à la relation.
.
