L’intelligence artificielle (IA) transforme à grande vitesse de nombreux domaines, de la médecine à l’éducation, en passant par les services publics. L’un des terrains les plus sensibles sur lequel elle fait aujourd’hui irruption est celui de la santé mentale. Grâce à des technologies de plus en plus avancées, l’IA prétend pouvoir détecter les signes précoces de troubles psychologiques, accompagner les personnes en détresse émotionnelle ou encore automatiser certaines interventions thérapeutiques. Une promesse séduisante, surtout dans un contexte où les services de santé mentale sont saturés, et où les besoins ne cessent de croître. Mais derrière cet enthousiasme, certains s’interrogent : sommes-nous face à une révolution thérapeutique ou à une dérive inquiétante ?

L’un des arguments souvent mis en avant est celui de l’accessibilité. Dans de nombreux pays, la pénurie de psychologues, psychiatres ou thérapeutes empêche un grand nombre de personnes de recevoir une aide en temps voulu. L’IA, via des applications ou des chatbots, permet d’offrir une première écoute, de proposer des exercices de régulation émotionnelle, ou d’encourager les utilisateurs à prendre soin d’eux-mêmes. Des programmes inspirés de thérapies comportementales, par exemple, sont aujourd’hui intégrés à des plateformes capables de s’adapter au profil de l’utilisateur grâce à l’apprentissage automatique.

L’IA peut également jouer un rôle dans la détection précoce des troubles mentaux, en analysant des données issues de l’utilisation des réseaux sociaux, du langage écrit ou parlé, du sommeil ou encore de la fréquence cardiaque. Ces outils pourraient théoriquement alerter les professionnels ou les proches avant qu’une crise grave ne survienne.

Cependant, cette automatisation du soin mental soulève de nombreuses questions éthiques et humaines. Peut-on déléguer l’accompagnement psychologique à une machine ? Même si certains outils peuvent simuler l’écoute ou l’empathie, ils n’en possèdent ni la conscience ni l’intention véritable. La relation thérapeutique repose sur des éléments subtils — le silence, la présence, le regard — qui échappent aux algorithmes. En misant trop sur l’IA, on risque de déshumaniser le soin, et de passer à côté de ce qui fait l’essence même d’un accompagnement psychologique efficace.

Par ailleurs, la gestion des données personnelles constitue une source d’inquiétude majeure. Les plateformes d’IA collectent des informations extrêmement sensibles : états émotionnels, habitudes de vie, pensées intimes… Ces données, si elles sont mal protégées ou utilisées à des fins commerciales, peuvent exposer les utilisateurs à des risques graves : stigmatisation, manipulation, perte de contrôle sur leur propre intimité. Le manque de régulation dans ce domaine laisse la porte ouverte à des usages abusifs ou intrusifs.

Un autre danger tient aux biais algorithmiques. Les IA sont conçues à partir de jeux de données, souvent eux-mêmes marqués par des biais culturels, sociaux ou genrés. Ces biais peuvent conduire à des diagnostics erronés, à l’oubli de certaines catégories de population, ou à une interprétation déformée des symptômes. Dans le domaine de la santé mentale, où chaque situation est singulière, ces erreurs peuvent avoir des conséquences particulièrement lourdes.

Ainsi, si l’IA peut représenter une avancée prometteuse dans le soutien psychologique, elle ne doit jamais être pensée comme un substitut à la relation humaine. Elle peut enrichir les pratiques cliniques, faciliter l’accès à certains services, aider à la prévention… mais à condition d’être encadrée, supervisée et intégrée avec prudence.

Plutôt que de fantasmer une intelligence artificielle capable de « guérir » l’esprit humain, il semble plus judicieux de réfléchir à une cohabitation équilibrée entre innovation technologique et approche humaniste du soin. Car en santé mentale, plus encore qu’ailleurs, la qualité de la relation reste irremplaçable.

L’IA