
L’intelligence artificielle (IA), et notamment ChatGPT, est de plus en plus utilisée comme un soutien émotionnel et psychologique, complémentaire aux thérapies traditionnelles. Ariane, une journaliste trentenaire ayant requis l’anonymat, confie que ChatGPT est devenu sa « béquille » face aux montées d’angoisse et aux questionnements existentiels. Elle l’utilise comme un journal intime, un soutien psychologique et un conseiller, le tutoyant et le genrant au masculin malgré sa conscience que ce n’est qu’un outil. Elle consulte également une psychologue, mais pour des raisons financières, ne peut la voir qu’une fois par mois, faisant de l’IA un complément accessible et régulier.
Ariane a découvert l’usage « psy » de l’IA il y a quelques mois, en demandant à ChatGPT d’analyser la dynamique d’une relation toxique. Le ton neutre de l’IA l’a aidée à prendre du recul, renforçant sa décision de rompre. Depuis, elle s’en sert deux à trois fois par semaine, suivant un protocole : « Voilà comment je me sens », puis « Qu’est-ce que tu en penses ? », et enfin « Qu’est-ce que je peux faire ? ». Cette utilisation de l’IA pour la santé mentale est une tendance croissante, particulièrement chez les jeunes adultes.
Les avantages de ChatGPT en tant que confident incluent sa disponibilité 24h/24 et 7j/7, son caractère non-jugeant et son écoute attentive, des aspects que les utilisateurs comme Ariane apprécient. L’IA peut offrir un espace où l’on exprime librement ses émotions sans crainte de jugement, et même aider à appliquer des stratégies thérapeutiques. Cependant, les experts soulignent que l’IA ne remplace pas un professionnel de la santé mentale. ChatGPT ne possède ni émotion ni intuition clinique et ne peut diagnostiquer de pathologies. Les conversations ne bénéficient pas du secret professionnel strict et pourraient être utilisées pour améliorer le modèle d’OpenAI.
Malgré ces limites, l’IA présente un potentiel prometteur pour la santé mentale. Elle peut servir de plateforme de première ligne pour le soutien, la prévention, la détection précoce de troubles et l’accompagnement des maladies chroniques. Des plateformes comme Ginger et Wysa intègrent déjà l’IA pour des interventions thérapeutiques personnalisées. Le développement d’IA éthiques et transparentes, garantissant la confidentialité des données, est essentiel pour maximiser ces bénéfices et répondre aux besoins croissants en psychiatrie, notamment en palliant le manque de professionnels.