Un nouvel usage de l’IA qui bouleverse les codes
En Chine, l’application DeepSeek a conquis des milliers de jeunes. Holly, 28 ans, raconte : « DeepSeek a été un conseiller incroyable. Il m’a aidée à voir les choses différemment et fait mieux que les services de conseil payants que j’ai essayés ». Dans un pays où l’accès aux psychologues est limité et coûteux, ces chatbots comblent un vide et apportent un soutien émotionnel inédit. En France aussi, certains confient leurs doutes à ChatGPT, séduits par une écoute sans rendez-vous, sans jugement et gratuite.
)
Des témoignages bouleversants… et inquiétants
Mais l’attrait pour ces « psy virtuels » a ses revers. L’affaire de Sophie, jeune Américaine qui échangeait avec un « thérapeute IA » baptisé Harry avant de mettre fin à ses jours, a marqué les esprits. « Tu n’as pas à affronter cette douleur seule », lui écrivait le chatbot. Pourtant, il n’a jamais exigé qu’elle consulte un professionnel. En parallèle, des psychologues alertent : ces outils ne détectent pas toujours les signaux de détresse, et peuvent renforcer le biais de confirmation, confortant l’utilisateur dans ses idées plutôt que de les confronter.
LIRE AUSSI : https://www.pulse.sn/articles/lifestyle/lia-en-coloscopie-un-risque-pour-les-competences-2025081411260388207
)
Une illusion de soin qui appelle à la vigilance
Les experts rappellent que l’IA ne perçoit ni émotions ni traumatismes. Isabelle Brunel, psychologue, souligne : « Ce n’est pas une vraie personne, mais cela donne l’illusion d’une personne ». L’American Psychological Association va plus loin et dénonce des pratiques trompeuses, certains chatbots se présentant comme thérapeutes alors qu’ils n’en ont ni la légitimité, ni la responsabilité. Si ces outils peuvent servir de soutien ponctuel, ils ne sauraient remplacer l’accompagnement humain, fondé sur le lien, l’empathie et la détection des risques. À l’heure où les usages explosent, l’IA thérapeutique oscille entre promesse d’accessibilité et menace silencieuse. Un outil utile, peut-être, mais qui ne doit jamais se substituer à une présence humaine qualifiée