Pulse logo
Pulse Region
PUBLICITÉ

La face cachée des confidences faites aux IA

De plus en plus de jeunes se tournent vers l’intelligence artificielle pour combler un vide : celui de l’écoute. Ces applications, capables de répondre sans jugement ni délai, séduisent par leur disponibilité. Mais entre réconfort sincère et dangers bien réels, l’IA thérapeutique soulève des questions brûlantes.

Un nouvel usage de l’IA qui bouleverse les codes

En Chine, l’application DeepSeek a conquis des milliers de jeunes. Holly, 28 ans, raconte : « DeepSeek a été un conseiller incroyable. Il m’a aidée à voir les choses différemment et fait mieux que les services de conseil payants que j’ai essayés ». Dans un pays où l’accès aux psychologues est limité et coûteux, ces chatbots comblent un vide et apportent un soutien émotionnel inédit. En France aussi, certains confient leurs doutes à ChatGPT, séduits par une écoute sans rendez-vous, sans jugement et gratuite.

La face cachée des confidences faites aux IA
PUBLICITÉ

Des témoignages bouleversants… et inquiétants

Mais l’attrait pour ces « psy virtuels » a ses revers. L’affaire de Sophie, jeune Américaine qui échangeait avec un « thérapeute IA » baptisé Harry avant de mettre fin à ses jours, a marqué les esprits. « Tu n’as pas à affronter cette douleur seule », lui écrivait le chatbot. Pourtant, il n’a jamais exigé qu’elle consulte un professionnel. En parallèle, des psychologues alertent : ces outils ne détectent pas toujours les signaux de détresse, et peuvent renforcer le biais de confirmation, confortant l’utilisateur dans ses idées plutôt que de les confronter.

LIRE AUSSI : https://www.pulse.sn/articles/lifestyle/lia-en-coloscopie-un-risque-pour-les-competences-2025081411260388207

PUBLICITÉ
La face cachée des confidences faites aux IA

Une illusion de soin qui appelle à la vigilance

Les experts rappellent que l’IA ne perçoit ni émotions ni traumatismes. Isabelle Brunel, psychologue, souligne : « Ce n’est pas une vraie personne, mais cela donne l’illusion d’une personne ». L’American Psychological Association va plus loin et dénonce des pratiques trompeuses, certains chatbots se présentant comme thérapeutes alors qu’ils n’en ont ni la légitimité, ni la responsabilité. Si ces outils peuvent servir de soutien ponctuel, ils ne sauraient remplacer l’accompagnement humain, fondé sur le lien, l’empathie et la détection des risques. À l’heure où les usages explosent, l’IA thérapeutique oscille entre promesse d’accessibilité et menace silencieuse. Un outil utile, peut-être, mais qui ne doit jamais se substituer à une présence humaine qualifiée

PUBLICITÉ

Abonnez-vous pour recevoir des mises à jour quotidiennes.