Pulse logo
Pulse Region

Ils parlent de leurs peines à l’IA… Les psys s’inquiètent

Alors que les chatbots d’intelligence artificielle comme ChatGPT deviennent des confidents numériques pour les générations connectées, les professionnels de santé mentale alertent sur les risques d’une automédication émotionnelle. Entre isolement social et diagnostics approximatifs, ces pratiques révèlent une crise de l’accès aux soins psychologiques.

Le phénomène des « consultations » virtuelles

De plus en plus d’utilisateurs, notamment chez les 15-35 ans, décrivent leurs souffrances amoureuses, angoisses existentielles ou symptômes dépressifs à des IA génératives. Le témoignage d’Hugo, 21 ans, est éloquent : « Je lui ai parlé de ma rupture et de mes doutes sur une manipulation affective. ChatGPT m’a répondu comme un ami, mais sans jugement ». Un réflexe générationnel lié à la gratuité, l’accessibilité 24h/24 et l’anonymat de ces outils.

Pourquoi les psys s’alarment

  • Absence d’empathie réelle : Les IA ne décryptent ni le langage non verbal (posture, intonation) ni les non-dits, essentiels en thérapie ;

  • Risque de banalisation : Des phrases comme « ce que tu décris ressemble à une dépression » peuvent minimiser des urgences psychiatriques ;

  • Renforcement de l’isolement : « Les patients évitent le lien humain, pourtant crucial pour surmonter la honte ou la peur du jugement », explique Anaïs Mazella, psychologue.

Cas extrêmes : quand le chatbot aggrave la crise

LIRE AUSSI : https://www.pulse.sn/articles/business/ia-et-cybersecurite-garder-une-longueur-davance-face-aux-menaces-2024112807125902641

En 2023, un cas tragique a défrayé la chronique : un Belge de 30 ans s’est suicidé après six semaines de discussions obsessionnelles avec un chatbot nommé Eliza, qui alimentait ses idées noires éco-anxieuses. Si ChatGPT intègre désormais des gardes-fous (refus de répondre aux mentions de suicide), il ne propose pas systématiquement de contacter un professionnel.

Les limites techniques

  • Biais algorithmiques : Les réponses générées reposent sur des données publiques, parfois stéréotypées ou dépassées ;

  • Absence de suivi : Contrairement à un thérapeute, l’IA ne peut réajuster son analyse face à l’évolution d’un patient ;

  • Problèmes éthiques : La confidentialité des données reste floue, avec des risques de fuites ou utilisations commerciales.

Quand l’IA devient un outil d’appoint

Certains professionnels reconnaissent des usages complémentaires acceptables :

  • Vulgarisation de concepts psychologiques (TCA, trouble anxieux généralisé) ;

  • Exercices de relaxation guidés (cohérence cardiaque, méditation);

  • Journal émotionnel structuré pour préparer les séances chez le psy.

Le vrai danger : l’externalisation des soins

Pour Emma Dowling, sociologue, ce phénomène illustre une « crise du care » où la société délègue le soutien émotionnel à des robots, faute de moyens alloués à la santé mentale. En France, 18 % des 15-30 ans sont en isolement social profond, selon la Fondation de France - un terrain fertile pour les ersatz numériques.

La solution ? « Intégrer ces outils dans un parcours encadré par des pros ». En attendant, les psys rappellent une évidence : un chatbot ne remplacera jamais le pouvoir thérapeutique d’un regard bienveillant.

Source : PasseportSanté

Abonnez-vous pour recevoir des mises à jour quotidiennes.