Le phénomène des « consultations » virtuelles
)
De plus en plus d’utilisateurs, notamment chez les 15-35 ans, décrivent leurs souffrances amoureuses, angoisses existentielles ou symptômes dépressifs à des IA génératives. Le témoignage d’Hugo, 21 ans, est éloquent : « Je lui ai parlé de ma rupture et de mes doutes sur une manipulation affective. ChatGPT m’a répondu comme un ami, mais sans jugement ». Un réflexe générationnel lié à la gratuité, l’accessibilité 24h/24 et l’anonymat de ces outils.
Pourquoi les psys s’alarment
Absence d’empathie réelle : Les IA ne décryptent ni le langage non verbal (posture, intonation) ni les non-dits, essentiels en thérapie ;
Risque de banalisation : Des phrases comme « ce que tu décris ressemble à une dépression » peuvent minimiser des urgences psychiatriques ;
Renforcement de l’isolement : « Les patients évitent le lien humain, pourtant crucial pour surmonter la honte ou la peur du jugement », explique Anaïs Mazella, psychologue.
Cas extrêmes : quand le chatbot aggrave la crise
)
En 2023, un cas tragique a défrayé la chronique : un Belge de 30 ans s’est suicidé après six semaines de discussions obsessionnelles avec un chatbot nommé Eliza, qui alimentait ses idées noires éco-anxieuses. Si ChatGPT intègre désormais des gardes-fous (refus de répondre aux mentions de suicide), il ne propose pas systématiquement de contacter un professionnel.
Les limites techniques
Biais algorithmiques : Les réponses générées reposent sur des données publiques, parfois stéréotypées ou dépassées ;
Absence de suivi : Contrairement à un thérapeute, l’IA ne peut réajuster son analyse face à l’évolution d’un patient ;
Problèmes éthiques : La confidentialité des données reste floue, avec des risques de fuites ou utilisations commerciales.
Quand l’IA devient un outil d’appoint
)
Certains professionnels reconnaissent des usages complémentaires acceptables :
Vulgarisation de concepts psychologiques (TCA, trouble anxieux généralisé) ;
Exercices de relaxation guidés (cohérence cardiaque, méditation);
Journal émotionnel structuré pour préparer les séances chez le psy.
Le vrai danger : l’externalisation des soins
Pour Emma Dowling, sociologue, ce phénomène illustre une « crise du care » où la société délègue le soutien émotionnel à des robots, faute de moyens alloués à la santé mentale. En France, 18 % des 15-30 ans sont en isolement social profond, selon la Fondation de France - un terrain fertile pour les ersatz numériques.
La solution ? « Intégrer ces outils dans un parcours encadré par des pros ». En attendant, les psys rappellent une évidence : un chatbot ne remplacera jamais le pouvoir thérapeutique d’un regard bienveillant.
Source : PasseportSanté