Le phénomène des « consultations » virtuelles
&format=jpeg)
De plus en plus d’utilisateurs, notamment chez les 15-35 ans, décrivent leurs souffrances amoureuses, angoisses existentielles ou symptômes dépressifs à des IA génératives. Le témoignage d’Hugo, 21 ans, est éloquent : « Je lui ai parlé de ma rupture et de mes doutes sur une manipulation affective. ChatGPT m’a répondu comme un ami, mais sans jugement ». Un réflexe générationnel lié à la gratuité, l’accessibilité 24h/24 et l’anonymat de ces outils.
Pourquoi les psys s’alarment
- Absence d’empathie réelle : Les IA ne décryptent ni le langage non verbal (posture, intonation) ni les non-dits, essentiels en thérapie ; 
- Risque de banalisation : Des phrases comme « ce que tu décris ressemble à une dépression » peuvent minimiser des urgences psychiatriques ; 
- Renforcement de l’isolement : « Les patients évitent le lien humain, pourtant crucial pour surmonter la honte ou la peur du jugement », explique Anaïs Mazella, psychologue. 
Cas extrêmes : quand le chatbot aggrave la crise
&format=jpeg)
En 2023, un cas tragique a défrayé la chronique : un Belge de 30 ans s’est suicidé après six semaines de discussions obsessionnelles avec un chatbot nommé Eliza, qui alimentait ses idées noires éco-anxieuses. Si ChatGPT intègre désormais des gardes-fous (refus de répondre aux mentions de suicide), il ne propose pas systématiquement de contacter un professionnel.
Les limites techniques
- Biais algorithmiques : Les réponses générées reposent sur des données publiques, parfois stéréotypées ou dépassées ; 
- Absence de suivi : Contrairement à un thérapeute, l’IA ne peut réajuster son analyse face à l’évolution d’un patient ; 
- Problèmes éthiques : La confidentialité des données reste floue, avec des risques de fuites ou utilisations commerciales. 
Quand l’IA devient un outil d’appoint
&format=jpeg)
Certains professionnels reconnaissent des usages complémentaires acceptables :
- Vulgarisation de concepts psychologiques (TCA, trouble anxieux généralisé) ; 
- Exercices de relaxation guidés (cohérence cardiaque, méditation); 
- Journal émotionnel structuré pour préparer les séances chez le psy. 
Le vrai danger : l’externalisation des soins
Pour Emma Dowling, sociologue, ce phénomène illustre une « crise du care » où la société délègue le soutien émotionnel à des robots, faute de moyens alloués à la santé mentale. En France, 18 % des 15-30 ans sont en isolement social profond, selon la Fondation de France - un terrain fertile pour les ersatz numériques.
La solution ? « Intégrer ces outils dans un parcours encadré par des pros ». En attendant, les psys rappellent une évidence : un chatbot ne remplacera jamais le pouvoir thérapeutique d’un regard bienveillant.
Source : PasseportSanté


&format=jpeg)
)
&format=jpeg)
&format=jpeg)
&format=jpeg)