Une étude inédite sur les limites des chatbots
Des chercheurs américains ont évalué plusieurs modèles de langage, y compris certains spécialisés dans la thérapie, en les confrontant à de véritables situations cliniques. Ils ont utilisé des transcriptions de thérapies réelles pour observer les réponses de l’IA, en conditions proches de la réalité. Résultat : les chatbots n'ont su fournir une réponse appropriée que dans moins de 60 % des cas, contre 93 % pour des thérapeutes humains. L’étude met aussi en évidence une tendance préoccupante : les modèles favorisent parfois des discours délirants, passent à côté de signaux de détresse ou encouragent des comportements risqués. Dans certains scénarios simulés, des IA ont par exemple donné des informations pouvant faciliter des comportements suicidaires, suite à des formulations indirectes.
)
Des biais discriminants et une fausse empathie
L’analyse révèle aussi une forte stigmatisation envers certaines pathologies. Les IA refusent parfois d’interagir avec des personnes souffrant de dépression, de schizophrénie ou de dépendances. Ce biais discriminatoire rend leur usage potentiellement dangereux, en particulier pour les publics déjà marginalisés. Le plus inquiétant : ces systèmes donnent parfois l’illusion d’une écoute bienveillante tout en contredisant les pratiques reconnues de la psychothérapie. Les chercheurs ont mis en place une nouvelle classification des réponses jugées dangereuses, allant des conseils inappropriés à la négation pure et simple de situations de crise.
LIRE AUSSI : https://www.pulse.sn/articles/ia-et-cybersecurite-garder-une-longueur-davance-face-aux-menaces-2024112807125902641
)
Un soutien complémentaire, mais jamais un remplacement
Loin de rejeter totalement les technologies d’intelligence artificielle, les auteurs plaident pour un encadrement strict de leur usage en santé mentale. Les IA peuvent jouer un rôle d’assistance, de rappel ou de soutien ponctuel. Mais en l’état actuel, elles ne doivent pas être considérées comme des substituts aux professionnels de santé. La nuance est essentielle à une époque où de plus en plus de patients cherchent de l’aide en ligne. Cette étude invite donc à la vigilance : confier sa santé mentale à un chatbot pourrait sembler pratique, mais les risques sont bien réels… et loin d’être anodins.
SOURCE : PasseportSanté