ChatGPT diagnostique ‘aussi bien’ qu'un médecin aux urgences

Les salles d'urgence ont été le théâtre d'une révolution silencieuse alors que l'intelligence artificielle, incarnée par le chatbot ChatGPT, se montre capable de réaliser des diagnostics aussi précis que ceux des médecins, selon une étude menée par des chercheurs néerlandais.

Trente cas traités dans un service d’urgence aux Pays-Bas en 2022 ont été examinés en alimentant ChatGPT / AFP

Les chercheurs à l'origine de cette étude, publiée mercredi, ont souligné que bien que les médecins urgentistes ne risquent pas de perdre leur place de sitôt, ChatGPT peut accélérer le processus de diagnostic sans pour autant remplacer le jugement et l'expertise humaine.

L'étude a analysé trente cas traités dans un service d'urgence aux Pays-Bas en 2022. Les chercheurs ont alimenté ChatGPT en utilisant des données telles que les antécédents des patients, les résultats des tests en laboratoire, et les observations médicales. Le chatbot a été chargé de proposer cinq diagnostics possibles pour chaque cas.

Dans 87 % des situations, le diagnostic correct figurait parmi les propositions des médecins, tandis que ChatGPT, dans sa version 3.5, atteignait un taux de réussite de 97 %.

Steef Kurstjens, coauteur du rapport, a souligné que l'étude ne suggère pas que les ordinateurs prendront un jour le contrôle des salles d'urgence, mais plutôt que l'intelligence artificielle peut jouer un rôle crucial en assistant les médecins sous pression.

ADVERTISEMENT

Cependant, il est important de noter que de tels outils ne sont pas destinés à remplacer les professionnels de la santé. Ils ne sont pas conçus comme des dispositifs médicaux et soulèvent des questions importantes liées à la confidentialité des données médicales sensibles lorsqu'ils sont utilisés dans un chatbot.

Comme dans d'autres domaines, ChatGPT présente certaines limites. L'étude révèle que parfois, son raisonnement peut être médicalement invraisemblable ou incohérent, pouvant entraîner des informations incorrectes ou des diagnostics erronés entraînant des conséquences graves. Le rapport met également en évidence des « gaffes » médicales, telles que le diagnostic d'anémie chez un patient présentant un taux d'hémoglobine normal.

En fin de compte, l'intelligence artificielle, représentée par ChatGPT, semble promettre des avancées significatives dans le domaine médical, mais elle devra être utilisée avec prudence et en complément de l'expertise humaine pour garantir la sécurité et l'efficacité des soins de santé.

ADVERTISEMENT

Témoin d'un événement? Contactez-nous directement sur nos réseaux sociaux ou via:

Email: temoin@pulse.sn

ADVERTISEMENT