Aller au contenu
Intelligence Artificielle||2 sources

L’étude du Mont Sinaï révèle que ChatGPT Health échoue aux tests de sécurité des urgences et crises suicidaires

Une étude du Mont Sinaï montre que ChatGPT Health, lancé en janvier 2026, échoue à orienter vers les urgences et manque de garanties en cas de suicide. Première évaluation indépendante alerte sur les risques pour des millions d’utilisateurs.
Des chercheurs de l’École de médecine Icahn au Mont Sinaï révèlent que ChatGPT Health, un outil d’intelligence artificielle fournissant des conseils médicaux au public, ne dirige pas systématiquement les utilisateurs vers des soins d’urgence dans de nombreux cas graves. Lancé en janvier 2026, cet outil basé sur un grand modèle de langage (un système d’IA entraîné sur d’énormes volumes de données textuelles) fait l’objet de la première évaluation indépendante de sa sécurité, publiée en ligne le 23 février 2026 dans Nature Medicine. Cette défaillance intervient alors que les outils d’IA comme ChatGPT Health deviennent le premier recours pour des millions de personnes cherchant des conseils de santé, y compris sur l’urgence de consulter un médecin. Les grands modèles de langage ont émergé ces dernières années pour démocratiser l’accès à l’information médicale, mais des études antérieures sur des versions générales de ChatGPT avaient déjà soulevé des risques d’erreurs dans des scénarios critiques. L’évaluation met en lumière des lacunes persistantes aux extrêmes cliniques, où la distinction entre urgences réelles et faux signaux peut sauver des vies. L’étude identifie en outre de graves préoccupations quant aux garanties de l’outil face aux crises suicidaires. « Lorsque des millions de personnes utilisent un système d’IA pour décider si elles ont besoin de soins d’urgence, les enjeux sont extrêmement élevés. L’évaluation indépendante devrait être une routine et non une option », déclare Isaac S. Kohane, MD, PhD, président du département d’informatique biomédicale de la Harvard Medical School, qui n’a pas participé à la recherche. Les auteurs incluent Pushkala Jayaraman, Ph.D. et Eyal Klang, MD, parmi d’autres experts du Mont Sinaï. Ces résultats soulignent la nécessité d’évaluations régulières pour les outils d’IA en santé. Aucune mesure corrective immédiate n’est précisée, mais les régulateurs pourraient exiger des améliorations avant une adoption plus large.

2 sources

Article enrichi par l'IA

Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.

ChatGPT Health échoue aux tests critiques de sécurité en cas d'urgence et de suicide

Source éditoriale·Ma Clinique·25 févr. 2026

Contexte ajouté : historique des outils IA en santé, définitions LLM, études antérieures sur ChatGPT général

Contexte IA

Restez informé avec Morni

Créez un compte gratuit pour accéder aux articles complets, aux flux personnalisés et aux résumés générés par IA.