Intelligence Artificielle||2 sources
ChatGPT Santé rate une urgence vitale sur deux selon une étude américaine
Une étude américaine révèle que ChatGPT Santé d'OpenAI rate une urgence vitale sur deux lors de tests sur symptômes. Les chercheurs de l'Icahn School of Medicine at Mount Sinai déconseillent son usage pour des cas graves.
Des chercheurs de l’Icahn School of Medicine at Mount Sinai, à New York, alertent dans une étude indépendante publiée peu après le lancement discret en janvier 2026 : ChatGPT Santé, l’outil d’OpenAI dédié à la santé, rate une urgence vitale sur deux. Leur première analyse révèle des lacunes graves dans l’évaluation des symptômes urgents, comme l’essoufflement ou les douleurs thoraciques. Des patients en détresse pourraient ainsi recevoir un avis rassurant au lieu d’une recommandation immédiate de se rendre aux urgences. Lancé en janvier 2026, ChatGPT Santé attire quarante millions d’utilisateurs quotidiens qui l’interrogent sur leurs maux. Conçu pour le bien-être général, ce chatbot propose des recommandations de triage médical – évaluation prioritaire de la gravité des symptômes pour orienter les patients vers les soins urgents ou non –, ainsi qu’un avis sur l’urgence de consulter un médecin, tout en précisant qu’il ne remplace ni diagnostic ni traitement. Dans un contexte où les outils d’IA en santé se multiplient pour soulager les systèmes médicaux surchargés, cette étude souligne les risques d’une adoption prématurée sans validation rigoureuse, qui pourrait exposer les utilisateurs à des dangers graves en cas d’erreur d’évaluation. Les chercheurs ont testé l’outil sur des symptômes tels que la douleur thoracique ou l’essoufflement. Une fois sur deux, ChatGPT Santé minimise la gravité d’une urgence vitale, une lacune qualifiée d’« incroyablement dangereuse » par les auteurs. Ce taux d’erreur élevé interroge la fiabilité des modèles de langage pour des décisions critiques, alors que l’IA progresse dans d’autres domaines médicaux comme l’analyse d’images. Les auteurs conseillent de ne pas interroger une machine en cas de symptômes inquiétants et de consulter directement un professionnel de santé. OpenAI pourrait ajuster son modèle face à ces résultats, mais aucune mesure n’est annoncée pour l’instant. Cette étude rappelle l’importance d’une validation stricte des IA médicales non validées pour éviter des conséquences potentiellement fatales.
2 sources
Article enrichi par l'IA
Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.
Actualité : “Incroyablement dangereux” : ChatGPT Santé rate une urgence vitale sur deux, des chercheurs sonnent l'alarme
Source éditoriale·Les Numeriques·2 mars 2026
Contexte ajouté : explication du triage en santé et risques généraux des IA médicales non validées
Contexte IA