© Keeproll/Getty Images
L’outil d’intelligence artificielle (IA) ChatGPT Health ne serait pas le nec plus ultra lorsqu’il s’agit d’évaluer et de gérer une urgence médicale. Découvrez les conclusions édifiantes d’une nouvelle étude.
C’est un fait, l’intelligence artificielle (IA) est en train de révolutionner le domaine de la santé, notamment en termes d’imagerie et de dépistage.
Pour autant, des angles morts demeurent lorsqu’il s’agit d’évaluer l’urgence d’une situation médicale. C’est du moins ce qu’il ressort d’une nouvelle étude, parue en urgence dans le numéro du 23 février 2026 de la revue Nature Medicine (Source 1).
Celle-ci révèle en effet que l’outil dopé à l’IA ChatGPT Health pourrait mal orienter les utilisateurs lorsqu’ils le sollicitent pour un souci de santé. En d’autres termes, il passerait à côté du caractère urgent du souci de santé, mettant en péril la santé des utilisateurs.
Le constat d’un manque d’études indépendantes
« Les systèmes d’intelligence artificielle sont devenus le premier réflexe des patients pour obtenir des conseils médicaux, mais en 2026, leur fiabilité est moindre aux extrêmes cliniques, là où le jugement fait la différence entre les urgences manquées et les alarmes inutiles », a détaillé le Dr Isaac S. Kohane, directeur du département d’informatique biomédicale de la faculté de médecine de Harvard, cité dans un communiqué (Source 2).
Quelques semaines seulement après son lancement, OpenIA, qui a créé ChatGPT Health, a annoncé qu’environ 40 millions de personnes utilisaient cet outil au quotidien pour obtenir des conseils sur leur santé, et notamment sur la nécessité ou non de consulter en urgence. Et ce, sans que la fiabilité et la sécurité des conseils fournis n’aient été évaluées de façon indépendante.
« Ce manque a motivé notre étude », a déclaré le Dr Ashwin Ramaswamy, auteur principal de l’étude et professeur d’urologie à l’École de médecine Icahn du Mont Sinaï (New York, États-Unis). « Nous souhaitions répondre à une question fondamentale : si une personne est confrontée à une véritable urgence médicale et se tourne vers ChatGPT Health pour obtenir de l’aide, le système lui indiquera-t-il clairement de se rendre aux urgences ? »
Incohérences et inversion
Et la réponse à cette question serait plutôt négative. En effet, les chercheurs ont constaté des incohérences dans les réponses de l’outil, des alertes invitant à appeler les urgences se déclenchant dans des scénarios à faible risque, ou n’apparaissant pas dans des contextes plus inquiétants (lors d’intentions suicidaires clairement exprimées, par exemple). « Nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait bien au-delà de l’incohérence. Les alertes du système étaient inversées par rapport au risque clinique : elles apparaissaient plus fréquemment dans les scénarios à faible risque que dans les cas où une personne décrivait ses intentions suicidaires. Dans la réalité, lorsqu’une personne explique précisément comment elle compte se faire du mal, c’est le signe d’un danger plus immédiat et plus grave, et non l’inverse », a ainsi déploré Girish N. Nadkarni, coauteur de l’étude.
Consulter directement un médecin en cas d’aggravation
« ChatGPT Health a bien fonctionné dans les situations d’urgence classiques comme un AVC ou une réaction allergique grave », a détaillé le Dr Ramaswamy. « Mais il a rencontré des difficultés dans des situations plus nuancées où le danger n’est pas immédiatement évident, et c’est souvent dans ces cas-là que le jugement clinique est primordial. Dans un scénario d’asthme, par exemple, le système a identifié des signes avant-coureurs d’insuffisance respiratoire dans son explication, mais a tout de même conseillé d’attendre plutôt que de consulter un médecin en urgence », a ajouté le médecin.
Au vu de ce constat, les scientifiques recommandent de consulter directement un médecin, plutôt que de passer par ChatGPT ou tout autre outil à base d’IA, lorsque l’état s’aggrave ou que des symptômes inquiétants apparaissent (essoufflement, douleurs thoraciques, réactions allergiques graves,…). Et, en cas de pensées suicidaires, d’appeler le numéro d’urgence dédié, à savoir le 31 14 en France.
Pour autant, ils ne préconisent pas d’abandonner les outils de santé à base d’IA, simplement d’en connaître les limites et de les utiliser avec discernement.

il y a 1 day
3



