ChatGPT : pourquoi vous ne devriez pas lui confier votre santé ?

, l’intelligence artificielle développée pour interagir en langage naturel, a des performances impressionnantes. Cependant, une nouvelle étude publiée dans la revue Plos One révèle ses limites dans le domaine médical.

YouTube video

Confronté à 150 cas médicaux, ChatGPT n’a réussi à poser le bon diagnostic que dans moins de la moitié des cas. Les résultats de cette étude mettent en lumière une réalité inquiétante : ChatGPT n’est pas encore un outil de diagnostic fiable.

L’étude en question a é ChatGPT avec des cas tirés de Medscape, une plateforme en ligne destinée aux professionnels de la santé. Les cas choisis avaient déjà été diagnostiqués avec précision par des médecins humains. Malgré cela, ChatGPT a échoué dans 51 % des cas. Ce qui soulève des questions importantes sur l’utilisation de l’IA dans le secteur de la santé. L’IA, bien que prometteuse, montre des failles qui la rendent imprévisible dans un contexte aussi critique que la médecine.

Les chercheurs mettent en garde contre la tentation de trop se reposer sur des outils comme ChatGPT pour des conseils médicaux. « Ils ne devraient pas encore remplacer votre médecin. », affirme Amrit Kirpalani, co-auteur de l’étude. Par conséquent, un tel outil pourrait induire les patients en erreur, surtout ceux qui sont désespérés ou confus face à un problème de santé. L’illusion de recevoir un diagnostic personnalisé pourrait s’avérer dangereuse.

Diagnostic médical : les limites inquiétantes de ChatGPT

Dans l’expérience menée, ChatGPT a été confronté à des cas médicaux complexes avec accès aux antécédents des patients, résultats d’examens physiques, de laboratoire et d’imagerie. Malgré ces informations, le chatbot n’a réussi à donner une réponse correcte que dans 49 % des cas. Pire encore, il n’a produit des réponses « complètes et pertinentes » que dans 52 % des situations. Si l’on devait le noter comme un étudiant en médecine, ChatGPT obtiendrait un F catégorique.

Des progrès nécessaires avant une utilisation clinique

ChatGPT a montré une certaine compétence pour éliminer les mauvaises options dans les questions à choix multiples avec un score global de 74 %. Malgré ces résultats, ce n’est pas suffisant pour l’utiliser comme un outil médical fiable. L’IA montre des lacunes majeures, notamment son incapacité à interpréter correctement les valeurs numériques et les images médicales. De plus, elle peut « halluciner » en produisant des réponses incohérentes ou en ignorant des informations clés.

Malgré ces failles, les chercheurs reconnaissent que l’IA pourrait avoir un rôle à jouer dans le futur de la médecine. ChatGPT pourrait servir d’outil pédagogique pour former les médecins stagiaires ou même d’assistant pour les praticiens expérimentés.

Toutefois, la décision finale dans un contexte clinique doit toujours revenir aux médecins humains. L’IA bien prometteuse. Par contre, elle ne peut pas encore se substituer à l’expertise et au jugement des professionnels de santé.

Diagnostic médical : les limites inquiétantes de ChatGPT

En somme, ChatGPT, malgré ses prouesses dans d’autres domaines, montre des limites claires en tant qu’outil médical. Il est essentiel de ne pas surestimer ses capacités et de comprendre qu’il est encore loin de pouvoir remplacer un médecin. La prudence est de mise et le recours à l’IA dans le domaine de la santé doit être encadré et supervisé par des professionnels qualifiés. Pour l’instant, ChatGPT reste un outil complémentaire et non une solution autonome.

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *