Radar médical

L’intelligence fragile de GPT-5 en médecine
Nature Medicine

Maxime Johnson | 1 janvier 2026

Télécharger cet article

Reproduction, adaptation ou distribution du PDF interdite.

Le recours au nouveau modèle d’intelligence artificielle (IA) GPT-5 d’OpenAI, l’entreprise derrière ChatGPT, demeure risqué dans un contexte médical, même si cette nouvelle version offre plusieurs avancées, conclut une équipe de chercheurs de l’Université Stanford, qui se base sur différentes études et divers tests de performance publics.

Malgré une baisse de 44 % des erreurs majeures par rapport à GPT-4o, l’ancien modèle principal d’OpenAI, GPT-5 continue d’« halluciner » et de fournir, avec aplomb, des réponses erronées à des questions cliniques. Pire, les mentions indiquant qu’il ne s’agit pas d’un avis médical disparaissent presque entièrement avec cette nouvelle version, et certaines règles de sécurité peuvent être contournées. Les chercheurs appellent à des garde-fous techniques – comme des tests poussés pour s’assurer que l’IA ne dérape pas – avant toute intégration clinique.

Handler R, Sharma S, Hernandez-Boussard T. The fragile intelligence of GPT-5 in medicine. Nat Med. 2025 ; DOI : 10.1038/s41591-025-04008-8