Les actualités d'iamedicale.org

Les patients peuvent-ils utiliser l’IA pour répondre à leurs questions santé ?

Les patients peuvent-ils utiliser l’IA pour répondre à leurs questions santé ?

30.03.2026

De plus en plus de patients utilisent ChatGPT, Gemini ou d’autres grands modèles de langage pour comprendre des symptômes, interpréter un résultat ou décider s’il faut consulter. La littérature scientifique montre que ces outils peuvent être utiles pour expliquer une maladie ou reformuler une information médicale, mais qu’ils deviennent nettement plus problématiques lorsqu’ils servent à orienter une décision clinique [1-3].

Des réponses souvent claires, parfois trompeuses

Les LLM impressionnent souvent par la fluidité de leurs réponses. Dans certains contextes, ils peuvent même produire des textes jugés plus clairs et plus empathiques que ceux de médecins. C’est ce qu’a montré une étude publiée dans JAMA Internal Medicine en 2023 à partir de questions de patients posées en ligne [1]. Mais cette étude évaluait surtout la qualité apparente des réponses, pas leur impact clinique réel ni la sécurité pour les patients.

Quand le patient utilise lui-même l’outil, les limites apparaissent

Une étude majeure publiée dans Nature Medicine en 2026 a évalué si ces outils pouvaient aider le grand public à identifier une maladie plausible et à choisir la bonne conduite à tenir. Les modèles, testés seuls, obtenaient de bons résultats. En revanche, lorsque de vraies personnes les utilisaient, elles ne faisaient pas mieux que le groupe contrôle pour choisir la bonne décision [2]. Une conclusion s’impose: de bonnes performances théoriques ne garantissent pas une utilisation sûre dans la vraie vie.

Un risque de réponses médicalement dangereuses

Une autre étude importante, publiée en 2026 dans npj Digital Medicine, a analysé 888 réponses de quatre chatbots grand public à 222 questions médicales. Selon le modèle, 21,6% à 43,2% des réponses contenaient un problème important, et 5% à 13% étaient jugées franchement dangereuses [3]. Le risque principal n’est donc pas seulement l’erreur factuelle, mais aussi la réponse plausible, rassurante et convaincante qui banalise une situation grave ou retarde une consultation.

Et en Suisse ?

Les données spécifiquement suisses sur l’usage des LLM par les patients pour des questions médicales restent encore limitées. En revanche, leur adoption générale progresse rapidement. Selon le WIP-CH 2025, 97% des internautes suisses connaissent l’IA générative et 73% l’ont déjà utilisée; près d’un sur deux y recourt au moins une fois par mois [4,5]. Ces chiffres suggèrent que ces outils jouent déjà, y compris en Suisse, un rôle croissant dans l’accès à l’information de santé.

Quelles implications pour les patients et les soignants ?

Pour les patients, le message doit être simple: ces outils peuvent aider à mieux comprendre un problème, préparer des questions avant une consultation ou reformuler un compte rendu médical. En revanche, ils ne devraient pas être utilisés seuls pour trier une urgence, modifier un traitement ou décider de ne pas consulter.

Pour les professionnels de santé, l’enjeu est désormais clair. Il ne s’agit plus de savoir si les patients utilisent ces outils, mais de reconnaître qu’ils les utilisent déjà. Les médecins devront donc apprendre à corriger certaines informations erronées, à recadrer des réponses trompeuses et à intégrer ce nouvel intermédiaire dans la relation clinique [2,3].

Messages importants

  • Une réponse convaincante n’est pas forcément une réponse sûre.
  • Pour les patients, les grands modèles de langage peuvent être utiles pour s'informer mais sont insuffisants pour se soigner. .
  • En Suisse aussi, ces outils prennent une place croissante dans les décisions de santé.
  • Les professionnels doivent apprendre à travailler avec des patients déjà “pré-informés” par l’IA.

Références

1.     Ayers JW, Poliak A, Dredze M, Leas EC, Zhu Z, Kelley JB, et al. Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Intern Med. 2023;183(6):589-596.

2.     Bean AM, Payne RE, Parsons G, Kirk HR, Ciro J, Mosquera-Gómez R, et al. Reliability of LLMs as medical assistants for the general public: a randomized preregistered study. Nat Med. 2026;32(2):609-615.

3.     Draelos RL, Afreen S, Blasko B, Brazile TL, Chase N, Desai DP, et al. Large language models provide unsafe answers to patient-posed medical questions. npj Digit Med. 2026;9:241.

4.     Latzer M, Büchi M, Festic N, Kappeler S, Just S, Frascaria G, et al. Use of the Internet and Generative AI in Switzerland 2025. Zurich: University of Zurich, IKMZ; 2025.

5.     Latzer M, Büchi M, Festic N, Kappeler S, Just S, Frascaria G, et al. Trust and Concerns When Using the Internet in Switzerland 2025. Zurich: University of Zurich, IKMZ; 2025

Pas de commentaire encore
Recherche