Lois et recommandations

Que dit la loi ?

Que dit la loi ? A quoi faire attention ? Découvrez les 10 règles d'or pour une utilisation des LLM en médecine
  • Recommandations de la FMH sur l'usage des LLM en médecine
  • Bases juridiques pour le quotidien médical
  • Etat des lieux du cadre juridique en Suisse et dans l'Union européenne
  • 10 règles d'or pour utiliser les LLM en médecine

Recommandations de la FMH sur l'usage des LLM en médecine



Les points les plus importants sont:

  1. Les LLM sont des outils d’aide, jamais des décideurs médicaux.

  2. Aucune donnée patient ne doit être saisie dans des systèmes non sécurisés ou publics.

  3. Le médecin reste pleinement responsable du diagnostic et du traitement.

  4. Les résultats doivent être vérifiés de manière critique en permanence.

  5. L’usage des LLM doit être documenté, transparent et conforme au droit suisse.

Une autre source d'information intéressante est la page L'IA en médecine extraite du guide pratique "Bases juridiques pour le quotidien médical.

Etat des lieux du cadre juridique en Suisse et dans l'Union européenne

Une autre source d'information intéressante est l'article État des lieux du cadre juridique en Suisse et dans l’Union européenne publié en décembre 2025 dans le Bulletin des médecins suisses. 

Cet article souligne que l’utilisation de l’IA en médecine est autorisée, mais strictement encadrée par le droit suisse et européen : le médecin reste pleinement responsable des décisions cliniques, du respect du devoir de diligence et de la protection des données. Les outils d’IA, en particulier les LLM, doivent être considérés comme des aides, jamais comme des décideurs, et leur usage impose transparence, traçabilité et conformité aux exigences légales en vigueur.

10 règles d'or pour utiliser les LLM en médecine


  1. L’IA assiste, le médecin décide : jamais d’automatisation du diagnostic ou du traitement.
  2. Responsabilité inchangée : le devoir de diligence reste entièrement médical.
  3. Aucune donnée patient identifiable dans un LLM public ou non garanti (confidentialité d’abord).
  4. Préférer des solutions conformes (hébergées/contrôlées, avec garanties explicites de protection des données).
  5. Utiliser les LLM pour des tâches “à faible risque” : synthèse, reformulation, rédaction, pédagogie patient.
  6. Éviter les usages “à haut risque” sans garde-fous : urgences, posologies, contre-indications, décisions complexes.
  7. Vérifier systématiquement : exiger des sources et contrôler dans des références primaires (guidelines, EBM).
  8. Se méfier des hallucinations : une réponse plausible peut être fausse ou incomplète.
  9. Tracer l’usage quand il influence la prise en charge : transparence, traçabilité, documentation.
  10. Informer le patient si l’IA a un rôle clinique et former l’équipe à une utilisation critique.

Messages à retenir

L’utilisation de l’IA en médecine est possible, mais n’allège en rien le devoir de diligence : le médecin reste responsable du diagnostic, du traitement et de la communication. Les LLM doivent être considérés comme des outils d’assistance (soutien à la rédaction, à la synthèse, à la recherche), pas comme des décideurs cliniques. La protection des données est centrale : toute saisie d’informations sensibles dans un système non garanti peut être problématique sur le plan légal et déontologique. Dès que l’IA influence la prise en charge, la transparence et la traçabilité (documentation de l’usage) deviennent des réflexes de sécurité. Le cadre évolue rapidement (Suisse/UE) : une veille minimale et des règles internes de cabinet/service sont indispensables pour rester conforme. 

Audi0 - Les 10 règles d'or

0:00s

Recherche