Lois et recommandations

Que dit la loi ?

Que dit la loi ? A quoi faire attention ? Découvrez les 10 règles d'or pour une utilisation des LLM en médecine
  • Recommandations de la FMH sur l'usage des LLM en médecine
  • Bases juridiques pour le quotidien médical
  • Etat des lieux du cadre juridique en Suisse et dans l'Union européenne
  • 10 règles d'or pour utiliser les LLM en médecine

Recommandations de la FMH sur l'usage des LLM en médecine



Les points les plus importants sont:

  1. Les LLM sont des outils d’aide, jamais des décideurs médicaux.

  2. Aucune donnée patient ne doit être saisie dans des systèmes non sécurisés ou publics.

  3. Le médecin reste pleinement responsable du diagnostic et du traitement.

  4. Les résultats doivent être vérifiés de manière critique en permanence.

  5. L’usage des LLM doit être documenté, transparent et conforme au droit suisse.

Une autre source d'information intéressante est, également sur le site de la FMH, la page Considérations juridiques

Etat des lieux du cadre juridique en Suisse et dans l'Union européenne

Une autre source d'information intéressante est l'article État des lieux du cadre juridique en Suisse et dans l’Union européenne publié en décembre 2025 dans le Bulletin des médecins suisses. 

Cet article souligne que l’utilisation de l’IA en médecine est autorisée, mais strictement encadrée par le droit suisse et européen : le médecin reste pleinement responsable des décisions cliniques, du respect du devoir de diligence et de la protection des données. Les outils d’IA, en particulier les LLM, doivent être considérés comme des aides, jamais comme des décideurs, et leur usage impose transparence, traçabilité et conformité aux exigences légales en vigueur.

Utilisation des LLM avec des données patients

On peut se demander si l’utilisation de données patients avec certains LLM est possible. On pense par exemple au chat éphémère de ChatGPT ou à Euria, le LLM d’Infomaniak. On peut lire sur le site de ce dernier:  « Pensée pour les secteurs critiques. Ce que vous confiez à Euria vous appartient. Vos données restent privées : elles ne sont ni enregistrées ni utilisées pour entraîner l’IA ». 

Pour la fonction chat éphémère de ChatGPT, la FMH répond: cette fonction réduit la visibilité dans le compte utilisateur et vise à minimiser l’enregistrement de l’historique. Elle ne constitue toutefois pas une garantie suffisante qu’aucune fuite de données ne puisse survenir, ni que les contenus ne soient pas au moins temporairement traités sur les systèmes du prestataire ou examinés à des fins de sécurité. 

Pour Euria, la réponse de la FMH est: les déclarations d’Euria sont certes prometteuses, mais elles ne constituent pas un blanc seing pour une utilisation avec des données de patients. Il faut que l’existence d’un traitement contrôlé, assorti de garanties contractuelles et techniques solides, soit clairement définie et démontrée. Dans de nombreux scénarios en cabinet, il est plus praticable et juridiquement plus robuste d’exclure systématiquement les données de patients des prompts et de travailler plutôt avec des exemples anonymisés ou synthétiques. 

Il faut donc retenir que:   

  1. Aucune donnée de patient, aucun élément identifiant, aucun document en texte libre contenant des informations potentiellement identifiantes dans des services LLM publics
  2. Le cas échéant uniquement dans un environnement audité et contrôlé, avec des contrats appropriés et une gouvernance claire 

10 règles d'or pour utiliser les LLM en médecine


  1. L’IA assiste, le médecin décide : jamais d’automatisation du diagnostic ou du traitement.
  2. Responsabilité inchangée : le devoir de diligence reste entièrement médical.
  3. Aucune donnée patient identifiable dans un LLM public ou non garanti (confidentialité d’abord).
  4. Préférer des solutions conformes (hébergées/contrôlées, avec garanties explicites de protection des données).
  5. Utiliser les LLM pour des tâches “à faible risque” : synthèse, reformulation, rédaction, pédagogie patient.
  6. Éviter les usages “à haut risque” sans garde-fous : urgences, posologies, contre-indications, décisions complexes.
  7. Vérifier systématiquement : exiger des sources et contrôler dans des références primaires (guidelines, EBM).
  8. Se méfier des hallucinations : une réponse plausible peut être fausse ou incomplète.
  9. Tracer l’usage quand il influence la prise en charge : transparence, traçabilité, documentation.
  10. Informer le patient si l’IA a un rôle clinique et former l’équipe à une utilisation critique.

Messages à retenir

L’utilisation de l’IA en médecine est possible, mais n’allège en rien le devoir de diligence : le médecin reste responsable du diagnostic, du traitement et de la communication. Les LLM doivent être considérés comme des outils d’assistance (soutien à la rédaction, à la synthèse, à la recherche), pas comme des décideurs cliniques. La protection des données est centrale : toute saisie d’informations sensibles dans un système non garanti peut être problématique sur le plan légal et déontologique. Dès que l’IA influence la prise en charge, la transparence et la traçabilité (documentation de l’usage) deviennent des réflexes de sécurité. Le cadre évolue rapidement (Suisse/UE) : une veille minimale et des règles internes de cabinet/service sont indispensables pour rester conforme. 

Audi0 - Les 10 règles d'or

0:00s

Recherche