Les dangers et les limites des LLM
- La qualité des réponses
- Les biais
- Les hallucinations
- L'utilisation malintentionnée
- Les fake news
- La protection des données
- La consommation d'énergie

La qualité des réponses
L’article Quality and safety of artificial intelligence generated health information publié en mars 2024 dans le British Medical Journal apporte un éclairage intéressant sur cette complexe question de la qualité de l’information santé générée par ces outils. On peut y lire « les progrès rapides de l’IA constituent un défi actuel fondamental. L’une des conséquences de la publication fréquente de nouveaux modèles d’IA ou de mises à jour de modèles d’IA existants est que les performances et les risques associés peuvent changer rapidement. Par exemple, dans notre étude, Copilot de Microsoft a démontré des garanties efficaces pour empêcher la production de désinformation en matière de santé en septembre 2023, mais trois mois plus tard, ces garanties n’étaient plus présentes ».
Le 17 mai 2024, le Comité des Ministres du Conseil de l’Europe a adopté la Convention sur l’intelligence artificielle (IA), une convention élaborée avec la Suisse.
Les biais
Les hallucinations
- Pour limiter ces inventions et autres approximations, il est possible d’ajouter dans sa requête : Utilise uniquement des sources d'autorité et cite-les dans tous les cas. N’invente rien. Dis-moi "je ne sais pas" si tu ne sais pas. Signale l’incertitude. Ne t’appuie pas sur ce que tu devines de mes préférences. N'essaie pas de me faire plaisir.
L'utilisation malintentionnée
Les fake news
L’article “AI Is Inventing Academic Papers That Don’t Exist — And They’re Being Cited in Real Journals” (Rolling Stone) a été publié dans le journal « Rolling Stones ». Il montre que des systèmes d’intelligence artificielle génèrent de toutes pièces des articles académiques et des références bibliographiques qui n’existent pas, et ces éléments inventés se retrouvent cités dans des publications scientifiques réelles. Les faux travaux paraissent plausibles (titres, auteurs, revues crédibles) et passent parfois sans être détectés par le processus de revue par les pairs. Cela conduit à une pollution progressive de la littérature scientifique par des sources fictives qui s’intègrent dans des chaînes de citations réelles. La science repose sur une chaîne de confiance : chaque article s’appuie sur des résultats antérieurs vérifiables. Si des références sont inventées, la base factuelle de nouvelles recherches devient instable. Cela s’apparente à de la fabrication ou falsification indirecte, une des formes reconnues de mauvaise conduite scientifique.
La protection des données
La consommation d'énergie

Messages à retenir
Les LLM génèrent du langage, pas des connaissances, et peuvent produire des erreurs ou des hallucinations. Ils sont des outils d’aide, jamais des décideurs médicaux : le médecin reste responsable. Les réponses doivent toujours être vérifiées de manière critique. Les données des patients ne doivent pas être utilisées dans des systèmes non sécurisés. Des biais, de la désinformation et des usages malveillants sont possibles. Une formation et une utilisation prudente sont indispensables.
Audio - Les dangers et les limites des LLM
0:00s