«L'IA n'est pas prête à remplacer un médecin» : les outils comme ChatGPT ne font pas de bons…

Photo of author

By InfoHunter


Les outils d’intelligence artificielle, comme l’emblématique ChatGPT, ne sont pas bons pour poser un diagnostic, selon les résultats d’une étude scientifique publiée ce lundi dans la revue Nature Medicine et menée au Royaume-Uni auprès de 1.300 personnes.

Une enquête scientifique qui remet en question l’impact de l’IA dans la médecine moderne. Les outils d’intelligence artificielle, tels l’emblématique ChatGPT, ne sont pas bons pour poser un diagnostic, avance une étude publiée lundi dans la revue scientifique Nature Medicine.

Cette étude, réalisée auprès de 1.300 personnes au Royaume-Uni, montre que plusieurs modèles d’IA – ChatGPT, Llama (Meta) ou Command R+ – ne font pas mieux qu’une simple recherche en ligne quand un patient s’interroge sur ses symptômes.

«Il y a un emballement autour des IA, mais elles ne sont tout simplement pas prêtes à remplacer un médecin», a commenté dans un communiqué Rebecca Payne, chercheuse à l’Université d’Oxford et co-auteure de l’étude.

Les participants à cette étude n’étaient pas réellement malades. Ils ont pris part à une sorte de jeu de rôle : les chercheurs leur ont distribué dix ensembles différents de symptômes, faisant l’unanimité dans le corps médical quant au diagnostic à y associer.

Un diagnostic correct pour un tiers des participants

Seul un tiers des participants à l’étude s’est vu poser un diagnostic correct. Ce n’est pas mieux qu’au sein d’un groupe qui devait se contenter d’une recherche classique sur internet.

Pourtant, certaines études avaient montré que ChatGPT et d’autres modèles peuvent passer avec succès des épreuves médicales : mis à la place d’un étudiant en médecine face, par exemple, à des questions à choix multiples, les IA s’en sortent bien.

Mais, montre cette nouvelle étude, la situation change quand il s’agit d’interagir avec de vraies personnes. Celles-ci peuvent notamment manquer de précisions dans la description de leurs symptômes et ne pas fournir tous les éléments essentiels, avancent les chercheurs.

«L'IA n'est pas prête à remplacer un médecin» : les outils comme ChatGPT ne font pas de bons...
Sur le même sujet
Emploi, environnement, cybersécurité… Ce qu’il faut retenir du dernier rapport sur la sécurité de l’intelligence artificielle
Lire

Cette enquête scientifique s’inscrit dans un contexte de grande interrogation sur l’apport potentiel des IA en matière d’information médicale, alors qu’il est souvent long d’accéder à un médecin dans nombre de pays, y compris développés.

«Les chatbots posent des risques médicaux pour le grand public»

En France, la Haute autorité de santé (HAS) doit prochainement se prononcer sur l’intérêt d’un usage direct de l’IA pour les patients. Elle a déjà estimé fin 2025 que ces outils pouvaient servir aux soignants, s’ils sont utilisés de manière raisonnée.

L’étude publiée lundi comporte certaines limites, comme sa méthodologie basée sur des scénarios fictifs. Les modèles utilisés ont, par ailleurs, été largement remplacés depuis par des versions plus performantes.

Mais «c’est une étude très importante qui souligne que les chatbots posent de vrais risques médicaux pour le grand public», a jugé David Shaw, spécialiste en bioéthique à l’université de Maastricht (Pays-Bas), pour l’AFP.

Laisser un commentaire