Le développement de l'intelligence artificielle (IA) est fulgurant. ChatGPT semble capable de passer et réussir des examens universitaires et présente de surprenantes connaissances théoriques en médecine. De nombreuses questions se posent toutefois quant aux limites des systèmes d'IA actuels, et notamment leur capacité à proposer des prises en charge médicales pour les humains.

Les professeurs Jérôme Lechien et Stéphane Hans viennent de publier les résultats d'une étude internationale menée sur 45 patients présentant des pathologies fréquentes en médecine générale ou oto-rhino-laryngologie et dont le tableau clinique a été présenté à l'intelligence artificielle ChatGPT. Dans cette étude, le médecin a soumis à l'IA les symptômes, antécédents, médicaments et données de l'examen clinique des patients. L'IA a été interrogée sur les potentiels diagnostics différentiels, diagnostic principal, examens complémentaires et traitements. Deux médecins ont ensuite analysé les résultats de performance de l'IA à l'aide d'un nouvel outil clinique développé et validé lors de cette étude, l'Artificial Intelligence Performance Instrument (AIPI).

Diagnostic plausible et correct dans 63,5 % des cas

Globalement, ChatGPT a proposé un diagnostic plausible et correct dans 63,5 % des cas et des diagnostics différentiels (alternatifs) plausibles dans 28,5 % des cas. Les examens complémentaires proposés par l'IA afin de confirmer le diagnostic étaient pertinents et totalement ou partiellement nécessaires dans 29 % des cas. Quant aux traitements, ils étaient pertinents et nécessaires dans 22 % des cas, et pertinents mais incomplets dans 16 % des cas. Dans le reste des cas, les procédures thérapeutiques proposées étaient une association de traitements pertinents, nécessaires, inadéquats et inutiles.

D'une façon globale, l'IA fournit une liste de possibilités telle une encyclopédie virtuelle très performante mais ne serait pas (encore) capable de discerner et classer les diagnostics et examens complémentaires selon leur pertinence. Si l'IA peut s'avérer très utile dans l'accompagnement de la formation des jeunes médecins, elle ne se substitue pas encore au discernement humain du praticien. De plus, elle propose souvent une liste d'examens complémentaires dont une grande partie n'est pas utile ou pertinente, ce qui peut mener à des confusions chez les patients qui utiliseraient l'IA avant de consulter leur médecin.

"De futures recherches sont nécessaires pour explorer le potentiel de l'IA en médecine et lui trouver une place permettant d'améliorer la qualité des soins donnés aux patients", concluent les chercheurs. Par exemple, une autre étude, publiée dans le Lancet Oncology, avait récemment avancé que l'intelligence artificielle était en mesure de réduire la charge de travail des radiologues dans le dépistage du cancer (l'article du journal du Médecin à ce sujet).

Le développement de l'intelligence artificielle (IA) est fulgurant. ChatGPT semble capable de passer et réussir des examens universitaires et présente de surprenantes connaissances théoriques en médecine. De nombreuses questions se posent toutefois quant aux limites des systèmes d'IA actuels, et notamment leur capacité à proposer des prises en charge médicales pour les humains. Les professeurs Jérôme Lechien et Stéphane Hans viennent de publier les résultats d'une étude internationale menée sur 45 patients présentant des pathologies fréquentes en médecine générale ou oto-rhino-laryngologie et dont le tableau clinique a été présenté à l'intelligence artificielle ChatGPT. Dans cette étude, le médecin a soumis à l'IA les symptômes, antécédents, médicaments et données de l'examen clinique des patients. L'IA a été interrogée sur les potentiels diagnostics différentiels, diagnostic principal, examens complémentaires et traitements. Deux médecins ont ensuite analysé les résultats de performance de l'IA à l'aide d'un nouvel outil clinique développé et validé lors de cette étude, l'Artificial Intelligence Performance Instrument (AIPI).Globalement, ChatGPT a proposé un diagnostic plausible et correct dans 63,5 % des cas et des diagnostics différentiels (alternatifs) plausibles dans 28,5 % des cas. Les examens complémentaires proposés par l'IA afin de confirmer le diagnostic étaient pertinents et totalement ou partiellement nécessaires dans 29 % des cas. Quant aux traitements, ils étaient pertinents et nécessaires dans 22 % des cas, et pertinents mais incomplets dans 16 % des cas. Dans le reste des cas, les procédures thérapeutiques proposées étaient une association de traitements pertinents, nécessaires, inadéquats et inutiles. D'une façon globale, l'IA fournit une liste de possibilités telle une encyclopédie virtuelle très performante mais ne serait pas (encore) capable de discerner et classer les diagnostics et examens complémentaires selon leur pertinence. Si l'IA peut s'avérer très utile dans l'accompagnement de la formation des jeunes médecins, elle ne se substitue pas encore au discernement humain du praticien. De plus, elle propose souvent une liste d'examens complémentaires dont une grande partie n'est pas utile ou pertinente, ce qui peut mener à des confusions chez les patients qui utiliseraient l'IA avant de consulter leur médecin. "De futures recherches sont nécessaires pour explorer le potentiel de l'IA en médecine et lui trouver une place permettant d'améliorer la qualité des soins donnés aux patients", concluent les chercheurs. Par exemple, une autre étude, publiée dans le Lancet Oncology, avait récemment avancé que l'intelligence artificielle était en mesure de réduire la charge de travail des radiologues dans le dépistage du cancer (l'article du journal du Médecin à ce sujet).