Rencontre avec Jean-Emmanuel Bibault, professeur en oncologie et également spécialiste en intelligence artificielle, lequel dans son ouvrage "2041: l'odyssée de la médecine" se penche sur les espoirs et les craintes que l'IA appliquée à la médecine suscite.
...
Professeur en oncologie radiothérapie à l'Université de Paris Cité et praticien à l'Hôpital européen Georges-Pompidou, Jean-Emmanuel Bibault, qui a travaillé à Stanford et dans la Silicon Valley, mène des travaux de recherche à l'Inserm dans le domaine de l'intelligence artificielle appliquée à la médecine. Il est donc aux premières loges des derniers développements dans ce domaine, des espoirs que cette symbiose suscite et des dangers que ces évolutions pourraient faire craindre... Le journal du Médecin: L'intelligence artificielle se révèle surtout utile en médecine prédictive? Jean-Emmanuel Bibault: L'intelligence artificielle en médecine, peut en fait remplir deux types de fonctions. Elle permet de faire ce que l'humain exécute, typiquement des tâches de perception en radiologie ou en analyse de biopsie. Et d'autres que les médecins ne peuvent réaliser: des fonctions plutôt de prédiction. Par exemple, être capable de savoir plusieurs années à l'avance si un patient va développer une maladie, ou s'il souffre d'une maladie, s'il va en être guéri en fonction des traitements qui lui seront administrés. Donc, l'IA possède une facette dépistage et diagnostic? Oui, l'on peut notamment orienter les campagnes de dépistage en ce qui concerne les patients à risque dans le cas du cancer du poumon par exemple. Par ailleurs, l'intelligence artificielle permet également, pour les patients qui en souffrent, de prédire possiblement leur devenir. Dans votre ouvrage, vous mettez notamment en exergue une étude que vous avez réalisée en mettant en corrélation la question du GPS et des facteurs environnementaux, qui induisent certains déterminants pouvant engendrer, et c'est là le danger potentiel, un certain déterminisme. Il faut donc rester vigilant sur ce plan... Ce travail avait montré que, globalement et en schématisant quelque peu, vous êtes l'endroit où vous habitez. En fonction du lieu où vous résidez, votre risque de développer un cancer est différent et les facteurs qui peuvent l'expliquer sont multiples. Il y a l'environnement: la proximité ou pas d'une zone industrielle, de pollution, d'autoroutes, ou au contraire de forêts, de parcs, de zones d'activité physique, mais il existe également un second facteur: votre lieu de résidence est un reflet très puissant de votre statut socio-économique. Vos comportements et vos accès à la santé seront modifiés par ces éléments. Raison pour laquelle le fait de prédire le risque de cancer par des images satellites est utile, puisqu'il prend en compte ces deux grandes catégories de déterminants pour des cancers. Mais sans faire l'impasse, et vous en parler au début de l'ouvrage, sur l'interprétabilité qui en médecine est essentielle... Oui, effectivement, certains affirment que l'interprétabilité en IA n'est pas primordiale... sauf en médecine. Et cet aspect est très important, car il est nécessaire de pouvoir faire confiance à l'algorithme, surtout dans le domaine médical, car il va conditionner les décisions prises ensuite. Il faut pouvoir comprendre pourquoi un algorithme établit telle ou telle prédiction et être capable de confronter notre intuition humaine, médicale avec cette interprétabilité afin d'évaluer si les facteurs que les algorithmes ont pris en compte sont des facteurs pertinents ou fantaisistes. C'est donc en épidémiologie que l'IA se révèle un outil essentiel... tout en n'étant qu'un outil: l'intelligence artificielle n'est pas un médecin... Non. L'IA peut être utilisée en épidémiologie, mais aussi dans le cas d'un diagnostic, d'un traitement, et dans le suivi du patient. Mais il est vrai qu'en épidémiologie, l'intelligence artificielle et, plus globalement, les outils mathématiques, sont centraux. Vous évoquez le robot chirurgien qui effectue un acte technique. En fait, l'IA ne remédie pas, mais exécute? L'intelligence artificielle peut tout de même être utilisée afin de définir des stratégies thérapeutiques, dans le cas d'une prise de décision et la personnalisation des soins: par exemple, si l'on prédit qu'un patient peut être guéri en préconisant tel ou tel traitement, les traitements seront adaptés en fonction. Par contre, si l'IA prédit que le patient va guérir, mais qu'il présente un fort risque de séquelles importantes du fait d'un traitement très lourd, l'on pourra personnaliser l'approche, proposer un traitement plus léger et ainsi limiter lesdites séquelles. Puisque l'IA permet de prévoir la suite, la médecine peut adapter les traitements afin d'être tout aussi efficace avec moins de séquelles. Les facteurs de prédiction de l'efficacité et de toxicité du traitement entrent de en ligne de compte dans la personnalisation des soins. Fondamentalement, peut-on dire que l'IA est avant tout un gain de temps dans la course contre la mort? Incontestablement, elle permet un gain de temps dans le cas du diagnostic, mais également dans la préparation des traitements. Typiquement, en radiothérapie par exemple, il est nécessaire de cibler une tumeur sur des scanners, ce qui prend du temps, parfois plusieurs heures pour un médecin. Grâce à l'intelligence artificielle, au travers du deep learning - l'apprentissage profond, cette tâche peut être effectuée via un algorithme en quelques minutes. Vous plaidez pour le plus court chemin vers la guérison et vers le traitement. Mais court-on pas le risque de passer outre l'étape du médecin généraliste? L'IA permettrait de réduire fortement les délais d'accès aux soins. Ce qui ne signifie pas que l'on ne passe plus par le médecin traitant au niveau du parcours de soins. Il s'agit de deux choses différentes. La question éthique se pose, notamment en psychiatrie où l'intelligence artificielle peut être un apport. Mais il faut être extrêmement prudent dans ce domaine écrivez-vous.... C'est un domaine où l'on touche effectivement à la question de l'équilibre entre le bénéfice et les risques de l'utilisation de l'IA. On sait que des algorithmes peuvent être utilisés pour prédire le risque suicidaire, par exemple. Et cela fonctionne très bien, notamment à partir de posts Facebook par exemple ou de photos postées sur Instagram. En fonction des photographies ainsi publiées, l'intelligence artificielle peut déterminer un risque de dépression ou de risque suicidaire. Le problème réside par exemple dans le fait que Facebook a implémenté un algorithme de monitoring permettant de créer une alerte. Si quelqu'un exprime des idées noires, une alerte se déclenche et est adressée à des hotlines. La question est de savoir si l'on va procéder à de la surveillance de masse aux dépens de la vie privée au prétexte que ça permet de réduire le risque suicidaire. Ce n'est qu'un exemple du débat qu'il convient d'avoir au niveau du grand public et des pouvoirs publics quant à l'application d'algorithmes d'intelligence artificielle. Qu'est-ce que le DM-IA en vigueur en Europe? Un dispositif médical ou DM peut représenter aussi bien un scanner, une IRM, un pacemaker sans que cela induise de l'intelligence artificielle: des dispositifs mécaniques qui n'impliquent pas d'intelligence au sens large du terme. Les DM- IA sont par contre des dispositifs médicaux qui eux, reposent sur de l'intelligence artificielle. Par exemple, de l'interprétation automatisée d'électrocardiogrammes par un ordinateur constitue un DM-IA et doit répondre à un certain nombre de critères de qualité qui sont définis au niveau des pouvoirs publics par le risque potentiel qu'une mauvaise utilisation du DM pourrait avoir: des précautions et donc des critères de qualité nécessaires sont dès lors appliqués. À ce niveau, l'Europe qui, à défaut de créer, "norme" au niveau de l'intelligence artificielle, se montre beaucoup plus prudente que les États-Unis... Oui. Il semblerait qu'aux États-Unis, le nombre de dispositifs DM qui reposent sur de l'intelligence artificielle approuvée par la FDA, soit plus important et ne repose pas toujours sur une validation clinique rigoureuse de la pertinence et de la validité du dispositif médical en question, ce qui pose problème. En Europe, les critères de qualité et les garde-fous qui sont relativement bien définis permettent d'éviter que l'on utilise des DM-IA qui ne soient pas valides. Mais en même temps, cela ralentit l'avancée technologique de la médecine... Oui, il s'agit encore d'un autre équilibre à trouver entre la course à l'innovation qui est nécessaire parce qu'il s'agit de techniques très puissantes suscitant beaucoup d'espoirs pour et chez les patients, et d'un autre côté, la protection de la vie privée, celle des patients qui effectivement va freiner l'innovation. Ce qui, à mon sens, est nécessaire, car il faut éviter de faire de l'innovation pour de l'innovation. Si vous mettez au point de mauvaises DM-IA, vous courez en réalité le risque de faire plus de mal que de bien. Mais en médecine, nous appliquons un principe très ancien, le "primum non nocere", "Tout d'abord, ne nuis pas", inscrit dans le serment d'Hippocrate. Il est donc essentiel que les médecins s'attachent à développer l'usage de l'intelligence artificielle, mais toujours dans le respect de ce serment. Mais le principe de précaution dans la technologie n'est pas souvent respecté. C'est le risque. Il s'agit une fois encore de cette question d'équilibre entre ce principe et l'innovation, notamment au niveau des données personnelles.