...

Le journal du Médecin: Google vient encore de se muscler au niveau de l'intelligence artificielle médicale et fait montre d'une forte prédominance en ce domaine au niveau des Gafam... Y aurait-il tout d'abord un danger de monopole, l'autre étant qu'il s'agit d'une entreprise à but commercial? Jean-Emmanuel Bibault: Google a d'excellents ingénieurs et dispose de laboratoires de premier ordre qui publient de très bonnes études à propos d'applications de l'IA à la médecine. Ils ne sont pas encore parvenus à trouver un business model qui leur permettrait de commercialiser cet avantage. Le risque consiste en ce que nous devenions encore plus dépendants de Google ou des Gafam en général. La seule manière de contrer cette tendance est de mettre sur pied des structures nationales ou européennes qui développent leurs propres outils au sein d'une collaboration entre le privé et le public. Mais la solution n'est certainement pas de tout bloquer. Non, au contraire. Mais il faut être attentif parce que le cas du lanceur d'alerte que vous citez dans le cas du projet Nightingale, qui a vu Google rassembler un très grand nombre de noms et données personnelles de patients américains, révélation qui a obligé l'entreprise à dissoudre sa division santé pour un temps, est édifiant... Absolument. Cet exemple démontre clairement que nous avons besoin d'un certain nombre de gardes-fous, au risque de nous retrouver un jour avec l'apparition d'outils non pas pour le bénéfice du patient, mais qui sont imaginés dans le but, par exemple, de vérifier qu'il ne va pas développer une maladie dans le futur au moment de lui accorder un crédit immobilier par exemple. D'où l'intérêt, comme vous l'expliquez dans votre ouvrage, pour le médecin, de s'impliquer afin de maîtriser. Si nous ne nous impliquons pas, les outils vont de toute façon se développer sans nous, et donc pas dans le bon sens. Dans le domaine médical, l'utilisation de l'IA intéresse les chercheurs, les médecins depuis longtemps. Dès la fin des années 60, écrivez-vous, le Dr William Schwartz publie dans le New England Journal of Medicine un article visionnaire intitulé "Medicine and computer: the promise and problems of change".C'était l'époque des balbutiements, et malgré cela, William Schwartz avait déjà anticipé les grands principes. Dès les années 70, les chercheurs avaient déjà tenté de créer des systèmes d'intelligence artificielle au moyen de techniques différentes d'aujourd'hui, par exemple afin de contribuer à la prise de décision médicale, dans le cas de la prescription d'antibiotiques notamment. Il y avait déjà cette envie d'optimiser la décision médicale, c'est-à-dire de la rendre quasi parfaite, par de l'informatique. Mais à l'époque, les systèmes mis au point n'avaient pas rencontré un très grand succès. Depuis lors, beaucoup de travaux ont été menés et la méthode ainsi que l'approche ont totalement changé. À l'époque, les règles étaient rédigées à la main par des médecins et introduites dans un ordinateur. Aujourd'hui, on fournit des données à l'ordinateur et l'algorithme apprend par lui-même. Le point aveugle de l'IA en médecine, ne serait-ce pas les maladies orphelines et rares? Il est vrai que c'est potentiellement plus compliqué de créer des liens à propos des maladies orphelines puisque l'on ne dispose que de peu de données et donc d'exemples à partir desquels l'on peut apprendre. Cela va probablement évoluer dans les années qui viennent au travers de l'équivalent des grands réseaux mondiaux qui existent déjà pour d'autres pathologies et maladies. Un de ces groupes de travail sur les maladies rares va s'activer de manière collaborative pour colliger tous ces cas rares et modéliser de la sorte des algorithmes. Donc, même dans cette "sous-catégorie" de maladies, nous obtiendrons des réponses intéressantes. Y compris, par exemple, dans la compréhension de certains phénomènes physiopathologiques qui nous échappent, mais qui peuvent être compris par l'intelligence artificielle. De là, on pourrait imaginer que, ne comprenant pas pourquoi une sclérose en plaques entre tout d'un coup en rémission ou en poussée, grâce à de l'IA, en introduisant toutes les caractéristiques d'un patient ou une cohorte de patients qui seraient touchés par la sclérose, l'intelligence artificielle mette au jour les facteurs qui expliquent les poussées ou les diminutions. Que peut avoir comme incidence l'irruption du ChatGPT sur le domaine médical? Un phénomène spectaculaire et très bien implémenté, lequel repose sur des technologies qui ont désormais dix ans. Sur le plan technique, il n'y a donc pas eu vraiment d'authentique innovation. Par contre, au niveau de l'implémentation et de la disponibilité, une efficacité accrue a débouché sur un système très impressionnant. Des équipes ont évalué la capacité de ChatGPT à passer la partie écrite de l'examen de médecine américain, l'USMILE: ChatGPT obtiendrait une note d'environ 60%, pas encore extraordinaire, mais déjà pas mauvais. D'autant que ChatGPT a été entraîné à partir de tests généraux et non pas à partir de manuels médicaux ou de livres de médecine. Et donc il n'est pas impossible qu'un jour prochain, d'autres équipes ou même OpenAI soutenu par Microsoft, entraîne ChatGPT de façon plus spécifique sur des syllabus médicaux et qu'il soit capables de faire nettement mieux... Le danger réside donc plutôt au niveau de l'examen de médecine. Mais qu'en est-il de l'incidence sur la pratique médicale? Je ne le conçois pas forcément comme un danger. L'IA est utile pour le médecin et au service du patient au même titre que le scanner ou le stéthoscope sont des outils qui ne nous échappent pas du moment que l'on sache les utiliser à bon escient, leur puissance nous permettant de réaliser nombre de procédures et d'actes. Dangereux au sens où il permettrait de falsifier l'examen...pour devenir médecin? Certes, mais on n'a pas accès à ChatGPT lorsque l'on passe l'examen de médecine. Mais que peut concrètement apporter ChatGPT au niveau de la pratique médicale? ChatGPT peut déjà être utilisé afin d'apporter des informations médicales aux patients. Poser une question lorsque l'on n'a pas accès directement à un interlocuteur médical et recevoir en retour une information médicale déjà valable. Et puis, à terme, on peut imaginer un dérivé de ChatGPT qui définisse une stratégie thérapeutique optimale en fonction des caractéristiques du patient et de sa maladie. Pour conclure, votre credo se résumerait à "prudence et optimisme"? Oui. Et il est vrai que ce n'est pas toujours un message à faire passer facilement. Je ne suis ni blanc ni noir, ni pour ni contre: je ne prétends pas que c'est génial, magique qu'il faut que l'on embrasse tous cette technologie sans aucune limite. Et je n'affirme pas non plus qu'il faut la limiter radicalement mais l'encadrer, la réguler. Au final, il s'agit tout de même de la responsabilité que les médecins et aussi les pouvoirs publics ont d'utiliser ces outils très puissants pour le bénéfice du patient. Nous avons une responsabilité à s'en servir: on ne peut pas balayer toute cette évolution technologique d'un revers de la main sans aucune réflexion, ce que certaines personnes auraient tendance à faire en exprimant une très forte réticence par rapport à ces développements. Donc il s'agit de faire le choix de tenter de trouver le bon équilibre. Donc, votre vision de cette problématique, vous qui travaillez pourtant aux États-Unis, serait plutôt européenne et pas libertarienne, "philosophie" qui imprègne l'univers des Gafam? Oui, c'est mon côté médecin plus qu'européen: quand il s'agit de soigner, l'on ne peut être médecin et libertarien...