L'IA en médecine est un outil prometteur, mais son adoption soulève d'importantes questions éthiques, ont souligné plusieurs experts lors d'une table ronde organisée par la Mutualité libre Partena cette semaine.
...
La mutualité Partena (Mutualité libre) conviait le 17 septembre dernier un mini-panel d'experts à plancher sur l'intelligence artificielle en santé avec le Dr Grégoire Pigné, médecin oncologue radiothérapeute au CHU de Saint-Etienne et fondateur de la start-up PulseLife. L'accompagnaient Benoit Macq, Pr à l'École polytechnique de Louvain, spécialiste de l'application de l'IA en santé et Jean-Baptiste Fanouillère, doctorant en sciences politiques de l'ULg, spécialisé dans l'émergence des technologies numériques dans le domaine de la santé.Ils ont fait observer que d'un côté, ne pas utiliser l'IA serait une erreur, car elle permet des avancées notables, notamment dans le diagnostic médical et l'organisation des soins. Les technologies IA, comme les jumeaux numériques utilisés pour personnaliser les traitements, ou les modèles comme ChatGPT qui s'appuient sur l'apprentissage automatique, permettent de répondre à des questions et de réduire les erreurs diagnostiques, comme dans le dépistage du cancer du sein, où l'IA pourrait diminuer les faux positifs.Cependant, l'IA doit rester un outil d'assistance, et non remplacer les médecins. Les experts, comme le Dr Grégoire Pigné et Benoit Macq, soulignent que si l'IA améliore les soins, elle ne doit pas devenir une fin en soi. Il est crucial de préserver la dimension humaine dans la prise de décision médicale. En effet, un usage excessif de l'IA pourrait amener les médecins à devenir trop dépendants de la technologie, réduisant ainsi leur autonomie et leur capacité à prendre des décisions éclairées par eux-mêmes.En plus des enjeux liés à la dépendance technologique, la confidentialité des données médicales devient une problématique centrale. L'utilisation massive de données génomiques et de l'imagerie médicale permet d'affiner les diagnostics et de personnaliser les traitements, mais la protection des données personnelles est mise à l'épreuve. L'intelligence artificielle est capable de traiter des volumes de données considérables, mais cela suscite des inquiétudes quant à la sécurité de ces informations. Jean-Baptiste Fanouillère, spécialisé dans la sociologie du numérique, met en garde contre les dérives liées à la réidentification des patients à travers des données sensibles qui pourraient être vendues à des entreprises sans leur consentement.L'émergence d'une "médecine participative", où les patients sont plus impliqués dans leurs choix thérapeutiques, s'accompagne de la nécessité d'une réflexion sur les implications éthiques des outils d'IA. Le traitement des risques polygéniques pour le cancer, par exemple, montre l'impact direct de l'IA sur les décisions médicales. Toutefois, les résultats de ces technologies doivent être accompagnés de discussions approfondies pour éviter des chocs psychologiques chez les patients qui découvrent leur prédisposition à certaines maladies.Un autre point soulevé concerne l'utilisation de l'IA pour alléger la charge mentale des médecins. Les algorithmes de deep learning aident les professionnels à interpréter de grandes quantités de données, mais l'approche ne doit pas être démiurgique. En d'autres termes, les médecins ne doivent pas adopter une approche aveugle du "tout IA", car la technologie ne peut remplacer la nuance et le jugement humain.Dans ce contexte, il est également crucial de prendre en compte les enjeux politiques et économiques de l'IA. La collecte et la gestion des données de santé par de grandes entreprises technologiques soulèvent des préoccupations quant à la marchandisation des informations médicales. Des réglementations comme le RGPD sont censées protéger ces données, mais leur application est limitée par de nombreuses exceptions, laissant la porte ouverte à des abus. Par exemple, certaines entreprises de courtage de données utilisent des clauses légales pour accéder aux données médicales sous prétexte de recherche scientifique, une pratique qui met en danger la confidentialité et l'éthique.En définitive, l'IA a un potentiel énorme pour rendre la médecine plus précise et accessible, mais elle doit être utilisée avec précaution. La formation des futurs médecins à une utilisation intelligente de ces outils est cruciale pour éviter une dépendance excessive et maintenir l'autonomie décisionnelle des professionnels de la santé. La technologie ne devrait pas remplacer l'humain, mais l'aider à mieux comprendre et traiter les patients.