Médecin cancérologue à l’hôpital européen Georges Pompidou à Paris, Jean-Emmanuel Bibault est aussi professeur des universités et chercheur en intelligence artificielle appliquée à la cancérologie dans un laboratoire de l’Inserm. Il est notamment l’auteur de 2041, Odyssée de la médecine: Comment l’intelligence artificielle bouleverse la médecine (éd. des Équateurs, 2023).
Pourquoi Docteur : En quoi l’intelligence artificielle (IA) bouleverse-t-elle la pratique médicale ?
Jean-Emmanuel Bibault : D’abord, l’IA permet de faire ce que les médecins savent déjà faire, comme analyser des images d’examens de radiologie (mammographie, radio de thorax, IRM...) ou des biopsies (par exemple pour observer au microscope des fragments de tumeurs). L’IA va changer la donne en permettant de poser des diagnostics plus rapides et, par la suite, probablement plus fiables. Aujourd’hui, l’interprétation des résultats est toujours vérifiée par un humain, mais dans les années qui viennent, l’IA sera de plus en plus en mesure de les valider seule.
Ensuite, l’IA est utilisée en médecine pour réaliser ce que les médecins ne savent pas faire. Par exemple, effectuer des tâches de modélisation prédictive, c’est-à-dire être capable de prédire à l’avance les chances de guérison d’un patient, les potentiels risques d’effets secondaires... Cela, les médecins ne savent pas et ne sauront jamais le faire, car l’humain n’a tout simplement pas les facultés cognitives. Mais des algorithmes d’IA, en apprenant à partir des données passées de nombreux malades, peuvent prédire ce genre de risques pour les nouveaux patients.
Vous distinguez l’IA de machine learning et l’IA dite symbolique. Pouvez-vous préciser ?
L’IA symbolique, qui désigne un algorithme écrit par un humain pour simplifier une tâche, est la plus ancienne. Dans le cadre médical, elle remonte au début des années 1950, notamment avec des logiciels de recommandation d’antibiotiques, qui n’ont jamais trop été utilisés dans la vie de tous les jours. Mais quand on parle d’IA aujourd’hui, on parle de machine learning (on fournit des données à un algorithme qui, à partir de là, va apprendre ses propres règles), voire de deep learning (on crée des réseaux neuronaux artificiels qui, à partir de données, vont réaliser des opérations mathématiques pour faire une prédiction ou poser un diagnostic).
"L'IA est capable de prédire à l’avance les chances de guérison d’un patient, les potentiels risques d’effets secondaires..."
Quels sont les domaines de la médecine qui utilisent déjà l’IA au quotidien ?
Le domaine qui utilise le plus l’IA est aujourd’hui la radiothérapie. Principalement pour l’étape de préparation du traitement anticancer qu’on appelle contourage, qui consiste à déterminer l’endroit, à partir des scanners 3D du patient, où l’on va envoyer les rayons. L’opération est cruciale : une erreur de 1mm peut représenter une perte de chance de guérison de 10 % pour le patient. Alors que ce contourage se faisait jusque-là à la main et prenait plusieurs heures, des algorithmes de deep learning peuvent aujourd’hui le faire de façon automatisée en deux-trois minutes. La radiologie également utilise beaucoup l’IA, avec des algorithmes permettant de dépister des cancers du sein sur des mammographies ou d’interpréter des fractures traumatiques sur des radios. C’est une énorme avancée, même si le radiologue passe toujours derrière pour vérifier que le travail est bien fait.
Quelle est la marge d’erreur entre les conclusions de l’IA et les vérifications faites par l’humain ?
Une récente étude suédoise, menée sur 80.000 patients, a montré que le dépistage du cancer du sein, qui jusqu’ici repose sur la lecture des mammographies par deux médecins, était tout aussi efficace lorsqu’il était fait par un médecin et une IA : le taux de diagnostic du cancer était le même avec ou sans l’IA. En revanche, l’utilisation de l’IA fait gagner 44 % de temps... Pour l’instant, c’est donc plus un gain de temps et d’efficacité que de compétence pure, mais cela devrait changer dans les années à venir.
Quelle place auront les médecins face à l’IA ?
L’objectif de la médecine n’est pas de fournir du travail aux médecins mais de guérir des patients. Donc s’il existe des techniques plus abouties pour soigner, il ne devrait pas y avoir de raison de s’y opposer. Les médecins se doivent aujourd’hui de participer au développement de l’IA, pour faire en sorte qu’elle soit créée d’abord au bénéfice des patients – ce qui est loin d’être évident, car il y a beaucoup d’intérêts financiers privés en jeu. Mais si les médecins ne s’approprient pas les nouveaux outils d’IA, le risque est qu’ils deviennent bientôt de simples "appliquants" de ce que l’IA aura décidé à leur place. Ce qui pourrait avoir des conséquences désastreuses sur l’exercice de la médecine.
De la même manière que la calculatrice a réduit nos capacités en calcul mental, l’IA pourrait-elle rendre les médecins moins compétents ?
Cela semble évident si on n’y prend pas garde. Prenons l’exemple du contourage : pour l’heure, il est souvent encore réalisé ou du moins validé par des humains, et la radioanatomie est encore apprise par les internes en radiothérapie. Sauf qu’avec l’IA, il n’y aura bientôt plus besoin de médecins formés à cette pratique, les internes n’auront donc plus à l’apprendre. Et s’ils ne sont plus en mesure de l’appliquer eux-mêmes, ils ne pourront pas non plus la transmettre à la génération suivante... Or, si plus personne n’est capable de l’enseigner ni de le faire sans la machine, alors personne ne pourra vérifier ce que fait l’IA, et on risque d’être contraint, par la force des choses, de lui faire confiance aveuglément. Il faut absolument que les facultés et les professeurs continuent à enseigner la radioanatomie (entre autres) pour éviter que les futurs praticiens ne soient dépassés par la machine.
"Si les médecins ne s’approprient pas les outils d’IA, ils risquent de devenir de simples 'appliquants' de ce que l’IA aura décidé à leur place"
Quelles sont les limites de l’IA dans le domaine médical ?
Les plus pessimistes pensent que, comme les IA sont créées à partir de données rétrospectives, du passé, elles sont par essence incapables de faire de nouvelles découvertes. Elles ne peuvent que répéter ce qu’elles ont vu, comme une sorte de perroquet. Les plus optimistes, dont je fais plutôt partie, estiment au contraire que des algorithmes d’IA entraînés avec suffisamment de données pourront potentiellement faire des rapprochements en termes de physiopathologie, de biochimie, de génomique... que les humains sont incapables de faire. Dotée d’une sorte de créativité, l’IA pourrait ainsi engendrer de nouvelles découvertes médicales dont les patients pourraient bénéficier.
Par ailleurs, comme l’a récemment rappelé la Haute autorité de santé, la recherche en IA est nécessaire mais il ne faudrait pas qu’elle occulte la recherche purement clinique. Il est crucial de mener les deux en parallèle, car on aura beau avoir les meilleures IA de prédiction du monde, il faudra toujours poser les diagnostics et évaluer les traitements sur de vrais patients, par exemple avant de mettre sur le marché un nouveau médicament. Peut-être que dans 15 ou 20 ans, on pourra réaliser en quelques minutes des essais cliniques virtuels qui nous auraient pris des années dans la vraie vie, mais on n’y est pas encore !
Que peut apporter l’IA en matière "psy" ? Peut-on imaginer une version futuriste de ChatGPT qui nous servirait de thérapeute ?
Dans le cadre d’une thérapie, il y a une dimension interpersonnelle, un échange entre deux humains. On parle notamment du "transfert", une projection de sentiments du patient vers son thérapeute... L’IA, pour l’instant, ne peut se substituer à cette relation. Selon moi, un psy virtuel pourrait fonctionner avec certains patients, avec certains problèmes, mais pas avec tout le monde. Pour être véritablement efficace, il faut que le modèle s’enrichisse de ce que lui raconte chaque patient, comme un vrai thérapeute. ChatGPT commence doucement à le faire, preuve que ce n’est pas complètement impossible.
Comment réagit le grand public, les patients, aux nouveaux outils d’IA ?
Certains peuvent avoir des réticences ou des doutes, notamment en matière d’éthique, mais tous les patients font confiance à l’IA dès lors que c’est leur vie qui est en jeu. En cancérologie, si on proposait un traitement basé sur de l’IA et que ce traitement donnait de meilleures chances de guérison qu’un traitement "sans IA", je pense que tous les patients choisiraient l'IA.
L’IA soulève de nombreuses questions éthiques. Comment "faire confiance" à une machine qui prédit un risque de maladie ou de décès dix ans à l’avance ?
C’est un problème vertigineux ! Si une IA prédit un risque à 80% de développer un cancer du poumon à 50 ans, cette information a-t-elle un intérêt pour le patient ? Est-ce qu’elle n’est pas même, au contraire, anxiogène et donc négative pour la qualité de vie du patient ? En réalité, il est indispensable de concevoir des modèles capables d’"expliquer" leurs prédictions, et surtout de proposer des solutions pour réduire ce risque de cancer, par exemple en changeant de mode de vie. Et là seulement, cela devient bénéfique pour le patient. Aux Etats-Unis, des chercheurs ont montré que des modèles d’IA étaient capables de déterminer le risque suicidaire d’utilisateurs de Facebook à partir de leurs publications. Le réseau social, qui a implémenté cette fonctionnalité, propose désormais aux internautes concernés des numéros de téléphone de prévention du suicide. Pourquoi pas, mais on peut aussi facilement imaginer les dérives potentielles de ce genre d’outils : un employeur ou un assureur pourrait faire du profilage de toutes les informations que vous publiez sur les réseaux et ainsi déterminer vos risques en matière de santé, notamment psychiatrique, ce qui pourrait vous porter préjudice. Ce sont des interrogations d’ordre éthique auxquelles nous devrons répondre.
"On aura beau avoir les meilleures IA de prédiction du monde, il faudra toujours évaluer les traitements sur de vrais patients"
Faut-il réguler l’utilisation de l’IA en médecine, de la même façon qu’on contrôle la mise sur le marché d’un médicament par exemple ?
L’IA est déjà régulée, et il faut évidemment des règles qui protègent les patients d’une utilisation néfaste ou d’une IA non validée par la science. Mais la régulation peut devenir un problème lorsqu’elle est un frein à l’innovation – on le voit en Europe qui est à la traîne sur le plan numérique. A trop réguler, à trop administrer, à trop mettre de garde-fous, le risque est de se tirer une balle dans le pied. A titre d’exemple, en Europe, pour chaque euro dépensé pour la recherche médicale globale, il y a quatre euros dépensés pour vérifier que cet euro-là est bien dépensé... Autrement dit, 80% des ressources financières sont mal utilisées. Les Etats-Unis et la Chine, qui sont soumis à moins de règles, vont donc beaucoup plus vite.
Doit-on avoir peur de l’IA développée par des acteurs privés ? On pense notamment à OpenAI ou aux GAFAM qui proposent des modèles d’IA au grand public, notamment en matière de diagnostic médical...
Le problème est qu’on risque de ne pas pouvoir faire grand-chose pour les réguler, tout comme on n’a pas réussi à freiner l’essor de Facebook à l’époque... L’IA n’est pas une baguette magique, mais elle va potentiellement impacter tous les domaines de la médecine ou presque. Dans quel sens ? Là est la question.
Consultez notre ouvrage vidéo numérique,
seule une création de compte est requise pour y accéder.