- D'ici 2025, le Big Data dans les essais cliniques pourrait peser jusqu’à 4 milliards de dollars.
- A l'heure actuelle, l'exploitation des données de santé "implique des mécanismes de recueil du consentement du patient, sauf dans certains cas au motif d’intérêt général".
- Pour l'expert David Gruson, il faut une "régulation positive". "C’est l’idée d’une garantie humaine de l’intelligence artificielle".
Montres connectées, toilettes intelligentes… pas un jour sans que l’on entende parler d’une innovation en matière d’intelligence artificielle (IA) dans le domaine de la santé. A l’horizon de 2025, le Big Data dans les essais cliniques pourrait peser jusqu’à 4 milliards de dollars. En France, l’un des 4 pays leaders (avec la Chine, les Etats-Unis et le Royaume-Uni) dans la production d’articles sur l’IA, les enjeux sont énormes. A l’avenir, dans le secteur médical, cette technologie devrait permettre “d’identifier des mutations génétiques, d’affiner des diagnostics, de surveiller la croissance de tumeurs, d’ajuster les traitements, d’aider les médecins dans leurs décisions, etc.”, explique le LEEM (Les entreprises du médicament), qui, rien qu’en 2018 a signé une quinzaine d’accords avec des start-up spécialisées dans l’IA. Mais si ces outils promettent une médecine plus précise, rapide et efficace, ils soulèvent la question de l’utilisation des données de santé. Car “la valeur créée par l’Intelligence artificielle provient des données nécessaires à l’apprentissage bien plus que de l’algorithme”, note ainsi le Conseil national du numérique. L’exploitation très large de données étant indispensable pour accélérer les découvertes scientifiques, un débat politique, juridique et éthique est donc indispensable.
En “exploitant suffisamment de données, les algorithmes de l’intelligence artificielle déboucheront sur des corrélations qui n’avaient pas encore été mises en évidence, de nouvelles hypothèses. Des diagnostics plus fiables seront posés, ouvrant la voie à des traitements plus ciblés”, détaille le LEEM. En effet, l’IA devrait permettre de mieux détecter les symptômes des maladies grâce à un ensemble de capteurs telles que les montres connectées ou les applications sur téléphone, de prédire le développement d’une affliction, de proposer des traitements plus personnalisés, de mieux détecter les effets secondaires d’essais cliniques ou encore de faciliter l’analyse des résultats de recherches fondamentales grâce à la fouille automatique des données.
Dans le cas d’un cancer de la peau, l’IA aiderait par exemple à détecter un mélanome là où deux experts pourraient ne pas parvenir au même diagnostic, ce qui compliquerait alors la suite du traitement pour le malade. Mais pour que l’outil soit performant, près de 100 000 images sont nécessaires. En outre, l’accès généralisé aux données médicales aidera à accélérer la phase de développement clinique des médicaments, en permettant de tester de nouveaux traitements sur des populations sélectionnées.
A qui appartiennent les données ?
Mais d’où proviennent donc ces fameuses données ? De “bases médico-administratives, comme le Sniiram (Système national inter-régimes d’information de l’Assurance maladie) et ses 9 milliards de feuilles de soins annuelles, des images issues des 80 millions d’actes d’imagerie réalisés chaque année en France, des essais cliniques, des dossiers médicaux, des données de patients collectées via des smartphones, etc.”, explique le LEEM.
Toutefois, à l’heure actuelle, l’exploitation des données médicales est loin d’être automatique puisqu’elles appartiennent aux patients. “Cela implique donc des mécanismes de recueil de son consentement par principe, sauf dans certains cas où on peut présumer de cet accord par motif d’intérêt général. Ces derniers sont établis des par méthodologies de références, des MR, édictées sous l’égide de la CNIL (Commission nationale de l’informatique et des libertés) pour conduire des programmes de recherche d’intérêt général avec des données anonymisées, pseudonymisées, comme avec, par exemple, le nouveau Health Data”, explique David Gruson, directeur du programme santé du groupe JOUVE et fondateur d’Ethik-IA. Le Health Data a été créé en 2019 pour “faciliter le partage des données de santé, issues de sources très variées afin de favoriser la recherche”, explique la CNIL sur son site. “Les projets de recherche qui seront menés sur la plateforme technologique doivent être autorisés par la CNIL lorsqu’ils ne peuvent faire l’objet d’une déclaration de conformité à une méthodologie de référence”, est-il précisé.
Pour David Gruson, s’il est bien sûr indispensable de protéger le patient, il faut faire attention à “ce que le comité consultatif national d’éthique a relevé dans son avis 129, dans le cadre de la préparation du processus de révision de la loi de bioéthique”. Ce dernier stipule ainsi “qu’il ne faut pas surrèglementer les traitements des données de santé car on risquerait un blocage de l’innovation”. Car “c’est en France qu’on a le niveau de protection juridique le plus fort au monde des données de santé. A ce droit national s’ajoute le droit général européen sur la protection des données (le RGPD)”, rappelle l’expert.
“Une garantie humaine de l’IA”
L’exemple le plus probant de la rigidité en la matière est celui de Stop Covid, l’application mise en place par le gouvernement pour tenter de stopper la propagation du SARS-CoV-2 sur le territoire français. “Il y a eu de longs débats au parlement sur cette application et le cadre juridique qui pouvait être fixé dessus. Pourtant, l’article 67 du RGPD européen explique qu’en crise sanitaire, il est possible de lever un certain nombre de contraintes formelles, si ces dérogations visent à répondre à la gestion de crise et sont mises sous l’égide des pouvoirs publics. Le cas était prévu mais on a cru nécessaire de se doter d’un cadre juridique complémentaire pour Stop Covid. Cela partait d’une très bonne intention mais a généré un délai entre le moment où le projet a été exprimé et celui où il s’est concrétisé quand la population française était déjà déconfinée, explique David Gruson. Si on veut relancer cette application à l’aube de la deuxième vague, il y aura sans doute un besoin de pédagogie et d’informations complémentaires pour pouvoir arriver au seuil minimum d’utilisateurs nécessaires”, poursuit-il.
A terme, des délais de ce genre risquent de sévèrement coûter à la France. “Si on ne fabrique pas ces algorithmes en France ou en Europe, ils risquent d’être fabriqués dans des contextes moins protecteurs et nous être imposés. Il faut trouver la bonne voie de passage, insiste David Gruson. C’est ce qu’on a appelé, avec Ethik-IA, la régulation positive. C’est l’idée d’une garantie humaine de l’intelligence artificielle. Il faut s’ouvrir à l’innovation, la faire émerger en France, à condition qu’elle soit supervisée humainement. Non pas à chaque étape du processus, pour ne pas le bloquer, mais à des moments critiques sur des points-clés avec des pilotages de qualité.”
A titre d’exemple, Ethik-IA accompagne depuis peu l’Union française pour la santé bucco-dentaire (l’UCBD) dans un nouveau projet conduit avec une start-up française, Dental Monitoring. “Cette dernière a mis au point une solution d’IA de reconnaissance de vidéos prises par smartphones dans les bouches de résidents de 48 Ephad, explique David Gruson. A partir de ces vidéos, l’IA permet de repérer le risque carieux ou inflammatoire. Le programme est en train de se déployer et nous mettons en place un collège de garantie humaine qui va rassembler des chirurgiens-dentistes réviseurs, désignés indépendamment de tous liens d’intérêts avec la start-up, mais aussi des représentants des personnes prises en charge en Ephad.”
Des professionnels de santé de plus en plus ouverts à l’IA
Au niveau des mentalités des professionnels de santé, les choses s’accélèrent depuis quelque temps. Alors qu’il y a encore quelque années, beaucoup de médecins craignaient que le développement de la machine ne se fasse aux dépens de l’expertise humaine, “on voit que les équipes médicales et paramédicales s’ouvrent de plus en plus à l’intelligence artificielle et au sujet du pilotage par les données, commente David Gruson. En septembre 2019, on a engagé les premiers programmes de développement professionnels continus sur l’IA. Ces derniers suscitent beaucoup d’intérêt de la part des médecins, désireux de comprendre le sujet et de lever un certain nombre d’inquiétudes. Il y a aujourd’hui un vrai mouvement de prise de conscience positive de l’intérêt de la nécessité du sujet.”
De son côté, l’Assurance maladie a officiellement lancé le Dossier médical partagé (DMP) en décembre 2018. Un an plus tard, le nombre de DMP ouverts dépassait les 8 millions. “Plus de 12 % de la population en dispose désormais. Ce carnet de santé numérique entre peu à peu dans les mœurs. De nombreux professionnels s’en saisissent dans leur pratique. 20 % des médecins alimentent ainsi les DMP de leurs patients de façon systématique, et 46 % d’entre eux les consultent”, explique l’Assurance maladie sur son site. Début 2022, chaque citoyen français s’en verra automatiquement attribuer un.
Enfin, pour rassurer les inquiétudes sur le consentement du patient, des chercheurs ont eu l’idée de mettre en place la blockchain, “une technologie de stockage et de transmission d’informations, transparente, sécurisée, et fonctionnant sans organe central de contrôle.” Toutefois, pour David Gruson, “il n’y a pas de technologie magique qui permettrait de régler tous les sujets […] Il s’agit d’une technique d’horodatage qui permet de sécuriser au fil du temps les différentes formes qu’un traitement de données peut prendre. C’est une méthode qui a fait ses preuves dans le domaine bancaire mais dont la portée opérationnelle reste à montrer dans le champ de la santé. Elle possiblement intéressante mais ne se substituera pas à la notion d’une garantie humaine par les professionnels de santé des patients, le principe essentiel.”
“Il faut aller vers la régulation positive”
Quoi qu’il arrive, l’IA ne remplacera jamais le corps médical. La crise sanitaire actuelle en est la preuve. « Cette pandémie est un appel à l’humilité, commente David Gruson. Dans la gestion de cette crise, le numérique et l’IA ne jouent qu’un rôle subsidiaire avec des professionnels de santé confrontés à la gestion du risque dans des conditions parfois rudimentaires. Mais ce rôle n’est pas neutre”. Il détaille sa pensée : “Ici, on a utilisé l’IA pour contribuer au diagnostic de la Covid à partir de reconnaissances d’images de CT scan pour repérer des lésions pulmonaires associées à la maladie. L’IA a également servi à modéliser en 3D des composés de molécules permettant de détecter des traitements pour agir sur la protéine Spike et réduire ses capacités d’infection des cellules hôtes. Enfin, on a utilisé des vecteurs de mesures robotiques pour faire respecter les mesures de confinement des populations”. Aussi, “dans cette crise, le rôle de l’IA a beau être subsidiaire par rapport à une réponse essentiellement humaine, il est réel et significatif.”
C’est pourquoi, “il faut aller vers la régulation positive, s’ouvrir à l’innovation et au pilotage par les données. En France, nous disposons d’outils pour le faire, comme avec le Health Data Hub, qu’il faut absolument faire réussir. Sinon, le contexte de crise sanitaire qu’on vit permet de le mesurer, on risque de perdre la souveraineté numérique sur un système de santé en France et en Europe et la maîtrise de l’avenir de nos systèmes, poursuit David Gruson. C’est un moment important : il faut réguler ces risques éthiques mais en s’ouvrant à l’innovation”, conclut-il.
Ce sujet a été réalisé à partir du dossier du LEEM "100 questions sur le médicament"
Retrouvez ci-dessous la fiche sur le thème "Intelligence artificielle et données de santé, le mariage du futur"
https://www.leem.org/100-questions/intelligence-artificielle-et-donnees-de-sante-le-mariage-du-futur