Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
04/12/2023

Intelligence artificielle en santé : l’innovation sous surveillance

Imprimer
PARTAGER
Intelligence artificielle en santé : l’innovation sous surveillance
 Laure Millet
Auteur
Experte Associée - Santé

La santé fait partie des secteurs les plus prometteurs pour le déploiement de l’intelligence artificielle. Elle promet d’appuyer les équipes de soins pour mieux gérer et organiser les données produites chaque jour par nos systèmes de santé, étendre la main d’œuvre disponible dans un contexte de pénurie des ressources humaines, optimiser la décision thérapeutique et clinique mais aussi les processus de recherche afin d’améliorer l’efficience et la qualité des parcours de soins. Comment promouvoir cette technologie tout en s’assurant qu’elle fonctionne de façon éthique, non biaisée et dans le respect de la protection des données personnelles ? En octobre dernier, les États-Unis ont publié un décret et le président Joe Biden a insisté sur la priorité, selon lui, de développer des systèmes d’intelligence artificielle sûrs, sécurisés et dignes de confiance. Au même moment, au Japon, le groupe des pays du G7 publiait une déclaration commune sur l'importance de la réglementation de l'IA. Une semaine plus tard, le Royaume-Uni organisait autour d’une centaine de participants de haut niveau, le "UK AI Safety Summit". Dès juin, l’Union européenne avait précisé les grandes orientations de son  cadre réglementaire, à travers l’adoption par le Parlement Européen de l’"AI Act",  texte pour lequel une version définitive vient d’être publiée après qu’un accord en trilogue a été trouvé. Quels sont les principaux enjeux autour de la régulation et de la gouvernance de l’IA et comment encadrer au mieux son utilisation, dans un domaine aussi spécifique et sensible que la santé ? 

Concevoir le cadre réglementaire de l’IA : réguler selon le niveau de risque et le secteur concerné

Pourquoi une telle ébullition autour de la réglementation de l’intelligence artificielle ces derniers mois ? ll existe un réel avantage pour les pays à se positionner comme pionniers dans la régulation de l’IA, notamment l’AI générative, c’est ce que les Anglo-saxons nomment le "first mover advantage". En effet, de par la nature interconnectée des nouvelles technologies et de l’IA, le pays ou l’ensemble d'États qui parvient à établir le premier corpus de règles peut avoir un avantage indéniable pour ensuite définir au niveau global les enjeux prioritaires et les normes à élaborer. Un exemple intéressant est celui du Règlement général sur la protection des données (RGPD) de l'Union Européenne, publié en 2018, qui est ensuite devenu la norme en matière de politique de confidentialité et adopté par de nombreux pays, dont les États-Unis. L’actualité récente illustre la volonté de l’UE de demeurer au premier plan en ce qui concerne la régulation en matière d’intelligence artificielle. La stratégie européenne choisie à travers l’AI Act, adopté par le Parlement européen en juin dernier et dont le contenu a été approuvé en trilogue - Commission européenne, Conseil de l’Europe et Parlement européen - ce 8 décembre, vise à atténuer les effets négatifs de l’IA plutôt que d'encadrer étroitement la technologie. Les Américains ont de leur côté publié en octobre dernier un Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence

Parce que les effets de l’IA ne sont pas uniformes selon les secteurs et sont évolutifs dans le temps, une régulation selon l'application, l'usage et les risques inhérents se justifie. On dénombre quatre niveaux de risque pour définir les systèmes d’intelligence artificielle dans le règlement européen : des "risques inacceptables" qui conduisent à des pratiques interdites de l’IA ; des "risques élevés" qui déclenchent un ensemble d’obligations strictes, notamment la réalisation d’une évaluation de la conformité des algorithmes ; des "risques limités" avec des obligations de transparence associées ; des "risques minimes", dans lesquels les parties prenantes (notamment les entreprises développant les algorithmes) sont encouragées à élaborer des codes de conduite, qu’ils soient établis dans l’UE ou dans un pays tiers. Cette approche par risque devra pouvoir ensuite être transposée au secteur de la santé.

D’après un récent papier de recherche, des chercheurs ont montré qu’aux États-Unis, à peine 4 % des projets de loi en cours sur l’IA concernent spécifiquement la santé alors qu’une quinzaine d’entités sont déjà impliquées dans la régulation de l’IA en santé. L’UE a fait de l’IA en santé une de ses priorités et rappelle dans l’AI Act que tout système d’IA pouvant altérer la santé des personnes ou l’accès aux soins des personnes devra être considéré comme à haut risque et se soumettre à des règles strictes. Le texte évoque notamment "les IA destinés à être utilisées pour prendre des décisions (...) relatives à l’éligibilité des personnes physiques à l’assurance-maladie" ou encore les "systèmes d’IA utilisés pour hiérarchiser les appels d’urgence émis par des personnes physiques ou pour établir des priorités dans l’envoi des services d’intervention d’urgence" qui devront être classés comme étant à haut risque, car prenant des décisions dans des situations très critiques relatives à la santé voire la survie des personnes. 

Intelligence artificielle en santé : l’innovation sous surveillance

Les systèmes d’IA en santé doivent déjà se soumettre à un certain nombre de règles de conformité au sein de l’UE. En effet, le règlement européen sur les dispositifs médicaux a pour objectif d’encadrer certaines applications de l’IA en santé, notamment à visée diagnostique ou thérapeutique en vue de l’obtention du "marquage CE" (Conformité Européenne). Selon ce règlement, un logiciel d’IA peut être classé comme dispositif médical s'il traite des données relatives à la santé des patients et s’il peut être utilisé à des fins médicales spécifiques. Un des défis à venir en matière de régulation sera de parvenir à établir des règles évolutives dans le temps, selon le risque et le rôle joué par l’IA dans la prise d’une décision médicale. À ce jour, le marquage CE n’indique que la conformité avec les règles du moment, déclarée par le fabricant, mais il ne tient pas compte par exemple de l’absence de discrimination ou de biais algorithmiques.

Consolider la confiance : protéger les patients et lutter contre les biais algorithmiques 

Le Healthcare Data Institute a réalisé en novembre dernier un sondage qui montre que seulement 44 % des Français estiment voir précisément ce que l’IA peut apporter au secteur de la santé. Une enquête menée en février 2023 par le Pew Research Center a révélé que seulement 38 % des Américains pensent que l'intelligence artificielle dans les domaines de la médecine va améliorer les résultats ("outcomes") de santé. Les Américains apparaissent peu rassurés à l’idée que l’IA soit utilisée dans leur propre parcours de soins : 60 % déclarent qu’ils se sentiraient mal à l’aise si leur prestataire de soins s’appuyait sur l’intelligence artificielle pour diagnostiquer une maladie et recommander des traitements. Cette méfiance peut s’expliquer par l'existence de biais algorithmique et de l’aspect "boîte noire" de l’intelligence artificielle. Dans un article publié dans le Journal of Global Health, les auteurs définissent le biais algorithmique comme l'application d'un algorithme qui aggrave les inégalités existantes en matière de statut socio-économique, de race, d'origine ethnique, de religion, de sexe, de handicap ou d’orientation sexuelle, et amplifie de ce fait les inégalités déjà présentes dans les systèmes de santé.

Ce phénomène s’illustre notamment à travers le fonctionnement de certains dispositifs médicaux, qui seraient moins précis en fonction de la couleur de peau d'une personne. En effet, selon plusieurs études, les oxymètres de pouls (dispositif qui indique la saturation en oxygène dans le sang et le pouls) seraient moins précis lorsqu’ils sont utilisés par des personnes de couleur. Cela peut s'expliquer par le fait que l'appareil repose sur la transmission de la lumière à travers la peau pour détecter la couleur du sang, qui varie en fonction du niveau d'oxygène. La quantité de pigments dans la peau peut altérer le comportement de la lumière, entraînant des résultats inexacts. Cette inexactitude peut avoir des conséquences graves pour la santé des patients si le niveau d’oxygène est systématiquement surestimé chez certaines personnes, aggravant ainsi les disparités existantes en matière de soins aux États-Unis.

Pour construire la confiance dans les algorithmes en santé, il est crucial de répondre aux interrogations des patients.

Pour construire la confiance dans les algorithmes en santé, il est crucial de répondre aux interrogations des patients : l’IA utilisée pour faire un diagnostic a-t-elle été testée sur des patients me ressemblant ? Et sera-t-elle donc en capacité de prendre une décision sûre et adaptée me concernant ? Les pouvoirs publics et autorités de régulation doivent dès à présent réfléchir à comment imposer aux concepteurs d’IA d’élargir les données démographiques des sujets testés, afin de s'assurer des résultats les plus fiables possibles pour tous les patients. 

En ce sens, le ministère de la santé et des services sociaux américain (Department of Health and Human Services) s’est engagé à mettre en place un programme de sécurité et de surveillance chargé d’analyser les préjudices ou les pratiques dangereuses déclarés en matière de soins impliquant l'IA, afin de garantir la sécurité des patients. Une telle initiative pourrait aussi se mettre en place en Europe, sur le modèle des dispositifs de pharmacovigilance. 

Construire une gouvernance innovante de l’IA en santé capable d’associer l’ensemble des parties prenantes 

La gouvernance et la régulation de l’IA sont des enjeux complexes tant les algorithmes évoluent rapidement et constamment. Comment réguler une technologie sans l’empêcher de réaliser des progrès médicaux majeurs ? Comment construire des algorithmes pertinents sans exacerber des inégalités déjà existantes dans nos sociétés ? Ces questions restent en suspens et il n’existe pas encore de réponses tranchées. Quoi qu'il en soit, il est nécessaire à la fois d’anticiper ces bouleversements majeurs et de s’assurer d’une gouvernance éthique et ouverte pour tirer profit de l’IA dans tous les domaines.

Dans une note de 2019, l’Institut Montaigne insistait déjà sur l’importance de consolider une stratégie ambitieuse de formation, d’adaptation des ressources humaines en santé et de transformation des métiers pour tirer profit de l’IA en santé. Les métiers en santé vont être bouleversés mais l’IA va aussi ouvrir la voie à de nouveaux besoins, notamment les professionnels qui seront capables à la fois de comprendre les algorithmes, de les améliorer et de les expliquer tant aux patients qu’aux professionnels de santé. Cette fonction pédagogique sera clé pour une meilleure compréhension, une meilleure utilisation et une meilleure acceptation par la société dans son ensemble. L’accès à ces formations doit devenir systématique pour tous les soignants en formation et en exercice.

De même, ces formations devront attirer des profils divers, capables de rendre compte de la diversité dans la définition et l’utilisation des algorithmes. Il est impératif de former une main d'œuvre capable d'utiliser mais aussi de questionner ce nouvel outil, et d’être force de proposition sur les enjeux de régulation. À l’image des réunions de concertation pluridisciplinaire (RCP), qui regroupent des professionnels de santé de différentes disciplines, des réunions pluridisciplinaires relatives à l’usage de l’IA dans les soins et incluant des professionnels de santé, des patients, des data analysts, des chercheurs, des régulateurs, etc. pourraient être mises en place au niveau des établissements de soins. Ces espaces de discussion et de concertation pourraient être en interaction très directe avec le secteur privé et les décideurs publics aux niveaux national et européen, afin de participer à une régulation plus juste et plus adaptée de l’IA en santé. 

Création d’un GIEC de l’IA, Office européen de l’IA, Organe consultatif de sur l'intelligence artificielle aux Nations Unies... Quelle qu'en soit la forme et quels que soient les pays impliqués, la gouvernance et la régulation de l’IA devront tenir compte de l’ensemble des parties prenantes concernées, du concepteur à l’utilisateur, selon les secteurs et les objectifs recherchés par l’usage de l’IA. 

Quelle qu'en soit la forme et quels que soient les pays impliqués, la gouvernance et la régulation de l’IA devront tenir compte de l’ensemble des parties prenantes.

Le défi pour les décideurs publics sera de construire des outils de régulation pertinents tout en évitant d’atteindre ce que des chercheurs américains ont nommé le "sommet de l’hystérie" (Height of hysteria), idée selon laquelle toutes les époques ont connu leur phase de panique technologique - de l’avènement de l’imprimerie à nos jours - et qui appelle donc les régulateurs à avoir une approche mesurée et souple en matière de régulation de l’IA. Food for thought… 

Copyright image : JUSTIN TALLIS / POOL / AFP 

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne