IA pas de gène
L’IA est déjà utilisée quotidiennement dans les machines utilisées par les médecins. Mais certains tirent le signal d’alarme sur le manque d’évaluation de cette intégration, aussi bien sur l’efficacité que la responsabilité légale qui incombe aux professionnels de santé.
Les chercheurs en médecine s’interrogent sur l’introduction rapide de l’IA dans leur pratique, notamment dans les machines qu’ils utilisent au quotidien, sans vraie évaluation par des régulateurs comme la Food & Drugs Administration états-unienne ou l’ANSM (Agence nationale de sécurité du médicament) en France.
Dans une « communication spéciale » publiée dans la revue scientifique médicale JAMA (une des plus vieilles de la discipline), 52 chercheurs et chercheuses en médecine font le tour des enjeux autour de l’introduction de l’intelligence artificielle dans leurs disciplines.
« L’intelligence artificielle (IA) transforme la santé et les soins de santé à une échelle sans précédent. Si les avantages potentiels sont considérables », reconnaissent-ils, ils ajoutent que « les risques le sont tout autant ».
L’IA massivement déployée dans les dispositifs médicaux
« De nombreux outils d’IA sont déjà largement utilisés, en particulier dans les domaines de l’imagerie médicale, de la santé mobile, des opérations commerciales dans le secteur de la santé et des fonctions hybrides telles que la transcription des consultations externes », détaillent-ils. Nous avons déjà abordé son utilisation pour améliorer le triage des patients aux urgences ou pour booster les outils d’imagerie médicale.
« Tous ces outils peuvent avoir des effets importants sur la santé (positifs ou négatifs) », commentent les chercheurs, « mais ces effets ne sont souvent pas quantifiés car les évaluations sont extrêmement difficiles à réaliser ou ne sont pas requises, en partie parce que beaucoup d’entre eux échappent à la surveillance réglementaire de la Food and Drug Administration américaine ». Ils ajoutent que cette évaluation est complexe car « les effets d’un outil dépendent fortement de l’interface homme-machine, de la formation des utilisateurs et du contexte dans lequel l’outil est utilisé ».
Sans évaluation sérieuse, la peur d’être responsable juridiquement
Sans évaluation sérieuse par une instance de régulation, les médecins se posent la question de la responsabilité juridique en cas de problème. « Il y aura certainement des cas où l’on aura l’impression que quelque chose a mal tourné et où les gens chercheront quelqu’un à blâmer », explique au Guardian le chercheur de l’Université de Pittsburgh, Derek Angus, l’un des principaux auteurs du texte publié par JAMA.
L’article explique que dans le cas où un outil n’a pas à être évalué par une instance comme la FDA, le développeur d’un outil « procéderait probablement à des évaluations proportionnées à ses allégations » mais, « il n’évaluerait nécessairement pas les conséquences de son outil sur la santé. Les organismes de prestation de soins de santé peuvent être motivés à mener leurs propres évaluations, mais beaucoup d’entre eux ne disposent pas des fonds ou de l’expertise nécessaires pour mener des évaluations approfondies ». Les chercheurs ajoutent : « Les gouvernements peuvent accorder des subventions pour financer certaines évaluations, mais ce financement est loin d’être exhaustif. Les patients et les communautés sont des parties prenantes qui ne sont pas responsables de l’évaluation, mais dont les points de vue sont essentiels. Cependant, leurs points de vue ne sont pas systématiquement pris en compte ».
Ils ajoutent que « pour les autres interventions en matière de soins de santé, la surveillance réglementaire est un élément important de cette gouvernance, car elle garantit à la société et aux marchés la crédibilité d’une intervention. Cependant, les États-Unis ne disposent pas d’un cadre réglementaire complet et adapté à l’IA dans le domaine de la santé et des soins de santé ». Ajoutons que la FDA est une agence américaine, mais elle donne aussi le la en matière de régulation de santé dans le monde.
Appel à une vraie régulation
Dans leur article, les chercheurs lui reprochent d’appliquer « une approche fondée sur les risques et spécifique à chaque fonction afin de fournir l’assurance la moins contraignante possible en matière de sécurité et d’efficacité ». Ils ajoutent que les lois états-uniennes excluent les logiciels (dont les logiciels avec de l’IA) de la définition des « dispositifs médicaux » si leur fonction est d’apporter un soutien administratif, un soutien général au bien-être, certains types d’aide à la décision clinique ou certaines fonctions de gestion de dossiers médicaux. Ainsi, l’aide au diagnostic via l’IA passe entre les trous du filet de la régulation.
« Pour les cliniciens, l’efficacité signifie généralement une amélioration des résultats en matière de santé, mais rien ne garantit que l’autorité réglementaire exigera des preuves [à cet égard] », explique encore Derek Angus au Guardian. « Une fois commercialisés, les outils d’IA peuvent être déployés de manière imprévisible dans différents contextes cliniques, auprès de différents types de patients, par des utilisateurs ayant des niveaux de compétences variés. Il n’y a pratiquement aucune garantie que ce qui semble être une bonne idée dans le dossier de pré-autorisation corresponde réellement à ce que l’on obtient dans la pratique ».
Ces chercheurs appellent à une vraie régulation : « les outils d’IA utilisés dans le domaine de la santé et des soins de santé devraient être soumis à une structure de gouvernance qui protège les individus et garantit que ces outils réalisent bien les bénéfices potentiels » affichés.