Intelligence artificielle en santé, la loi de bioéthique

Par David Gruson (Chaire Santé ScPo Paris / fondateur Ethik IA)

L’insertion de l’intelligence artificielle dans le domaine de la santé est aussi révolutionnaire qu’elle suscite de la méfiance et de la prudence. En effet, la crainte est généralement celle d’un recours trop large ou délégation trop importante des décisions prises sur le fondement d’algorithmes intelligents. Ces algorithmes, majoritairement utilisés pour l’aide au diagnostic et au traitement nécessitent de reposer sur des principes éthiques de référence ; parmi eux celui du « garant humain » prédomine. Que dit la loi de bioéthique ?

Préserver la relation médecin – patient

La crainte généralement formulée par les patients est celle d’une « concurrence » de la machine qui viendrait prendre trop d’importance et aurait pour conséquence d’altérer la confiance du patient. Le médecin et le patient ne peuvent être exclus d’un processus diagnostique ou thérapeutique utilisant un algorithme.

Le médecin doit rester décideur

Limiter les risques de délégation des décisions médicales à l’algorithme. Le médecin ne peut pas être un simple exécutant de l’algorithme en appuyant sur le bouton de la solution, sans pouvoir remettre en question les résultats.

La responsabilité médicale, modifiée par la machine intelligente, doit être clarifiée

En cas d’erreur dans le diagnostic médical ou le traitement prescrit après utilisation d’un algorithme, le patient doit pouvoir être indemnisé du préjudice. En l’absence de défaut établi de l’algorithme, la responsabilité du médecin ne peut être engagée seulement en cas de faute de sa part. Le seul fait que le médecin ne suive pas les recommandations d’un algorithme, ne peut être établi comme une faute.

Le principe de la garantie humaine du numérique en santé.

Garantir une supervision humaine de l’utilisation du numérique en santé, avec obligation de rendre possible pour toute personne le souhaitant, un contact humain capable de lui transmettre les informations le concernant sur son parcours de soins. La mise en œuvre de la garantie humaine de l’intelligence artificielle devrait « préserver la maîtrise finale du professionnel de santé, en interaction avec le patient, pour prendre les décisions appropriées en fonction de chaque situation spécifique » et pourrait comporter :

  • Des recommandations de bonnes pratiques
  • Un « collège de garantie humaine » au niveau d’un établissement ou d’un territoire
  • Un nouvel acte de télémédecine dit « de garantie humaine » comme une télé-expertise permettant un second avis médical humain, face à une solution proposée par un algorithme.

 

L’exigence de l’explicabilité de l’algorithme

La décision du médecin de suivre ou non l’algorithme nécessite de comprendre comment et pourquoi la proposition de l’algorithme a été faite.

Les critères pour classer les informations et la logique de fonctionnement de l’algorithme sont retenus pour définir l’explicabilité.

 

L’effectivité du consentement de la personne

Le médecin est tenu d’informer le patient du recours à un algorithme pour la décision médicale

Des recommandations de bonnes pratiques et des outils pour garantir le recueil effectif du consentement de la personne à l’utilisation de ses données de santé sont inscrits dans la loi.

Intelligence artificielle

Selon une proposition de loi constitutionnelle présentée à l’Assemblée nationale le 15 janvier 2020 (http://www.assemblee-nationale.fr/dyn/15/textes/l15b2585_proposition-loi)

« La notion d’intelligence artificielle est entendue comme un algorithme évolutif dans sa structure, apprenant, au regard de sa rédaction initiale.»

Les machines intelligentes renvoient à «tout système qui se compose d’une entité qu’elle soit physique (par exemple un robot) ou virtuelle (par exemple un algorithme) et qui utilise de l’intelligence artificielle.»

Selon le rapport de la CNIL, Comment permettre à l’Homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, décembre 2017. (https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf)

Algorithme : «description d’une suite finie et non ambigüe d’étapes (ou d’instructions) permettant d’obtenir un résultat à partir d’éléments fournis en entrée.»

Apprentissage automatique (machine learning) : « technique permettant de réaliser des tâches hautement plus complexes qu’un algorithme classique. Cette technique implique d’alimenter la machine avec des exemples de la tâche que l’on se propose de lui faire accomplir. L’homme entraine ainsi le système en lui fournissant des données à partir desquelles celui-ci va apprendre et déterminer lui-même les opérations à effectuer pour accomplir la tâche en question. Le comportement de ces algorithmes va donc évoluer dans le temps, en fonction des données qui lui sont fournies.»

  • Aide à la décision diagnostique (Imagerie médicale, analyse anatomopathologique de tissus et cellules)
  • Dermatologie, dépistage des mélanomes à partir de photographies
  • Aide à la prise en charge des cancers du sein (programme européen DESIREE)
  • Médecine de précision, recommandations de traitements personnalisés
  • Chirurgie assistée par ordinateur
  • Robots compagnons (pour personnes âgées ou fragiles)
  • Prévention en population générale (anticipation d’une épidémie, pharmacovigilance)

Rédaction avec la participation de Julia Petrelluzzi, droit et intelligence artificielle, Paris-Saclay