Passer au contenu principal

La commission IA souhaite accompagner les endoscopistes français dans leur choix de solution d’IA en mettant à leur disposition le maximum d’informations. Une analyse des solutions d’IA a été réalisée collectivement par le conseil scientifique et des experts spécifiquement sollicités. L’objectif est d’avoir une analyse indépendante et fiable.

La méthodologie de l’analyse

Les travaux d’évaluation sont conduits selon la méthodologie suivante :

  • Étude bibliographique de l’ensemble des publications portant sur une des solutions IA concernées ou des études portant sur l’intérêt plus transverse de l’usage de l’IA dans cette indication.
  • Envoi d’un questionnaire adapté au type de solution étudiée, à l’ensemble des sociétés ou structures concernées
  • Synthèse de l’ensemble des informations et production d’une analyse globale.
  • Diffusion de l’information sur le site internet d la SFED

L’analyse de l’offre

La SFED propose des analyses très détaillées sur les solutions d’IA actuelles.
La SFED est propriétaire de l’ensemble des analyses présentées ; ces analyses ne peuvent être utilisées sans son accord.

  1. Olympus
  2. Pentax
  3. Fuji
  4. Medtronic
  5. Boston scientifique 
  6. Autres

Grille d’évaluation pour chaque solution d’IA

Analyse scientifique  

La commission a pour objectif de donner une analyse des différentes solutions proposées par les firmes industrielles s’organise autour de plusieurs axes forts :

  1. Mettre en place, à chaque stade de leur développement, un observatoire des logiciels, des outils, des algorithmes, des solutions informatiques et des pratiques en IA pour l’endoscopie. L’évaluation de la qualité et de la pertinence des outils utilisés fait partie intégrante de ses missions.
  2. Produire des recommandations Françaises pour l’analyse des logiciels, des outils et des chartes de bon usage.
  3. Proposer à des industriels le développement d’outils jugés utiles aux endoscopistes.
  4. Promouvoir des actions concrètes permettant la mise en place d’études de recherche et d’enseignement.

Analyse éthique

Les réponses aux questions éthiques que soulèvent l’IA en endoscopie digestive sont organisées autour de 4 axes forts :

  1. Publier son avis sur les questions générales d’éthique posées par les bases de données, les solutions d’IA et les organisations en endoscopie
  2. Établir un lien avec les aspects réglementaires (LIL, RGPD…) avec publication des avis et recommandations pour les soins, l’enseignement et la recherche.
  3. Participer, du point de vue de l’éthique appliquée, à la définition du cahier des charges à retenir pour la solution technologique de portage.
  4. Établir des liens avec le comité national d’éthique afin de partager dans un sens comme dans l’autre les avis et positions autours des datas et solutions d’IA en endoscopie.

Analyse juridique et questions diverses

Quelles sont les responsabilités de l’IA et du gastroentérologue ?

Le déploiement d’une solution d’IA s’opère sous l’égide de l’exercice des responsabilités professionnelles du radiologue. Le sens global du régime juridique applicable à l’IA est celui d’en faire un instrument utilisé sous la responsabilité du professionnel au service de l’amélioration de la qualité de la prise en charge du patient. Des règles particulières s’appliquent, en cas de dysfonctionnement, pour retenir la mise en jeu de la responsabilité du concepteur de la solution d’IA.

En effet, elle implique une présomption réfragable de lien de causalité entre le dommage causé à un demandeur ayant subi un dommage lié à un système d’IA et la faute de l’utilisateur de ce système. Dès lors, si un médecin modifie la destination du système d’IA dans son utilisation ou y apporte une modification substantielle, celui-ci pourra être considéré comme fournisseur et donc répondre des obligations découlant de l’AI Act, mais aussi engager sa responsabilité extracontractuelle dans le cadre de la directive AI Liability.

Dois-je informer les patients qu’une solution d’IA peut être utilisée pour interpréter leurs images ?

Oui. Cette obligation découle de l’article 17 de la loi n°2021-1017 relative à la bioéthique du 2 août 2021, qui implique un devoir d’information de l’utilisation d’un dispositif médical comportant un traitement de données algorithmique sur la base de données massives ainsi que de l’interprétation qui en résulte.

Les patients doivent-ils disposer d’un outil d’opposition à cette utilisation et comment cela doit être organisé le cas échéant ? – Le rapport que produisent les solutions d’IA peut-il être diffusé au patient ?

L’article 17 de la loi de bioéthique ne prévoit pas d’exigence de consentement. Toutefois, lorsque la base du traitement de données par une IA est le consentement au sens du règlement général sur la protection des données.