Dispositifs médicaux intelligents et innovants et intelligence artificielle

L’Intelligence Artificielle (IA), signifie qu’un système est capable d’imiter les compétences cognitives du cerveau humain. Elle a sa place dans l’avenir des soins en santé et pourrait accélérer considérablement les progrès dans le domaine médical. L’utilisation d’IA pourrait permettre  une détection précoce des maladies et une meilleure prévention des épidémies, des diagnostics plus précis et personnalisés, une meilleure pharmacovigilance et des systèmes de chirurgie assistée par ordinateur plus performants. L’Intelligence Artificielle soulève cependant beaucoup de questions d’un point de vue réglementaire. En effet, un dispositif médical conventionnel peut être validé par des méthodes éprouvées car leurs technologies peuvent s’expliquer par des équations et peuvent produire des résultats prévisibles. En revanche, pour l’Intelligence Artificielle, la prédictibilité des résultats est plus difficile à prouver. Une Intelligence Artificielle peut échouer parce que les données n’étaient pas représentatives ou appropriées pour la tâche à laquelle elles étaient appliquées. Comme les entrées et les opérations des algorithmes de décision basés sur l’apprentissage machine ou deep learning ne sont parfois pas claires pour l’utilisateur, ou tout du moins, ne sont pas totalement explicable de manière systématique, une Intelligence Artificielle peut être qualifiée de « boîte noire ». Il est plus  difficile de contrôler et d’évaluer les risques et de mettre en place un système de gestion de la qualité d’un dispositif médical utilisant une IA. Dans cet article, nous abordons l’utilisation de l’intelligence artificielle dans les technologies de l’information pour la santé. Nous présentons un état actuel de l’art des dispositifs médicaux intégrant des algorithmes d’Intelligence Artificielle dans de multiples domaines médicaux : l’ophtalmologie, la radiologie, la diabétologie et la cardiologie, nous analysons et comparons les réglementations et normes américaines (FDA) et européennes ainsi que la surveillance et l’assurance qualité après la mise sur le marché de tels dispositifs. 

Mots clés : Intelligence Artificielle, Dispositif médical intelligent, Normes, Réglementation, Dispositif médical validé par la FDA, Dispositif médical marqué CE.

 

Dans l’article suivant, des étudiants ingénieurs en Technologies de l’Information pour la Santé de Polytech Grenoble ont expliqué dans le détail l’intelligence artificielle dans les dispositifs médicaux intelligents et innovants afin d’apporter des éléments de réponses pertinents à la problématique : Marquage CE et approbation FDA et Maîtrise des risques et management de la qualité en face de la Deep Learning et l’algorithme « boîte noire » dans les dispositifs médicaux.

Les étudiants ingénieurs en année 5 de Technologies de l’Information pour la Santé,
option Dispositifs Médicaux Intelligents et Innovants,
Polytech Grenoble – Promotion 2021

Auteurs

ALANBAGI Bashaer, BARTHELEMY Cloé, BEGEY Marion, BOU-DIAB Tamer, BRAYE Clotilde, EKENTOK Havva, FEUGNET Margaux, LEFEBVRE Lénaïg, MAKHLOUFI Yanis, PRUNIAUX Marine, QUEFFELEC Miig-Vona, ROBICHON Camille et TBATOU Myriam.

Encadrés par Emmanuel PROMAYON, enseignant-chercheur.

Abstract

The term Artificial intelligence (AI) does not depict the fact that a machine has a cognitive and mental capacity, but rather that it is capable of imitating the human brain cognitive skill. It has its place in the future of healthcare and will greatly accelerate progress in the medical field. Using AI may result in early detection of diseases and better prevention of epidemics, more accurate and personalized diagnostics, better pharmacovigilance and computer-assisted surgery systems. Artificial intelligence still raises questions from a regulatory point of view. A conventional medical device can be validated because the technology can be explained through equations or predictable outputs. The Predictable outputs are harder to prove when it comes to machine learning. Artificial Intelligence may fail because the training data was not representative or appropriate for the task to which it was applied. As the inputs and operations of machine or deep learning based decision algorithms are sometimes not clear to the user or another actor or not totally explainable in a systematic way, an AI can be qualified as a « black box ». This complexifies the control and assessment of its risks as well as its quality management system. In this article, we discuss Artificial Intelligence in healthcare information technology. We present the current state of the art of medical devices with artificial intelligence algorithms in multiple medical fields: Ophthalmology, Radiology, Endocrinology, Cardiology. We then review and compare the american (FDA) and european regulations and standards and finally present the post-market surveillance and quality assurance in the context of AI based medical devices. 

KeyWords: Artificial Intelligence, Smart Medical Device, Regulations, Standards, FDA approved medical Device, CE approved medical Device. 

1. Introduction et contexte

Récemment, un changement positif s’est opéré dans le monde de la santé dans le but d’accélérer la transition numérique du système de santé français. Un montant d’environ quatre cents millions d’euros a en effet été débloqué dans le cadre d’un financement public de recherche en l’intelligence artificielle en santé. L’intelligence artificielle, contrairement à ce qui peut être compris en premier lieu, ne signifie pas qu’une machine a une capacité cognitive et mentale, mais plutôt qu’elle est capable d’imiter les mécanismes du cerveau humain. Elle a sa place dans la médecine du futur et suscite l’espoir d’accélérer grandement les progrès dans le domaine. Elle pourrait ainsi jouer un rôle dans la détection précoce des maladies et une meilleure prévention des épidémies, des diagnostics plus précis et personnalisés, une meilleure pharmacovigilance et des systèmes de chirurgie assistée par ordinateurs plus performants. En 2019, près de 200 start-up françaises étaient spécialisées dans les dispositifs médicaux basés sur l’intelligence artificielle [36]. L’intelligence artificielle voit désormais son taux de croissance s’élever à 50 % et la France est classée en quatrième position mondiale dans la production d’articles scientifiques sur l’intelligence artificielle.

Les systèmes d’intelligence artificielle intégrés dans des dispositifs médicaux sont pour la plupart basés sur du machine learning, un sous-ensemble du vaste domaine de l’intelligence artificielle (cf. figure 1). Il s’agit d’un système d’apprentissage autonome capable de reproduire un comportement voulu grâce à des algorithmes d’apprentissage. Ceux-ci sont alimentés par de grandes quantités de données et cela permet ainsi à l’algorithme de pouvoir prendre une décision, même dans les cas les plus complexes [2].

Le deep learning est quant à lui un sous-ensemble du machine learning, développé à partir des connaissances que l’humain avait sur les neurones (cf. figure 1). C’est un système d’apprentissage en profondeur, qui va davantage miser sur la précision. À l’image des réseaux neuronaux humains, le deep learning se base aussi sur des couches successives de neurones qui, combinées entre elles, permettent d’apprendre des concepts plus ou moins abstraits selon le nombre de couches.  Ces modèles d’intelligence artificielle trouvent actuellement leur place en santé notamment grâce à l’émergence du Big Data et de la puissance de calcul désormais disponible à moindre coût.

L’intelligence artificielle et ses différentes branches

Figure 1 – L’intelligence artificielle et ses différentes branches (figure issue de [34])

Toutefois, un dispositif médical intégrant ou non de l’intelligence artificielle doit répondre à un certain nombre d’exigences en termes de sécurité et de performances, qui sont décrites dans les diverses normes et réglementations appliquées aux dispositifs médicaux et aux logiciels qui leurs sont associés. La norme IEC 62304 est spécifiquement destinée aux logiciels de dispositifs médicaux [37]. Elle permet de classer le logiciel selon trois classes en fonction de son niveau de criticité et exige la mise en place d’un cycle de vie du logiciel (gestion des risques, développement, maintenance, configuration et résolution de problèmes liés au logiciel). Cette norme est conforme à la réglementation européenne 2017/745 [38]. Les exigences essentielles qui y sont décrites doivent obligatoirement être respectées par le fabricant pour que son dispositif puisse obtenir le marquage CE et ainsi être mis sur le marché européen. 

L’intelligence artificielle pose de nombreuses questions d’un point de vue réglementaire. En effet, un dispositif médical classique peut être validé par des méthodes éprouvées car ses technologies peuvent s’expliquer au travers des équations utilisées dans les différents traitements et produisent des sorties prévisibles. En revanche pour l’intelligence artificielle, les résultats ne sont pas produits par une succession de traitements aux équations connues. Une fois la phase d’apprentissage automatique effectuée, l’intelligence artificielle peut être considérée comme une “boîte noire”. L’intelligence artificielle peut échouer parce que les données n’étaient pas représentatives, ne convenaient pas à la tâche à laquelle elles étaient appliquées ou présentaient une trop grande différence avec celles utilisées dans la phase d’apprentissage. Il existe d’autres sources de biais telles que des biais de population, de fréquence et d’instrumentation [9]. Dans ces cas-là, les Hommes n’auront plus confiance en ce système d’intelligence artificielle. Dans ces cas-là, la confiance accordée aux systèmes d’intelligence artificielle peut être singulièrement réduite. La fiabilité est ainsi difficile à démontrer. Cette interrogation vient du fait que les entrées et les opérations des algorithmes de décision basés sur du machine/deep learning ne sont parfois pas directement visibles ou déductibles. Cet effet “boîte noire” rend difficile la maîtrise des risques et la mise en place d’un système de management de la qualité [8].

2. Etat des lieux

Entre janvier 2010 et mars 2020, 64 dispositifs médicaux et algorithmes basés sur de l’intelligence artificielle ou du machine learning ont été approuvés par la Food and Drug Administration (FDA) [6]. Parmi ces dispositifs, 30 (47%) ont une application en radiologie, 16 (25%) en cardiologie et 10 (16%) en médecine interne et générale. Sur ces 64 dispositifs médicaux, seuls 29 ont été considérés par la FDA comme technologies utilisant de l’intelligence artificielle, avec une majorité d’applications cliniques en radiologie (72%) et en cardiologie (14%). Les autres spécialités médicales concernées sont la médecine interne, l’endocrinologie, la neurologie, l’ophtalmologie et la médecine d’urgence (14%) (cf. figure 2). Pour les autres dispositifs médicaux dont l’utilisation de l’intelligence artificielle n’a pas été confirmée par la FDA (mais décrite par d’autres sources), la cardiologie est la spécialité la plus représentée, suivie de la neurologie et de la psychologie [6].

Répartition des spécialités médicales représentées par les dispositifs médicaux avec intelligence artificielle certifiés par la FDA entre 2010 et 2020 Figure 2 : Répartition des spécialités médicales représentées par les dispositifs médicaux avec intelligence artificielle certifiés par la FDA entre 2010 et 2020 (figure issue de [6])

En radiologie, l’intelligence artificielle permet par exemple d’établir des diagnostics en soins aigus, de détecter des lésions sur des scanners, d’analyser des images cérébrales (détection d’AVC et d’hémorragies), des mammographies, ou encore d’améliorer le traitement d’images. En cardiologie, elle permet de déceler des anomalies du rythme cardiaque ou des souffles cardiaques. En neurologie, elle peut être utilisée pour le diagnostic des troubles du sommeil ou pour la surveillance des crises d’épilepsie.

Ci-dessous vont être listés des systèmes représentatifs de dispositifs médicaux innovants et intelligents basés sur l’intelligence artificielle approuvés par la FDA et représentant les différents secteurs de la santé.

2.1. IDx-DR de la société Digital Diagnostics

Premier dispositif médical utilisant l’intelligence artificielle validé par la FDA pour établir un diagnostic autonome à la place d’un ophtalmologue. Il permet de suivre les patients en optimisant le temps passé par l’ophtalmologue au diagnostic et contrer ainsi le manque d’ophtalmologue.

La rétinopathie diabétique est une complication grave du diabète qui peut se manifester chez 50% des patients diabétiques de type 2 [31]. Elle est caractérisée par des lésions de la rétine de l’œil. L’excès de sucre dans le sang fragilise la paroi des vaisseaux, ce qui peut causer leur rupture et leur éclatement. Cela bloque alors l’oxygénation sur des zones de la rétine et produit des nouveaux vaisseaux plus sensibilisés. Ce phénomène s’étend dans les zones de l’œil jusqu’à produire une baisse de la vision qui, sous traitement, peut être réversible. Cette pathologie est traitée avec la collaboration de plusieurs spécialistes tels que les ophtalmologues, diabétologues et médecins généralistes [32]. L’ophtalmologue diagnostique cette maladie grâce à un examen de fond de l’œil. Mais en France “près de 40 % des patients diabétiques n’ont pas eu de contact avec un ophtalmologiste depuis plus de 2 ans, alors que le rythme de dépistage recommandé par la Haute Autorité de Santé (HAS) est de tous les ans pour la majorité des patients, tous les deux ans pour ceux qui présentent un risque oculaire moindre.” [33]. De plus, le coût des traitements aux États-Unis est élevé. Un dispositif médical (IDx-DR), utilisant les algorithmes basés sur de l’intelligence artificielle pour analyser les images enregistrées pendant un examen avec une caméra rétinale (Topcon NW400), a été mis sur le marché en 2018. Les images de la rétine sont chargées sur un serveur sécurisé sur lequel l’IDx-DR est installé, et le médecin peut recevoir deux résultats possibles de l’analyse, positif ou négatif (cf. figure 3) :

        • Rétinopathie diabétique détectée : consulter un ophtalmologiste.
        • Négatif pour une rétinopathie diabétique ou rétinopathie diabétique faible : nouveau dépistage dans 12 mois.

Figure 3 : Schéma de fonctionnement du dispositif pour la rétinopathie IDx-DR Figure 3 : Schéma de fonctionnement du dispositif pour la rétinopathie IDx-DR (figure issue de [29])

La performance du logiciel a été testé sur 900 participants, sur 10 sites différents, et le dispositif IDx-DR a obtenu les résultats suivants, publié sur le site de FDA [29]

        • Sensitivité* : 87%
        • Spécificité* : 90 %
        • Imageabilité* : 96 %
        • Value positive prédite* : 73 %
        • Valeur Négative Prédite* : 96 %

(cf. Définitions)

En 2018, ces résultats ont permis à la FDA de valider et autoriser la commercialisation du dispositif IDx-Dr et le marquer comme premier dispositif médical utilisant l’intelligence artificielle pour détecter les niveaux de trouble oculaire lié à la rétinopathie diabétique [28]

2.2. Icobrain de la société Icometrix

Logiciel marqué CE, Icobrain permet de faire gagner du temps au radiologue en annotant automatiquement les images du cerveau. 

Il s’agit d’un logiciel basé sur une intelligence artificielle certifié par la FDA en octobre 2018 et qui a également obtenu une autorisation de mise sur le marché au Canada, au Brésil, au Japon et en Australie. Ce dispositif aide les radiologues et les neurologues dans le diagnostic et le suivi des patients atteints de troubles neurologiques tels que la démence, la sclérose en plaques ou la maladie d’Alzheimer. À partir de scanners ou d’IRM cérébraux, il extrait automatiquement les informations cliniquement significatives et remplace ainsi les processus manuels d’identification, de marquage et de quantification volumétrique des structures cérébrales. Basée sur des techniques de machine learning et de deep learning, sa technologie a été validée par des tests de performance. Concrètement, les anomalies détectées par le logiciel sur une base de données de scanners ont été comparées à celles annotées manuellement par un clinicien sur ces mêmes données. Après plusieurs tests réalisés pour évaluer la reproductibilité du système, il a été démontré que les résultats du logiciel étaient fiables à 90% [45].

2.3. Guardian Connect de la société Medtronic

Ce système, marqué CE, permet un meilleur suivi continu des patients atteints de diabète ainsi que la prédiction le taux de glucose du sang sur le court terme.

Le Guardian Connect de Medtronic est un système de surveillance du glucose en continu pour les personnes atteintes de diabète et ayant besoin d’injections d’insulines régulières. Grâce à sa technologie fonctionnant avec une intelligence artificielle basée sur du machine learning, le système peut prédire l’évolution du taux de glucose chez un individu et même prédire jusqu’à 60 minutes avant qu’une hypoglycémie ou une hyperglycémie ne survienne. Les valeurs de glucose sont évaluées toutes les cinq minutes. Celles-ci peuvent être visibles sur un téléphone mobile. L’application mobile permet donc d’avoir un historique des valeurs de la glycémie du patient mais aussi de faire un suivi et une saisie des repas, des activités sportives et doses d’insulines à injecter. L’application est couplée à un capteur et à un transmetteur. Le capteur peut être porté pendant 7 jours avant de devoir être renouvelé. Le transmetteur peut quant à lui être gardé pendant un an, ce qui est un progrès par rapport à la plupart des autres systèmes. Le système est également associé à un logiciel de gestion du traitement. Le personnel de santé peut, par son intermédiaire, adapter le traitement du patient après visualisation des données. Des alertes peuvent aussi être programmées. Le système a obtenu le marquage CE en 2016 [35]. 

2.4. Caption Guidance de la société Caption Health

Ce système permet d’assister le radiologue dans l’acquisition et l’interprétation des échographies cardiaques, un examen d’une grande complexité. L’intelligence artificielle facilite ainsi sa réalisation par des non experts.

Les maladies cardiovasculaires ont été responsables de 17,9 millions de morts en 2016 dans le monde selon l’Organisation Mondiale de la Santé. Ces maladies cardiaques sont aujourd’hui la première cause de mortalité dans le monde. Pour les détecter de façon précoce, un diagnostic peut être fait grâce à un examen d’échographie cardiaque afin de calculer la fraction d’éjection, la mesure principale dans le domaine cardiaque. C’est dans ce contexte que la société Caption Health a développé un logiciel basé sur de l’intelligence artificielle et ayant pour objectif d’aider les professionnels de santé dans l’acquisition et le traitement automatique des images échographiques [20]. En effet, la réalisation et l’analyse d’une échographie cardiaque nécessitent une expertise spécifique, réduisant ainsi la proportion de professionnels capables de les pratiquer. Il faut notamment des connaissances spécifiques sur l’utilisation de la sonde à ultrasons, avec des positions à respecter et une manipulation précise à effectuer. Pour faciliter l’utilisation de cette sonde, le logiciel permet de fournir des conseils tout au long de l’opération à l’utilisateur (cf. figure 4) [21].

Figure 4 : Interface d’aide à l’utilisation de la sonde à ultrasons (figure issue de [21])

Toutefois, savoir réaliser une échographie cardiaque ne suffit pas. Il est essentiel de comprendre et reconnaître ce que l’on cherche. Pour réaliser une bonne interprétation, avoir une image de bonne qualité est crucial. L’intelligence artificielle permet d’indiquer au clinicien lorsqu’il est proche de l’acquisition d’une bonne image, grâce à une jauge (cf. figure 5 à droite). Pour acquérir des images interprétables, un seuil minimum de qualité est fixé. Lorsque ce seuil est atteint, le logiciel va enregistrer automatiquement l’image [21].

Figure 5 : Interface d’aide à l’acquisition d’images de bonne qualité (figure issue de [21])

L’examen se termine par l’analyse et le traitement des informations acquises. Habituellement, on considère qu’il faut plusieurs années d’études et de pratique de cet examen avant de pouvoir l’interpréter correctement. Le Logiciel est également capable d’assister le radiologue dans cette interprétation. Trois vues cardiaques sont nécessaires à l’intelligence artificielle : la coupe parasternale grand axe, la coupe apicale 4 cavités et la coupe apicale 2 cavités. Ces informations permettent le calcul automatique de la fraction d’éjection.

Ce logiciel a obtenu la désignation «Breakthrough device» en 2018 par la FDA. Cette dernière est attribuée aux produits ayant pour but de traiter ou diagnostiquer de façon plus efficace «une maladie potentiellement mortelle ou irréversiblement débilitante» [20]. Ce dispositif est le premier dans son domaine et est donc fortement innovant. Ce procédé pouvant avoir de lourdes conséquences en cas d’erreur de diagnostic, de nombreux tests ont été réalisés tels que des tests de performances. L’essai clinique a été effectué sur 240 patients avec des infirmières non formées pour les échographies. Une fois ces tests validés, le logiciel a pu être commercialisé en février 2020, date à laquelle la FDA a autorisé sa mise sur le marché. 

2.5. OsteoDetect de la société Imagen Technologies

Ce système permet de faire gagner du temps au radiologue en fournissant un diagnostic immédiat de la présence ou absence d’une fracture.

La fracture du radius distal est l’une des fractures les plus communes du poignet. Du fait que cette fracture soit commune, l’utilisation de l’intelligence artificielle pour détecter ce type de fracture permet au médecin de gagner du temps et ainsi, de pouvoir mieux prendre en charge le patient. L’entreprise Imagen Technologies a développé un logiciel permettant de détecter, sur des images radiographiques, des signes de fracture du radius distal grâce à l’intelligence artificielle. Ce logiciel indique la localisation de la fracture sur l’image afin d’aider le médecin dans la détection de la fracture et ainsi son diagnostic. Si le logiciel n’a pas détecté de fracture alors il affiche la phrase  “Distal Radius Fracture: NOT DETECTED”. À l’inverse, si une fracture a été détectée alors le message affiché est “Distal Radius Fracture: DETECTED” (cf. figure 6).

Figure 6 : Interface correspondant au résultat du logiciel après analyse [39]

Ce logiciel analyse les poignets des patients grâce à du machine learning en identifiant et en mettant en avant les régions du radius distal pendant les différents examens radiologiques. Ce dernier a été conçu pour être utilisé par des cliniciens dans différents services comme par exemple aux urgences ou encore pour les premiers soins. Ce système n’a pas été imaginé et développé pour remplacer le clinicien ni son jugement. Une détection plus précoce d’une fracture du radius distal permet de réduire le risque d’une douleur retardée et d’arthrite post-traumatique. Il permet d’apporter l’expertise des radiologues musculosquelettiques et des orthopédistes spécialisés en chirurgie de la main et du poignet à n’importe quel professionnel de santé concerné par ce sujet [39].

2.6. Arterys MICA de la société Arterys

Ce système, intégré dans le système d’information des radiologues,permet une analyse plus rapide des images radiologiques afin de quantifier la présence ou l’évolution d’une pathologie.

La société Arterys [44] a mis au point une plateforme web basée sur une intelligence artificielle . Elle permet d’analyser l’imagerie médicale en vue d’apporter une aide aux médecins dans leur diagnostic. L’analyse des données fournit des informations pertinentes aux professionnels de santé leur permettant par la suite de les interpréter pour aboutir à un résultat plus précis. De plus, la solution propose un cloud où il est possible de stocker et de partager les données. Ce système est évolutif. En effet, plus il y a des données enregistrées, plus les résultats seront pertinents et précis.

Cette plateforme propose un panel de solutions basées sur l’intelligence artificielle pour la cardiologie ou l’oncologie. L’intelligence artificielle permet d’apporter les interprétations à l’aide d’algorithmes entraînés à l’analyse d’image. 

En cardiologie, les images cardiovasculaires obtenues par l’IRM (Imagerie par Résonance Magnétique) sont utilisées pour analyser le cœur et ses principaux vaisseaux. Ainsi, ces analyses permettent aux médecins de visualiser et de quantifier le flux sanguin.

En oncologie, la plateforme assure le suivi des nodules pulmonaires et des lésions hépatiques par mesure linéaire et volumétrique mais aussi par l’automatisation de la segmentation des images (la délimitation de zones spécifiques de l’image correspondant à un nodule ou une lésion). Elle permet également de déterminer leur caractère cancérigène (s’agit-il d’un tissu cancéreux ou non). Ainsi, cette solution permet une reconnaissance rapide des cancers.

Les solutions proposées par Arterys sont directement intégrées aux Picture Archiving and Communication System (PACS), Système d’Information de Radiologie (SIR) et Dossiers de Santé Électroniques (DSE) des services ou centres de radiologie. De plus, les données collectées dans le cloud sont sécurisées et respectent la confidentialité des données patients via un système d’anonymisation. Arterys a reçu la certification CE ainsi que l’approbation de la FDA en 2016 et ses solutions sont conformes au Règlement Général sur la Protection des Données (RGPD).

 

Ces exemples de dispositifs médicaux utilisant l’intelligence artificielle montrent comment cette technologie permet de répondre aux enjeux de la médecine actuelle. En effet, implanter de l’intelligence artificielle dans des dispositifs médicaux permet d’étendre une expertise sans spécialiste, comme le logiciel OsteoDetect, ou encore d’apporter une aide au diagnostic, comme la plateforme Arterys MICA. Par ailleurs, ces exemples mettent en avant la diversité d’applications de l’intelligence artificielle dans de multiples secteurs médicaux.

3. Réglementation des dispositifs médicaux intégrant de l’intelligence artificielle

Suite à ces quelques exemples de dispositifs existants, nous allons à présent aborder la législation autour des dispositifs médicaux utilisant l’intelligence artificielle. Elle sera observée sous deux angles : la réglementation européenne et la réglementation américaine.

3.1. Algorithmes verrouillés (“locked AI algorithm”) ou algorithmes adaptatifs

Les systèmes d’intelligence artificielle de type machine learning basent leurs décisions sur les données issues de bases d’apprentissage. Il faut donc utiliser un grand volume de données pour garantir la véracité des décisions. Les dispositifs médicaux qui utilisent ce type d’algorithmes nécessitent souvent une adaptation pour contrer l’usure ou le changement d’environnement. Dans certains cas, il est souhaitable qu’il y ait des modifications en fonction du patient ou de la pathologie, dans d’autre cas, il est au contraire dangereux de changer la base d’apprentissage lorsque le système a été validé. En effet, pour des dispositifs pouvant affecter directement l’état de santé du patient, toute modification des données d’apprentissage pourrait induire une modification du résultat et ainsi causer des dégâts majeurs pour le patient ou affecter l’efficacité du système. C’est donc pour cette raison que l’on oppose le “locked AI algorithms” (IA à algorithmes verrouillés) aux algorithmes adaptatifs :  dans le premier cas, le système ne peut plus être modifié une fois la phase d’apprentissage est terminée, alors que dans le deuxième cas des nouvelles données viennent compléter l’apprentissage tout au long de la vie du système. 

Pour valider un système basé sur l’intelligence artificielle, il est nécessaire d’effectuer une évaluation de la performance via des méthodes de tests suffisamment sûres pour assurer la véracité et la qualité des résultats. Dans le cas des où le système est verrouillé, cela rejoint ce qui se fait dans le domaine des dispositifs médicaux classiques, même si certaines particularités doivent être prise en compte. Cependant, en cas de système adaptatif, il est nécessaire d’effectuer, et à chaque modification, de nouveaux tests ainsi qu’une revue de pré-mise sur le marché dans le but d’assurer le bon fonctionnement et la sécurité d’utilisation de l’outil dans le cadre médical.

3.2. Composantes principales d’un dossier de dispositif médical intégrant de l’intelligence artificielle en France

La nature « boîte noire” des systèmes d’intelligence artificielle complexifie la réglementation et la certification des dispositifs médicaux intégrant cette technologie (cf. section 3.6). En vue de clarifier, dans la limite du possible, le fonctionnement des dispositifs médicaux basés sur l’intelligence artificielle et afin de cerner leurs principales caractéristiques, il faut rassembler certaines informations et éléments essentiels. L’ANSM (Agence Nationale de Sécurité du Médicament et des produits de santé) propose une grille spécifiques pour ces dispositifs et demande de fournir les éléments suivants [25]:

        • La classification : il faut préciser la classe réglementaire (I, IIa, IIb ou III) selon le règlement 2017/745, afin de déterminer la procédure de marquage CE applicable au dispositif médical, ainsi que la classe de sécurité du logiciel (A, B ou C) selon la norme 62304, en vue de préciser les activités et le niveau de détail à atteindre lors de la spécification et la vérification de l’intelligence artificielle. 
        • La finalité d’usage : il faut renseigner la fonctionnalité à laquelle le système d’intelligence artificielle a contribué ainsi que la finalité des informations fournies par le système d’intelligence artificielle, si elles vont être utilisées pour des fins diagnostiques, préventives, prédictives, etc.. Il faudra également décrire l’environnement de fonctionnement du dispositif médical ainsi que les caractéristiques de la population visée pour l’utilisation de ce dispositif médical, par exemple des caractéristiques démographiques (âge, sexe, etc.), cliniques ou biologiques (stade de la maladie, etc).
        • La description des données : il faut décrire les échantillons utilisés pour l’apprentissage initial ou le réapprentissage du modèle, en précisant par exemple les caractéristiques de la population initiale et de chaque échantillon utilisé, ainsi que les modalités de séparation de ces échantillons. Enfin, il faut expliquer les données d’entrées impliquées dans l’apprentissage initial ou le réapprentissage du modèle, en indiquant par exemple le mode d’acquisition des variables et leurs origines pendant l’apprentissage, en décrivant les prétraitements appliqués aux données et les procédures mobilisées pour détecter les données aberrantes. Il est aussi nécessaire de préciser les méthodes utilisées pour justifier et vérifier la représentativité des échantillons de l’apprentissage. Dès que le dispositif médical est déployé, il faut aussi procéder à une description des données d’entrée spécifiques impliquées à chaque décision.
        • La description du modèle : avant et après le déploiement du dispositif médical, il faut décrire le modèle utilisé lors de la phase d’entraînement, de la validation et du test. Pour ce faire, il faut, parmi d’autres exigences, détailler le type d’apprentissage utilisé, le type de tâches automatisées par le système, la fréquence de mise à jour de l’apprentissage, les stratégies d’entraînement/de validation et de tests.
        • Les caractéristiques fonctionnelles : il faut évaluer la performance et la qualification de l’algorithme, en décrivant par exemple les métriques utilisées pour les mesures de performance, les résultats de ces mesures sur les jeux de données, les traitements qui ont pu impacter cette performance, les seuils de performance choisis ainsi que les risques identifiés et les méthodes utilisées pour les combler.

La robustesse du système doit également être évaluée, en précisant par exemple les outils utilisés pour générer des cas limites du dispositif médical évalué, pour mesurer la dégradation du dispositif médical après son déploiement, les seuils choisis pour le suivi de cette dégradation ainsi que les mesures et actions à mettre en place pour y répondre.

La résilience* du dispositif médical est aussi un point important à prendre en compte. L’évaluation de cette caractéristique peut se faire à travers la description des systèmes utilisés pour détecter les anomalies au niveau des données d’entrée, la description des potentiels impacts cliniques et techniques induits par ces anomalies, ainsi que les actions et mesures mises en place pour y remédier. 

L’explicabilité* et l’interprétabilité* de l’algorithme est aussi à évaluer, en indiquant par exemple l’existence de techniques d’explicabilité permettant à l’utilisateur du dispositif médical de comprendre les principaux facteurs qui ont conduit à la décision proposée par l’algorithme, et en précisant les éléments et paramètres d’interprétabilité, qui permettent de comprendre le fonctionnement de l’algorithme.
À noter que l’explicabilité reste l’élément le plus compliqué à démontrer et justifier, puisque les systèmes basés sur  l’IA ne suivent pas des procédures explicites et se basent, pour fonctionner, sur des principes qui n’ont pas de correspondance directe avec un raisonnement humain.

Il est donc possible de se baser sur ces critères lors de la soumission d’un dispositif médical doté d’une intelligence artificielle à un essai clinique ou un marquage CE. Ces critères peuvent être modifiés selon le contexte de la demande et d’autres catégories peuvent être suggérées, en vue d’améliorer la compréhension et l’évaluation des systèmes d’intelligence artificielle. Notamment, il est nécessaire de prendre en compte d’autres aspects, bien que similaires mais de procédures différentes, pour la réglementation américaine.

3.3. Directives relatives à la FDA

Sur le marché américain, les dispositifs médicaux, dont ceux incorporant de l’intelligence artificielle, doivent se soumettre à une procédure d’évaluation [10] :

        • Le Pre-market Approval (PMA) uniquement pour les dispositifs de classe III, impliquant des investigations cliniques et une visite sur le site du fabricant.
        • La procédure 510(k), applicable pour tous les dispositifs médicaux pour lesquels un PMA n’est pas requise. Elle s’effectue avant la commercialisation et est soumise à la FDA. Le fabricant doit prouver que son dispositif est « substantiellement équivalent”, c’est-à-dire que ses caractéristiques sont au moins équivalentes à celle d’un dispositif légalement commercialisé auparavant. Ceci concerne l’utilisation prévue, la conception, les performances, les matériaux, la biocompatibilité, l’énergie utilisée ou fournie, la sécurité, l’efficacité, l’étiquetage, les normes et autres caractéristiques applicables au dispositif. [23]

En complément de l’obtention de la notification 510(k), le fabricant doit également se conformer à des exigences sur le système qualité (21 CFR part 820), pouvant faire l’objet d’une inspection.

À l’inverse des algorithmes d’intelligence artificielle dits “verrouillés” (locked artificial intelligence algorithm, cf. section 3.1), les algorithmes adaptatifs ont la capacité de mettre à jour leurs algorithmes durant leur mise sur le marché. Les données collectées sont intégrées à leur base d’apprentissage et ceci entraîne des modifications entre la réponse fournie par le logiciel à son lancement, et la réponse après des mois ou des années de fonctionnement. Ceci pose alors un certain questionnement sur la procédure à appliquer à ce type de système. En effet, selon la FDA, un fabricant utilisant un algorithme d’intelligence artificielle et souhaitant le mettre à jour doit le faire examiner selon la procédure 510(k). Ce qui, dans le cas des algorithmes adaptatifs, réduirait leur potentiel et impliquerait de nombreuses procédures réglementaires tout au long de la vie du logiciel.

La FDA considère certains logiciels comme des dispositifs médicaux à part entière. On parle de SaMD (acronyme anglais de Software as Medical Device). Les dispositifs médicaux basés sur l’intelligence artificielle sont des SaMD. Afin de gérer les SaMD utilisant des algorithmes adaptatifs de manière simplifiée, la FDA propose un « plan de contrôle des changements prédéterminés » que devra soumettre le fabricant lors de la première revue 510(k) de l’algorithme. Ce plan contient deux documents :

        • Les pré-spécifications (SPS, acronyme anglais de Software as a medical device Pre-Specifications.
        • Le protocole de changements d’algorithme (ACP – Algorithm Change Protocol) [11, 12].

Le fabricant indique dans le SPS ce que l’algorithme “doit” devenir au fur et à mesure qu’il est modifié. Ce document permet de fournir une anticipation des modifications pouvant être amenées à l’algorithme, assurant le maintien ou l’amélioration de ses performances, et pouvant inclure un potentiel changement d’utilisation de l’algorithme (par exemple passer d’une constatation précoce de symptômes à une aide au diagnostic). Ainsi, avec ces informations, une “région de changements potentiels” va pouvoir être définie [11]. Les types de pré-spécifications attendues peuvent être [12] :

        • Le réapprentissage pour l’amélioration des performances.
        • Un nouveau système d’acquisition de données.
        • Un changement lié à l’utilisation prévue.

L’ACP décrit les méthodes permettant de mettre en œuvre les changements spécifiés dans le SPS et d’en maîtriser les risques pour que le logiciel reste sûr et efficace d’utilisation. Pour cela, un ACP se constitue des éléments suivants [12] :

        • Une gestion de données.
        • Un réapprentissage.
        • Une évaluation des performances.
        • Des mises à jour des procédures.

Avec la combinaison de ces deux documents, la FDA espère maîtriser les modifications potentielles des systèmes d’intelligence artificielle. Ceci est néanmoins limité à des changements prédits n’impliquant pas une augmentation du risque lié à l’algorithme (un logiciel visant à améliorer la prise en charge des cicatrices par exemple, ne sera pas au même niveau que celui visant à détecter des mélanomes).

Selon les changements apportés à l’algorithme et leur cohérence avec les SPS et ACP préalablement écrits lors de la première demande de validation, la rédaction d’une documentation sur les dites modifications d’algorithme ainsi qu’une analyse de risques, ou bien une nouvelle revue 510(k) peut être nécessaire. Des modifications des anciens SPS et ACP peuvent également être réalisées afin de concorder avec l’évolution du produit (cf. figure 7).

Figure 7 : Approche à suivre pour les SaMD préalablement approuvés avec des SPS et ACP (figure issue de [11])

En plus de ces dispositions spécifiques, les SaMD doivent aussi répondre à des exigences plus générales s’appliquant aux algorithmes basés sur l’intelligence artificielle. Certaines intelligences artificielles exploitant des données sensibles, il est essentiel d’assurer la sécurité de ces données afin de se conformer aux droits fondamentaux. Ceci passe par la minimisation du risque en [17] :

        • Stockant ces données dans une base et bloquant les accès non autorisés d’individus tiers.
        • Se conformant aux lois nationales et internationales sur la protection de la vie privée ainsi que les normes de cybersécurité.
        • Réalisant des tests de vulnérabilité.

Ces données sont également soumises à une réglementation qui leur est propre, et qui sera décrite ultérieurement.

Afin de satisfaire ces exigences, notamment en termes de qualité et de sécurité, la FDA recommande, pour les SaMD basés sur l’intelligence artificielle, l’approche Total Product Lifecycle (TPLC) qui permet d’évaluer et surveiller le produit logiciel durant sa phase de développement et après sa mise sur le marché (cf. Figure 8).

Figure 8 : Approche TPLC pour l’élaboration d’algorithmes d’intelligence artificielle recommandé par la FDA (figure issue de [11])

Cette approche est basée sur ces 4 principes généraux [11] :

        1. Good Machine Learning Practices (GMLP ou Bonnes Pratiques en Machine Learning, qui traitent notamment de data management, extraction de composantes, entraînement et évaluation clinique du SaMD) décrites ultérieurement (cf. section 3.5).
        2. Procédure 510(k) de pré-mise sur le marché attestant de la sécurité et efficacité du dispositif, ainsi que ce qui est attendu de lui.
        3. Management des risques, surveillance du dispositif pour le développement, la validation et l’exécution des changements d’algorithmes.
        4. Transparence auprès des utilisateurs et de la FDA à l’aide de plans de surveillance après la mise sur le marché (rapports périodiques et indicateurs de performance).

Le respect de ces différentes exigences permettra le bon déroulement de la procédure de commercialisation de son dispositif sur le marché américain. Il existe néanmoins d’autres aspects à prendre en compte, notamment sur la façon dont sont régulées les données à l’origine de l’algorithme.

3.4. Réglementation des données

Les données d’apprentissage fournies au logiciel étant d’une importance capitale dans les algorithmes d’intelligence artificielle, il est essentiel de prendre en compte la législation autour de celles-ci, notamment en France.

Les données personnelles ne sont pas la propriété du patient, ni celle de l’organisme qui les collecte. Les français peuvent disposer de leurs données mais non les vendre. D’autre part, le traitement de ces données est conditionné au consentement éclairé de la personne concernée. En France, les données de santé sont anonymisées pour être accessibles aux chercheurs, mais uniquement sur des projets autorisés. En effet, l’Hébergement des Données de Santé (HDS) doit être réalisé dans des conditions de sécurité adaptées à leur criticité et réalisé par un hébergeur certifié et agréé [41].

Une plateforme regroupant toutes les données de santé de la population serait une ressource inestimable pour les praticiens, la recherche médicale ou encore pharmaceutique. L’utilisation de ces données doit être réalisée dans le respect des lois, en particulier du RGPD entré en vigueur en mai 2018 qui encadre le traitement des données de manière égalitaire sur tout le territoire de l’Union Européenne. Le RGPD s’adresse à toute structure privée ou publique effectuant de la collecte et/ou du traitement de données, et ce, quel que soit son secteur d’activité et sa taille. [42] Les règles de protection des données personnelles sont mises à l’épreuve face au développement de l’intelligence artificielle. Le RGPD et la Loi Informatique et Libertés interdisent la prise de décision par la seule machine. Avec la grande quantité de données nécessaire à l’intelligence artificielle, comment exploiter celles-ci tout en maintenant l’impératif de protéger les libertés individuelles ? Les GMLP (Good Machine Learning Practices) peuvent alors fournir une première piste pour répondre à cette problématique. 

3.5. Les bonnes pratiques en Machine Learning

Diverses activités professionnelles sont soumises à l’application de règles de bonnes pratiques. Celles-ci sont spécifiques d’un secteur à un autre et ont pour rôle de mettre en place un système de maîtrise et de surveillance de la qualité. Ces exigences sont souvent imposées à toutes les étapes du développement d’un produit pour garantir un niveau de sécurité et de traçabilité. Les bonnes pratiques permettent également d’évaluer les risques liés au produit développé mais aussi aux pratiques utilisées pour le mener à bien. 

Dans le secteur de l’intelligence artificielle et plus particulièrement du machine learning, il existe les bonnes pratiques d’apprentissage automatique (acronyme anglais GMLP). Ces exigences spécifiques s’apparentent aux bonnes pratiques de génie logiciel et se basent sur des concepts de système qualité, de fiabilité logicielle, de gestion des données, d’apprentissage automatique ou encore d’analyse et évaluation des données (cf. haut de la figure 8) [12]. Elles sont recommandées par la FDA dans la conception, le développement, l’apprentissage et les tests d’algorithmes basés sur du Machine Learning pour faciliter leur développement et l’évaluation de leur qualité.  

 

3.6. Surveillance post-market des algorithmes en France

Une fois le dispositif médical marqué CE et commercialisé, le fabricant est dans l’obligation d’instaurer une matériovigilance dont l’objectif est de surveiller les incidents et les risques d’incidents liés à l’utilisation du dispositif [18]. Sous la responsabilité de l’Agence Nationale de Sécurité du Médicament et des produits de santé (ANSM), cette phase comporte le signalement et l’enregistrement d’un incident puis l’évaluation et l’exploitation des informations signalées. Grâce à ces retours utilisateur, le fabricant est contraint de mettre en place des actions préventives et/ou correctives appropriées de sorte qu’un incident ne se produise pas ou ne se reproduise plus. La matériovigilance est alors essentielle puisqu’elle permet de réaliser un rétrocontrôle et une régulation du marché des dispositifs médicaux de sorte à éliminer tout équipement potentiellement dangereux ou inefficace.

En raison de leur nature adaptative et du manque de compréhension de leur fonctionnement d’apprentissage et de prise de décision (cf. section 3.2), les algorithmes d’intelligence artificielle basés sur du machine learning intégrés dans les dispositifs médicaux posent de réels problèmes dans cette phase de matériovigilance [9].

En effet, cette surveillance post-market reposant sur la surveillance et la résolution d’incidents de sécurité ou d’efficacité, il est complexe de déterminer rapidement les causes de ceux-ci dans de tels algorithmes. Pour pallier cette difficulté, les fabricants peuvent alors intégrer des mécanismes d’identification des incidents s’ils souhaitent surveiller correctement la performance de leur algorithme et ne pas voir leur dispositif se faire retirer du marché. 

Afin d’éviter ce cas de figure, la justification et l’analyse de la décision prise par ces algorithmes est primordial. Néanmoins, ceci est encore à ce jour un point délicat que nous allons développer dans la partie suivante.

3.7. Garantir la qualité de la décision de l’algorithme

L’utilisation des algorithmes d’intelligence artificielle dans le domaine médical est une réelle révolution et représente un réel atout pour la santé, par exemple en permettant de limiter l’impact du manque de professionnels de santé dans certaines spécialités ou d’expertise dans certaines pathologies. Toutefois qu’en est-il de la question de la responsabilité en cas d’erreur de l’algorithme ? Dans le cadre d’une utilisation médicale, il est possible qu’une simple erreur de décision provoque de graves conséquences pour un ou plusieurs patients. Et dans ce cas-ci, qui est le responsable ? Serait-ce les professionnels de santé ? Se doivent-ils de vérifier chaque résultat ? L’utilité même de ces algorithmes serait donc remise en question : étant donné que l’objectif est d’optimiser le temps des professionnels de santé et non de fournir davantage de travail pour vérifier chacune des décisions. 

La mise à disposition de l’intelligence artificielle comme outil pour la médecine est encore récente et il n’existe pas encore, à l’heure actuelle, de véritables réglementations. Beaucoup s’accordent à dire qu’il faudrait imposer les mêmes normes que pour les dispositifs médicaux, mais comment mettre en place cela au niveau des tests cliniques et pré-cliniques ? Autant de questions qui n’ont pas encore officiellement de réponses. 

Aujourd’hui pour mettre  ces algorithmes sur le marché, les autorités demandent des études cliniques dans lesquelles les médecins procèdent à une vérification des réponses de l’algorithme en soumettant une certaine entrée et en comparant la sortie à leur propre décision. Toutefois, ce genre de vérification a des limites. En effet, comment comparer les décisions de l’algorithme si nous ne disposons pas encore des réponses ? C’est le cas par exemple lorsqu’il s’agit de la prédiction de pathologies plusieurs années à l’avance ou d’un calcul de risques de morbidité. Dès lors, il n’est plus simple de vérifier les règles de décisions de l’algorithme. 

Les moyens pour certifier ces nouveaux dispositifs sont donc encore à définir. Mais pour certains pays, comme les Etats-Unis, une législation plus stricte dans le domaine risquerait de freiner les innovations. 

4. Conclusion

Dans le domaine de la santé, l’intelligence artificielle est en pleine expansion et subit une promotion au niveau national et international. Les dispositifs médicaux associés à des systèmes d’intelligence artificielle ont une place importante dans le secteur médical en facilitant le diagnostic, l’acquisition des données ou encore le traitement des informations. Le développement de ces dispositifs concerne un grand nombre de services de santé tels que la radiologie, la cardiologie et la neurologie (cf. section 2). L’aide apportée par ces dispositifs permet aux professionnels de santé d’augmenter le temps passé avec les patients. Ce dernier est placé au centre du système de santé, ce qui donne lieu à une prise en charge adaptée et personnalisée, et par conséquent plus efficace.

Le développement de ces dispositifs intelligents implique le respect de la réglementation, phase essentielle pour assurer leur sécurité et leur performance (cf. section 3).  L’intelligence artificielle traite de nombreuses données qui doivent être sécurisées. De plus, les prises de décision doivent être garanties. Ces modalités doivent respecter les normes et directives associées dans le cadre de l’obtention du marquage CE autorisant la mise sur le marché et la commercialisation. Ensuite débute la phase de matériovigilance, essentielle pour assurer le bon fonctionnement et les mises à jour des logiciels intégrés, qui en cas d’incidents redondants pourraient avoir un impact considérable.

Ces dispositifs forcent à une réflexion au sein de la FDA et de l’Europe afin de prendre en compte leurs particularités face à la réglementation. C’est dans ce cadre que la FDA a mis en place un plan d’action ayant pour objectif de renforcer la surveillance des logiciels médicaux basés sur l’intelligence artificielle [43].

Le plan d’action suit cinq étapes [43]:

    1. Le développement de la réglementation se poursuit en prenant en compte les changements préétablis
    2. L’amélioration des algorithmes d’apprentissage est assuré par le développement des bonnes pratiques d’apprentissage machine
    3. Le patient a une place centrale en favorisant la transparence
    4. L’évaluation et l’amélioration des méthodes d’apprentissage 
    5. Les performances sont contrôlées dans le monde réel

L’intelligence artificielle est donc en pleine expansion et présente encore de nombreuses possibilités d’amélioration. Cependant, la problématique de garantir la sécurité du patient tout en ouvrant le marché à de nouveaux horizons thérapeutiques est rendue difficile par les principes de construction et de fonctionnement des systèmes basés sur de l’intelligence artificielle .

Définitions

ANSM : Agence Nationale pour la Sécurité du Médicament

Résilience : Capacité du système à maintenir sa conformité à des exigences de performance et/ou de sécurité en présence de données d’entrée extérieures à son domaine d’emploi (p. ex. en raison d’un défaut capteur).

Explicabilité : Capacité de mettre en relation et de rendre compréhensible les éléments pris en compte par l’algorithme, par exemple les variables d’entrée, et leurs conséquences, par exemple, sur la prévision d’un score, et ainsi sur la décision. Les explications doivent être adaptées au niveau de compréhension de la personne auxquelles elles sont destinées.

Interprétabilité : Capacité de rendre compréhensible le fonctionnement d’un système d’intelligence artificielle. Un algorithme est « interprétable » lorsqu’on comprend précisément son fonctionnement, par exemple, lorsqu’un système expert modélise un arbre décisionnel.

Valeur positive prédite : Aussi appelé “Précision”, C’est la probabilité que la condition soit présente lorsque le test est positif dans un test dichotomique.

Valeur négative prédite : C’est la probabilité que la condition ne soit pas présente lorsque le test est négatif dans un test dichotomique.

Sensitivité : Aussi appelé “Rappel”, C’est le taux de vrais positifs, la proportion de positives correctement identifiés.

Spécificité : C’est la mesure de la capacité d’un test à donner un résultat négatif lorsqu’une condition n’est pas vérifiée.

Imagéabilité : C’est la probabilité de détection et analyse des images de faibles qualités.[46]

Bibliographie

(1) What Is Artificial Intelligence? http://jmc.stanford.edu/articles/whatisai/whatisai.pdf  ; McCarthy, J. Stanford University, 12 novembre 2007

(2)     Deep Learning https://www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdf  ;Yann LeCun, Yoshua Bengio & Geoffrey Hinton, Nature, mai 2015

(3)     Deep Learning https://www.deeplearningbook.org/ Ian Goodfellow, Yoshua Bengio & Aaron Courville, MIT Press, 2016

(4)     Deep Learning: A Critical Appraisal https://arxiv.org/abs/1801.00631 ; Gary Marcus, ArXiv, 2 janvier 2018

(5)     Artificial intelligence and medical imaging 2018: French Radiology Community white pape ; https://www.sciencedirect.com/science/article/pii/S2211568418302468 ; SFR-IA Groupe, Diagnostic and Interventional Imaging, 11 novembre 2018

(6)     The state of AI-based FDA-approved MD and algorithms: an online database https://www.nature.com/articles/s41746-020-00324-0 ;Stan Benjamens, Pranavsingh Dhunnoo & Bertalan Meskó, Nature Open Access, 11 sept 2020

(7)     Artificial Intelligence In Eu Medical Device Legislation https://www.cocir.org/fileadmin/Position_Papers_2020/COCIR_Analysis_on_AI_in_medical_Device_Legislation_-_Sept._2020_-_Final_2.pdf ; COCIR, European Coordination Committee of the Radiological, Electromedical and Healthcare IT Industry, 1 septembre 2020

(8)     Artificial Intelligence (AI) and Machine Learning (ML) in Medical Devices https://www.fda.gov/media/142998/download FDA, 22 octobre 2020

(9)     Machine learning AI in medical devices: adapting regulatory frameworks and standards to ensure safety and performance https://pages.bsigroup.com/l/35972/2020-05-06/2dkr8q4?_ga=2.257431113.359832659.1591180883-1753921693.1591180883 BSI Group (une sorte d’AFNOR anglais), 20 avril 2020

(10)  Artificial Intelligence and Machine Learning in Software as a Medical Device https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device ; FDA, dernière mise à jour : 10 mai 2020

(11)  Proposed Regulatory Framework for Modifications AI/ML-Based Software as a Medical Device https://www.fda.gov/media/122535/download FDA, avril 2019

(12)  Proposed Regulatory Framework for Modifications AI/ML-Based Software as a Medical Device (presentation PDF) https://www.fda.gov/media/135713/download Matthew Diamond, FDA, 25 février 2020

(13)  Medtronic, GE, Philips embrace AI amid regulatory limboaround algorithms https://www.medtechdive.com/news/medtronic-ge-philips-embrace-ai-amid-regulatory-uncertainty-around-algori/592443/ MedTechDrive, 21 décembre 2020

(14)  FDA, Philips warn of data bias in AI, machine learning devices https://www.medtechdive.com/news/fda-philips-warn-of-data-bias-in-ai-machine-learning-devices/587734/ MedTechDrive, 26 octobre 2020

(15)  A regulatory perspective of Artificial Intelligence in Medical Devices https://www.qservegroup.com/eu/en/i824/a-regulatory-perspective-of-artificial-intelligence-in-medical-devicesQserve Group, 23 novembre 2020

(16)  Guideline for AI for medical products https://github.com/johner-institut/ai-guideline Johner Institute, dernière version : 21 novembre 2019

(17)  Artificial Intelligence, Epstein Becker & Green https://www.ebglaw.com/artificial-intelligence/

(18) « La matériovigilance ». Caroline Vincent. Chapitre 1 du cours de 5e année « Normes et Réglementation des Dispositifs Médicaux », département Technologies de l’Information pour la Santé, Polytech Grenoble

(19)  New Breakthrough Device Designation Rule Finalized by the FDA, https://paquality.org/new-breakthrough-device-designation-rule-finalized-by-the-fda/ Pennsylvania Association for Healthcare Quality 

(20)  FDA Grants Caption Health Landmark Authorization for First AI-Guided Image Acquisition System https://www.prnewswire.com/news-releases/fda-grants-caption-health-landmark-authorization-for-first-ai-guided-image-acquisition-system-301001106.html Aaron Murphy, 7 février 2020

(21)  AI-Guided Ultrasound System, AI-Guided Ultrasound System | Caption Health , 2020-2021

(22)  FDA approves Caption Health’s AI-guided imaging system Caption Guidance, Caption Health secures FDA approval of Caption Guidance (nsmedicaldevices.com) NS Medical Devices, 10 février 2020

(23)  How to find and effectively use precidate devices, https://www.fda.gov/medical-devices/premarket-notification-510k/how-find-and-effectively-use-predicate-devices FDA, 9 avril 2018

(24)  Obligations en matière de protection des données personnelles, Obligations en matière de protection des données personnelles – professionnels | service-public.fr (service-public.fr) Direction de l’information légale et administrative (Premier ministre) – Ministère chargé de la justice, 3 avril 2019

(25)  Forfait innovation : dépôt de dossier de demande de prise en charge dérogatoire pour un produit innovant, https://www.has-sante.fr/upload/docs/application/pdf/2020-10/fi_guide_de_depot__2020_10_01.pdf  HAS, Octobre 2020

(26)  Quand l’Intelligence Artificielle devient Dispositif Médical, Guillaume Promé, 3 novembre 2017

(27)  Digital Diagnostics Digital Diagnostics, 2020

(28)  FDA permits marketing of artificial intelligence-based device to detect certain diabetes-related eye problems FDA, 11 avril 2018

(29)  DE NOVO CLASSIFICATION REQUEST FOR IDX-DR, https://www.accessdata.fda.gov/cdrh_docs/reviews/DEN180001.pdf FDA, 12 janvier 2018

(30)  Pour la 1ère fois, une intelligence artificielle habilitée à établir un diagnostic à la place d’un médecin, https://www.pourquoidocteur.fr/Articles/Question-d-actu/25265-Aux-Etats-Unis-intelligence-artificielle-autorisee-etablir-diagnostics-medicaux Charlotte Arce, 13 avril 2018

(31)  La rétinopathie diabétique et les maladies des yeux, https://www.federationdesdiabetiques.org/information/complications-diabete/retinopathie#:~:text=La%20r%C3%A9tinopathie%20diab%C3%A9tique%20 Fédération Française des Diabétiques, 2020

(32)  Rétinopathie diabétique : comment le diabète peut rendre aveugle, https://www.sciencesetavenir.fr/sante/ophtalmo/retinopathie-diabetique-definition-symptomes-traitement_102338 Lise Loumé, 11 mai 2015

(33)  Dépistage de la rétinopathie diabétique, https://www.ameli.fr/isere/medecin/exercice-liberal/presciption-prise-charge/soin-depistage-retinopathie-diabetique/soin-depistage-retinopathie-diabetique#:~:text=En%202014%2C%20pr%C3%A8s%20de%2040,eux%20%C3%A0%20risque%20oculaire%20moindre Assurance Maladie, 29 décembre 2020

(34)  Image introduction,

(35)   Medtronic Guardian Connect, système de surveillance du glucose en continu https://www.medtronic.com/ca-fr/diabetes/accueil/produits/systemes-sgc/guardian-connect.html Medtronic, 2019

(36)   BPIFrance, Panorama des startup santé françaises utilisant l’IA Mathilde Nême, 7 juillet 2020

(37)   Norme IEC 62304  https://www.iso.org/obp/ui/#iso:std:iec:62304:ed-1:v1:amd:1:v2:en,fr iso.org, juin 2015

(38)   Règlement européen 2017/745 https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32017R0745 Eur-lex, 5 avril 2017

(39)   Imagen Technologies – OsteoDetect https://www.lify.io/3p-products/osteodetect LIFY

(40)   21 CFR Part 820 – Quality System Regulation https://www.law.cornell.edu/cfr/text/21/part-820 FDA

(41)   Hébergement des données de santé (HDS) Hébergement des données de santé | esante.gouv.fr Agence du numérique en santé, 2018

(42)   Règlement Général sur la protection des données (RGPD) Le règlement général sur la protection des données (RGPD), mode d’emploi | economie.gouv.fr Ministère de l’économie des finances et de la relance, 16 juillet 2019

(43)   L’IA dans les dispositifs médicaux américains L’IA dans les dispositifs médicaux américains (forecasting.ai) G. H., 20 janvier 2021

(44)   Arterys https://arterys.com/

(45)  IcoBrain https://icometrix.com/services/icobrain-ms

(46) Imageabilité https://iovs.arvojournals.org/article.aspx?articleid=2745967

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.