AFTLM
Association Française des Techniciens de Laboratoire Médical (AFTLM)

Categories

Accueil du site > TechLabo.com > Article : Applications de l’intelligence artificielle en médecine

16 juillet 2020

Article : Applications de l’intelligence artificielle en médecine

Applications de l’intelligence artificielle en médecine

Christophe Desterke, PhD

L’intelligence artificielle, englobant l’utilisation les algorithmes d’apprentissage machine mais également ceux d’apprentissage profond a permis d’améliorer ces dernières années l’efficacité de diagnostic en médecine.

L’apprentissage automatique des machines a été initié durant la seconde guerre mondiale par Alan Turing avec sa célèbre machine « Enigma » qui a permis de comprendre le système de cryptage des sous-marins allemands. L’essor de machines pensantes ou qui simulent un être pensant est limité par l’étape fastidieuse qui est de lui transférer une masse colossale de données qui leur permettront d’estimer les connaissances sur le monde environnant. Au cours des années 50, l’intelligence artificielle s’est développée avec les travaux sur les sciences cognitives des mathématiciens John Mc Carty et Marvin Minsky. Ces derniers avaient pour objectif de simuler par ordinateur les facultés cognitives des humains et des primates.

L’intelligence artificielle a permis de développer des appareils mathématiques évolués se basant sur des modèles biologiques et sociaux comme l’évolution des espèces, l’auto-organisation des insectes en sociétés, la plasticité synaptique avec l’évolution des connections entre les neurones du cerveau et la maturation des idées dans la société.

Les algorithmes d’intelligence artificielle peuvent faire également intervenir la notion de machines auto-reproductives, une propriété qui est employée pour la propagation du mal par les virus informatiques de type « malwares » mais aussi par les machines « AlphaGO » ayant eu la victoire mondiale au jeu de Go. Ces dernières s’auto-reproduisent par le fait qu’elles tirent parti d’un apprentissage sur leurs versions antérieures. Actuellement, il est difficile de construire des intelligences artificielles généralistes c’est-à-dire ayant la capacité de prédire des réponses pour lesquelles elles n’ont pas été programmées à répondre. La science actuelle est plus à même de proposer des intelligences artificielles dites restreintes c’est-à-dire des algorithmes faisant intervenir des données particulières afin de proposer une réponse adaptée à ces données. Parallèlement, des machines de calcul de plus en plus puissantes sont développées afin d’entrainer ces modèles d’intelligence artificielle sur des données de plus en plus larges et d’atteindre des prédictions de plus en plus pertinentes.

En effet, depuis les années 70, la capacité des microprocesseurs croit de plus en plus en raison des progrès techniques faisant intervenir la miniaturisation des transistors. Mais la miniaturisation à ces limites qui seront atteintes prochainement avec la limite de taille de la molécule du silicium qui est employée comme semi-conducteur dans ces équipements. Ce modèle est appelé la loi de Moore qui va donc être confrontée prochainement au mur du silicium. C’est pour cette raison, que l’informatique quantique est développée afin de palier à cette limite de calcul qui sera atteinte dans un avenir proche. En septembre 2019, Google a communiqué avoir atteint la suprématie quantique avec l’ordinateur quantique nommé Sycamore. Ce calculateur quantique est capable de calculer 1.5 milliard de fois plus rapidement que le plus gros ordinateur classique actuel nommé Summit. En effet, la vérification d’une suite aléatoire a été réalisée par Sycamore en 200 secondes alors que Summit serait capable d’effectuer ce même calcul en 10 000 années. Le palier technologique de l’informatique quantique risque d’accroitre considérablement les capacités de l’intelligence artificielle si l’importance des données suit cet accroissement.

D’autre part, la taille et la complexité des données ne sont pas le reflet de l’intelligence de la machine, celle-ci n’est pas limitée par ces facteurs. La puissance d’un algorithme d’intelligence artificielle est plus dépendante de la représentation de la connaissance et de la modélisation du raisonnement comme nous l’avons vu précédemment par les approches cognitives. En médecine, maintenant le patient est connecté et donc la source de donnée pour un patient est très hétérogène. Elle se répartie en différents secteurs principaux comme, les données cliniques provenant des services cliniques, des laboratoires et du secteur de l’imagerie médicale, les données Omics qui font appel à des expériences biologiques à haut débit d’information pour explorer en globalité le métabolisme, l’expression des gènes, l’ADN d’un tissu de patient, les données connectées via les objets connectés Internet of Things (IoT). Ces dernières comprennent des sensors collectant des données temporelles pour différents paramètres biologiques (taux de glucose, activité, sommeil, etc.), les données de la qualité de vie des patients provenant des soins palliatifs, du contrôle de la douleur.

Les données sont le fondement de la prédiction en intelligence artificielle. Celle-ci peut faire intervenir des données de type structuré ou bien des données de type non structuré. Des données structurées en médecine peuvent être des matrices de nombres issues d’expériences à haut débit comme par exemple dans des études de transcriptome pour explorer l’expression des gènes dans un tissu. Des données non structurées en médecine peuvent être des images comme c’est le cas en imagerie médicale ou en anatomo-pathologie. Les algorithmes d’intelligence artificielle permettent de structurer les données images en transformant les pixels numériques en matrices quantitatives cubiques, sorte de tableaux à trois dimensions.

L’intelligence artificielle peut également intégrer des données basées sur le langage comme c’est le cas avec l’exploitation des comptes rendus médicaux. Ces algorithmes font intervenir le « Natural Language Processing » (NLP) afin d’intégrer les mots faisant référence à une langue (français, anglais, etc.) avec un rassemblement des mots par famille, mais aussi en tenant compte de leurs positions relatives dans le texte.

D’autre part, il existe des prédictions par intelligence artificielle dites supervisées ou non supervisées. La plus commune est l’analyse supervisée c’est-à-dire dans ce cas précis, on connait initialement la réponse à atteindre et l’algorithme entraîne les données en intégrant cette information à atteindre. L’efficacité de l’intelligence artificielle est alors évaluée en comparant les groupes connus avec les groupes prédits par l’algorithme. Dans l’analyse non supervisée, l’intelligence artificielle est entraînée sur les données sans connaître la réponse à atteindre. Cette dernière est plus difficile à mettre en œuvre et permet d’identifier de nouveaux groupes de patients.

L’intelligence artificielle fait intervenir deux grandes classes mathématiques pour constituer la base des algorithmes. Il y a des algorithmes basés sur les méthodes d’identification de classes : algorithmes de classification et des algorithmes basés sur le modèle mathématique linéaire. Pour citer un exemple d’algorithme de classification utilisé en médecine : les arbres de décision ont permis de classer avec des paramètres cellulaires quantitatifs à l’issue d’un examen microscopique les cellules normales et les cellules cancéreuses d’un prélèvement de tissu (Wolfe et al. 2004). Cet algorithme a permis de déterminer l’ordre de priorité des paramètres cellulaires permettant au mieux de discriminer ces deux groupes de cellules avec une grande efficacité. Ceci a pu être confirmé par régression linéaire entre les paramètres sélectionnés par l’arbre décisionnel. L’efficacité d’une intelligence artificielle est évaluée en déterminant l’aire sous la courbe d’une courbe ROC pour « Receiver operating characteristic ».

Il existe des solutions gratuites de langages de programmation pour mettre en œuvre une intelligence artificielle. Les plus répandues sont le langage R (aussi solution plus ancienne) mais aussi plus récemment le langage python. La librairie Caret dans R est intéressante pour mettre en œuvre l’optimisation du modèle, les algorithmes de forêts d’arbres sont implémentés dans la librairie RandomForest, et les méthodes de pénalisation basées sur le modèle linéaire sont implémentées dans la libraire Glmnet. Mais le langage python dans sa version 3 est le langage privilégié pour mettre en œuvre une intelligence artificielle et plus particulièrement faisant intervenir un apprentissage profond. Ces algorithmes basés sur le modèle de la transmission d’information entre les couches de neurones dans le cerveau s’avèrent particulièrement efficaces pour la prédiction médicale faisant intervenir des données de type image. C’est le cas des algorithmes faisant intervenir des réseaux de neurones convolutifs via l’extraction de fragments de propriétés de structures qui sont transmis dans les sous couches de neurones afin de reconstitués des images de réponse en sortie de réseau. Tout comme une image est reconstituée dans notre cerveau grâce à la rétine de notre œil. Ceci a été un succès pour la détection de mélanome et carcinome sur des photos de la peau prises par un téléphone portable. Dans cette étude l’emploi des réseaux de neurones de type convolutifs a permis de distinguer les lésions malignes des lésions bénignes et de façon plus efficace que la décision prise par 22 pathologistes. Ce travail a pu être validé par la prédiction des groupes pathologiques par analyse non supervisée (Esteva et al. 2017).

Ces réseaux de neurones convolutifs employés en apprentissage profond a également des succès d’application dans le domaine du traitement des images radiologiques. Comme c’est le cas par exemple dans l’étude des images de mammographie pour la détection de tumeurs mammaires (Ribli et al. 2018).

L’essor de l’intelligence artificielle en médecine dans un avenir proche pourra aider le personnel médical à prendre des décisions pour la prise en charge des patients.

Références

Esteva, Andre, Brett Kuprel, Roberto A. Novoa, Justin Ko, Susan M. Swetter, Helen M. Blau, et Sebastian Thrun. 2017. « Dermatologist-Level Classification of Skin Cancer with Deep Neural Networks ». Nature 542 (7639) : 115‑18. https://doi.org/10.1038/nature21056.

Ribli, Dezső, Anna Horváth, Zsuzsa Unger, Péter Pollner, et István Csabai. 2018. « Detecting and Classifying Lesions in Mammograms with Deep Learning ». Scientific Reports 8 (1) : 4165. https://doi.org/10.1038/s41598-018-....

Wolfe, Pamela, James Murphy, John McGinley, Zongjian Zhu, Weiqin Jiang, E. Brigitte Gottschall, et Henry J. Thompson. 2004. « Using Nuclear Morphometry to Discriminate the Tumorigenic Potential of Cells : A Comparison of Statistical Methods ». Cancer Epidemiology, Biomarkers & Prevention : A Publication of the American Association for Cancer Research, Cosponsored by the American Society of Preventive Oncology 13 (6) : 976‑88.