Évènements

08 déc
08/12/2023 15:00

Sciences & Société

Soutenance de thèse : Valentine WARGNIER

Interprétabilité des réseaux de neurones profonds et segmentation faiblement supervisée des lésions cérébrales sur IRM

Doctorante : Valentine WARGNIER

Laboratoire INSA : CREATIS

Ecole doctorale : ED205 : Interdisciplinaire Sciences Santé

L’imagerie médicale est un outil fondamental pour diagnostiquer les maladies, suivre leur évolution mais aussi comprendre leur fonctionnement afin de mieux les soigner. L’imagerie par résonance magnétique est une méthode de choix pour visualiser le cortex cérébral et ses pathologies comme la sclérose en plaques, une maladie auto-immune inflammatoire et démyélinisante qui est la première cause de handicap non traumatique chez les jeunes adultes, ou encore les gliomes, qui sont les tumeurs primitives cérébrales les plus courantes.
Pour analyser ces images de manière automatique, les méthodes basées sur l’apprentissage profond présentent de très bonnes performances pour différents types de tâches comme la classification ou la segmentation. Ces méthodes automatiques apportent aux cliniciens une pré-analyse très utile dans leurs études ou diagnostics. Cependant, elles nécessitent beaucoup de données pour leur entraînement. Dans le cas des méthodes de segmentation supervisées, les annotations manuelles nécessaires pour chaque image sont très coûteuses. Le développement de méthodes faiblement ou non- supervisées performantes, ne nécessitant pas ou peu d’annotations manuelles, est donc nécessaire. En outre, dans un domaine critique comme celui de la médecine, il est important que les décisions des réseaux soient explicables et s'appuient sur les signes radiologiques de la pathologie présents dans l’image et utilisés par les cliniciens. Or, les réseaux de neurones profonds sont, de par leur grand nombre de paramètres et les interconnexions non linéaires dont ils sont composés, difficiles à expliquer. Proposer des réseaux explicables et interprétables est donc une problématique forte pour l'analyse d’images médicales par apprentissage profond. Dans cette thèse, nous avons abordé ces deux thématiques. En nous focalisant sur une tâche de classification entre des images de sujets sains et des images de patients (notamment atteints de sclérose en plaques ou de gliomes), nous avons montré que la décision des classifieurs de l’état de l’art n’est pas forcément pertinente et en accord avec les aprioris médicaux. Cela peut avoir de lourdes conséquences : pour du diagnostic, l'utilisation de tels classifieurs biaisés n'est pas raisonnable et lorsqu’ils sont utilisés au sein d’autres modèles, comme les modèles génératifs, cela peut faire chuter les performances. Nous avons donc proposé des classifieurs plus interprétables avec une décision davantage basée sur les signes radiologiques de la pathologie considérée. Trois solutions ont été proposées. Tout d’abord, nous avons normalisé l’entrée des réseaux de neurones afin d’éliminer les biais présents dans l’image et qui peuvent être utilisés par les réseaux classiques pour prendre leur décision. Ensuite, nous avons contraint les classifieurs au cours de leur entraînement en utilisant les cartes d’attributions, des méthodes de l’état de l'art permettant d’identifier les zones de l’image d’entrée utilisées par le réseau pour prendre sa décision. Enfin, nous avons utilisé des réseaux intrinsèquement explicables : les réseaux monotones. Nous avons notamment proposé une méthode pour transformer n’importe quelle architecture en réseau monotone alors que les réseaux monotones de l’état de l’art étaient limités à des architectures de très faible profondeur. Avec ces réseaux de classification interprétables ne disposant que du label de l'image à l'entraînement, nous pouvons réaliser une segmentation faiblement supervisée des lésions cérébrales, la décision étant basée sur ces dernières.
 

 

 

 

Informations complémentaires

  • Amphithéâtre AE1, Bâtiment Gustave Ferrié, INSA Lyon (Villeurbanne)