
Sciences & Société
Soutenance de thèse : Pedro DAMAS RESENDE
Analyse in situ multimodale de la plasticité et de l’endommagement dans un superalliage à base de nickel
Doctorant : Pedro DAMAS RESENDE
Laboratoire INSA : MATEIS - Matériaux Ingénierie et Sciences
École doctorale : n°34 ML - Matériaux
L’alliage 718, un superalliage à base de nickel, est largement utilisé dans des environnements extrêmes tels que les moteurs d’avion et les réacteurs nucléaires en raison de son excellente résistance mécanique et à la corrosion. Cependant, dans les conditions typiques des réacteurs (environ 350◦ C, haute pression, milieu oxydant et irradiation), il peut devenir vulnérable à la fissuration par corrosion sous contrainte (SCC), un mécanisme de dégradation favorisé par l’interaction entre les contraintes mécaniques et le milieu chimique. Un phénomène similaire, l’oxydation intergranulaire assistée par contrainte (OIAC), se manifeste à des températures plus élevées (environ 650◦C) et à faibles vitesses de déformation, en atmosphère d’air. Ces deux mécanismes favorisent la propagation des fissures le long des joints de grains via des processus de dégradation assistés par l’oxydation. Cette étude propose l’utilisation combinée de la tomographie par contraste de diffraction (DCT) et de la tomographie par contraste de phase (PCT) pour étudier la SCC et la OIAC dans l’alliage 718. Des essais de traction in-situ, couplés à la corrélation volumique numérique (DVC), ont permis de suivre l’évolution des champs de déformation internes et la formation de fissures à température ambiante et élevée. Pour améliorer la qualité des reconstructions PCT et permettre la cartographie des déformations à l’échelle du grain, une chaîne de traitement des données a été développée, intégrant l’alignement des projections, une normalisation robuste du champ plat, et la suppression des artéfacts en anneau. Les résultats révèlent une localisation précoce des déformations à proximité des joints de grains, l’activité de bandes de glissement, ainsi que la nucléation et la croissance des fissures, en lien avec les caractéristiques microstructurales. Cette approche intégrée constitue un outil essentiel pour de futures études combinant caractérisation expérimentale et simulations numériques. Ces travaux visent à développer un jumeau numérique du matériau, dans le but ultime d’améliorer les capacités prédictives des modèles décrivant l’évolution des endommagements intergranulaires dans ce complexe alliage d’importance industrielle.
Información adicional
-
Visitor Center, ESRF 71 avenue des Martyrs, 38043, Grenoble
Últimos eventos
32e édition du festival Un Doua de Jazz
Desde 01 Hasta 11 Oct
Sciences & Société
Soutenance de thèse : Romain PIRON
Algorithmes quantiques dédiés aux systèmes NOMA
Doctorant : Romain PIRON
Laboratoire INSA : CITI - Centre d'innovation en Télécommunications et Intégration de Services
École doctorale : ED n°160 EEA - Electronique, Electrotechnique, Automatique de Lyon
Le nombre croissant d'appareils connectés dans les réseaux sans fil de cinquième génération (SG) nécessite le développement de nouveaux protocoles d'accès afin de gérer efficacement les ressources limitées disponibles, notamment grâce à l'utilisation de schémas d'accès multiple non orthogonaux (NOMA). Dans ce contexte, des solutions algorithmiques pour la récupération de données sont essentielles pour répondre aux exigences strictes en matière de latence tout en assurant le déploiement d'un nombre massif d'appareils. Alors que les solutions conventionnelles impliquent souvent un compromis entre performance et complexité computationnelle, l'émergence de nouveaux paradigmes de calcul - tels que l'informatique quantique - offre la possibilité de dépasser ces limitations. Cette thèse explore l'application de l'informatique quantique au problème de la détection d'activité dans les réseaux sans fil. Nous commençons par formuler une représentation quantique fidèle du problème, conforme à la fois aux axiomes de la mécanique quantique et aux contraintes technologiques du matériel quantique actuel. Nous apportons également des éclairages physiques sur les systèmes quantiques distribués et illustrons, à travers des simulations numériques, les défis liés à la mise en œuvre de protocoles d'intrication évolutifs entre qubits spatialement séparés. Ensuite, nous adoptons la perspective des réseaux sans fil afin d'optimiser les algorithmes implémentés pour le problème de détection d'activité. À cette fin, des simulations numériques d'annealing quantique sont réalisées. Nous proposons une stratégie de planification générique pour le processus d'annealing et menons une étude afin d'identifier les paramètres les plus critiques pour la convergence des algorithmes quantiques.
Información adicional
-
Amphithéâtre Est, Bâtiment les Humanités, 1 Rue des Humanités, 69100 Villeurbanne, France
Palabras clave
Últimos eventos
32e édition du festival Un Doua de Jazz
Desde 01 Hasta 11 Oct
Sciences & Société
Soutenance de thèse : Hamidou SANKARA
Matériaux écologiques pour une meilleure efficacité énergétique des bâtiments
Doctorant : Hamidou SANKARA
Laboratoire INSA : LAMCOS - Laboratoire de Mécanique des Contacts et des Structures
École doctorale : ED162 MEGA - Mécanique, Énergétique, Génie Civil, Acoustique
Cette thèse examine en détail les recherches sur les matériaux biosourcés, en se concentrant ensuite sur la caractérisation géotechnique et thermo-physique de l'argile de Baudry, choisie pour ses caractéristiques. Celle-ci est associée à des fibres de sorgho en différents pourcentages massiques (de O à 10 %) et mise en forme en briques, séchées à l'air libre sans cuisson. Des essais géotechniques et thermo-physiques ont été effectués en partenariat avec les laboratoires LNBTP et le LPCE au Burkina Faso. Une analyse des caractéristiques thermiques et de la microstructure de la brique en terre renforcée avec des fibres de sorgho a été réalisée. Au laboratoire LaMCoS en France, les microstructures des échantillons ont été analysées à l'aide d'une tomographie par rayons X assistée par ordinateur. Les images tomographiques ont été utilisées pour calculer la quantité de fibres et la porosité des briques. La conductivité thermique des fibres de sorgho et de la matrice en argile de Baudry a été évaluée à l'aide de mesures expérimentales et de modèles théoriques. Les résultats de modélisation, qui permettent de prédire la conductivité thermique effective des composites contenant des fibres, sont comparés. aux résultats expérimentaux. La conclusion principale est que les fibres réduisent la conductivité thermique effective de deux façons : l'ajout de 10 % de fibres de sorgho dans l'argile permet de réduire sa conductivité thermique de 27 % car les fibres contiennent de l'air et diminuent la conductivité du composite, et dans le même temps, la présence de fibres dans le composite augmente la porosité de la matrice argileuse. Le modèle numérique permettant de prédire la conductivité thermique effective du composite fibreux est basée sur la méthode des éléments finis, il utilise le logiciel ABAQUS. Dans ce modèle, les fibres sont orientées de façon aléatoire dans l'espace. La précision des résultats et l'importance du choix du volume élémentaire représentatif (VER) pour le calcul (cubique ou parallélépipédique) sont mis en évidence. Les résultats issus du modèle numérique sont également comparés à ceux expérimentaux de la littérature pour d'autres types de fibres biosourcées. Les données expérimentales et analytiques obtenues pour les milieux fibreux de juncus maritimus (dans la littérature) et nos matériaux composites fibreux à base de fibre de sorgho sont comparées avec les résultats numériques, affichant des déviations relatives de 7 % pour différentes fractions volumiques de fibres.
Información adicional
-
2 du CPU de l'Université Joseph KI-ZERBO, 03 BP 7021, Ouagadougou, Burkina Faso
Últimos eventos
32e édition du festival Un Doua de Jazz
Desde 01 Hasta 11 Oct
Sciences & Société
Soutenance de thèse : Abderaouf GACEM
Techniques d'augmentation de données pour l'apprentissage profond sur les graphes
Doctorant : Abderaouf GACEM
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : n°512 lnfoMaths - Informatique et Mathématiques de Lyon
Les données structurées sous forme de graphes sont omniprésentes dans de nombreux domaines d'application, allant des réseaux sociaux et de la biologie aux systèmes de recommandation et aux graphes de connaissances. La capacité d'appliquer des algorithmes d'apprentissage profond sur les graphes (appelée aussi apprentissage de représentations de graphes ou GRL, pour Graph Representation Learning) est cruciale pour exploiter efficacement l'information encapsulée dans ces structures. Toutefois, cet apprentissage se heurte à des défis majeurs, en particulier en matière de passage à l'échelle et de généralisation. Une piste prometteuse pour répondre à ces problématiques est l'augmentation de données, une stratégie classique en apprentissage automatique, mais encore sous-exploitée dans le contexte des graphes. Ce travail propose une étude rigoureuse et approfondie de l'augmentation de données sur les graphes, en tant que fil conducteur pour concevoir des algorithmes GRL à la fois performants et scalables. Nous analysons comment l'augmentation peut être injectée à différents niveaux du pipeline GRL : depuis les marches aléatoires sur le graphe en entrée, à l'entraînement par mini-batch, jusqu'à l'augmentation dans l'espace latent. Notre démarche s'articule autour de trois contributions principales : 1 - Biaisage structurel des marches aléatoires : Nous revisitons les méthodes basées sur les marches aléatoires, qui constituent un socle fondamental pour l'apprentissage d'embeddings de nœuds. Nous introduisons une stratégie de biaisage innovante exploitant la distance de résistance, une métrique reflétant la structure globale du graphe, pour guider la génération des marches. Le résultat est un meilleur équilibre entre exploration locale et globale, permettant d'obtenir des marches plus informatives tout en conservant la simplicité et l'efficacité des méthodes de premier ordre. 2 - Échantillonnage de mini-batch pour les GNNs : Nous nous intéressons ensuite aux réseaux de neurones pour graphes (ou Graph Neural Networks, GNNs), où l'apprentissage par mini-batch est une méthode essentielle pour assurer la scalabilité. Suite au succès de l'augmentation structurelle dans les marches aléatoires, nous posons la question suivante : peut-on repenser la génération des mini batches sous l'angle de l'augmentation ? Pour cela, nous proposons FireForest, une méthode d'échantillonnage qui produit des mini-batches respectant les propriétés structurelles globales tout en introduisant des variations topologiques. FireForest permet un entraînement efficace des GNNs sans compromettre la qualité des représentations apprises. 3 - Augmentation dans l'espace latent: Enfin, nous nous attaquons aux limites de l'augmentation appliquée directement dans l'espace du graphe d'entrée, souvent trop vaste et complexe à explorer. Inspirés par la capacité humaine à imaginer des variantes plausibles d'une structure perçue, nous concevons un cadre d'augmentation de bout en bout, entièrement apprenable, opérant dans l'espace latent des GNNs. Cette approche permet au modèle de simuler en interne des augmentations de graphes, lui donnant ainsi la capacité d'extrapoler des variantes pertinentes qui favorisent la généralisation. Elle introduit une forme puissante et abstraite d'augmentation. Ces contributions démontrent que l'augmentation de données constitue un levier polyvalent pour améliorer l'apprentissage de représentations de graphes. En intégrant des stratégies d'augmentation à divers niveaux de la chaîne GRL, nous proposons un cadre méthodologique qui renforce à la fois la scalabilité et la capacité de généralisation des modèles d'apprentissage profond sur les graphes.
Información adicional
-
Amphithéâtre 347, Bâtiment Ada Lovelace, INSA-Lyon, 14 Rue de la Physique, 69100 Villeurbanne
Últimos eventos
32e édition du festival Un Doua de Jazz
Desde 01 Hasta 11 Oct
Sciences & Société
Soutenance de thèse : Thomas MIGNOT
De la détection de défauts de surface à l’évaluation automatique de la qualité des pneumatiques : une approche d’inspection par apprentissage profond de bout en bout
Doctorant : Thomas MIGNOT
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : ED512 Infomaths (Informatique et Mathématiques de Lyon)
L’inspection visuelle des défauts d'aspect dans l’industrie pneumatique est un processus historiquement manuel et complexe à automatiser. Cette thèse propose plusieurs contributions méthodologiques basées sur l'apprentissage profond visant à améliorer la détection et la classification des défauts selon leur type et leur niveau de sévérité. D'abord, nous introduisons une approche en deux étapes combinant un réseau de segmentation d'instances de type Mask R-CNN pour segmenter les défauts et une classification indépendante exploitant à la fois les caractéristiques visuelles et géométriques des instances détectées. Cette méthode permet notamment de traiter toutes les zones du pneumatique de manière efficace grâce à une stratégie de spécialisation par zone. Cependant, cette première approche en deux étapes présente certaines limites, notamment en termes de complexité de mise en œuvre dans un contexte industriel. Le deuxième chapitre se concentre donc sur la simplification de cette méthode en fusionnant la prédiction du type de défaut et de son niveau de sévérité en une seule étape, directement intégrée dans le réseau Mask R-CNN. Nous proposons ainsi une adaptation architecturale nommée DML Mask R-CNN (Dependent Multi-Label), conçue pour traiter la problématique de l’annotation multi-étiquette dans le cadre de la détection d’objets et de la segmentation d’instances. Cette nouvelle version permet l’attribution simultanée de plusieurs étiquettes à chaque instance détectée, telles que le type de défaut et son niveau de sévérité. Nous intégrons également un module dédié à l’extraction de propriétés géométriques, dont les sorties alimentent une branche de classification de sévérité, afin de guider cette prédiction à l’aide d’informations non visuelles issues de connaissances a priori du domaine. Après cette étude approfondie des approches de détection et segmentation d’instances, nous explorons également la segmentation sémantique pour évaluer ses performances en comparaison avec les méthodes précédentes. L’approche proposée repose sur une première étape de segmentation sémantique visant à identifier les types de défauts, suivie d’une classification au niveau de l’image basée sur le niveau de sévérité maximal. Cette deuxième étape se base sur la réinjection des sorties du premier réseau dans un modèle de classification d’images. Ce chapitre aborde également la question de l’ambiguïté des annotations, problématique répandue dans le contexte de l’annotation de défauts de surface sur pneumatiques. Pour la traiter, nous avons opté pour une modélisation stochastique des prédictions, qui capture les dépendances entre les différentes classes de défauts au niveau du pixel à l’aide d’une distribution normale multivariée. Enfin, nous présentons une approche basée sur l’apprentissage multi-instance (Multiple Instance Learning), qui permet de passer de prédictions localisées au niveau des défauts à une décision globale concernant l’état final du pneumatique, à savoir s’il doit être réparé ou peut être expédié au client. Cette modélisation permet d’agréger automatiquement les informations issues des différentes instances et zones d’un même pneumatique, sans annotations précises, mais uniquement à partir des verdicts globaux fournis par les opérateurs. Cette approche a l’avantage d’éviter la définition manuelle de règles empiriques complexes par des experts du domaine pour filtrer les détections selon les exigences qualité. Testée dans plusieurs usines en conditions réelles, cette méthode a démontré une réduction notable des faux positifs par rapport aux règles existantes. Elle est actuellement en cours d’industrialisation en vue d’un déploiement à grande échelle sur les différents sites de production. L’ensemble de ces contributions a été validé sur des jeux de données industriels réels et montre une amélioration significative en termes de performance par rapport aux méthodes existantes.
Información adicional
-
Salle 318, Bâtiment le Forum, Michelin, 23 Place des Carmes Dechaux, 63000 Clermont-Ferrand
Palabras clave
Últimos eventos
32e édition du festival Un Doua de Jazz
Desde 01 Hasta 11 Oct
Sciences & Société
Soutenance de thèse : Orégane DESRENTES
Accélération Matérielle d'Arithmétique pour !'Apprentissage Artificiel et le Calcul Scientifique
Doctorante : Orégane DESRENTES
Laboratoire INSA : CITI - Centre d'innovation en Télécommunications et Intégration de Services
École doctorale : ED n°512 lnfoMaths - Informatique et Mathématiques de Lyon
Dans un monde axé sur les données, l'apprentissage artificiel et le calcul scientifique sont devenus de plus en plus importants, justifiant l'utilisation d'accélérateurs matériels dédiés. Cette thèse explore la conception et l'implémentation d'unités arithmétiques pour de tels accélérateurs dans le Massively Parallel Processor Array de Kalray. L'apprentissage artificiel nécessite des multiplications de matrices qui opèrent sur des formats de nombres très petits. Dans ce contexte, cette thèse étudie l'implémentation du produit-scalaire-et-addition en précision mixte pour différents formats de 8 et 16 bits (FP8, INT8, Posit8, FP16, BF16), en utilisant des variantes d'une technique classique de l'état-de-l'art, l'accumulateur long. Elle introduit également des techniques permettant de combiner différents formats d'entrée. Des méthodes radicalement différentes sont étudiées pour passer à l'échelle vers la grande dynamique des formats 32 et 64 bits utilisés en calcul scientifique. Cette thèse étudie également l'évaluation de certaines fonctions élémentaires. Un opérateur pour la fonction exponentielle (cruciale pour le calcul de la fonction softmax) étend une architecture de l'état-de-l'art pour accepter des formats d'entrée multiples. La fonction racine carrée inverse (utilisée pour la normalisation des couches) est accélérée en combinant des techniques d'état-de-l'art pour la réduction de la dynamique, des tables multipartites correctement arrondies et des techniques logicielles de raffinement itératif.
Información adicional
-
Amphithéâtre Ouest, Bâtiment des Humanités, INSA-Lyon, 1 rue des Humanités, 69621 Villeurbanne
Últimos eventos
32e édition du festival Un Doua de Jazz
Desde 01 Hasta 11 Oct
Sciences & Société
Soutenance de thèse : Cloé CHANAL
Étude expérimentale et compréhension des mécanismes d'usure douce d'élastomères renforcés modèles
Doctorante: Cloé CHANAL
Laboratoire INSA : IMP (Ingénierie des Matériaux Polymères)
École doctorale : ED34 : Matériaux de Lyon
La thèse s'inscrit dans le contexte du projet ANR WEEL (mechanisms of abrasion WEar of ELastomers) qui vise à enrichir la compréhension fondamentale des mécanismes d'usure par abrasion des élastomères renforcés. L'objectif est d'identifier des mécanismes physiques et/ou physico chimiques en vue d'une amélioration future de la prédiction de la durabilité de ces matériaux. L'application cible est celle des bandes de roulement des pneumatiques, dont les débris d'usure sont retrouvés en quantité non négligeable dans l'environnement. L'usure des élastomères renforcés a été largement étudiée dans le passé. Toutefois, des approches principalement phénoménologiques ont été privilégiées. De plus, aucun consensus n'a encore été établi concernant la transposabilité des essais d'usure en laboratoire ou l'élaboration d'une loi universelle. Dans cette partie du projet WEEL, essentiellement expérimentale, différentes formulations représentatives des bandes de roulement de pneumatiques de véhicules légers ont été testées. Les matériaux sont composés d'une matrice SBR/BR, renforcés par des nanoparticules ou agrégats (appelés charges) de silice ou de noir de carbone. Ils sont réticulés au soufre et contiennent divers additifs. Plusieurs paramètres ont été analysés, tels que la nature de la matrice (grade de SBR et présence ou non d'huile), les charges (type de charge, surface spécifique et taux de charge), ou encore le taux de soufre. Les matériaux ont été mis en oeuvre, puis caractérisés à l'aide de différentes techniques optiques, physiques et mécaniques. Les tests d'usure ont été réalisés à l'aide du tribomètre LORRY, développé lors d'un précédent projet européen. Les conditions cinématiques appliquées au niveau du contact sont contrôlées avec précision, permettant la simulation des phases de glissement dynamique locales d'un pneu réel dans des conditions d'usure douce (ligne droite, vitesse constante). Une grande longueur glissée est alors accumulée en peu de temps et le taux d'usure, défini comme la perte de masse par énergie de frottement accumulée, est utilisé pour quantifier et comparer l'usure des matériaux. Des analyses post-usure ont été effectuées afin de mieux comprendre les mécanismes impliqués pour les différentes formulations et conditions d'essai. Les faciès d'usure sont caractérisés à différentes échelles d'un point de vue topographique et chimique. La comparaison des matériaux, de leur taux d'usure et leurs modes d'usure a permis de clarifier les phénomènes en jeu et d'identifier les propriétés ayant un impact direct sur l'usure. Il a, par exemple, été montré que l'usure est fortement influencée par les propriétés mécaniques à faible niveau de déformation (notamment le module élastique). Il s'ensuit que le paramètre matériau dont l'impact est prédominant est la fraction de charge. Il semble qu'un seuil de renfort existe en deçà duquel une accélération importante de l'usure est observée. À iso-propriétés mécaniques à faible déformation, l'usure semble principalement gouvernée par les propriétés mécaniques à grande déformation, telle que l'énergie à la rupture. Une relation empirique a ainsi été proposée afin d'estimer l'usure d'un matériau en fonction de son module à faible déformation et de son énergie à la rupture. L'analyse chimique par XPS (spectroscopie photoélectronique à rayons X) des surfaces usées et des débris d'usure a permis de mettre en évidence, directement, le phénomène d'oxydation du soufre en lien avec l'usure. L'hypothèse formulée est celle de la rupture des ponts de soufre, générant des radicaux libres en surface, lesquels réagissent ensuite avec l'oxygène présent dans l'air.
Información adicional
-
Amphithéâtre Emilie du Châtelet, Bibliothèque Marie Curie de l'INSA Lyon, 31 Av. Jean Capelle, 69100 Villeurbanne
Últimos eventos
32e édition du festival Un Doua de Jazz
Desde 01 Hasta 11 Oct
Sciences & Société
Soutenance de thèse : Christopher NINHAM
Apport de l'imagerie spectrale par rayons X a la reconstruction d'images en contraste de phase
Doctorant : Christopher NINHAM
Laboratoire INSA : CREATIS - Centre de Recherche en Acquisition et Traitement de l'lmage pour la Santé
École doctorale : ED160 : EEA - Electronique, Electrotechnique, Automatique de Lyon.
L'imagerie par contraste de phase aux rayons X est une technique d'imagerie offrant un fort potentiel grâce à son contraste amélioré par rapport à la radiographie conventionnelle. Contrairement à l'atténuation, directement mesurable, la phase aux longueurs d'onde des rayons X n'est pas une grandeur directement mesurable. Par conséquent, pour mesurer la phase, des techniques spécifiques sont utilisées, qui nécessitent toutes une propagation en espace libre entre l'échantillon et le détecteur. Initialement, ces techniques étaient limitées aux sources synchrotron en raison de la grande cohérence spatiale qu'elles offrent, mais leur efficacité a récemment été démontrée avec des sources conventionnelles. L'un des inconvénients de ces techniques est que la récupération quantitative de phase nécessite plusieurs images avec différents paramètres expérimentaux, contrairement à l'exposition unique requise habituellement, ce qui augmente la dose délivrée et le temps d'imagerie. Avec l'avènement des détecteurs de rayons X spectraux, il est possible d'obtenir simultanément des images dans plusieurs bandes de longueurs d'onde lors d'une seule acquisition. Les travaux présentés combinent une telle méthode de récupération de phase avec des images acquises à plusieurs énergies afin d'améliorer la récupération de phase par rapport au cas monochromatique. La méthode de récupération de phase étudiée est l'imagerie par speckle, qui consiste à suivre les modifications induites par l'échantillon sur un motif spatialement aléatoire. En combinant cette méthode à l'imagerie spectrale, plusieurs algorithmes ont été adaptés et développés pour prendre en compte les données polychromatiques, tandis que plusieurs améliorations ont été apportées aux algorithmes monochromatiques existants.
Información adicional
-
Salle des Actes de la Faculté de médecine, Bâtiment Boucherie salle 109, Domaine de la Merci, 5 Chem. Duhamel, 38700 La Tronche
Palabras clave
Últimos eventos
32e édition du festival Un Doua de Jazz
Desde 01 Hasta 11 Oct
Sciences & Société
Soutenance de thèse : Aude LECOUFFE
Analyse expérimentale de la propagation de fissures sous contact roulant/glissant dans les aciers nitrurés et cémentés
Doctorante : Aude LECOUFFE
Laboratoire INSA : LaMCoS - Laboratoire de Mécanique des Contacts et des Structures
École doctorale : ED n°162 MEGA - Mécanique, Énergétique, Génie Civil, Acoustique
Les paliers à roulements jouent un rôle clé dans les transmissions mécaniques, et leur défaillance peut entraîner des conséquences critiques. L'un des principaux modes d'endommagement est la fatigue de contact, se traduisant par l'apparition de fissures, puis d'écaillages à la surface des composants. Si ce phénomène progresse, il peut compromettre leur intégrité. De nombreuses recherches ont porté sur l'initiation de l'endommagement en surface dans des conditions de contact lubrifié en roulement/glissement. En revanche, la propagation de fissures longues, susceptibles d'atteindre les zones profondes du matériau, reste encore peu étudiée, alors même qu'elle peut conduire à des ruptures internes, comme en témoigne certains cas connus de défaillance de la transmission d'aéronefs. Ce travail s'appuie sur une campagne expérimentale sur machine bi-disque de fatigue pour étudier l'impact des paramètres tribologiques et matériaux sur les trajectoires de fissuration en contact lubrifié roulant/glissant. Une méthodologie en deux temps a été mise en œuvre: d'abord, l'initiation contrôlée d'endommagements de surface grâce à un contre-disque indenté, puis l'étude de la propagation des fissures avec un contre-disque lisse. Les essais ont été poursuivis jusqu'à l'apparition d'un endommagement macroscopique visible en surface, puis analysés via des coupes métallographiques successives afin de reconstituer la morphologie tridimensionnelle des fissures. Les résultats ont montré que plusieurs paramètres avaient peu d'influence sur la progression des fissures en profondeur dans les conditions testées. En revanche, une augmentation de la charge normale en surface semble favoriser une propagation au-delà de la profondeur de Hertz et l'apparition de fissures caractéristiques en forme de« C ». Par ailleurs, les traitements thermochimiques se sont révélés déterminants : la nitruration induit rapidement un écaillage atteignant une valeur environ deux fois supérieure à celle de Hertz. Ce comportement contraste avec celui des pièces cémentées, qui écaillent plus lentement et pour lesquelles l'écaillage atteint généralement une profondeur proche de la profondeur de Hertz lors de l'arrêt de l'essai. L'introduction de contraintes structurelles circonférentielles de traction par frettage conique ne modifie pas notablement les trajectoires des fissures, bien qu'un effet sur leur vitesse de propagation ait été observé. Enfin, une stratégie consistant à appliquer une pression de Hertz modérée pendant la majorité du test, suivie d'une élévation après plusieurs millions de cycles, a permis de générer des fissures longues en sous-couche, reliées à l'écaillage initial et situées à des profondeurs importantes.
Información adicional
-
Amphithéâtre Émilie du Châtelet, 31 Av. Jean Capelle Ouest, Bibliothèque Marie Curie, 69100 Villeurbanne
Palabras clave
Últimos eventos
32e édition du festival Un Doua de Jazz
Desde 01 Hasta 11 Oct
Sciences & Société
Soutenance de thèse : Ataollah KAMAL
Méthodes d'Explication Basées sur la Théorie des Jeux pour les Réseaux de Neurones sur Graphes
Doctorant : Ataollah KAMAL
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : ED n°512 lnfoMaths - Informatique et Mathématiques de Lyon
Les réseaux de neurones graphiques (GNNs) ont connu un succès remarquable dans un large éventail d'applications. Cependant, la complexité de leurs architectures les rend difficiles à interpréter, ce qui limite leur adoption dans des domaines critiques où la transparence est essentielle. Bien que de nombreuses méthodes d'explication aient été proposées pour les GNNs, la plupart ne disposent pas de garanties théoriques quant à la fidélité et à la fiabilité de leurs résultats. Parmi ces méthodes, les approches basées sur la théorie des jeux se distinguent en offrant des garanties formelles, fondées sur des axiomes bien établis. La plupart des méthodes issues de la théorie des jeux considèrent les composantes d'entrée (par exemple, les nœuds ou les arêtes) comme des joueurs, et calculent leur contribution dans un jeu coopératif en utilisant des concepts de solution tels que les valeurs de Shapley ou les HN-values. Toutefois, le calcul exact de ces contributions est exponentiel en fonction du nombre de joueurs, ce qui rend les solutions exactes irréalisables d'un point de vue computationnel pour les grands graphes. Par conséquent, des méthodes d'approximation sont souvent employées. Néanmoins, à mesure que la taille du graphe d'entrée augmente, la qualité de ces approximations se dégrade, compromettant ainsi la fiabilité des explications. Pour relever ces défis, cette thèse propose deux solutions complémentaires. Premièrement, nous introduisons une méthode appelée INSIDE-SHAP, qui utilise des règles d'activation, dérivées des représentations cachées des GNNs, comme joueurs dans le jeu coopératif. INSIDE-SHAP découple la taille de l'ensemble des joueurs de celle du graphe d'entrée, permettant ainsi un calcul plus efficace des contributions basées sur les valeurs de Shapley, sans compromettre les garanties théoriques. Deuxièmement, nous présentons un nouveau cadre théorique, ESPAM, basé sur des axiomes alternatifs, distincts de ceux qui sous-tendent les valeurs de Shapley. Ce cadre permet un calcul exact des valeurs de contribution en temps polynomial, éliminant ainsi le besoin d'approximation tout en préservant les dépendances structurelles au sein du
graphe. De plus, la méthode proposée est indépendante du modèle, ce qui renforce son applicabilité à diverses architectures de GNNs. Enfin, nous démontrons l'utilité pratique de ESPAM en l'appliquant à un modèle GNN complexe pour la prédiction des interactions molécule-médicament. Ensemble, ces contributions font progresser le développement de méthodes d'explication évolutives, fidèles et théoriquement fondées pour les modèles de GNN.
Información adicional
-
Amphithéâtre 337, Bâtiment Ada Lovelace, 14 Rue de la Physique, 69100 Villeurbanne