
Sciences & Société
Soutenance de thèse : Abderaouf GACEM
Techniques d'augmentation de données pour l'apprentissage profond sur les graphes
Doctorant : Abderaouf GACEM
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : n°512 lnfoMaths - Informatique et Mathématiques de Lyon
Les données structurées sous forme de graphes sont omniprésentes dans de nombreux domaines d'application, allant des réseaux sociaux et de la biologie aux systèmes de recommandation et aux graphes de connaissances. La capacité d'appliquer des algorithmes d'apprentissage profond sur les graphes (appelée aussi apprentissage de représentations de graphes ou GRL, pour Graph Representation Learning) est cruciale pour exploiter efficacement l'information encapsulée dans ces structures. Toutefois, cet apprentissage se heurte à des défis majeurs, en particulier en matière de passage à l'échelle et de généralisation. Une piste prometteuse pour répondre à ces problématiques est l'augmentation de données, une stratégie classique en apprentissage automatique, mais encore sous-exploitée dans le contexte des graphes. Ce travail propose une étude rigoureuse et approfondie de l'augmentation de données sur les graphes, en tant que fil conducteur pour concevoir des algorithmes GRL à la fois performants et scalables. Nous analysons comment l'augmentation peut être injectée à différents niveaux du pipeline GRL : depuis les marches aléatoires sur le graphe en entrée, à l'entraînement par mini-batch, jusqu'à l'augmentation dans l'espace latent. Notre démarche s'articule autour de trois contributions principales : 1 - Biaisage structurel des marches aléatoires : Nous revisitons les méthodes basées sur les marches aléatoires, qui constituent un socle fondamental pour l'apprentissage d'embeddings de nœuds. Nous introduisons une stratégie de biaisage innovante exploitant la distance de résistance, une métrique reflétant la structure globale du graphe, pour guider la génération des marches. Le résultat est un meilleur équilibre entre exploration locale et globale, permettant d'obtenir des marches plus informatives tout en conservant la simplicité et l'efficacité des méthodes de premier ordre. 2 - Échantillonnage de mini-batch pour les GNNs : Nous nous intéressons ensuite aux réseaux de neurones pour graphes (ou Graph Neural Networks, GNNs), où l'apprentissage par mini-batch est une méthode essentielle pour assurer la scalabilité. Suite au succès de l'augmentation structurelle dans les marches aléatoires, nous posons la question suivante : peut-on repenser la génération des mini batches sous l'angle de l'augmentation ? Pour cela, nous proposons FireForest, une méthode d'échantillonnage qui produit des mini-batches respectant les propriétés structurelles globales tout en introduisant des variations topologiques. FireForest permet un entraînement efficace des GNNs sans compromettre la qualité des représentations apprises. 3 - Augmentation dans l'espace latent: Enfin, nous nous attaquons aux limites de l'augmentation appliquée directement dans l'espace du graphe d'entrée, souvent trop vaste et complexe à explorer. Inspirés par la capacité humaine à imaginer des variantes plausibles d'une structure perçue, nous concevons un cadre d'augmentation de bout en bout, entièrement apprenable, opérant dans l'espace latent des GNNs. Cette approche permet au modèle de simuler en interne des augmentations de graphes, lui donnant ainsi la capacité d'extrapoler des variantes pertinentes qui favorisent la généralisation. Elle introduit une forme puissante et abstraite d'augmentation. Ces contributions démontrent que l'augmentation de données constitue un levier polyvalent pour améliorer l'apprentissage de représentations de graphes. En intégrant des stratégies d'augmentation à divers niveaux de la chaîne GRL, nous proposons un cadre méthodologique qui renforce à la fois la scalabilité et la capacité de généralisation des modèles d'apprentissage profond sur les graphes.
Additional informations
-
Amphithéâtre 347, Bâtiment Ada Lovelace, INSA-Lyon, 14 Rue de la Physique, 69100 Villeurbanne

Sciences & Société
Soutenance de thèse : Thomas MIGNOT
De la détection de défauts de surface à l’évaluation automatique de la qualité des pneumatiques : une approche d’inspection par apprentissage profond de bout en bout
Doctorant : Thomas MIGNOT
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : ED512 Infomaths (Informatique et Mathématiques de Lyon)
L’inspection visuelle des défauts d'aspect dans l’industrie pneumatique est un processus historiquement manuel et complexe à automatiser. Cette thèse propose plusieurs contributions méthodologiques basées sur l'apprentissage profond visant à améliorer la détection et la classification des défauts selon leur type et leur niveau de sévérité. D'abord, nous introduisons une approche en deux étapes combinant un réseau de segmentation d'instances de type Mask R-CNN pour segmenter les défauts et une classification indépendante exploitant à la fois les caractéristiques visuelles et géométriques des instances détectées. Cette méthode permet notamment de traiter toutes les zones du pneumatique de manière efficace grâce à une stratégie de spécialisation par zone. Cependant, cette première approche en deux étapes présente certaines limites, notamment en termes de complexité de mise en œuvre dans un contexte industriel. Le deuxième chapitre se concentre donc sur la simplification de cette méthode en fusionnant la prédiction du type de défaut et de son niveau de sévérité en une seule étape, directement intégrée dans le réseau Mask R-CNN. Nous proposons ainsi une adaptation architecturale nommée DML Mask R-CNN (Dependent Multi-Label), conçue pour traiter la problématique de l’annotation multi-étiquette dans le cadre de la détection d’objets et de la segmentation d’instances. Cette nouvelle version permet l’attribution simultanée de plusieurs étiquettes à chaque instance détectée, telles que le type de défaut et son niveau de sévérité. Nous intégrons également un module dédié à l’extraction de propriétés géométriques, dont les sorties alimentent une branche de classification de sévérité, afin de guider cette prédiction à l’aide d’informations non visuelles issues de connaissances a priori du domaine. Après cette étude approfondie des approches de détection et segmentation d’instances, nous explorons également la segmentation sémantique pour évaluer ses performances en comparaison avec les méthodes précédentes. L’approche proposée repose sur une première étape de segmentation sémantique visant à identifier les types de défauts, suivie d’une classification au niveau de l’image basée sur le niveau de sévérité maximal. Cette deuxième étape se base sur la réinjection des sorties du premier réseau dans un modèle de classification d’images. Ce chapitre aborde également la question de l’ambiguïté des annotations, problématique répandue dans le contexte de l’annotation de défauts de surface sur pneumatiques. Pour la traiter, nous avons opté pour une modélisation stochastique des prédictions, qui capture les dépendances entre les différentes classes de défauts au niveau du pixel à l’aide d’une distribution normale multivariée. Enfin, nous présentons une approche basée sur l’apprentissage multi-instance (Multiple Instance Learning), qui permet de passer de prédictions localisées au niveau des défauts à une décision globale concernant l’état final du pneumatique, à savoir s’il doit être réparé ou peut être expédié au client. Cette modélisation permet d’agréger automatiquement les informations issues des différentes instances et zones d’un même pneumatique, sans annotations précises, mais uniquement à partir des verdicts globaux fournis par les opérateurs. Cette approche a l’avantage d’éviter la définition manuelle de règles empiriques complexes par des experts du domaine pour filtrer les détections selon les exigences qualité. Testée dans plusieurs usines en conditions réelles, cette méthode a démontré une réduction notable des faux positifs par rapport aux règles existantes. Elle est actuellement en cours d’industrialisation en vue d’un déploiement à grande échelle sur les différents sites de production. L’ensemble de ces contributions a été validé sur des jeux de données industriels réels et montre une amélioration significative en termes de performance par rapport aux méthodes existantes.
Additional informations
-
Salle 318, Bâtiment le Forum, Michelin, 23 Place des Carmes Dechaux, 63000 Clermont-Ferrand
Keywords (tags)

Sciences & Société
Soutenance de thèse : Orégane DESRENTES
Accélération Matérielle d'Arithmétique pour !'Apprentissage Artificiel et le Calcul Scientifique
Doctorante : Orégane DESRENTES
Laboratoire INSA : CITI - Centre d'innovation en Télécommunications et Intégration de Services
École doctorale : ED n°512 lnfoMaths - Informatique et Mathématiques de Lyon
Dans un monde axé sur les données, l'apprentissage artificiel et le calcul scientifique sont devenus de plus en plus importants, justifiant l'utilisation d'accélérateurs matériels dédiés. Cette thèse explore la conception et l'implémentation d'unités arithmétiques pour de tels accélérateurs dans le Massively Parallel Processor Array de Kalray. L'apprentissage artificiel nécessite des multiplications de matrices qui opèrent sur des formats de nombres très petits. Dans ce contexte, cette thèse étudie l'implémentation du produit-scalaire-et-addition en précision mixte pour différents formats de 8 et 16 bits (FP8, INT8, Posit8, FP16, BF16), en utilisant des variantes d'une technique classique de l'état-de-l'art, l'accumulateur long. Elle introduit également des techniques permettant de combiner différents formats d'entrée. Des méthodes radicalement différentes sont étudiées pour passer à l'échelle vers la grande dynamique des formats 32 et 64 bits utilisés en calcul scientifique. Cette thèse étudie également l'évaluation de certaines fonctions élémentaires. Un opérateur pour la fonction exponentielle (cruciale pour le calcul de la fonction softmax) étend une architecture de l'état-de-l'art pour accepter des formats d'entrée multiples. La fonction racine carrée inverse (utilisée pour la normalisation des couches) est accélérée en combinant des techniques d'état-de-l'art pour la réduction de la dynamique, des tables multipartites correctement arrondies et des techniques logicielles de raffinement itératif.
Additional informations
-
Amphithéâtre Ouest, Bâtiment des Humanités, INSA-Lyon, 1 rue des Humanités, 69621 Villeurbanne

Sciences & Société
Soutenance de thèse : Ataollah KAMAL
Méthodes d'Explication Basées sur la Théorie des Jeux pour les Réseaux de Neurones sur Graphes
Doctorant : Ataollah KAMAL
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : ED n°512 lnfoMaths - Informatique et Mathématiques de Lyon
Les réseaux de neurones graphiques (GNNs) ont connu un succès remarquable dans un large éventail d'applications. Cependant, la complexité de leurs architectures les rend difficiles à interpréter, ce qui limite leur adoption dans des domaines critiques où la transparence est essentielle. Bien que de nombreuses méthodes d'explication aient été proposées pour les GNNs, la plupart ne disposent pas de garanties théoriques quant à la fidélité et à la fiabilité de leurs résultats. Parmi ces méthodes, les approches basées sur la théorie des jeux se distinguent en offrant des garanties formelles, fondées sur des axiomes bien établis. La plupart des méthodes issues de la théorie des jeux considèrent les composantes d'entrée (par exemple, les nœuds ou les arêtes) comme des joueurs, et calculent leur contribution dans un jeu coopératif en utilisant des concepts de solution tels que les valeurs de Shapley ou les HN-values. Toutefois, le calcul exact de ces contributions est exponentiel en fonction du nombre de joueurs, ce qui rend les solutions exactes irréalisables d'un point de vue computationnel pour les grands graphes. Par conséquent, des méthodes d'approximation sont souvent employées. Néanmoins, à mesure que la taille du graphe d'entrée augmente, la qualité de ces approximations se dégrade, compromettant ainsi la fiabilité des explications. Pour relever ces défis, cette thèse propose deux solutions complémentaires. Premièrement, nous introduisons une méthode appelée INSIDE-SHAP, qui utilise des règles d'activation, dérivées des représentations cachées des GNNs, comme joueurs dans le jeu coopératif. INSIDE-SHAP découple la taille de l'ensemble des joueurs de celle du graphe d'entrée, permettant ainsi un calcul plus efficace des contributions basées sur les valeurs de Shapley, sans compromettre les garanties théoriques. Deuxièmement, nous présentons un nouveau cadre théorique, ESPAM, basé sur des axiomes alternatifs, distincts de ceux qui sous-tendent les valeurs de Shapley. Ce cadre permet un calcul exact des valeurs de contribution en temps polynomial, éliminant ainsi le besoin d'approximation tout en préservant les dépendances structurelles au sein du
graphe. De plus, la méthode proposée est indépendante du modèle, ce qui renforce son applicabilité à diverses architectures de GNNs. Enfin, nous démontrons l'utilité pratique de ESPAM en l'appliquant à un modèle GNN complexe pour la prédiction des interactions molécule-médicament. Ensemble, ces contributions font progresser le développement de méthodes d'explication évolutives, fidèles et théoriquement fondées pour les modèles de GNN.
Additional informations
-
Amphithéâtre 337, Bâtiment Ada Lovelace, 14 Rue de la Physique, 69100 Villeurbanne

Sciences & Société
Soutenance de thèse : Sekinat YAHYA
Une étude des défis de consommation d'énergie dans les services de réalité étendue sur les réseaux cellulaires
Doctorante : Sekinat YAHYA
Laboratoire INSA : CITI - Centre d'innovation en Télécommunications et Intégration de Services
École doctorale : ED n°512 lnfoMaths - Informatique et Mathématiques de Lyon
Extended reality (XR) services are characterised by their heavy computational requirements throughout their life cycle. XR comprises multiple traffic modes consisting of 3D video and audio, haptics, sensor and pose information. Systems-related challenges relating to the creation, encoding, transmission, rendering and presentation of the application data from this class of services have increasingly become key areas of research inquiry from both a computational and energy viewpoint. Recently, new provisions have been made across different relevant standards to improve the capacity of these applications on mobile cellular networks. Our research investigates the energy-related challenges at both the RAN and UE levels. We conduct our evaluations using system-level simulations (SLS) that adhere to the parameter specifications established by standardisation bodies. We begin with a RAN-level energy reduction plus XR application enhancement strategy. With the cell switch off (CSO) technique proposed for BS deployment energy efficiency at low load, we evaluate the impact of an XR-capacity improvement criterion on the energy savings obtainable. Our analysis covers a European urban city using data from a European operator and system-level simulations according to the standard network operations. ln XR, UE energy-saving schemes are especially important since current delivery devices are still in early commercial development, making battery-saving techniques crucial. ln this thesis, we use the Rel-18 improvements on the discontinuous reception (DRX) UE energy saving mechanism through state-of-the-art prediction algorithms to propose a traffic prediction-based non-integer DRX mechanism. We achieved significant energy savings without impeding the XR quality of service requirements. Lastly, towards enhancing the capacity of XR on cellular networks in energy-saving mode, we propose a DRX plus QoE-aware scheduler (DQAS). Using SLS according to 3GPP specifications on XR QoE requirements, traffic model, and dense urban deployment scenarios, and following real traces from XR applications, we first evaluate a QoE-aware scheduler (QAS) for XR services. We introduced DRX awareness into QAS, jointly optimising XR QoE and energy consumption. We analysed our results to identify the parameter window in which both metrics can be optimally improved towards achieving the goal of XR capacity improvement on cellular networks.
Additional informations
-
Amphithéâtre Claude Chappe, Bâtiment Hedy Lamarr, 6 avenue des Arts, 69621 Villeurbanne Cedex

Sciences & Société
Soutenance de thèse : Simon PERCHE
Contrôle interactif du style et de la structure de terrains numériques
Doctorant : Simon PERCHE
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : ED n°512 lnfoMaths - Informatique et Mathématiques de Lyon
La création et l'édition de terrains numériques constituent une étape fondamentale dans l'élaboration de mondes virtuels pour des domaines variés allant des simulations scientifiques au divertissement. Malgré les progrès des outils d'édition de terrain, répondre pleinement aux exigences expressives des artistes reste un défi dont les principaux aspects sont l'interactivité et le contrôle. Cette thèse est séparée en deux parties. Premièrement, nous explorons une approche basée sur l'apprentissage profond pour apprendre une représentation latente riche des terrains. Ce modèle permet non seulement de générer des terrains aux styles variés mais offre surtout de nouvelles possibilités pour le contrôle du style localisé, l'amplification cohérente de détails, et l'édition guidée par des esquisses ou des terrains basse résolution. La seconde partie introduit une approche basée sur une représentation vectorielle continue, définissant le terrain comme une somme de primitives. Cette méthode inclut un algorithme efficace pour vectoriser des terrains matriciels et propose un système d'édition basé sur un squelette structurel, dérivé des lignes de crêtes. Cette interface permet une manipulation directe, sémantique et intuitive des formes géomorphologiques majeures, offrant un contrôle structurel local et global précis. Ces deux approches offrent des capacités complémentaires, allant du contrôle du style à l'édition structurelle. Un effort particulier a été consacré à leur intégration pratique via le développement d'interfaces utilisateurs dédiées, facilitant leur évaluation et leur potentielle adoption. En enrichissant la palette d'outils à disposition des artistes avec des méthodes spécifiquement conçues pour le contrôle du style ou de la structure, cette thèse contribue à rendre la création et l'édition de terrains plus expressives, efficaces et mieux alignées avec les processus créatifs artistiques.
Additional informations
-
Salle C006, Bâtiment Nautibus, 23 Av. Pierre de Coubertin, 69100 Villeurbanne.

Sciences & Société
Soutenance de thèse : Juliette LUISELLI
Comment les réarrangements chromosomiques façonnent les génomes : étude par modélisation et simulations
Doctorante : Juliette LUISELLI
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : ED512 Infomaths (Informatique et Mathématiques de Lyon)
Les origines de la complexité des génomes, ainsi que les déterminants de la taille des génomes, restent largement débattus. Cette thèse montre que les réarrangements chromosomiques sont un facteur clé de l'évolution de l'architecture du génome en termes de taille et de complexité. Elle montre en particulier que la taille et la fraction codante des génomes sont étroitement liées à la sélection de la robustesse aux réarrangements chromosomiques, et que celle-ci est notamment modulée par la taille de la population et le taux de mutation. Dans un premier temps, nous avons étudié l'impact des réarrangements chromosomiques sur l'évolution de l'architecture des génomes bactériens. Pour cela, la thèse s'appuie sur des simulations informatiques et des modélisations mathématiques. En particulier, pour les simulations, elle s'appuie sur Aevol, un logiciel conçu pour étudier l'évolution de la structure des génomes procaryotes, qui permet aux réarrangements chromosomiques d'agir directement sur la séquence génomique des individus. En utilisant Aevol, nous avons pu montrer que les réarrangements chromosomiques sont essentiels pour soutenir l'adaptation à long terme, mais aussi pour stabiliser la taille du génome. Ce résultat nous a permis de montrer, par des campagnes de simulation à grande échelle, que la pression imposée par les réarrangements sur la taille du génome est modulée à la fois par le taux de mutation (qui modifie la robustesse des génomes) et par la taille de la population (qui modifie l'efficacité de la sélection pour la robustesse). Ce résultat a ensuite été confirmé par un modèle mathématique qui met en évidence comment ces deux paramètres déterminent une proportion d'équilibre du génome non codant. La deuxième partie de la thèse se concentre sur la généralisation des résultats précédents aux génomes eucaryotes. Tout d'abord, elle présente une nouvelle version d'Aevol développée spécifiquement pour le projet, qui modélise des organismes diploïdes avec des chromosomes linéaires se reproduisant sexuellement et subissant un événement de recombinaison méiotique obligatoire. Avec ce modèle, nous montrons que les génomes de type eucaryote réagissent aux changements du taux de mutation et de la taille de la population de la même manière que les génomes de type procaryote. Dans le dernier chapitre, nous montrons que le mode de reproduction est également un déterminant important de l'architecture du génome, car l'auto-fécondation conduit à des génomes réduits. En conclusion, cette thèse de doctorat présente un nouveau cadre permettant de comprendre les aspects fondamentaux de l'évolution de la taille des génomes, en se concentrant sur l'impact direct et indirect des mutations, et en particulier des réarrangements chromosomiques, et sur la manière dont elles affectent l'avenir de chaque lignée. Nous montrons également comment d'autres paramètres, tels que la taille de la population et le mode de reproduction (asexué, sexué, autofécondation), interagissent avec ces mutations et modulent leur impact sur l'évolution de la taille du génome. L'ensemble de ces résultats contribue à une vision unifiée de l'évolution de l'architecture et de la complexité des génomes le long de l'arbre de la vie.
Additional informations
-
Amphithéâtre de la Bibliothèque Universitaire Science Doua, Domaine de la Doua - 20 avenue Gaston Berger - BP 72215 69622 Villeurbanne Cedex

Sciences & Société
Soutenance de thèse : Alexandre BENTO
Raisonnement embarqué pour le Web des Objets
Doctorant : Alexandre BENTO
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : n°512 lnfoMaths - Informatique et Mathématiques de Lyon
Le Web des Objets étend l'Internet des Objets avec des standards du Web, tels que des graphes de connaissances et des capacités de raisonnement. Les raisonneurs traditionnels sont optimisés pour la performance et nécessitent trop de ressources matérielles, notamment de mémoire, pour être exécutés sur les objets contraints typiquement utilisés dans les applications loT. Dans cette thèse, nous proposons des optimisations d'un algorithme de raisonnement couramment utilisé pour rendre son implémentation possible sur des objets contraints, en nous concentrant sur la réduction de l'empreinte mémoire du raisonnement. Ces optimisations sont (i) algorithmiques, tirant profit des caractéristiques des jeux de règles utilisés pour le raisonnement, et (ii) axées sur la représentation des connaissances en mémoire au sein du raisonneur. Nous proposons également LiRoT, l'implémentation d'un raisonneur léger et incrémental pouvant être embarqué sur des objets contraints, résultat de ces optimisations. Nous évaluons expérimentalement l'impact des diverses optimisations, et nous montrons qu'elles permettent de réduire significativement l'empreinte mémoire du raisonnement, tout en ayant un impact minimal sur le temps de calcul. Nous comparons également LiRoT à plusieurs raisonneurs de référence, et nous montrons qu'il est plus adapté pour traiter des jeux de données d'une taille typique des applications loT. Enfin, nous évaluons l'usage de LiRoT sur des plateformes telles qu'ESP32 et Arduino Due et montrons qu'il est possible de faire du raisonnement sur des plateformes aussi contraintes. Cette thèse a été financée par le projet CoSWoT (ANR-19-CE23-0012).
Additional informations
-
Amphithéâtre 501.337 Robert Arnal, Bâtiment Ada Lovelace 7 Avenue Jean Capelle 69100 Villeurbanne

Sciences & Société
Soutenance de thèse : Amaratou MAHAMADOU SALEY
Cadre méthodologique couplant données et connaissances pour la maintenance prédictive en contexte nucléaire
Doctorante : Amaratou MAHAMADOU SALEY
Laboratoire INSA : DISP - Décision et Information pour les Systèmes de Production
École doctorale : ED512 lnfoMaths - Informatique et Mathématiques de Lyon
L'émergence des technologies numériques, des systèmes connectés et de l'IA ouvre de nouvelles perspectives pour faire évoluer les pratiques de maintenance, surtout dans une industrie comme le nucléaire. La surveillance peut devenir plus continue, plus intelligente et plus prédictive. Cette thèse CIFRE avec INEO Nucléaire vise à intégrer les nouvelles possibilités offertes par l'industrie 4.0 sans remettre en cause les pratiques de terrain éprouvées.C'est dans ce contexte que s'inscrit notre question de recherche centrale: Comment exploiter conjointement les données disponibles et les connaissances capitalisées du domaine nucléaire pour améliorer la maintenance d'un système en production, en tenant compte de l'hétérogénéité et de la complémentarité des sources d'information? Nous proposons une méthodologie globale, structurée autour du PHM (Prognostics and Health Management) et conçue pour articuler données et connaissances à chaque étape. Dans chacune de ces étapes, les connaissances issues de l'expertise terrain, des documents techniques ou des historiques de maintenance jouent un rôle actif pour guider l'analyse
des données, enrichir les modèles, ou interpréter les résultats. À partir de cette contribution méthodologique, 3 des phases du PHM sont explorées en détail: détection, diagnostic et pronostic. La première spécialisation vise à l'amélioration de la détection précoce des défauts sur des équipements nucléaires fonctionnant selon un cycle de production. Nous y spécialisons notre méthodologie globale en une méthodologie pour la détection originale basée sur un clustering multi-échelle permettant de détecter les signaux faibles annonciateurs de défaillances. La deuxième spécialisation se concentre sur l'amélioration du diagnostic dans le cas de machines tournantes au sein des installations nucléaires. Nous spécialisons notre méthodologie globale pour proposer une méthodologie hybride qui combine les données hétérogènes obtenues par augmentation des données, les connaissances explicites et tacites du domaine et les techniques d'apprentissage automatiques pour isoler les anomalies détectées et identifier leurs
causes probables. Enfin, la troisième spécialisation porte sur le pronostic. Elle explore comment les connaissances peuvent être exploitées pour améliorer la prédiction des défaillances sur des équipements nucléaires critiques selon un horizon défini. L'ensemble de ces contributions vise à faire progresser la maintenance prédictive en alimentant le PHM avec des connaissances pour intégrer durablement données et expertises dans une même méthodologie rigoureuse, outillée et opérationnelle et testée sur des équipements de l'industrie nucléaire. Nos résultats confirment la valeur ajoutée de l'hybridation des approches à bases des données et celles à bases de connaissances dans un environnement industriel exigeant.
Additional informations
-
Amphithéâtre Laura Bassi, 23 avenue Jean capelle, 69100, Villeurbanne

Sciences & Société
Soutenance de thèse : Matthieu BETTINGER
Résilience à la collusion dans les mécanismes de places de marché décentralisées
Doctorant : Matthieu BETTINGER
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : ED512 Infomaths (Informatique et Mathématiques de Lyon)
Les places de marché décentralisées dans le Web3 cherchent à protéger leurs utilisateurs contre la censure, les biais et les points de défaillance uniques qui peuvent exister dans leurs homologues centralisés. Pourtant, certains mécanismes ont tendance à rester centralisés, par exemple le moteur de recherche permettant de découvrir de nouvelles ressources sur le marché. De telles vulnérabilités ont été exploitées sur des places de marché décentralisées ces dernières années : il est d'autant plus essentiel de fournir des mécanismes de protection. Dans cette thèse, nous proposons des protocoles pour assurer la fiabilité et l'équité des mécanismes des places de marché, notamment par la résilience à la collusion d'acteurs malveillants. Tout d'abord, pour traiter la sélection décentralisée d'un sous-ensemble de participants parmi une population comprenant des acteurs malveillant, nous proposons un protocole basé sur la blockchain pour éviter que les acteurs malveillants n'influencent la sélection à leur avantage. Ensuite, en considérant des ensembles de participants sélectionnés qui travailleront ensemble sur des tâches dans une place de marché décentralisée de ressources cloud, dans un environnement sans accès à des informations fiables ou non confidentielles, nous présentons un mécanisme d'incitation qui punit ou récompense collectivement les participants aux tâches en fonction du résultat de leurs tâches. Nous décrivons et évaluons également la manière d'atteindre un taux de réussite cible des tâches de la place de marché : l'algorithme que nous proposons est capable d'atteindre les objectifs définis et de réduire par 5 à 10 fois le taux d'échec par rapport à un système sans protection. Par ailleurs, nous montrons comment les fournisseurs du moteur de recherche d'une place de marché décentralisée peuvent favoriser un sous-ensemble d'utilisateurs du moteur de recherche. Nous protégeons ces moteurs de recherche avec notre protocole COoL-TEE, qui permet aux utilisateurs honnêtes d'éviter les fournisseurs malveillants de ce moteur de recherche, qui retardent de manière sélective les réponses au profit des utilisateurs qui les soudoient. Les utilisateurs honnêtes collaborent avec des environnements d'exécution de confiance (Trusted Execution Environment, TEE) au sein des machines hôtes des fournisseurs du moteur de recherche, afin de sélectionner des fournisseurs proches, rapides et honnêtes. A partir de simulations d'utilisateurs envoyant des requêtes depuis le monde entier à des fournisseurs géo-distribués hébergés dans des centres de données, nous illustrons comment COoL-TEE réduit l'avantage des utilisateurs malveillants à un niveau proche d'un scénario sans attaques. Enfin, de nombreux protocoles traditionnels et basés sur les TEEs requièrent des mesures temporelles fiables pour leur logique d'exécution, y compris COoL TEE. Cependant, des attaquants qui contrôlent le système d'exploitation sont capables d'attaquer la perception du temps du TEE et, par conséquent, de manipuler les protocoles utilisant les mesures temporelles fournies. Nous contribuons une implémentation publique du protocole d'état-de-l'art Triad, dont le code source est fermé, et nous menons des attaques sur celui-ci de manière empirique. Sa calibration peut être manipulée pour affecter la vitesse d'horloge perçue par le TEE. En outre, les attaques sur une machine compromise peuvent se propager aux machines honnêtes participant au protocole de temps de confiance de Triad. Nous discutons comment atténuer ces vulnérabilités afin d'améliorer la résilience contre de telles attaques.
Additional informations
-
Amphithéâtre BU Sciences Lyon 1, 20 avenue Gaston Berger BU Sciences La Doua 69622 Villeurbanne Cedex