Thèse

06 Jun
06/06/2025 14:00

Sciences & Société

Soutenance de thèse : Maroun DAGHER

Caractérisations physiques et électriques de composants verticaux à base GaN

Doctorant : Maroun DAGHER

Laboratoire INSA : INL - Institut des Nanotechnologies de Lyon

École doctorale : ED34 ML - Matériaux

La demande progressive des composants de puissance pour des applications à haute tension a conduit à une révolution dans le domaine d'électronique de puissance. Le nitrure de gallium (GaN) présente les propriétés nécessaires pour ces applications tels qu'un champ électrique critique élevé et une vitesse de saturation importante et ainsi, il servira comme une solution alternative du silicium dont les propriétés limitent les performances à haute tension. Des structures latérales à base de GaN sont déjà commercialisées, mais elles ne profitent pas complètement des propriétés exceptionnelles du GaN pour atteindre les limites théoriques en termes de tenue en tension. Bien que les structures verticales résolvent la limitation de fonctionnalité des structures latérales pour les applications à haute tension, mais cela n'évite pas que d'autres facteurs empêchent l'exploitation pleine des avantages du GaN. Ainsi, les travaux de cette thèse se concentrent sur la compréhension des facteurs, liés à la qualité du matériau et à l'optimisation des procédés de croissance et de fabrication, et empêchant les composants verticaux GaN-sur-GaN d'atteindre une tenue en tension optimale. Des caractérisations physiques micro-Raman sont employées pour étudier les défauts structuraux et le dopage, alors
que des caractérisations électriques DLTS (Deep Level Transient Spectroscopy) sont réalisées pour identifier l'origine et le type des défauts. La corrélation entre ces caractérisations va conduire à des conclusions sur l'origine des limitations électriques.

Additional informations

  • Salle des thèses, Bâtiment Irène Joliot-Curie, 1 rue Enrico Fermi, 69622, Villeurbanne

10 Jun
10/06/2025 09:00

Sciences & Société

Soutenance de thèse : Alice BRENON

Méthodes et outils pour l'étude diachronique des discours géographiques dans deux encyclopédies françaises.

Doctorante : Alice BRENON

Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information

École doctorale : ED512 lnfoMaths - Informatique et Mathématiques de Lyon

Dans le cadre du projet GEODE du LabEx ASLAN, cette thèse étudie en diachronie les discours géographiques dans deux encyclopédies françaises. L'Encyclopédie, Dictionnaire Raisonné des sciences, des arts et des métiers (EDdA), emblématique du siècle des Lumières, constitue la borne la plus ancienne de l'intervalle. Celui-ci s'étend jusqu'à la fin du XIXᵉ siècle, représenté par La Grande Encyclopédie, Inventaire raisonné des Sciences, des Lettres et des Arts (LGE). Au travers de trois contributions principales, les travaux abordent des thématiques telles que la préparation des données et l'encodage en particulier, la classification automatique et les analyses textométriques. En confrontant des méthodes simples de la théorie des graphes à des remarques structurelles sur les éléments présents dans les encyclopédies, la première étude souligne les différences fondamentales qui existent entre dictionnaires et encyclopédies en termes de structures et aboutit à la proposition d'un encodage XML-TEi pour représenter une encyclopédie, qui est appliqué sur la première édition numérique de LGE. La comparaison de méthodes de classifications permet ensuite de choisir un modèle pour associer un domaine de connaissance à chaque article du corpus, ce qui rend possible la conduite d'analyses contrastives dans la dernière partie de la thèse. Un examen attentif des erreurs commises par un des classifieurs sur l'EDdA révèle des ressemblances existant entre les domaines et montre une Géographie très au contact des autres sciences au XVIIIe siècle. Pour finir, les deux œuvres sont comparées pour mettre en relief les changements survenus dans la manière d'écrire la Géographie. Un premier développement quantifie puis caractérise la variation dans les articles du domaine (à l'aide de statistiques sur le nombre de mots et leurs longueurs puis en étudiant les mouvements d'entrées entre domaines) Les apports de la textométrie sont enfin utilisés pour approfondir la compréhension des liens entre biographies et discours géographiques.

 

Additional informations

  • Amphithéâtre Chappe, Bâtiment Hedy Lamarr, 6 avenue des Arts, Villeurbanne cedex 69621

10 Jun
10/06/2025 15:00

Sciences & Société

Soutenance de thèse : Yacine BELAL

Apprentissage Collaboratif de Confiance : Personnalisation, Confidentialité et Robustesse en Environnements Décentralisés

Doctorant : Yacine BELAL

Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : n°512 lnfoMaths - Informatique et Mathématiques de Lyon

Il y a une vingtaine d'années, l'émergence du Web 2.0 a profondément transformé notre rapport au numérique en permettant aux utilisateurs de créer et partager du contenu sur une multitude de plateformes, générant ainsi un volume croissant de données. Combinée aux récents progrès en apprentissage automatique, cette abondance de données a permis l'apparition de nombreux services basés sur l'apprentissage (e.g., agents conversationnels, assistants vocaux, détection de fraude). Traditionnellement, l'entraînement des modèles sous-jacents à ces services reposait sur la collecte de données sensibles par des entités centralisées, souvent les fournisseurs de service eux-mêmes. Cette centralisation a soulevé de sérieuses préoccupations en matière de confidentialité, comme en témoignent les multiples scandales liés à la vie privée au cours de la dernière décennie. En réponse, plusieurs réglementations, telles que le Règlement Général sur la Protection des Données (RGPD), ont été mises en place. Dans ce contexte, repenser les paradigmes d'apprentissage classiques pour les rendre plus respectueux de la vie privée est devenu essentiel. L'apprentissage fédéré a vu le jour en 2017 avec la promesse de préserver la confidentialité des données en permettant à des utilisateurs d'entraîner collaborativement un modèle sans jamais partager leurs données brutes. Ce paradigme a donné naissance à une classe plus large d'approches appelée apprentissage collaboratif. Il est désormais bien établi que l'apprentissage fédéré souffre de plusieurs limitations, notamment sa dépendance à un serveur central (point de défaillance unique) et sa vulnérabilité à diverses attaques en confidentialité et robustesse. C'est dans cette optique que l'apprentissage par commérage a été proposé, avec la promesse d'une décentralisation totale, s'appuyant sur des protocoles de communication pair-à-pair, dits protocoles de bavardage. Dans ce paradigme, chaque nœud agit comme un mini-serveur fédéré, coordonnant l'apprentissage avec ses voisins via un graphe de communication dynamique. Toutefois, il reste à démontrer si cette approche permet réellement de dépasser les limites de l'apprentissage fédéré, notamment en matière de personnalisation, de protection de la vie privée et de robustesse face aux comportements malveillants. Cette thèse s'attache à explorer ces questions. Dans un premier temps, nous comparons les performances individuelles des modèles produits par ces deux paradigmes, avant de proposer PEPPER, une structure logicielle permettant d'exploiter pleinement le potentiel de l'apprentissage par commérage à des fins de personnalisation, et de surpasser l'approche fédérée sur cet aspect. Dans un second temps, nous introduisons CIA, une attaque d'inférence de communautés utilisée pour auditer les vulnérabilités de confidentialité des deux paradigmes. Cette étude révèle une certaine résilience intrinsèque de l'apprentissage par commérage face à ce type d'attaques d'inférence comparative. Enfin, nous nous penchons sur la robustesse de ce paradigme face aux attaques par empoisonnement de modèles. Bien que sa nature dynamique puisse l'exposer davantage à ce type de menaces, nous proposons GRANITE, un cadre logiciel robuste pour l'apprentissage par commérage sur des graphes dynamiques. Dans l'ensemble, ce travail met en évidence le potentiel de l'apprentissage par commérage à s'imposer comme une alternative crédible à long terme pour des systèmes d'apprentissage décentralisés, transparents et centrés sur l'utilisateur.

Additional informations

  • Amphithéâtre de la BU Sciences DOUA, 20 avenue Gaston Berger 69622 Villeurbanne Cedex

11 Jun
11/06/2025 14:00

Sciences & Société

Soutenance de thèse : Aghile AIT MESSAOUD

Systèmes de traitement et de stockage distribué confidentiels basés sur les TEEs

Doctorant : Aghile AIT MESSAOUD

Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : n°512 lnfoMaths - Informatique et Mathématiques de Lyon

Les données sont devenues un moteur essentiel du monde numérique, alimentant l'innovation et les stratégies commerciales. Toutefois, leur manipulation s'accompagne d'importants enjeux de sécurité et d'éthique, car elles peuvent contenir des informations sensibles nécessitant une protection stricte. Toute violation peut entraîner des atteintes à la vie privée, des pertes financières et une perte de confiance. Pour garantir leur sécurité, il est crucial de les protéger dans leurs trois états : en transit, au repos et en cours d'utilisation. Les données en transit doivent être chiffrées pour éviter toute interception, celles au repos sécurisées par des contrôles d'accès stricts et un chiffrement robuste, tandis que celles en cours de traitement nécessitent un environnement protégé pour empêcher tout accès non autorisé. Les environnements d'exécution fiables jouent un rôle clé en isolant les données sensibles, même vis-à-vis des processus système ou du système d'exploitation. Cette recherche se divise en deux parties principales. La première porte sur la sécurisation des données en cours d'utilisation, en étudiant l'apprentissage fédéré comme cas d'usage spécifique. Ce paradigme d'apprentissage automatique préservant la confidentialité reste vulnérable aux attaques visant la mémoire principale des dispositifs clients, pouvant révéler des informations sensibles sur les données utilisées pour l'entraînement du modèle. Face à ces menaces, GradSec a été développé pour sécuriser l'apprentissage fédéré contre ces attaques. Cette solution exploite ARM TrustZone, un environnement d'exécution fiable conçu pour les appareils mobiles, afin de protéger les couches critiques du modèle en fonction des attaques identifiées. La seconde partie traite de la sécurisation des données au repos en s'appuyant sur les bases de données dé-valeur en mémoire, choisies pour leur flexibilité et leur capacité à stocker divers types de données via sérialisation. Une analyse approfondie des bases de données dé-valeur basées sur des environnements d'exécution fiables a mis en évidence leurs architectures et composants fondamentaux, tout en révélant leur vulnérabilité aux attaques par canaux auxiliaires. Pour atténuer ce risque, TruShare a été conçu comme un système de stockage distribué confidentiel combinant environnements d'exécution fiables et partage de secret. En fragmentant les données sensibles entre plusieurs nœuds, cette approche rend les fuites de données beaucoup plus complexes pour un attaquant. Ces travaux de recherche visent à répondre aux défis de la sécurité des données dans des environnements non fiables, en garantissant une confidentialité renforcée aussi bien lors du traitement que du stockage des informations.

Additional informations

  • Salle de Conférence de la BU Sciences La Doua, 20 avenue Gaston Berger, 69100 Villeurbanne

10 Jun
10/06/2025 09:00

Sciences & Société

Soutenance de thèse : Sophie GUILLAUME

Hybridation de modèles pour une prise de décision fiable

Doctorante : Sophie GUILLAUME

Laboratoire : REVERSAAL - REduire Réutiliser Valoriser Les Ressources Des Eaux Résiduaires

École doctorale : ED 206 Chimie de Lyon

Dans le contexte du changement global, les villes s'orientent vers des pratiques plus durables et résilientes en matière d'eau. Les solutions fondées sur la nature contribuent aux approches de gestion intégrée de l'eau en gérant localement les volumes d'eau et en traitant la pollution, tout en préservant la biodiversité et en soutenant la dynamique socio-économique dans le paysage urbain à un coût raisonnable. Ces solutions fleurissent dans le monde entier sous de multiples terminologies et manquent de lignes directrices pour leur mise en œuvre. Ce défi est relevé par le projet MULTISOURCE, dans le cadre duquel cette thèse vise l'aspect technique du pré-dimensionnement des unités technologiques développées pour le traitement des eaux usées. En particulier, les filtres plantés sont confrontés à un manque de compréhension de la relation entre leur conception et les méchanismes de traitement impliqués, ainsi qu'à un manque de données comparables sur ces systèmes. Les modèles de conception actuels sont simples et conservateurs, tandis que les modèles basés sur des données ne sont pas fiables. Cette thèse propose, dans un premier temps, le développement d'une ontologie afin de clarifier les ambiguïtés terminologiques, d'unifier les connaissances sur les filtres plantés et de mieux identifier leurs principales caractéristiques en termes d'élimination des polluants. La deuxième étape de ce travail propose d'homogénéiser les contrôles de qualité des données grâce à une méthodologie de validation des données avec une évaluation quantitative de la qualité des observations. Dans un troisième temps, deux méthodologies d'hybridation des modèles mécanistes et des modèles basés sur les données sont développées pour fournir des estimations de conception basées à la fois sur les connaissances et les données. Enfin, cette méthodologie est appliquée à l'ensemble des données validées, et des méthodes d'optimisation de la conception sont mises au point pour tenir compte de l'incertitude inhérente à la prise de décision.

Additional informations

  • Salle Rhône, Bâtiment INRAE, 5 rue de la Doua, 69100 Villeurbanne

28 May
28/05/2025 09:30

Sciences & Société

Soutenance de thèse : Arthur PACQUELET

Vieillissement et mécanismes de dégradation de microbilles de zircone lors du procédé de broyage en voie humide

Doctorant : Arthur PACQUELET

Laboratoire INSA : MATEIS - Matériaux Ingénierie et Sciences

École doctorale : ED34 : Matériaux de Lyon

La technique de broyage en voie humide au moyen d'un broyeur à billes agité permet de réduire et de contrôler la granulométrie de particules solides en suspension jusqu'à quelques centaines à quelques dizaines de nanomètres. Ce procédé repose sur la circulation d'une suspension à broyer dans une chambre de broyage, remplie de billes de broyage. Ces billes sont mises en mouvement par la rotation d'un arbre d'agitation, ce qui leur confère une certaine énergie cinétique. Les chocs engendrés par les collisions bille-particule-bille et bille-particule-paroi de la chambre entraînent la réduction de taille des particules et modifient leur distribution granulométrique. Néanmoins, ces chocs énergiques répétés entre les billes usent ces dernières, créant une pollution du produit à broyer ainsi qu'un coût supplémentaire pour l'utilisateur. Cette étude porte sur les mécanismes d'usure et de vieillissement de billes de broyage en zircone yttriée lors du procédé de broyage en voie humide. L'objectif des travaux réalisés était d'analyser de manière systématique l'effet de différents paramètres influant sur la dégradation des billes lors de leur usage en tests de broyage applicatifs et d'améliorer la compréhension des processus de dégradation des billes. Des études à différentes échelles ont été menées : à l'échelle du broyeur (effet de la vitesse de broyage, effet de l'usure de l'arbre de rotation, effet du revêtement de la chambre), à l'échelle du matériau de la bille (taux d'yttrium, structure cristalline et caractéristiques de surface) et à l'échelle de la suspension à broyer (effet du pH et de la température). L'étude de la dégradation des billes de broyage au moyen de diverses méthodes expérimentales (diffraction des rayons X, microscopie Raman, microscopie à force atomique, microscopie électronique à balayage et en transmission) a mis en lumière un mécanisme d'arrachement de grains lié à une dégradation subsurfacique des billes lors des impacts, ainsi qu'un changement de régime d'usure à partir d'une certaine vitesse de broyage. Un second axe d'étude, lié à la sensibilité des billes Y-TZP au vieillissement lorsqu'elles sont exposées à un milieu humide selon la température, a été mené au moyen de tests accélérés. Le vieillissement des billes en Y-TZP a ainsi été caractérisé à différents niveaux de pH et dans différents milieux (ammoniaque, acide nitrique et soude). Cette démarche nous a permis de mettre en évidence le rôle peu significatif de ce phénomène sur l'usure des billes de broyage. Une attention particulière a également été portée sur l'effet de la transformabilité des zircones Y-TZP (avec 2, 3 ou 4 mol.% en Y2O3) sur la dégradation des billes pendant le procédé de broyage en voie humide.

Additional informations

  • Amphithéâtre Gaston Berger, 503 Rue de la Physique, 69100, Villeurbanne

Keywords (tags)

26 May
26/05/2025 14:00

Sciences & Société

Soutenance de thèse : Sarah DOURI

Mise en place de références métrologiques pour la mesure de conductivité thermique par microscopie thermique à balayage

Doctorante : Sarah DOURI

Laboratoire INSA : CETHIL - Centre d'Énergétique et de Thermique de Lyon

École doctorale : ED162 MEGA - Mécanique, Énergétique, Génie Civil, Acoustique

La demande croissante de la gestion thermique dans diverses industries (énergie, micro et nanoélectronique...) a fait naître le besoin de techniques de caractérisation thermique fiables à l'échelle micro et nanométrique. La microscopie thermique à balayage (SThM pour « Scanning Thermal Microscopy » en anglais) est un outil intéressant pour la caractérisation des propriétés thermiques et l'étude des mécanismes de transfert de chaleur à ces échelles. Cependant, certains aspects métrologiques restent un défi pour la mesure quantitative et traçable de la conductivité thermique avec la technique SThM. L'objectif de ce travail est d'améliorer la métrologie associée à la mesure de la conductivité thermique avec le SThM pour obtenir des mesures quantitatives, traçables et fiables. L'une des principales contributions de ce travail est l'établissement d'un nouveau modèle 3D par la méthode en éléments finis (MEF) pour la deuxième génération de la sonde Palladium afin de décrire plus précisément la dissipation de la chaleur en son sein ainsi que les différents mécanismes de transfert de chaleur qui se produisent entre la pointe et l'échantillon. Les résultats de simulation révèlent l'influence de la résistance thermique d'interface sur la réponse thermique et la sensibilité de la technique à ce paramètre tant dans l'air que dans le vide. Le transfert de chaleur par conduction en régime balistique (au contact), qui est généralement négligé dans les modèles existants dans la littérature, a été intégré dans le modèle 3D. L'étude met en évidence la nécessité de prendre en compte ce transfert de chaleur lorsque les mesures sont effectuées dans le vide. Une étude comparative entre le modèle 3D MEF et le modèle analytique généralement utilisé expérimentalement pour étalonner les sondes résistives évalue l'applicabilité de l'approche analytique pour les mesures de conductivité thermique et met en évidence ses limites et les améliorations possibles. La partie expérimentale de ce travail se concentre sur l'amélioration de l'installation expérimentale du Laboratoire de mesure et d'essais et des protocoles de mesure pour une mesure plus précise et répétable (reproductible). En outre, une courbe d'étalonnage expérimentale est établie et l'incertitude associée est évaluée à l'aide d'une nouvelle approche. Les résultats montrent que les améliorations apportées à l'installation et aux protocoles de mesure réduisent l'incertitude associée au mesurande, diminuant ainsi l'incertitude associée à l'estimation de la conductivité thermique. L'analyse expérimentale met en évidence que des mesures quantitatives et traçables de la conductivité thermique (pour des échantillons où le transfert de chaleur est principalement diffusif) avec la technique SThM sont possibles pour les matériaux à faible conductivité thermique (actuellement limitée à la plage de 0,187 W.m-1.K-1 jusqu'à 10 W.m-1.K-1) avec une incertitude associée <20 % (k=2).
 

26 May
26/05/2025 10:00

Sciences & Société

Soutenance de thèse : Julia PUIG

Doppler couleur cardiaque à partir d'un nombre réduit d'échantillons par apprentissage profond

Doctorante : Julia PUIG

Laboratoire INSA : CREATIS - Centre de Recherche en Acquisition et Traitement de l'image pour la Santé

École doctorale : ED160 EEA - Électronique, Électrotechnique, Automatique de Lyon

L'échocardiographie Doppler couleur permet la visualisation du flux sanguin à l'intérieur du cœur. Cependant, la faible cadence d'images du Doppler couleur empêche une évaluation quantitative de la vitesse du sang tout au long du cycle cardiaque, compromettant ainsi une analyse complète de la fonction ventriculaire. La formation d'une image Doppler couleur implique une acquisition ultrasonore composée d'environ huit acquisitions temporelles, suivie d'un filtrage du clutter pour récupérer les informations sanguines, puis d'une estimation de la vitesse Doppler. Une solution à la faible cadence d'images consiste à réduire le nombre d'acquisitions temporelles pour la reconstruction de chaque image. Cependant, les méthodes classiques de traitement Doppler couleur pour le filtrage du clutter et l'estimation de la vitesse Doppler sont sensibles à cette réduction d'informations temporelles. Parallèlement, l'apprentissage profond, et en particulier les réseaux de neurones convolutionnels, montrent des résultats prometteurs pour le post-traitement des données échocardiographiques dans diverses applications. Cette thèse explore l'utilisation de modèles d'apprentissage profond pour le traitement Doppler couleur d'acquisitions avec un nombre réduit d'échantillons temporels. Nous avons adopté une approche d'apprentissage supervisé en simulant des acquisitions Doppler couleur cardiaques basées sur des patients à l'aide d'un pipeline de simulation modélisant à la fois les mouvements des tissus et du sang. Nous avons ensuite exploré l'utilisation de modèles U-Net basés sur l'attention pour le filtrage du clutter, obtenant des résultats surpassant ceux d'un filtre passe-haut classique. Pour l'estimation de la vitesse Doppler à partir des signaux filtrés, nous avons proposé des modèles d'apprentissage profond basés sur U-Net, ainsi que des stratégies d'augmentation de données permettant d'égaler ou de surpasser la méthode de référence par autocorrélation, tout en atténuant efficacement l'aliasing et le bruit. Pour ces deux tâches, nous avons comparé l'utilisation de représentations en valeurs réelles et complexes, et évalué les modèles proposés sur des expériences in silico et in vivo. Globalement, tous les modèles proposés ont montré une bonne capacité de généralisation aux données in vivo malgré un entraînement uniquement sur des séquences in silico. Enfin, la combinaison des deux méthodes a donné des résultats prometteurs sur des acquisitions avec seulement trois échantillons temporels. Ces résultats démontrent l'intérêt des méthodes d'apprentissage profond supervisé pour le traitement Doppler couleur à partir d'un nombre réduit d'acquisitions.

Additional informations

  •  Salle de conférence de la BU sciences de la Doua, Domaine de la Doua, 20 Av. Gaston Berger, 69100 Villeurbanne

16 May
16/05/2025 09:00

Sciences & Société

Soutenance de thèse : Célia Sondaz

Vers une qualification interdisciplinaire de la vulnérabilité sanitaire individuelle et des vécus face aux fortes chaleurs : croisement et mise à l'épreuve de la modélisation du stress et des astreintes thermiques avec le terrain ethnographique

Doctorante : Célia Sondaz

Laboratoire INSA : CETHIL - Centre d'Énergétique et de Thermique de Lyon

École doctorale : ED162 MEGA - Mécanique, Énergétique, Génie Civil, Acoustique

L'exposition aux vagues de chaleur, de plus en plus fréquentes, longues et intenses, altère la santé et le bien-être des habitants, notamment en milieu urbain. Les interactions entre les individus et leur environnement physique et social à l'origine de cette altération sont complexes, multifactorielles et multidimensionnelles. C'est pourquoi cette thèse propose et expérimente une approche interdisciplinaire de qualification des conséquences des surchauffes urbaines sur la santé individuelle et de la vulnérabilité associée. Deux méthodes sont ainsi croisées : (i) la modélisation et la simulation numérique des ambiances thermiques intérieures et des réactions thermo-physiologiques associées, (ii) le recueil et l'analyse des réactions à la chaleur, des stratégies d'adaptation, des percepts et des représentations individuelles et sociales, via une enquête qualitative de terrain. Cette approche a été expérimentée sur une population épidémiologiquement vulnérable aux fortes chaleurs, les femmes âgées, et en se consacrant principalement à l'exposition à l'intérieur des logements. Dans cette thèse, la modélisation a pour objectif d'étudier l'exposition thermique dans le logement ainsi que les réactions physiologiques induites. Pour cela, le modèle thermo-physiologique multisegments et multi-nœuds JOS-3 a été adapté pour simuler les astreintes thermiques, hydriques et cardiovasculaires. Ainsi, le nouveau modèle développé, aJOS-3, inclut un bilan hydrique complet, le calcul de la fréquence cardiaque et les limites de thermorégulation dues aux astreintes hydriques et cardiovasculaires. Des études de sensibilité de aJOS-3 à ses paramètres d'entrée, au pas de temps et aux asymétries en entrée ont montré la pertinence, en première approximation, de réaliser des simulations en série avec le modèle de STD de bâtiment EnergyPlus avec un pas de temps de 15 minutes. En parallèle de la modélisation, l'enquête de terrain réalisée auprès de 7 femmes de plus de 70 ans vivant seule dans trois modes d'habiter différents durant les étés 2022 et 2023 a reposé sur: (i) des mesures thermiques en continu dans les logements, (ii) des entretiens semi­ directifs, et (iii) un suivi quotidien à l'aide de carnets de bord et d'entretiens téléphoniques. Les résultats montrent notamment que les réactions psychologiques, sociales et comportementales sont au moins aussi problématiques que les symptômes physiques pour les participantes. Les percepts thermiques sont influencés par de multiples facteurs, et les représentations de la chaleur et de la vulnérabilité jouent un rôle clé dans l'adoption de stratégies d'adaptation ainsi que dans la tolérance à la chaleur et à ses conséquences. Au travers de deux études de cas, la chaîne de modèles EnergyPlus - aJOS-3 a été mise à l'épreuve du terrain afin d'évaluer son apport pour la compréhension des réactions à la chaleur. La comparaison des astreintes physiologiques simulées avec les vécus estivaux rapportés suggère que ce croisement des approches constitue un outil pertinent pour personnaliser les stratégies d'adaptation à conseiller. De plus, la modélisation des astreintes avec aJOS-3 semble plus représentative de la répartition temporelle des réactions physiques que l'estimation d'indices de stress thermique classiques tels que la PET. Le développement méthodologique, l'analyse du terrain et les études de cas montrent comment le croisement de la modélisation du stress et des astreintes thermiques avec le terrain permet d'appréhender les vécus et réactions en périodes de forte chaleur, par exemple par l'identification des réactions les plus marquantes, par celles des facteurs affectant l'exposition, les percepts ou la tolérance aux réactions, etc. L'approche interdisciplinaire permet également d'identifier les besoins, atouts, limites et perspectives propres aux différentes méthodes ainsi que les enjeux liés à leur croisement interdisciplinaire.

Additional informations

  • Salle de Conférence de la BU Sciences de Lyon 1, 20 avenue Gaston Berger, 69100 Villeurbanne

21 May
21/05/2025 08:30

Sciences & Société

Soutenance de thèse : Théo LANGLOIS

Empreintes sociétales et performances mécaniques dans les alliages multi-élémentaires

Doctorant : Théo LANGLOIS

Laboratoire INSA : MATEIS - Matériaux Ingénierie et Sciences

École doctorale : ED34 ML - Matériaux

Dans le contexte actuel de transition écologique, motivé par les préoccupations liées à la pollution, au réchauffement climatique et à la consommation des ressources non renouvelables, il est urgent de se tourner vers des sources d'énergie et des matériaux plus verts. Les métaux ont un rôle central dans cette transition écologique. Au cours des prochaines décennies, la demande en lithium, nickel et autres métaux stratégiques devrait augmenter de manière drastique. Les alliages à entropie moyenne (MEA) et à haute entropie (HEA), composés de plusieurs métaux en proportions approximativement égales, représentent des alternatives prometteuses aux alliages conventionnels. Certains HEA se distinguent par leurs excellentes propriétés mécaniques, résistance à la corrosion et stabilité des propriétés malgré les variations de composition, ouvrant une voie pour réduire la dépendance aux matériaux critiques. Parmi les HEA offrant une excellente performance en tenacité figurent l'alliage de Cantor (CoCrFeMnNi) et le ternaire CrCoNi, avec une amélioration des propriétés mécaniques à températures cryogéniques. Parmi les applications industrielles potentielles des HEA, le stockage et le transport de l'hydrogène offrent un support pour l'adoption de l'hydrogène comme source d'énergie plus verte dans la transition écologique. Cependant, l'utilisation du cobalt dans de nombreux HEA suscite des préoccupations en terme d'impacts environnementaux, économiques et sociaux. Ce travail vise à développer de nouveaux MEA axés sur la durabilité tout en maintenant leurs performances mécaniques. Nous étudions de nouvelles compositions autour de la base CrCoNi avec faible teneur en cobalt. Nous démontrons que l'ajout de silicium à nos nouvelles compositions réduit drastiquement l'impact durable de nos matériaux tout en maintenant des performances mécaniques exceptionnelles. Une méthodologie pour développer de nouvelles compositions de HEA a été développée. Nous avons développé un processus d'alliage rapide permettant une prédiction, une fabrication, une caractérisation microstructurale et mécanique à grande échelle et rapide d'un large éventail de HEA. Nous appelons ce processus « Fast Alloying » (FA). Cette méthode comprend l'utilisation de modèles de prédiction, suivie par fabrication de multiples compositions d'alliages (jusqu'à 30 par jour) par four à arc, traitements thermiques et techniques de caractérisation microstructurale (diffraction à rayons X, analyses chimiques et microscopie électronique à balayage). De plus, des essais mécaniques rapides en dureté et en compression sont effectués. Une méthode plus avancée implique la fabrication de quatre compositions prometteuses par four à arc, des traitements thermomécaniques (homogénéisation, laminage à froid et recuit), une analyse microstructurale (XRD, GDOES, EDS, EBSD) et des essais mécaniques (dureté, plastométrie, essais de traction à température ambiante et cryogénique). Nos résultats démontrent la possibilité de développer des alliages performants et durables, en réduisant la dépendance aux éléments critiques tels que le cobalt et en optimisant les compositions des alliages grâce aux modèles de prédictions.

Additional informations

  • Amphithéatre Ouest, Bâtiment Les Humanités, 1 rue des Humanités. 69621 VILLEURBANNE

Pages