
Sciences & Société
Soutenance de thèse : Amaratou MAHAMADOU SALEY
Cadre méthodologique couplant données et connaissances pour la maintenance prédictive en contexte nucléaire
Doctorante : Amaratou MAHAMADOU SALEY
Laboratoire INSA : DISP - Décision et Information pour les Systèmes de Production
École doctorale : ED512 lnfoMaths - Informatique et Mathématiques de Lyon
L'émergence des technologies numériques, des systèmes connectés et de l'IA ouvre de nouvelles perspectives pour faire évoluer les pratiques de maintenance, surtout dans une industrie comme le nucléaire. La surveillance peut devenir plus continue, plus intelligente et plus prédictive. Cette thèse CIFRE avec INEO Nucléaire vise à intégrer les nouvelles possibilités offertes par l'industrie 4.0 sans remettre en cause les pratiques de terrain éprouvées.C'est dans ce contexte que s'inscrit notre question de recherche centrale: Comment exploiter conjointement les données disponibles et les connaissances capitalisées du domaine nucléaire pour améliorer la maintenance d'un système en production, en tenant compte de l'hétérogénéité et de la complémentarité des sources d'information? Nous proposons une méthodologie globale, structurée autour du PHM (Prognostics and Health Management) et conçue pour articuler données et connaissances à chaque étape. Dans chacune de ces étapes, les connaissances issues de l'expertise terrain, des documents techniques ou des historiques de maintenance jouent un rôle actif pour guider l'analyse
des données, enrichir les modèles, ou interpréter les résultats. À partir de cette contribution méthodologique, 3 des phases du PHM sont explorées en détail: détection, diagnostic et pronostic. La première spécialisation vise à l'amélioration de la détection précoce des défauts sur des équipements nucléaires fonctionnant selon un cycle de production. Nous y spécialisons notre méthodologie globale en une méthodologie pour la détection originale basée sur un clustering multi-échelle permettant de détecter les signaux faibles annonciateurs de défaillances. La deuxième spécialisation se concentre sur l'amélioration du diagnostic dans le cas de machines tournantes au sein des installations nucléaires. Nous spécialisons notre méthodologie globale pour proposer une méthodologie hybride qui combine les données hétérogènes obtenues par augmentation des données, les connaissances explicites et tacites du domaine et les techniques d'apprentissage automatiques pour isoler les anomalies détectées et identifier leurs
causes probables. Enfin, la troisième spécialisation porte sur le pronostic. Elle explore comment les connaissances peuvent être exploitées pour améliorer la prédiction des défaillances sur des équipements nucléaires critiques selon un horizon défini. L'ensemble de ces contributions vise à faire progresser la maintenance prédictive en alimentant le PHM avec des connaissances pour intégrer durablement données et expertises dans une même méthodologie rigoureuse, outillée et opérationnelle et testée sur des équipements de l'industrie nucléaire. Nos résultats confirment la valeur ajoutée de l'hybridation des approches à bases des données et celles à bases de connaissances dans un environnement industriel exigeant.
Informations complémentaires
-
Amphithéâtre Laura Bassi, 23 avenue Jean capelle, 69100, Villeurbanne

Sciences & Société
Soutenance de thèse : Matthieu BETTINGER
Résilience à la collusion dans les mécanismes de places de marché décentralisées
Doctorant : Matthieu BETTINGER
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : ED512 Infomaths (Informatique et Mathématiques de Lyon)
Les places de marché décentralisées dans le Web3 cherchent à protéger leurs utilisateurs contre la censure, les biais et les points de défaillance uniques qui peuvent exister dans leurs homologues centralisés. Pourtant, certains mécanismes ont tendance à rester centralisés, par exemple le moteur de recherche permettant de découvrir de nouvelles ressources sur le marché. De telles vulnérabilités ont été exploitées sur des places de marché décentralisées ces dernières années : il est d'autant plus essentiel de fournir des mécanismes de protection. Dans cette thèse, nous proposons des protocoles pour assurer la fiabilité et l'équité des mécanismes des places de marché, notamment par la résilience à la collusion d'acteurs malveillants. Tout d'abord, pour traiter la sélection décentralisée d'un sous-ensemble de participants parmi une population comprenant des acteurs malveillant, nous proposons un protocole basé sur la blockchain pour éviter que les acteurs malveillants n'influencent la sélection à leur avantage. Ensuite, en considérant des ensembles de participants sélectionnés qui travailleront ensemble sur des tâches dans une place de marché décentralisée de ressources cloud, dans un environnement sans accès à des informations fiables ou non confidentielles, nous présentons un mécanisme d'incitation qui punit ou récompense collectivement les participants aux tâches en fonction du résultat de leurs tâches. Nous décrivons et évaluons également la manière d'atteindre un taux de réussite cible des tâches de la place de marché : l'algorithme que nous proposons est capable d'atteindre les objectifs définis et de réduire par 5 à 10 fois le taux d'échec par rapport à un système sans protection. Par ailleurs, nous montrons comment les fournisseurs du moteur de recherche d'une place de marché décentralisée peuvent favoriser un sous-ensemble d'utilisateurs du moteur de recherche. Nous protégeons ces moteurs de recherche avec notre protocole COoL-TEE, qui permet aux utilisateurs honnêtes d'éviter les fournisseurs malveillants de ce moteur de recherche, qui retardent de manière sélective les réponses au profit des utilisateurs qui les soudoient. Les utilisateurs honnêtes collaborent avec des environnements d'exécution de confiance (Trusted Execution Environment, TEE) au sein des machines hôtes des fournisseurs du moteur de recherche, afin de sélectionner des fournisseurs proches, rapides et honnêtes. A partir de simulations d'utilisateurs envoyant des requêtes depuis le monde entier à des fournisseurs géo-distribués hébergés dans des centres de données, nous illustrons comment COoL-TEE réduit l'avantage des utilisateurs malveillants à un niveau proche d'un scénario sans attaques. Enfin, de nombreux protocoles traditionnels et basés sur les TEEs requièrent des mesures temporelles fiables pour leur logique d'exécution, y compris COoL TEE. Cependant, des attaquants qui contrôlent le système d'exploitation sont capables d'attaquer la perception du temps du TEE et, par conséquent, de manipuler les protocoles utilisant les mesures temporelles fournies. Nous contribuons une implémentation publique du protocole d'état-de-l'art Triad, dont le code source est fermé, et nous menons des attaques sur celui-ci de manière empirique. Sa calibration peut être manipulée pour affecter la vitesse d'horloge perçue par le TEE. En outre, les attaques sur une machine compromise peuvent se propager aux machines honnêtes participant au protocole de temps de confiance de Triad. Nous discutons comment atténuer ces vulnérabilités afin d'améliorer la résilience contre de telles attaques.
Informations complémentaires
-
Amphithéâtre BU Sciences Lyon 1, 20 avenue Gaston Berger BU Sciences La Doua 69622 Villeurbanne Cedex

Sciences & Société
Soutenance de thèse : Alice BRENON
Méthodes et outils pour l'étude diachronique des discours géographiques dans deux encyclopédies françaises.
Doctorante : Alice BRENON
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : ED512 lnfoMaths - Informatique et Mathématiques de Lyon
Dans le cadre du projet GEODE du LabEx ASLAN, cette thèse étudie en diachronie les discours géographiques dans deux encyclopédies françaises. L'Encyclopédie, Dictionnaire Raisonné des sciences, des arts et des métiers (EDdA), emblématique du siècle des Lumières, constitue la borne la plus ancienne de l'intervalle. Celui-ci s'étend jusqu'à la fin du XIXᵉ siècle, représenté par La Grande Encyclopédie, Inventaire raisonné des Sciences, des Lettres et des Arts (LGE). Au travers de trois contributions principales, les travaux abordent des thématiques telles que la préparation des données et l'encodage en particulier, la classification automatique et les analyses textométriques. En confrontant des méthodes simples de la théorie des graphes à des remarques structurelles sur les éléments présents dans les encyclopédies, la première étude souligne les différences fondamentales qui existent entre dictionnaires et encyclopédies en termes de structures et aboutit à la proposition d'un encodage XML-TEi pour représenter une encyclopédie, qui est appliqué sur la première édition numérique de LGE. La comparaison de méthodes de classifications permet ensuite de choisir un modèle pour associer un domaine de connaissance à chaque article du corpus, ce qui rend possible la conduite d'analyses contrastives dans la dernière partie de la thèse. Un examen attentif des erreurs commises par un des classifieurs sur l'EDdA révèle des ressemblances existant entre les domaines et montre une Géographie très au contact des autres sciences au XVIIIe siècle. Pour finir, les deux œuvres sont comparées pour mettre en relief les changements survenus dans la manière d'écrire la Géographie. Un premier développement quantifie puis caractérise la variation dans les articles du domaine (à l'aide de statistiques sur le nombre de mots et leurs longueurs puis en étudiant les mouvements d'entrées entre domaines) Les apports de la textométrie sont enfin utilisés pour approfondir la compréhension des liens entre biographies et discours géographiques.
Informations complémentaires
-
Amphithéâtre Chappe, Bâtiment Hedy Lamarr, 6 avenue des Arts, Villeurbanne cedex 69621

Sciences & Société
Soutenance de thèse : Yacine BELAL
Apprentissage Collaboratif de Confiance : Personnalisation, Confidentialité et Robustesse en Environnements Décentralisés
Doctorant : Yacine BELAL
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : n°512 lnfoMaths - Informatique et Mathématiques de Lyon
Il y a une vingtaine d'années, l'émergence du Web 2.0 a profondément transformé notre rapport au numérique en permettant aux utilisateurs de créer et partager du contenu sur une multitude de plateformes, générant ainsi un volume croissant de données. Combinée aux récents progrès en apprentissage automatique, cette abondance de données a permis l'apparition de nombreux services basés sur l'apprentissage (e.g., agents conversationnels, assistants vocaux, détection de fraude). Traditionnellement, l'entraînement des modèles sous-jacents à ces services reposait sur la collecte de données sensibles par des entités centralisées, souvent les fournisseurs de service eux-mêmes. Cette centralisation a soulevé de sérieuses préoccupations en matière de confidentialité, comme en témoignent les multiples scandales liés à la vie privée au cours de la dernière décennie. En réponse, plusieurs réglementations, telles que le Règlement Général sur la Protection des Données (RGPD), ont été mises en place. Dans ce contexte, repenser les paradigmes d'apprentissage classiques pour les rendre plus respectueux de la vie privée est devenu essentiel. L'apprentissage fédéré a vu le jour en 2017 avec la promesse de préserver la confidentialité des données en permettant à des utilisateurs d'entraîner collaborativement un modèle sans jamais partager leurs données brutes. Ce paradigme a donné naissance à une classe plus large d'approches appelée apprentissage collaboratif. Il est désormais bien établi que l'apprentissage fédéré souffre de plusieurs limitations, notamment sa dépendance à un serveur central (point de défaillance unique) et sa vulnérabilité à diverses attaques en confidentialité et robustesse. C'est dans cette optique que l'apprentissage par commérage a été proposé, avec la promesse d'une décentralisation totale, s'appuyant sur des protocoles de communication pair-à-pair, dits protocoles de bavardage. Dans ce paradigme, chaque nœud agit comme un mini-serveur fédéré, coordonnant l'apprentissage avec ses voisins via un graphe de communication dynamique. Toutefois, il reste à démontrer si cette approche permet réellement de dépasser les limites de l'apprentissage fédéré, notamment en matière de personnalisation, de protection de la vie privée et de robustesse face aux comportements malveillants. Cette thèse s'attache à explorer ces questions. Dans un premier temps, nous comparons les performances individuelles des modèles produits par ces deux paradigmes, avant de proposer PEPPER, une structure logicielle permettant d'exploiter pleinement le potentiel de l'apprentissage par commérage à des fins de personnalisation, et de surpasser l'approche fédérée sur cet aspect. Dans un second temps, nous introduisons CIA, une attaque d'inférence de communautés utilisée pour auditer les vulnérabilités de confidentialité des deux paradigmes. Cette étude révèle une certaine résilience intrinsèque de l'apprentissage par commérage face à ce type d'attaques d'inférence comparative. Enfin, nous nous penchons sur la robustesse de ce paradigme face aux attaques par empoisonnement de modèles. Bien que sa nature dynamique puisse l'exposer davantage à ce type de menaces, nous proposons GRANITE, un cadre logiciel robuste pour l'apprentissage par commérage sur des graphes dynamiques. Dans l'ensemble, ce travail met en évidence le potentiel de l'apprentissage par commérage à s'imposer comme une alternative crédible à long terme pour des systèmes d'apprentissage décentralisés, transparents et centrés sur l'utilisateur.
Informations complémentaires
-
Amphithéâtre de la BU Sciences DOUA, 20 avenue Gaston Berger 69622 Villeurbanne Cedex

Sciences & Société
Soutenance de thèse : Aghile AIT MESSAOUD
Systèmes de traitement et de stockage distribué confidentiels basés sur les TEEs
Doctorant : Aghile AIT MESSAOUD
Laboratoire INSA : LIRIS - Laboratoire d'lnfoRmatique en Image et Systèmes d'information
École doctorale : n°512 lnfoMaths - Informatique et Mathématiques de Lyon
Les données sont devenues un moteur essentiel du monde numérique, alimentant l'innovation et les stratégies commerciales. Toutefois, leur manipulation s'accompagne d'importants enjeux de sécurité et d'éthique, car elles peuvent contenir des informations sensibles nécessitant une protection stricte. Toute violation peut entraîner des atteintes à la vie privée, des pertes financières et une perte de confiance. Pour garantir leur sécurité, il est crucial de les protéger dans leurs trois états : en transit, au repos et en cours d'utilisation. Les données en transit doivent être chiffrées pour éviter toute interception, celles au repos sécurisées par des contrôles d'accès stricts et un chiffrement robuste, tandis que celles en cours de traitement nécessitent un environnement protégé pour empêcher tout accès non autorisé. Les environnements d'exécution fiables jouent un rôle clé en isolant les données sensibles, même vis-à-vis des processus système ou du système d'exploitation. Cette recherche se divise en deux parties principales. La première porte sur la sécurisation des données en cours d'utilisation, en étudiant l'apprentissage fédéré comme cas d'usage spécifique. Ce paradigme d'apprentissage automatique préservant la confidentialité reste vulnérable aux attaques visant la mémoire principale des dispositifs clients, pouvant révéler des informations sensibles sur les données utilisées pour l'entraînement du modèle. Face à ces menaces, GradSec a été développé pour sécuriser l'apprentissage fédéré contre ces attaques. Cette solution exploite ARM TrustZone, un environnement d'exécution fiable conçu pour les appareils mobiles, afin de protéger les couches critiques du modèle en fonction des attaques identifiées. La seconde partie traite de la sécurisation des données au repos en s'appuyant sur les bases de données dé-valeur en mémoire, choisies pour leur flexibilité et leur capacité à stocker divers types de données via sérialisation. Une analyse approfondie des bases de données dé-valeur basées sur des environnements d'exécution fiables a mis en évidence leurs architectures et composants fondamentaux, tout en révélant leur vulnérabilité aux attaques par canaux auxiliaires. Pour atténuer ce risque, TruShare a été conçu comme un système de stockage distribué confidentiel combinant environnements d'exécution fiables et partage de secret. En fragmentant les données sensibles entre plusieurs nœuds, cette approche rend les fuites de données beaucoup plus complexes pour un attaquant. Ces travaux de recherche visent à répondre aux défis de la sécurité des données dans des environnements non fiables, en garantissant une confidentialité renforcée aussi bien lors du traitement que du stockage des informations.
Informations complémentaires
-
Salle de Conférence de la BU Sciences La Doua, 20 avenue Gaston Berger, 69100 Villeurbanne

Recherche
Venez encourager les doctorantes et doctorants lors de la finale locale Ma thèse en 180 secondes.
La finale locale Université de Lyon du concours international francophone Ma thèse en 180 secondes se déroulera jeudi 20 mars 2025, à 18h au Grand Amphithéâtre de l'Université de Lyon. Finale retransmise également sur les comptes Facebook et YouTube de l'Université de Lyon.
Un jury composé de chercheurs, journalistes et représentants du monde socio-économique décernera trois prix. Vous aurez également la possibilité de décerner le prix du public en assistant à la finale.
Le 1ᵉʳ prix du jury et le prix du public seront les deux lauréats Université de Lyon qui accéderont à l'étape nationale du concours.
Parmi les 12 candidats sélectionnés, Syrine Salouhou représentera les couleurs de l'INSA Lyon pour sa thèse "Analyse conjointe de trajectoires spatiales et oculaires pour le dépistage de la maladie d'Alzheimer" réalisée au sein de l'école doctorale Infomaths (ED 512) et du laboratoire LIRIS
Grand Amphithéâtre de l'Université de Lyon - 90 rue Pasteur 69007 Lyon
Finale nationale prévue pour le 17 juin 2025.
---------------
Ma Thèse en 180 secondes propose aux doctorants de présenter, devant un jury et un auditoire profane et diversifié, leur sujet de recherche en termes simples. Douze doctorantes et doctorants du site Lyon Saint-Étienne exposeront, en 3 minutes, de manière claire, concise et néanmoins convaincante, leur projet de recherche.

Sciences & Société
Ma thèse en 180 secondes : finale locale "Université de Lyon"
Venez encourager les doctorantes et doctorants lors de la finale locale Ma thèse en 180 secondes.
La finale locale Université de Lyon du concours international francophone Ma thèse en 180 secondes se déroulera jeudi 20 mars 2025, à 18h.
À suivre en présentiel ou en direct sur YouTube et sur la page Facebook Université de Lyon.
Un jury composé de chercheurs, journalistes et représentants du monde socio-économique décernera trois prix. Vous aurez également la possibilité de décerner le prix du public en assistant à la finale.
Le 1ᵉʳ prix du jury et le prix du public seront les deux lauréats Université de Lyon qui accéderont à l'étape nationale du concours.
Parmi les 12 candidats sélectionnés, Syrine Salouhou représentera les couleurs de l'INSA Lyon pour sa thèse "Analyse conjointe de trajectoires spatiales et oculaires pour le dépistage de la maladie d'Alzheimer" réalisée au sein de l'école doctorale Infomaths (ED 512) et du laboratoire LIRIS
Finale nationale prévue pour le 17 juin 2025.
---------------
Ma Thèse en 180 secondes propose aux doctorants de présenter, devant un jury et un auditoire profane et diversifié, leur sujet de recherche en termes simples. Douze doctorantes et doctorants du site Lyon Saint-Étienne exposeront, en 3 minutes, de manière claire, concise et néanmoins convaincante, leur projet de recherche.
Informations complémentaires
-
Grand Amphithéâtre de l'Université de Lyon - 90 rue Pasteur 69007 Lyon

Sciences & Société
Soutenance de thèse : Zhiyi ZHANG
Déploiement de stations de base déplaçables dans des réseaux cellulaires
Doctorant : Zhiyi ZHANG
Laboratoire INSA : CITI
École doctorale : ED 512 Infomaths
Travaux de thèse dirigés par Monsieur Razvan STANICA et Monsieur Fabrice VALOIS
Composition du jury proposé
M. Razvan STANICA INSA Lyon Directeur de thèse
M. André-Luc BEYLOT ENSEEIHT Rapporteur
Mme Véronique VEQUE Université Paris Saclay Rapporteure
M. Fabrice VALOIS INSA Lyon Co-directeur de thèse
M. Walid DABBOUS Centre Inria d’Université Côte d’Azur Examinateur
M. Xavier LAGRANGE IMT Atlantique Examinateur
Mots-clés : Stations de base déplaçables, Réseau mobile, Mobilité,,
Résumé :
Dans les réseaux mobiles commerciaux actuels, nous utilisons des stations de base fixes (FBS) pour fournir des services aux utilisateurs. Cependant, la première étape pour déployer des stations de base fixes nécessite des études détaillées pour déterminer l'architecture, l'emplacement des stations de base, leur capacité, leurs configurations, etc. Avec la miniaturisation des équipements électroniques et la virtualisation des fonctions réseau, il est désormais possible d'envisager d'intégrer des stations de base sur des plateformes mobiles (par exemple, des drones) capables d'ajuster leur position lorsque cela est nécessaire. Pour le projet ANR DEMON qui finance cette thèse, l'objectif est d'établir un réseau mobile adaptatif avec des stations de base déplaçables (MBS). Les MBS peuvent ainsi se repositionner pour s'adapter aux changements du réseau en temps réel. Tout d'abord, nous devons comprendre ce que l'utilisation des MBS dans les réseaux mobiles peut apporter aux utilisateurs et aux opérateurs de télécommunications. Par conséquent, cette thèse explore les avantages et les limites de l'utilisation des MBS dans les réseaux mobiles. Nous étudions progressivement l'utilisation des MBS dans trois scénarios : une zone d'urgence après un désastre, un quartier urbain et une ville entière. Dans cette thèse, nous montrerons que les MBS peuvent ajuster leur position en temps réel en fonction de la mobilité des utilisateurs et des demandes des utilisateurs. Les MBS peuvent souvent surpasser les FBS en termes de performance, avec moins de stations de base déployées. Par exemple, lorsque les utilisateurs forment un groupe, si les MBS et les FBS ont la même puissance d'émission, les MBS peuvent quadrupler le débit utilisateur. De plus, nous mettrons en avant que lorsque la puissance d'émission des MBS est inférieure de 50 dBm à celle des FBS, les performances peuvent être comparables. La demande de trafic dans les réseaux mobiles évolue dans le temps et dans l'espace. En utilisant des FBS, nous devons répondre à la demande la plus élevée. Grâce à la flexibilité et à la mobilité des MBS, celles-ci peuvent être auto-déployées uniquement lorsque cela est nécessaire, ce qui réduit les coûts d'environ 20 %. L'utilisation des MBS permet de rendre le concept de réseau auto-déployable une réalité.
Informations complémentaires
-
Amphithéâtre ouest des Humanités, INSA-Lyon (Villeurbanne)

Sciences & Société
Soutenance de thèse : Jan AALMOES
« IA pour des services moraux : concilier équité et confidentialité »
Doctorant : Jan AALMOES
Laboratoire : CITI
École doctorale : ED512 : InfoMaths (Informatique et Mathématiques de Lyon)
L’intelligence artificielle (IA) est de plus en plus présente dans de nombreux domaines comme la santé, les médias ou les ressources humaines.
Ces technologies induisent des risques pour la confidentialité des données personnelles des utilisateurs et peuvent introduire des biais discriminatoires rendant les décisions automatiques non équitables.
Cette inéquité est étudiée à deux niveaux dans la littérature scientifique.
L'équité individuelle cherche à s'assurer que les IA se comportent de la même manière à toutes choses égales, excepté un attribut sensible comme la couleur de peau.
L'équité de groupe, quant à elle, cherche à comprendre les différences de traitement par les IA entre les minorités.
Ma principale contribution vise à comprendre le lien entre l’équité de groupe et la confidentialité des attributs sensibles des utilisateurs.
Notre approche théorique nous a amené à démontrer que, sous un certain aspect, la confidentialité et l’équité pouvaient travailler de concert pour créer des IA plus fiables.
Nous avons validé ces résultats en suivant une approche expérimentale en étudiant des bases de données et des algorithmes d'apprentissage standards.
Pour ce faire nous commençons par présenter un état de l'art qui permet de mieux comprendre ce qu’est l’IA et quels sont les enjeux et les régulations.
Nous verrons ainsi que l’équité et la confidentialité sont des points capitaux qu’il faut prendre en compte pour un développement moral de l’IA.
Ensuite nous présenterons un nouvel algorithme d’apprentissage automatique que nous utiliserons pour construire une attaque d'inférence d'attributs sensibles.
Enfin, les données synthétiques sont utilisées pour contourner les obligations légales de protection des données personnelles.
Nous explorerons donc l’impact de l’utilisation des données synthétiques pour l'entraînement des IA sur l'inférence d'attributs sensibles.
Informations complémentaires
-
Amphithéâtre Grignard, Lyon 1 (Villeurbanne)
Mots clés

Sciences & Société
Soutenance de thèse : Maxime POPOFF
« Compilation of Real-Time Audio DSP on FPGA »
Doctorant : Maxime POPOFF
Laboratoire INSA : CITI
École doctorale : ED512 : Infomaths
La mise en œuvre du traitement du signal numérique (DSP) audio en temps réel sur FPGA a été largement étudiée dans le passé. Jusqu’à présent, les designs hardwares audio étaient conçues soit "à la main" en VHDL, soit en assemblant des IPs prédéfinies dans des environnements dédiés. L’avènement de la synthèse de haut niveau (HLS) permet un véritable flux de compilation depuis les spécifications DSP audio de haut niveau jusqu’aux flux binaires FPGA. Cette thèse présente les principes et l’implémentation du premier “compilateur DSP audio” ciblant les FPGA.
Notre système compile les programmes DSP audio exprimés dans le langage Faust ou C++ jusqu’au matériel FPGA et jusqu’à la production sonore réelle. De nombreux paramètres tels que le nombre de canaux de sortie, le taux d’échantillonnage, etc. sont ajustés automatiquement par le compilateur. Des interfaces logicielles peuvent être générées pour contrôler le système en temps réel. Ce flot de compilation présente deux avancées technologiques importantes pour les programmeurs audio : l’implémentation de programmes DSP audio en temps réel à très faible latence (quelques microsecondes) et la possibilité de déployer facilement des systèmes avec un grand nombre de canaux audio.
Informations complémentaires
-
Amphithéatre Chappe - Bâtiment Hedy Lamarr - Villeurbanne