Sciences & Société
Soutenance de thèse : Saida BENARBA
Intelligence Artificielle Digne de Confiance Grâce à l’Apprentissage Fédéré Équitable et Respectueux de la Vie Privée
Doctorante : Saida BENARBA
Laboratoire INSA : LIRIS - Laboratoire d’InfoRmatique en Image et Systèmes d’information
Ecole doctorale : ED512 InfoMaths - Informatique et Mathématiques de Lyon
L’augmentation massive du volume de données disponibles a transformé l’informatique moderne, contribuant à l’essor de l’apprentissage automatique dans plusieurs domaines tels que la santé, la finance et les systèmes autonomes. Cette dépendance croissante aux modèles d’apprentissage pour la prise de décision dans ces domaines soulève des préoccupations majeures en matière d’équité et de confidentialité, étant donné que les décisions qu’ils produisent peuvent influencer de manière significative les individus et les organisations dans des contextes d’application réels. Motivés par la nécessité de mieux comprendre et d’atténuer ces enjeux, la présente recherche étudie les défis associés à ces problématiques et propose des contributions notables en faveur de systèmes d’apprentissage plus responsables et plus fiables. La première partie de cette thèse porte sur l’équité, devenue une préoccupation centrale en apprentissage automatique en raison de son potentiel à amplifier les disparités et à renforcer les biais existants. Ce constat, associé à l’émergence de régulations telles que l’AI Act de l’Union européenne et l’Executive Order américain, souligne la nécessité d’intégrer l’équité comme principe fondamental dans la conception des systèmes d’apprentissage automatique. Compte tenu de cela, nous avons examiné comment les méthodes de sélection automatique de données, souvent utilisées pour améliorer l’efficacité en termes de temps en utilisant des sous-ensembles plus petits d’entraînement plutôt que le jeu de données complet, influencent l’équité et la qualité des modèles. Nous avons mené la première analyse à grande échelle révélant l’impact souvent ignoré de la sélection sur ces deux aspects, nous avons identifié les facteurs clés qui en sont à l’origine et nous avons avancé des pistes pertinentes pour favoriser un apprentissage plus équitable et efficace. Parallèlement aux régulations promouvant un apprentissage plus équitable, d’autres insistent sur la protection des données utilisées, tel que le règlement général sur la protection des données (RGPD), qui a favorisé l’adoption de l’apprentissage fédéré, permettant à plusieurs parties d’entraîner un modèle global sans partager leurs données. Cependant, la nature distribuée et collaborative de ce paradigme d’apprentissage amplifie les biais hérités de l’apprentissage centralisé et introduit également de nouveaux types de biais. Pour éclairer ces enjeux, nous nous avons proposé une revue approfondie de l’équité en apprentissage fédéré, identifiant les principales sources de biais, couvrant l’ensemble des stratégies de mitigation existantes, et mettant en évidence des pistes de recherche encore ouvertes pour faire progresser l’équité dans ce cadre. Bien que l’apprentissage fédéré permette à plusieurs parties d’entraîner un modèle sans partager leurs données locales, de nombreuses études montrent qu’il reste vulnérable à diverses menaces portant atteinte à la vie privée des utilisateurs. Parmi ces menaces figurent les attaques d’inférence d’appartenance, qui permettent à un adversaire de déterminer si un point de données faisait partie de l’ensemble d’entraînement, exposant potentiellement des informations confidentielles. Dans ce contexte, la deuxième partie de cette thèse se concentre sur les atteintes à la vie privée en apprentissage fédéré, en accordant une attention particulière aux attaques d’inférence d’appartenance. Pour contrer ces attaques, nous avons introduit GAPER, une méthode granulaire et adaptative fondée sur la confidentialité différentielle, offrant une protection efficace contre ce type d’attaque tout en préservant la qualité du modèle, et soutenue à la fois par des garanties théoriques et des évaluations empiriques. De manière plus générale, ces travaux font progresser le développement de systèmes d’apprentissage non seulement performants, mais également fondamentalement alignés avec les principes d’équité et de confidentialité.
Informations complémentaires
-
Amphithéâtre Claude Chappe, Bâtiment Hedy Lamarr, INSA Lyon, 3–5 rue de la Physique, 69621 Villeurbanne, France