
Sciences & Société
Soutenance de thèse : Théotime GROHENS
Ride the Supercoiling: Evolution of Supercoiling-Mediated Gene Regulatory Networks through Genomic Inversions
Doctorant : Théotime GROHENS
Laboratoire INSA : LIRIS
Ecole doctorale : ED512 InfoMaths
Evolution is often considered an unpredictable process, as genetic mutations happen at random.
But the fixation of mutations is not completely arbitrary, as mutations need to pass the sieve of natural selection to be retained.
In particular, the beneficial or deleterious character of a mutation can depend on the genetic background in which it happens, an effect called epistasis.
In this work, I study a particular kind of epistatic interactions in bacteria: the interplay between mutations in the mechanisms regulating DNA supercoiling -- the level of over- or under- winding of DNA -- and genomic rearrangements. I present _EvoTSC_, a mathematical and computational model of DNA supercoiling tailored to study the mutual interaction between gene transcription and DNA supercoiling (the _transcription-supercoiling coupling_ or TSC), and integrated into a full-fledged evolutionary simulation.
I first validate the model by showing that evolution can leverage this coupling to evolve gene regulatory networks that are able to tune gene expression levels in response to environmental perturbations, by changing only the relative positions of the genes through genomic inversions.
I then show that, in _EvoTSC_ as well as in the evolutionary simulation platform _Aevol_, introducing supercoiling mutations does not seem to speed up evolution, indicating that the evolutionary relevance of epistatic interactions might be not as important as initially thought.
Using _EvoTSC_, I additionally show that the TSC can lead some genes to be activated by an excess of positive supercoiling, providing a plausible mechanism to explain the similar behavior observed in many bacterial genes. Finally, I characterize the structure of these supercoiling-mediated gene regulatory networks, showing that they cannot be reduced to local pairwise interactions.
Interaction with many neighboring genes can indeed be needed to regulate gene expression through supercoiling, providing a possible explanation to the evolutionary conservation of gene syntenies.
Informations complémentaires
-
Amphithéâtre 501-337, Bâtiment Ada Lovelace (Villeurbanne)
Derniers évènements
Théâtre « Roméo et Juliette » (section Théâtre-études)
Du 05 au 08 maiAteliers danse avec la Cie MF
Les 15 et 22 mai 2025
Recherche
« L’inclusion des minorités doit être une priorité pour l’IA »
Industrie, médecine, applications de rencontres ou même justice : l’intelligence artificielle (IA) inonde divers aspects de notre vie quotidienne. Seulement, certaines erreurs plus ou moins graves, sont régulièrement relevées dans le fonctionnement de celles-ci. En cause ? Des biais de représentativités présents dans les jeux de données.
Virginie Mathivet, ingénieure INSA du département informatique (2003) et docteure du laboratoire Liris1, est engagée sur la question. Pour l’auteure et conférencière, un maître-mot pour que l’IA ne soit pas un outil de duplication des discriminations déjà vécues dans la vie réelle par certaines minorités : la diversité. Récemment nommée experte IA de l’année 2022, Virginie a partagé son savoir à la communauté dans le cadre de « la semaine des arts et des sciences queer » organisée par l’association étudiante Exit+. Elle alerte sur l’extrême nécessité de porter une attention particulière à l'inclusion dans l’intelligence artificielle. Interview.
On connaît l’importance de la diversité pour faire une société plus égalitaire ; pourquoi est-elle aussi importante dans les jeux de données utilisées par les IA ?
Les intelligences artificielles sont des machines apprenantes : grâce à des bases de données, que l’on appelle des « datasets », des modèles sont fabriqués par des développeurs dans un but précis, par exemple pour détecter des défauts sur les chaînes de fabrication industrielles et pour lesquelles ils donnent de très bons résultats. Cependant, ces dernières années on a vu exploser les applications entraînant des prises de décisions sur les humains : l’accès à un crédit, le recrutement, des décisions de justice… On a aussi vu que ces IA étaient capables d’erreurs systématiques. On se souvient du logiciel de recrutement discriminant d’Amazon dont l’objectif était de faire économiser du temps aux ressources humaines en étudiant les candidatures les mieux notées par la machine. Il s’est avéré que l’algorithme sous-notait les profils féminins fréquemment car les jeux de données utilisés pour modéliser le logiciel s’appuyaient sur les CV reçus les dix dernières années, dont la plupart étaient des candidatures masculines. C’est ce que l’on appelle « un biais » : la machine ne fait jamais d’erreur aléatoire ; elle répète les biais -conscients ou inconscients- que les expérimentateurs ont commis en choisissant les données. Sans diversité, qu’elle soit de genre, culturelle, de génération, l’IA restera une extension des inégalités vécues dans la vie réelle.
Avez-vous d’autres illustrations de ce risque que représente le manque de diversité dans les jeux de données ?
Un exemple assez parlant est celui du système de reconnaissance faciale utilisée par les iPhones. La première version de FaceID n’était pas capable de reconnaître les propriétaires asiatiques car le dataset initial ne comptait pas assez de visages de ce type et l’algorithme n’avait tout simplement pas appris à les reconnaître ! Mais il existe des exemples aux conséquences beaucoup plus graves comme les systèmes de détection automatique des cancers de la peau : l’intelligence artificielle est tout à fait capable de reconnaître des mélanomes sur les peaux blanches, beaucoup moins sur les peaux foncées. Cela occasionne des problèmes d’accès aux soins considérables, en omettant une partie de la population. Pour aller plus loin encore dans l’illustration, de nombreuses applications ne considèrent pas les minorités sexuelles : aujourd’hui, on considère que l’on est soit un homme, soit une femme. Qu’en est-il pour les personnes transgenres, intersexes ou même non-binaires ? C’est le vide intersidéral, notamment lorsqu’il s’agit de traitements médicaux grâce aux IA.
Comment ces biais sont-ils remarqués ou relevés ? Ne peuvent-ils pas être détectés plus en amont ?
Aujourd’hui, les erreurs systématiques sont relevées car certaines personnes en sont victimes et dénoncent les manquements. Souvent, on a la très forte impression d’attendre des conséquences potentiellement graves pour analyser le dataset et tester le modèle. C’est ce qu’il s’est passé avec une voiture autonome d’Uber à Tempe (Arizona) qui a tué un piéton. La raison de l’accident s’est révélée après l’enquête : le dataset n’avait pas permis à l’IA d’apprendre à reconnaître les piétons hors des passages cloutés. La victime, qui marchait à côté de son vélo, a été percutée par la voiture qui arrivait trop vite malgré l’identification tardive de la personne comme un piéton. Il faut croire que les questions financières et les retours sur investissements sont plus importants pour ces entreprises que les dégâts que ces IA peuvent causer, par manquement ou négligence.
Existe-t-il une façon pour les expérimentateurs de se prémunir contre ces biais ?
Il existe une seule solution : diversifier les jeux de données au maximum. Est-ce que toutes les populations sont bien représentées par rapport à la réalité ? C’est la question qu’il faudrait se poser à chaque apprentissage, mais il faut penser à toutes les situations donc c’est extrêmement difficile. Si l’équipe chargée d’implémenter l’IA est composée de personnes venant de tous horizons, on peut arriver à limiter les biais. Chacun arrivant avec sa vision des choses, son quotidien et les situations quotidiennement vécues : celui ou celle dont la mère se déplace avec un déambulateur pensera à telle situation ; ou dont le mari est en fauteuil roulant à d’autres ; ceux avec des enfants penseront autrement, etc. Ça n’est pas tant que les modèles conçus contiennent des biais volontaires, mais il y a forcément des minorités auxquelles on pense moins car nous n’en avons pas de représentations dans nos vies quotidiennes. Autre piste, pour éviter que la technologie ne divise encore plus et ne cause plus de dégâts, un brouillon de loi européenne est actuellement en cours de validation. L’Artificial Intelligence Act doit être voté en 2022 pour une application en 2023.
Quelles seront les grandes lignes de ce règlement ?
Cette loi décompose l’utilisation de l’intelligence artificielle selon trois catégories : les « applications interdites » ; les « applications à haut-risque » ; et les « applications à faible risque ». Pour les « applications à haut risque », comme celles utilisées pour l’autorisation de crédit bancaire ou la justice, elles seront soumises à un certificat de conformité CE avant la vente et l’utilisation du modèle. Ces types d’IA seront certainement les plus surveillées car ce sont les plus propices à reproduire des biais discriminants. Cette législation permettra un premier pas vers l’inclusion, je l’espère, en Europe.
La conférence « Jeux de données - biais et impacts sur les femmes dans un monde numérisé » a eu lieu le mercredi 4 mai,
dans le cadre de la semaine des arts et des sciences Queer organisée par l’association étudiante exit+.
[1] Laboratoire Informatique en Images et Systèmes d’Informations
Podcasts « Les cœurs audacieux » - Saison 2 / Épisode 6 - 19 mai 2022

Recherche
« Les rues de la ville où l’on a grandi ont des impacts sur notre cerveau »
Vous avez un mauvais sens de l’orientation ? Certainement la faute à l’endroit où vous avez grandi selon les travaux d’Antoine Coutrot, chercheur CNRS au laboratoire LIRIS1. Dans un récent article paru dans la revue scientifique Nature2, l’équipe de scientifiques énonce une conclusion aux conséquences importantes pour le diagnostic de certaines maladies comme l’Alzheimer : la topologie des routes et rues de la ville influence la cognition humaine. Antoine Coutrot explique comment, à partir d’un jeu vidéo, son équipe et lui ont constaté que les personnes ayant grandi en dehors des villes bénéficiaient d’un meilleur sens de l’orientation. Explications.
Qu’appelle-t-on sens de l’orientation ?
Le sens de l’orientation n’est pas vraiment une capacité cognitive bien identifiée dans le sens où il fait appel à différentes capacités du cerveau comme la proprioception, la vue, l’ouïe et même l’odorat. C’est un sens qui fait partie de « la théorie de l’intelligence fluide », l’esprit logique que l’on a l’habitude de mesurer par des tests de QI, du calcul mental ou la mémorisation par exemple. Lorsque vous naviguez d’un point A à un point B, votre cerveau n’utilise pas qu’un seul réseau de neurones qui serait uniquement consacré à la navigation spatiale, mais plusieurs réseaux différents. Des expériences scientifiques précédentes avaient déjà été réalisées sur des souris et confirmaient l’hypothèse que la topologie de l’environnement dans lequel on a grandi, avait un impact sur ces mêmes réseaux neuronaux. Notre challenge a été de prouver que c’était aussi le cas chez les humains (sans les enfermer dans une cage !)
Par quel moyen avez-vous réussi à démontrer que l’endroit où l’on grandit avait une influence sur le sens de l’orientation que l’on développe à l’âge adulte ?
Les prémices du projet ont débuté en 2016, lorsque j’étais en post-doc à l’University College London. Je travaillais avec une équipe de chercheurs sur la maladie d’Alzheimer dont la perte de sens de l’orientation est un indice important pour le diagnostic. L’un des enjeux principaux de la récolte de nos données d’étude a été de s’assurer d’avoir des profils de personnes d’horizons et de démographies très différentes. Alors nous avons pensé au jeu-vidéo, pour toucher une grande diversité de profils. Plusieurs milliards de minutes de jeu de divertissement sont consommées chaque jour, alors nous pouvions bien en détourner quelques-unes à des fins utiles ! Nous avons donc repris des tests classiques de la littérature scientifique de navigation spatiale pour les rendre plus ludiques ; après plusieurs mois d’échanges avec des concepteurs de jeu, nous avons créé « Sea heroe quest ». Le jeu consiste à mémoriser sur une carte, un itinéraire exact et à le reproduire le plus fidèlement à bord d’un bateau naviguant dans un univers en 3D. Avant de lancer le jeu, nous avons corrélé cette expérience numérique à des exercices du même type « en vrai », avec un échantillon de profils plus restreints pour s’assurer que c’était bien la capacité d’orientation que nous mesurions et non pas la capacité à jouer aux jeux-vidéos. En trois ans, l’application a été téléchargée plus de 4 millions de fois et près de 400 000 joueurs ont accepté de participer à l’expérience. C’est la plus grande base de données connue jusqu’à aujourd’hui sur le sujet.
Comment avez-vous poursuivi l’analyse de ces données ?
Nous avons interrogé le sujet sous l’angle de plusieurs prismes : l’âge, le genre et la topologie des villes dans lesquelles on a grandi. Pour l’âge, les données ont démontré que la capacité d’orientation diminuait avec les années. Pour le genre, nous avons conclu que le sens de l’orientation entre les hommes et les femmes évoluaient en fonction de l’égalité des droits3 entre les deux sexes dans le pays ; par exemple, les profils de femmes que la loi n'autorisent pas à conduire ont un sens de l’orientation moins développé que celles qui conduisent. L’étude a surtout montré que les capacités d’orientation des individus sont influencées par leur origine géographique : par exemple, lorsque l’on a grandi dans une ville au maillage de rues complexe, nous avons une meilleure adaptation à s’orienter. Plus la ville de notre enfance est « quadrillée », comme les grandes villes américaines ou argentines, moins notre sens de l’orientation sera bon. Nous allons prochainement étudier l’influence du sommeil et du niveau d’éducation sur le sens de l’orientation.
Concrètement, à quels types d’applications cette découverte pourrait-elle servir ?
D’abord, elle fournit une preuve de l’effet de l’environnement sur la cognition humaine et souligne l’importance de l’aménagement urbain sur la fonction cérébrale. En prenant en compte cela, on pourrait imaginer que les urbanistes construisent des villes qui améliorent le développement cérébral ! En fait, cette base de données est une mine pour de nombreuses recherches de tout ordre ; nous avons d’ailleurs beaucoup de demandes de collaborations. Au-delà, cette recherche aura surtout des conséquences sur ce à quoi elle était destinée : améliorer le diagnostic précoce de l’Alzheimer. La perte de sens de l’orientation était un indice important pour le diagnostic de la maladie, seulement, il n’était pas assez précis car beaucoup de personnes ont un sens de l’orientation peu développé. Désormais d’un point de vue clinique, on pourra considérer différemment les patients ayant grandi dans telle ou telle ville. Les diagnostics préventifs des maladies impliquant les réseaux neuronaux utilisés pour le sens de l’orientation, comme Alzheimer ou les troubles de stress post-traumatique, en seront ainsi améliorés.
[1] Laboratoire d'informatique en image et systèmes d'information (CNRS/INSA Lyon/Université Claude BernardLyon 1/Lyon 2/École Centrale de Lyon)
[2] Coutrot, A., Manley, E., Goodroe, S.etal.Entropy of city street networks linked to future spatial navigationability.Nature604,104–110 (2022). https://doi.org/10.1038/s41586-022-04486-7
[3] Selon le « gender gap report » du World Economic Forum : https://www.weforum.org/reports/global-gender-gap-report-2021

Recherche
« Le réseau bitcoin considère que chaque pair a le même pouvoir de décision »
Monnaie « électronique », « numérique », « virtuelle » : autant de termes qui permettent de décrire ce qu’est une cryptomonnaie, sans pièces ni billets. Le bitcoin, qui figure parmi les cryptodevises les plus utilisées, ne dépend d’aucune institution bancaire, mais repose sur la blockchain, une technologie capable d’assurer un historique infalsifiable des transactions effectuées sur le réseau. Comment est-elle créée et comment s'utilise-t-elle ? Créé en 2009, le bitcoin semble avoir conquis de nombreux adeptes, malgré la difficulté technique qu’il revêt. Omar Hasan, maître de conférence à l’INSA Lyon, chercheur en informatique au laboratoire LiRiS1, a fait de la blockchain et de la cryptomonnaie, ses sujets de prédilection. Il en explique le fonctionnement.
Quelles sont les différences entre la cryptomonnaie et la monnaie classique ? Quelles sont les particularités du bitcoin ?
La monnaie classique, que l’on appelle « la monnaie fiat », est créée et réglementée par une entité comme une banque centrale. On dit qu’elle est centralisée. Le bitcoin est une monnaie « décentralisée », c’est-à-dire qu’elle n’appartient pas à une seule entité. Ici, pas de banque centrale, qui fait habituellement office de tiers de confiance, mais une technologie : la blockchain. En créant une chaîne publique infalsifiable, la blockchain permet de vérifier toutes les transactions entre une personne A et une personne B. Le réseau bitcoin permet à tout le monde de participer à la création et à la vérification des transactions.
Comment obtient-on cette monnaie virtuelle ?
La façon la plus simple d’obtenir des bitcoins est de l’échanger avec de la monnaie scripturale, comme si vous échangiez ou achetiez quelque chose sur internet. L’autre façon, celle qui fait beaucoup parler d’elle, est de « miner » le bitcoin, c’est-à-dire de le créer. Pour tenter de récolter l’un de ces bitcoins mis en jeu grâce au minage, il faut résoudre une sorte de « puzzle mathématique ». Basé sur une équation complexe, une « fonction de hash », le puzzle consiste à trouver le texte initial à partir d’un texte final. L’unique option pour trouver la solution est d’essayer chaque possibilité, une par une. C’est ce qui rend le puzzle difficile. Celui qui trouve la solution en premier, soumet son développement au réseau et gagne des bitcoins.
Qui est l’arbitre dans cette activité de minage et décide du vainqueur ?
C’est justement ici que réside la particularité du bitcoin. C’est un fonctionnement qui repose sur le consensus. Il n’y a pas d’arbitre à proprement parler, mais des milliers de pairs sur le réseau qui valident la réponse. La personne qui trouve la solution au puzzle la partage avec tout le réseau pour que celle-ci soit vérifiée par les autres membres. En pratique, vérifier la justesse de la réponse au puzzle est plus facile que sa résolution, donc tout le monde peut vérifier le résultat rapidement et le consensus par la majorité l’emporte. Le réseau bitcoin considère que chaque pair a le même pouvoir de décision.
Donc c’est un système qui se veut, dans le principe, plutôt démocratique ?
Complètement pour l’aspect de vérification des transactions. Pour le minage, le système est en théorie démocratique, mais pas vraiment égalitaire puisque vos chances de miner un bitcoin sont directement liées à la puissance de calcul de votre ordinateur, de votre smartphone ou si vous en avez les moyens, de votre data center ! Souvent, il existe des « pools », des équipes qui mettent en commun leurs forces pour résoudre le puzzle. Mais sur le principe, sur le réseau bitcoin, tout le monde a les mêmes droits.
Vous étudiez le bitcoin depuis plusieurs années et vous avez été témoin de sa conquête du monde. Pensez-vous que le bitcoin dépassera la sphère des « spécialistes » pour s’étendre aux néophytes ?
On constate que les outils proposés pour manier le bitcoin sont de plus en plus faciles d’accès. Vous pouvez même commencer dès aujourd’hui, depuis votre smartphone… Pour le minage, c’est une activité technique qui nécessite de comprendre le protocole, c’est clair. Le bitcoin va certainement subir le même sort que toutes les technologies : au début, tout est complexe et réservé aux experts mais avec le temps, la technologie se démocratise. D’un point de vue informatique, qui est celui qui m'intéresse, c’est très intéressant. Grâce à la blockchain, c’est la première fois que l’on arrive à trouver le consensus probabiliste dans un système décentralisé à cette échelle très large. Je ne sais pas ce qu'il adviendra du bitcoin, mais ce qui est certain, c’est qu’il remet en question nos perceptions et des échanges.
[1] Laboratoire d'Informatique en Image et Systèmes d'information (CNRS/INSA Lyon/Lyon 1/Lyon 2/ECL)

Recherche
Si les algorithmes ont le pouvoir de façonner l’opinion publique, il faut qu’ils puissent le faire avec équité et diversité
« À regarder si vous avez aimé tel film », « notre sélection pour vous », « votre playlist du jour ». Quotidiennement, nos applications préférées suggèrent l’air de rien des contenus capables de retenir l’intérêt. Ces programmes sont l’œuvre d’une mécanique de ciblage comportemental souvent invisible pour l’internaute qui soulève de nombreux enjeux sociétaux. Diana Nurbakova, maître de conférence au laboratoire LIRIS1 et membre de l’équipe DRIM2 travaille à l’analyse et la compréhension de ces systèmes. Voyage au cœur de la machine dont le moteur principal s’avère être lui, bien humain.
Pour les utilisateurs, les systèmes de recommandation de contenus semblent obéir à des règles obscures tant ils sont parfois précis. Comment est-il possible de catégoriser des utilisateurs en fonction de leurs intérêts ?
Le ciblage est basé sur les comportements de chaque utilisateur. Chaque clic, commentaire ou like est une trace numérique traduisant un choix et constitue une base pour établir un profil utilisateur. Il existe des mécanismes de ciblage simples, comme l’association de mots-clés : si vous cherchez des informations sur un vélo, vous pourrez certainement être considéré comme un utilisateur qui sera intéressé par les activités de pleine nature par exemple. Pour aller plus loin dans la compréhension du lien entre clic et profil psychologique, il me semble qu’il est important de rappeler le rôle des émotions sur nos actions digitales. Un bon exemple pour illustrer cela est une analyse à laquelle j’ai participé et qui consistait à étudier la façon dont l’information pouvait évoluer au fil des posts twitter durant le confinement. La question de la crise sanitaire et de la vaccination a suscité beaucoup de réactions polarisées sur les réseaux sociaux. L’objectif premier de notre analyse était de comprendre la façon dont les informations énoncées initialement se transformaient tout au long des discussions sur le réseau social, jusqu’à parfois devenir des informations fausses. Ce qu’il y a de notable, c’est la cascade d’émotions exprimées au fil de la discussion : même si le tweet initial était politiquement neutre, plus le fil du tweet s’allongeait, plus les émotions exprimées étaient fortes. Ce qui m’a particulièrement intéressée dans cette étude était de pouvoir établir un lien avec le profil psychologique des internautes qui intervenaient sur le post. Pour cela, nous avons utilisé la célèbre classification Big five, qui propose cinq grands types de personnalités. Le profil qui ressortait le plus souvent était celui du « névrosisme », qui décrit des états émotionnels réactifs qui peuvent entraver la capacité à raisonner face aux situations stressantes. Voilà une autre façon de constituer un profil d’utilisateur.
Finalement, ces systèmes de recommandations sont à la jonction entre l’informatique et la psychologie ?
Effectivement pour certains cas d’études, il faut s’entourer d’experts en cognition, comme des psycholinguistes par exemple. En tant que chercheurs en données, nous n’inventons rien en psychologie. Nous utilisons des modèles déjà existants et conventionnels. Par exemple, le modèle Big Five dont je parlais, qui regroupe cinq grands groupes de traits de personnalité et habitudes de comportement, a été établi originellement par un psychologue dans les années 1990. Pour réaliser notre étude sur Twitter, nous avons utilisé un service IBM Watson Personality Insights, basé sur cette classification. Il en existe évidemment beaucoup d’autres et les entreprises du numériques ont souvent leurs propres algorithmes et classifications.
La plupart des internautes ont connaissance de la technique de profilage en raison des nombreuses publicités ciblées dont ils sont destinataires chaque jour. N’existe-t-il pas d’utilisations plus vertueuses à ces techniques ?
La modélisation du comportement est une logique mathématique et comme toute technologie, elle peut être détournée et utilisée à mauvais escient. Si nous prenons le cas des GAFAM3, ces entreprises ont en effet des systèmes de profilage très puissants en raison de la quantité et de la qualité des données récoltées chaque seconde. Souvent, elles sont utilisées pour générer du profit. S’il est difficile de reprocher ces activités légalement, éthiquement, c’est une autre question. En tant qu’internaute, je trouve bien sûr que ce système est trop intrusif dans notre quotidien privé et a un trop grand pouvoir d’influence. Mais en matière de recherche, il faut comprendre que le mécanisme a ses vertus. Par exemple, en collaboration avec l’université de Passau en Allemagne, nous avons pour projet le développement d’un outil d’accompagnement et de recommandation à destination de patients atteints d’obésité. Ici, savoir établir un profil type en fonction des choix de l’utilisateur est un avantage énorme, puisqu’il permet un suivi médical personnalisé presque holistique et des résultats certainement plus efficaces que les régimes conventionnels globaux.
Quoiqu’il en soit, ces techniques de modélisation du comportement soulèvent donc de grandes questions éthiques et sociétales ?
Dès lors qu’il s’agit d’outils aussi puissants que l’informatique, les responsabilités sont grandes. Pour l’aspect scientifique, la compréhension du mécanisme du comportement humain est une étude vaste, mais finalement, l’amélioration de l’efficacité des algorithmes en tant que tels ne sont pas vraiment l’objectif. Il me semble que l'objectif le plus responsable ici serait de travailler à garantir la diversité et une certaine forme de liberté d’accès à toutes les informations, sans biais, tout en respectant la vie privée des utilisateurs. Pour illustrer un peu grossièrement, il conviendrait que l’on ne vous propose pas « Le journal de Bridget Jones » ou « Fast and furious » selon le sexe que vous aurez renseigné dans votre profil à l’inscription. En résumé, les algorithmes ne peuvent être que le prolongement des biais que celui ou celle qui l’a créé. Pour moi, la grande question éthique de la modélisation des comportements se trouve ici : si les algorithmes ont le pouvoir de façonner l’opinion publique, sur les réseaux sociaux notamment, il faut qu’ils puissent le faire selon deux valeurs : équité et diversité.
[1] Laboratoire d'Informatique en Images et Systèmes d'Information (CNRS/INSA Lyon/Lyon 1/Lyon 2/ ECL)
[2] Distribution, Recherche d'Information et Mobilité
[3] L'acronyme GAFAM désigne les cinq entreprises américaines du secteur de la technologie les plus populaires et cotées en bourse : Google, Apple, Facebook, Amazon et Microsoft.
Podcasts « Les cœurs audacieux » - Saison 2 / Épisode 6 - 19 mai 2022

Recherche
« Détecter les influenceurs peut aider à prédire les évènements boursiers »
L’information a fait le tour des réseaux sociaux cette dernière semaine : à l’occasion d’une conférence de presse, le champion de football portugais Cristiano Ronaldo a fait chuter le cours de l’action de l’entreprise Coca-Cola de 4 milliards de dollars en écartant deux bouteilles de soda au profit d’une bouteille d’eau. La nouvelle a fait le tour de la toile et a fait sourire Előd Egyed-Zsigmond, chercheur au LiRiS1. Ce passionné d'informatique bien habitué des fluctuations de la NASDAQ2 ne boursicote pas, comme il aime le rappeler. S’il étudie les cours boursiers chaque matin, c’est pour faire avancer la science de la prédiction car sous la mécanique du système boursier se cache une mystérieuse beauté logique et des enjeux scientifiques de taille. Il explique.
En quelques secondes seulement, Cristiano Ronaldo a réussi à influer sur le cours de l’action de l’une des entreprises les plus influentes du monde. Comment est-ce possible ?
Il faut d’abord se pencher sur les mécanismes du marché boursier. La Bourse est dominée par la loi de l’offre et la demande : concrètement, si une action est très recherchée par les acheteurs, son prix monte. À l’inverse, l’action baisse quand il y a plus de vendeurs que d’acheteurs. Tous les initiés vous le diront, lorsque vous voulez faire de la plus-value en bourse, chaque information compte car il faut bien comprendre que les évènements extérieurs agissent directement sur ces fluctuations. Avec un geste comme celui de Ronaldo, vu par des millions de personnes, beaucoup de décideurs ont choisi de suivre la célébrité car il a une influence sur les consommateurs ; c’est une question d’image. Détecter les influenceurs peut bien sûr aider à prédire des évènements boursiers, mais soyons réalistes, les 4 milliards de perte induits par le geste de Ronaldo ne sont pas grand-chose à l’échelle d’une telle entreprise, la baisse était de moins de 2 %. En comparaison, lorsque les terrasses et les restaurants ont fermé en mars 2020 avec la crise sanitaire, la marque de soda avait perdu 30 % de sa valeur. Les évènements politiques et sociaux ont une plus grande influence sur la Bourse.
Pour vos recherches, vous passez beaucoup de temps à surveiller les variations des prix, et vous les mettez en parallèle avec des informations contextuelles. À quoi cela sert-il ?
Notre but est de trouver des liens de corrélations et de cause à effet entre les variations des actions et les actualités. C’est un travail purement informatique sur lequel nous basons le développement d’algorithmes capables de prédire les oscillations. La Bourse est un cas d’école très intéressant car les données sont facilement accessibles et très nombreuses et il est donc aisé d’évaluer l’efficacité de nos méthodes scientifiques. Pour donner une idée du volume, chaque cours de bourse génère quotidiennement quatre valeurs intéressantes au minimum : le prix d’ouverture en début de journée, le minimum, le maximum et le prix de fermeture. Avec mon équipe, nous observons les chiffres quotidiennement, un peu comme des traders : toutes les 5 minutes nous relevons le cours des actions, des tweets et des millions d’articles de presse en ligne. Au milieu de cet océan de données, nous demandons à nos algorithmes de tracer les liens. Mais ces liens ne sont pas une réponse universelle, car beaucoup d’éléments contextuels peuvent nous échapper et influer sur le choix des investisseurs. En fait, un algorithme automatique ne sera jamais capable de gérer et générer des gains seul sur un portefeuille pour la simple raison que les choix humains sont imprévisibles. Par exemple, lors du tragique accident survenu sur le vol AF 447 Rio-Paris en 2009 à bord d’un avion Airbus, les financiers auraient pu parier que le concurrent principal de l’entreprise, Boeing, prendrait de la valeur boursière. Or, c’est toute la branche de transports aériens de voyageurs qui a été décotée ; on peut imaginer que le facteur « peur » ait influencé les choix. Mais les ressentis et les émotions ne sont pas toujours automatiques, alors comment intégrer ces notions à un algorithme ?
Quels sont les enjeux scientifiques du développement de tels outils ?
L’arrivée des journaux et médias en ligne a donné un élan à l’automatisation de l’extraction de données. Aujourd’hui, un outil informatique est capable de digérer d’énormes quantités d'informations. Mais dans un monde sursaturé d’informations, il faut privilégier la qualité au-delà de la quantité et c’est ce que nous cherchons : créer des outils capables d’aider l’humain à y voir plus clair pour faire ses choix. Grâce à une méthode combinée entre le « deep-learning » et le « machine-learning », nous éduquons nos outils à la sémantique, c’est-à-dire à la manière d’interpréter les énoncés pour leur attribuer un sens. C’est un des principaux enjeux de la fouille de données. D’ailleurs, les vaccins contre la Covid n’auraient pas pu être fabriqués aussi vite sans ces algorithmes : imaginez le nombre de données bibliographiques en matière de pharmacologie qu’il a fallu éplucher avant que les scientifiques puissent lancer les phases expérimentales… Cela me fait dire que la discipline a encore de grandes années devant elle.
Mais pour en revenir à la Bourse, si vos algorithmes marchent trop bien, ne pourraient-ils pas compromettre le système tout entier ?
En réalité, nos expériences montrent que les outils informatiques peuvent aider à être un peu plus efficace, mais tant que ce sont des humains qui vont et viennent sur les actions, la technologie ne pourra jamais être une solution miracle pour faire de la plus-value. Et ça n’est pas plus mal comme ça ! Il nous reste beaucoup à découvrir dans l’analyse d’information structurelle et aujourd’hui, je m’interroge beaucoup : faut-il vraiment tout comprendre de ces mécanismes ? Bien sûr, les méthodes de fouilles de données que nous développons auront des répercussions sur bien d’autres domaines et peuvent permettre par exemple de détecter des signaux faibles pour des crises de toute sorte. Et si le lien logique entre le geste de Cristiano Ronaldo et l’action de Coca-Cola est facile à expliquer, faire comprendre l’humain à des lignes de code nécessite encore quelques bonnes années de recherche !
1 Laboratoire d’InfoRmatique en Image et Systèmes d’information (CNRS/INSA Lyon/Lyon 1/Lyon 2/ECL)
2 Nasdaq : National Association of Securities Dealers Automated Quotations, est la deuxième bourse de valeurs des États-Unis
Crédit photo : UEFA

Recherche
Algorithmes, sécurité et vidéo : tout est dans le geste
Durant ses trois années de thèse au sein du laboratoire LiRis1, Fabien Baradel a tenté d’éduquer des algorithmes à la gestuelle humaine. Non pas pour les implémenter à des robots humanoïdes, mais pour faire évoluer les performances de l’analyse automatique vidéo et améliorer la sécurité des individus. Récemment récompensé pour son travail de thèse soutenu en 2020, c’est entre l’INSA Lyon, le Canada et les bureaux d’un des géants de l’internet que Fabien a fait mouliner les neurones de ses ordinateurs pour transformer l’analyse vidéo en un outil d’aide à la décision. Explications.
De la vidéo, partout et pour tout
500 heures par minute. C’est la quantité vertigineuse de contenu vidéo déposée chaque minute sur la plateforme YouTube, à elle seule. Sur internet ou dans le monde réel, le format vidéo est un outil presque systématique : communication, divertissement, surveillance, santé… Aujourd’hui, le nombre de contenus dépasse très largement le temps et le personnel disponible pour visionner, traiter et exploiter ce contenu massif en constante augmentation. Pourtant, leur compréhension automatique pourrait impacter plusieurs domaines d’applications en démultipliant le potentiel de l’outil. « Si l’on prend l’exemple des caméras de surveillance qui génèrent beaucoup de contenu qui ne sera presque jamais examiné, l’analyse vidéo automatique peut permettre de repérer les comportements suspects et éviter les incidents en avertissant le personnel de sécurité. Pour cela, il nous faut développer des algorithmes capables d’identifier les actions humaines. Aujourd’hui, des applications logicielles sont capables de générer automatiquement des descriptions globales du déroulement d’une vidéo, mais les algorithmes développés sont loin de comprendre finement l’action en train de se faire », explique Fabien Baradel, docteur INSA Lyon et désormais chercheur au centre de recherche grenoblois Naver Labs.
Des intelligences à la mémoire courte
Pour les algorithmes, il existe plusieurs niveaux de reconnaissance et de compréhension. Et il semblerait que le niveau de granularité des informations manipulées par ceux que nous côtoyons le plus souvent, ne soit pas particulièrement fin. « La plupart des algorithmes que nous utilisons au quotidien peuvent détecter des concepts, plus que des détails. Ils sont capables d’identifier que telle vidéo traite de football ou de tennis, mais ils ne sont pas en mesure de cerner le détail des actions comme une passe ou un service. Ils détectent le b.a.-ba et les objets qu’ils ont l’habitude de voir. Ce qu’ils ne connaissent pas est invisible pour eux », poursuit Fabien.
Alors comment permettre à une machine de comprendre la gestuelle humaine, par essence … humaine ? « Un algorithme de deep-learning a besoin d’être nourri en permanence pour être efficace. À force de répétition, il devient capable de reconnaître si c’est un chat ou un chien qui apparaît à l’image, car il a vu beaucoup d’images différentes de ces animaux. Mais c’est un peu comme une plante en pot : si le substrat est bon, elle continuera de grandir, mais si la terre manque de nutriments, elle finit par s’éteindre : un algorithme a besoin d’entretien pour fonctionner. Dans le cas de notre travail de recherche, il était tout bonnement impossible de faire apprendre tous les gestes qu’il existe d’humains sur Terre », explique l’ancien doctorant.
L’humain, la gestuelle et l’objet
Fabien Baradel a donc passé trois années à enseigner à ses algorithmes les subtilités du geste humain à travers le plus grand des miroirs : le regard. « Puisque la reconnaissance fine de l’action humaine était un objectif bien trop titanesque, nous avons mis l’accent sur l’interaction entre l’individu et les objets. Nous avons entraîné les algorithmes à reconnaître d’abord la pose humaine articulée, puis à déduire les interactions importantes à travers l’espace. Plus concrètement, nous nous sommes basés sur le principe de l’attention visuelle : si l’individu se met en mouvement dans une scène, l’algorithme se concentrera sur les parties du corps en action. Ce que nous avons surtout réussi à développer, c’est une méthode capable d’identifier automatiquement une information, à l’aide du contexte de la vidéo. La mise en évidence de ce mécanisme a permis d’améliorer les performances d’analyse, mais il reste encore un peu de chemin avant l’ère de la compréhension automatique ultra précise. Et puis en matière d’algorithme informatique, rien n’est jamais fini », prévient-il.
Segmenter pour mieux filtrer
La recherche pour la compréhension automatique des contenus vidéo semble donc avoir encore quelques années devant elle avant que les modérateurs de plateformes telles que YouTube puissent s’affranchir des nombreuses heures de visionnage de contenus violents et inappropriés. « Nous faisons aujourd’hui des choses incroyables en la matière par rapport à ce que nous faisions il y a dix ans. Le deep-learning a besoin de beaucoup de pouvoir de calcul qui prend souvent plusieurs jours, ça n’est pas de la magie. J’ai bon espoir que ce travail serve à soulager l’humain dans les domaines où la vidéo a une place importante. Par exemple, dans l’automobile et plus précisément dans le développement de l’aide à la conduite. S’appuyer sur des algorithmes pour détecter les piétons et estimer leurs trajectoires permettrait de mieux adapter la vitesse du véhicule et réduire le risque d’accident. Je n’ose pas réfléchir à toutes les possibilités d’applications, mais je sais qu’elles sont infinies ! », conclut Fabien Baradel.
1Laboratoire d’Informatique en Image et Systèmes d’Information (CNRS / INSA Lyon / Université Claude Bernard Lyon 1 / Université Lumière Lyon 2 / École Centrale de Lyon)

Formation
« Il faut dépasser les idées reçues sur les sciences informatiques »
En ce début d'année, c'est une nouvelle page qui s'ouvre pour Sara Bouchenak, enseignante-chercheure au laboratoire LIRIS1 et au département informatique de l'INSA Lyon. Désormais à la tête de la fédération d'informatique de Lyon, Sara est bien déterminée à faire travailler ensemble les équipes des cinq laboratoires2 de la structure pour construire l'informatique de demain. Interview.
Vous prenez aujourd'hui la tête de la fédération lyonnaise d'informatique. Quels sont les grands enjeux de cette discipline ?
Il me semble que l'informatique est assez méconnue en tant que science. C'est une discipline transverse dont découlent de nombreux métiers, et dans un monde qui n'arrive plus à se passer du numérique, elle a un rôle à jouer. De la cybersécurité à la gestion des données, en passant par l'impact environnemental du numérique, il y a encore beaucoup à inventer en la matière. L'informatique doit aujourd'hui se positionner en réponse aux problématiques de la société. Et les défis sont proportionnels à la vitesse de développement du numérique, c'est-à-dire, exponentiels. À l'époque où j'ai débuté, il y a vingt ans, les navigateurs web commençaient tout juste à se démocratiser, alors c'est dire si le domaine a rapidement évolué ! Enfant, je n'étais pas fan de programmation et je n'étais pas du genre à inventer des algorithmes, enfermée dans ma chambre. Ce qui m'a amené à cette matière, ce sont les mathématiques. Il me semble que c'est aussi un autre enjeu important pour la discipline : il faut dépasser les idées reçues sur les sciences informatiques.
Aujourd'hui, l'informatique fait partie de ces spécialités qui semble attirer assez peu de filles. À quoi cela est dû à votre avis ?
À mon sens, ceci est lié à nos représentations de l'informatique et de celles et ceux qui la font. Je m'explique. Filles ou garçons, les élèves ont souvent une idée préconçue de cette discipline. Les stéréotypes autour de l'ingénieur informaticien sont légions, proches du cliché du « geek » mordu de jeux vidéo. Et je dois bien avouer que ça ne fait peut-être pas rêver ! Nous manquons par ailleurs de représentations féminines dans le domaine. Nous sommes peu de femmes au sein des structures d'enseignement, de recherche et dans le monde professionnel de l'informatique. J'imagine qu'il est difficile pour une jeune fille de se projeter dans un métier lorsqu'elle n'a que peu de modèles féminins. Il y a probablement une forme d'autocensure chez les étudiantes, car elles sont près de 50% en première année de formation. Mais ce n'est pas une fatalité. D'ailleurs, les chiffres au sein du département informatique sont extrêmements encourageants, si elles étaient seulement 15% il y a quelques années, elles sont à présent 38 % de filles à intégrer cette spécialité en 3e année. Ceci grâce aux actions menées conjointement par l'Institut Gaston Berger et la commission femmes et informatique du département.
Comment lutter contre cette forme d'autocensure dont vous parlez ? Votre nouvelle fonction de présidente de la fédération d'informatique de Lyon vous permettra-t-elle d'agir plus largement ?
En tant qu'enseignante-chercheure, mon rôle est de promouvoir les formations et les métiers du numérique auprès des jeunes générations. Trop peu de jeunes filles choisissent l'informatique mais c'est en leur expliquant et leur apprenant ce qui se cache derrière le mot informatique que les stéréotypes pourront tomber. Il y a un certain nombre d'initiatives pour faire bouger les lignes et attirer les femmes dans le numérique. L'Institut Gaston Berger, par exemple, participe à la déconstruction des idées reçues, en accueillant chaque année des lycéennes pour leur faire découvrir ces sciences et aller au-delà des représentations classiques plutôt genrées. Et en tant que présidente de la fédération, j'aimerais créer une commission égalité pour veiller à une juste représentation des femmes et des hommes au sein de nos laboratoires. Lutter contre cette autocensure est un travail de longue haleine, qui doit être abordé à chaque étape de la vie étudiante et professionnelle pour permettre à chacune d'oser se lancer.
1 Laboratoire d'informatique en images et systèmes d'information (INSA Lyon/Lyon 1/Lyon 2/ECL/CNRS)
2 CITI (INSA Lyon/INRIA), LabHC (Université Jean-Monnet/CNRS), LIP (ENS Lyon/CNRS/UCBL) et LIRIS (INSA Lyon/Lyon 1/Lyon 2/ECL/CNRS), CREATIS (INSA Lyon/Lyon 1/CNRS/Inserm/UdL/UJM)

Recherche
Alliance Atmo/INSA Lyon : pour une recherche qui a le vent en poupe
Chaque jour, un adulte respire près de 15 000 litres d’air. Pur, l’air ? Rien n’est moins sûr.
À l’heure où la santé des populations est mise à mal par un virus d’ampleur mondiale, l’INSA Lyon officialise son alliance avec Atmo Auvergne-Rhône-Alpes, pour travailler à l’amélioration du premier élément nécessaire à la vie : l’air.
Rencontre avec Nicolas Rivière, adjoint en charge de l’enjeu de recherche « Environnement : Milieux Naturels Industriels et Urbains » à l‘INSA Lyon et porteur de la chaire de recherche nouvellement créée, accompagné de Claire Chappaz, adjointe pour l’innovation et le développement chez Atmo Auvergne-Rhône-Alpes.
La qualité de l’air : un enjeu de santé public majeur
« Pic de pollution, pensez aux transports en commun ». Un message d’alerte pour prévenir d’un épisode de pollution qui s’affiche sur les panneaux lumineux des grandes villes, désormais avec une certaine habitude. Malheureusement, ces « pics » ne sont que la partie visible d’une pollution quotidienne dont les principales sources sont identifiées : les activités de transport routier, industrie, chauffage résidentiel et agriculture libèrent plus de cinquante gaz et particules nuisibles et modifient la composition de l’air, quotidiennement.
De toute évidence néfaste pour l’environnement et la biodiversité, la pollution de l’air l’est d’autant plus pour la santé des populations. Chaque jour, les « AASQA », les associations agréées de surveillance de la qualité de l’air, sont chargées d’étudier très précisément la composition de l’air et évaluent l’exposition des citoyens aux différentes composantes de l’atmosphère. « L’Agence nationale de santé publique a estimé en 2016 l’impact sanitaire de la pollution de l’air à 48 000 décès prématurés, soit 9% de la mortalité en France. Face à ce constat, il est urgent d’apporter des informations locales encore plus précises et contextualisées, tant pour permettre aux citoyens de connaître la composition de l’air qu’ils respirent, que pour aider les décideurs à protéger notre santé et notre environnement », introduit Claire Chappaz, adjointe unité innovation et développement chez Atmo Auvergne-Rhône-Alpes.
Unir ses forces pour la recherche sur l’air
Dans ce contexte, Atmo et l’INSA Lyon travailleront main dans la main dans le cadre d’une chaire de recherche et d’enseignement, avec l’ambition de lever les verrous scientifiques qui persistent en matière de surveillance de la qualité de l’air. « Le cadre donné par cette alliance nous permettra de concentrer nos recherches sur deux thématiques : d’abord sur la fiabilité des données relevées par les dispositifs de mesure innovants que sont les micro-capteurs, et puis nous concentrerons nos efforts sur la modélisation et la représentation de la qualité de l’air », explique Nicolas Rivière, porteur de la chaire à l’INSA Lyon. « Trois de nos laboratoires de recherche ont été sollicités pour s’impliquer dans les travaux. Le LIRIS1, pour son expertise sur le traitement de données et des apprentissages statistiques. Le Citi2, sur l’aspect de l’internet des objets et des capteurs embarqués. Et le LMFA3, pour son regard sur la simulation des écoulements et de la pollution », ajoute Nicolas.
Innovante, la chaire souhaite faire travailler ensemble des experts de domaines variés, de l’informatique à l’électronique, en passant par les mathématiques ou la modélisation numérique. « Avant le lancement officiel de cette chaire, des partenariats existaient déjà entre Atmo et certains de nos laboratoires. En réalité, une dizaine de laboratoires de l’INSA menait déjà des recherches en lien avec la qualité de l’air, extérieur comme intérieur », intime l’enseignant-chercheur.
Une alliance pour la mobilisation et la sensibilisation citoyenne
S’il est largement accepté que la pollution atmosphérique impacte négativement la santé, aujourd’hui plus que jamais, les citoyens sont inquiets sur la qualité de l’air qu’ils respirent. Mais cette préoccupation n’a pas toujours été si forte. Pour Nicolas Rivière, une explication existe. « L'air que nous respirons et sa qualité ont un impact direct sur nos santés, au même titre que la nourriture que nous mangeons ou l'eau que nous buvons. Pourtant, respirer ne demande pas de réflexion, à la différence de faire ses courses. Cela met souvent les préoccupations liées à la qualité de l'air sur un plan différent, même pour des citoyens très engagés en matière d'environnement, comme le sont de plus en plus nos élèves-ingénieurs. Faire connaître les pratiques et faire prendre conscience des expositions est important », explique-t-il.
L’ambition seconde des porteurs de l’alliance est d’associer les avancées des recherches à des actions de mobilisation et de sensibilisation qui pourraient prendre la forme d’ateliers de conception de capteurs, de création de supports de visualisation en temps réel et de contrats doctoraux… Le programme « air et engagement sociétal » co-conçu par Atmo et l’INSA Lyon à destination de tous les membres des parties prenantes, permettra de démultiplier la portée des recherches. « La participation citoyenne est quelque chose que nous mettons en avant depuis de nombreuses années car cela constitue un puissant levier de mobilisation et d’incitation à l’action. Le bénéfice pour la santé des populations et l’impact sur l’environnement se trouvera par une multitude d’actions, collectives ou individuelles. Et pour cela, il est impératif de faire connaître les leviers d'amélioration de la qualité de l’air », conclut Claire Chappaz.



Plus d’informations : www.fondation.insa-lyon.fr
- En savoir plus, lire le communiqué de presse : Alliance ATMO_INSA Lyon : l’air, notre bien commun : un enjeu de santé & d’innovation, une mobilisation citoyenne !
1Laboratoire d’informatique en images et systèmes d’information (INSA Lyon, Lyon 1, Lyon 2, ECL, CNRS)
2Centre d’innovation en télécommunications et intégration de service (INSA Lyon, INRIA)
3Laboratoire de mécanique des fluides et d’acoustique (ECL, INSA Lyon, Lyon 1, CNRS)

Recherche
COVID-19 : les maths au service de la lutte contre la pandémie
Informaticien spécialisé en fouille de données et enseignant-chercheur à l'INSA Lyon et au laboratoire LIRIS1, Christophe Rigotti a pris la décision, au mois d’avril dernier, de mettre ses compétences scientifiques au service de la lutte contre la pandémie. Entretien à propos d’un engagement dans la modélisation numérique de la Covid-19.
Reconfiné depuis quelques jours, que pouvez-vous nous dire sur le scénario évolutif de l’épidémie ?
Depuis la mi-septembre, nous avons observé de légers accroissements sur les courbes d’indicateurs. Nous espérions tous l’apparition d’effets encore incertains, comme une saisonnalité par exemple, mais sans nouveaux facteurs permettant de limiter la propagation, la reprise semblait probable. Un frémissement, une augmentation en pente douce, puis un début d’emballement exponentiel. Parmi les membres du groupe dans lequel je travaille, personne n’a été vraiment surpris d’être reconfiné.
Pourquoi avez-vous pris la décision de vous consacrer à l’actualité Covid depuis le mois d’avril ?
Une action de recherche a été lancée au début du confinement sur l’initiative de Pascal Roy2 du laboratoire LBBE. Suite au recensement des compétences pouvant être mobilisées sur le sujet par le CNRS et au sein de l’Université de Lyon, nous avons été mis en contact. Je me suis senti très vite concerné par la question, j’ai donc mis une partie de mes travaux entre parenthèses pour m’impliquer dans ce projet. Au départ, le groupe était informel et travaillait sur des aspects bibliographiques, puis nous avons identifié les problématiques sur lesquelles nos domaines de spécialité pouvaient se compléter de façon pertinente. Dans ce contexte, je travaille sur la modélisation numérique de la dynamique de l’épidémie. Je participe notamment à l’étude de trois modèles mathématiques qui ont été développés en France en début d’épidémie, pour mieux cerner leur capacité à capter les phénomènes de confinement / déconfinement.
Qu’avez-vous découvert ?
Tout d’abord, ces modèles se sont révélés « souples », dans le sens où si l’on ajuste leurs paramètres, ils peuvent s’accorder assez finement à l’évolution observée du nombre de personnes hospitalisées. En revanche, s’ils sont alimentés uniquement avec les données décrivant le début du confinement, ils ne parviennent pas à prédire de façon consistante l’évolution sur la seconde partie du confinement.
En ce qui concerne le déconfinement, au niveau national, ces modèles permettent de fournir une palette de trajectoires possibles parmi lesquelles se trouvent des trajectoires proches des évolutions réelles sur environ un mois. Par contre ces projections ne semblent pas utilisables à plus long terme, ni à un niveau régional sur le territoire. Il existe toutefois des marges d’amélioration, par exemple en affinant les calibrations à partir de données qui indiqueraient l’évolution du pourcentage de personnes infectées dans la population, ou du pourcentage de cas asymptomatiques parmi les personnes contaminées. Ces résultats ont été consignés dans un rapport, afin notamment de faire un retour précis aux trois équipes qui ont élaboré les modèles que nous avons étudiés. Dans nos champs d’investigations, au sein du groupe, nous ne pouvons pas directement participer à la collecte de nouvelles données qui permettraient une application plus large de ces modèles, mais d’autres possibilités se dessinent.
Profils typiques d'évolution sur 100 jours des effectifs dans différents états (Exposé, Asymptomatique,
Infectieux-symptomatique) lors d'une épidémie.
Quelles sont ces pistes d’amélioration ?
Nous déployons une approche complémentaire basée sur une simulation dite « par agent » et tenant compte de comportements plus spécifiques des individus, tel que leurs profils quant à la l’application des mesures barrières ou la récurrence de certains de leurs contacts sociaux. Nous intégrons également dans ce modèle la simulation des systèmes de traçage des cas contacts par applications mobiles et questionnaires classiques. Le fil conducteur est ici de travailler à un niveau de description plus fin pour obtenir des évolutions locales plus fidèles à la réalité. Nous pensons que ceci permettra notamment d’évaluer plus précisément les effets combinés des différentes mesures de prévention.
Beaucoup d’épidémiologistes et plus généralement beaucoup de laboratoires travaillent sur cette épidémie. Nos connaissances progressent en permanence mais l’évolution de la situation reste incertaine. Personnellement, cela me renvoie à la question des enjeux climatiques et environnementaux. Je ne peux m’empêcher de faire le parallèle : les impacts au niveau collectif ne sont pas acceptables et pourtant de façon individuelle, nous avons l’impression de faire notre part.
1 Laboratoire d’Informatique en image et systèmes d’information, UMR 5205 CNRS/INSA Lyon/Université Claude Bernard Lyon 1/ Université Lumière Lyon 2 / École Centrale de Lyon. Christophe Rigotti est membre de l’équipe DM2L et de l’équipe Beagle (EPC INRIA).
2 Professeur des universités - praticien hospitalier de l’Université Claude Bernard Lyon 1 et des Hospices Civils de Lyon.
Remerciements : En plus de l’investissement personnel des membres du groupe, un soutien financier direct est apporté par l’IDEX Université de Lyon, la région AURA, l’Université Claude Bernard Lyon 1 et l’École Centrale.