
Sciences & Société
Le langage des partitions musicales face à l'intelligence artificielle
Conférencier : Louis Bigo, professeur en informatique, Bordeaux INP, LaBRI, SCRIME
Cet exposé présente une variété de travaux de recherche autour de représentations informatiques et d'algorithmes destinés à enrichir l'analyse et la composition musicale. La notion de langage musical sera approchée à travers des composants essentiels des partitions, incluant la structure, la texture ou encore les annotations relatives à la pratique instrumentale dans le cas spécifique des tablatures de guitare. Nous évoquerons également l’adaptation d’outils d’intelligence artificielle élaborés dans le domaine du Traitement Automatique du Langage Naturel (TALN) pour l’étude des partitions, ainsi que la tendance de ces outils à nous interroger sur l’assimilation de la musique à un type particulier de langage.
Conférence proposée dans le cadre du cycle de conférences organisé par le pôle de Mathématiques, la BMC et la Maison des Mathématiques et de l'Informatique.
Informations complémentaires
- https://bibliotheque.insa-lyon.fr/cms/articleview/id/7152
-
INSA Lyon - Bibliothèque Marie Curie - Amphithéâtre Émilie du Châtelet
Derniers évènements
Théâtre « Roméo et Juliette » (section Théâtre-études)
Du 05 au 08 maiAteliers danse avec la Cie MF
Les 15 et 22 mai 2025
Sciences & Société
Soutenance de thèse : Benoit RENAULT
NAvigation en milieu MOdifiable (NAMO) étendue à des contraintes sociales et multi-robots
Doctorant : Benoit RENAULT
Laboratoire INSA : CITI
Ecole doctorale : ED512 : Infomaths
Alors que les robots deviennent toujours plus présents dans les environnements humains, endossant toujours plus de tâches telles que le nettoyage, la surveillance ou encore le service en salle, leurs limites actuelles n’en deviennent que plus évidentes. Une de ces limites concerne leur capacité à naviguer en présence d’obstacles: ils chercheront systématiquement à les éviter, et resteront bloqués à défaut. Ce constat a mené à la création d’algorithmes de NAvigation en milieu MOdifiable (NAMO), devant permettre aux robots de manipuler les obstacles pour faciliter leurs déplacements. Néanmoins, ces algorithmes ont été conçus sous l’hypothèse qu’un seul robot agîsse dans l’environnement, biaisant les algorithmes à n’optimiser que son seul coût de déplacement – sans considération pour les humains ou d’autres robots. S’il est souhaitable que les robots puissent bénéficier de la capacité humaine à déplacer des obstacles, ils doivent néamoins le faire dans le respect des normes et règles sociales humaines. Nous avons donc étendu le problème de NAMO pour prendre en compte ces nouveaux aspects sociaux et multi-robots. En nous basant sur le concept d’espaces d’affordance, nous avons développé un modèle de coût d’occupation sociale permettant d’évaluer l’impact des objets déplacés sur la navigabilité de l’environnement. Nous avons implémenté (et amélioré) des algorithmes NAMO de référence, dans notre outil de simulation open source, puis les avons modifiés afin qu’ils puissent trouver un compromis entre coût de déplacement et coût d’occupation des obstacles manipulés – résultant en une amélioration de la navigabilité. Nous avons également développé une stratégie de coordination permettant d’exécuter ces mêmes algorithmes tels quels, sur plusieurs robots en parallèle, en absence de communication explicite, tout en préservant la garantie d’absence de collisions; vérifiant la pertinence de notre modèle de coût social en présence effective d’autres robots. Ces travaux constituent les premiers pas d’une NAMO Sociale et Multi-Robots.
Informations complémentaires
-
Amphithéâtre Chappe - Bâtiment Hedy Lamarr - Villeurbanne
Derniers évènements
Théâtre « Roméo et Juliette » (section Théâtre-études)
Du 05 au 08 maiAteliers danse avec la Cie MF
Les 15 et 22 mai 2025
Recherche
« L’IA pour optimiser les parcours de soins est prometteuse, mais soulève des questions éthiques »
Et s’il était possible, grâce à l’intelligence artificielle, de soulager les pressions opérationnelles des équipes soignantes et offrir une meilleure qualité de suivi aux patients en prédisant leurs parcours de soins ? C’est le sujet qui a occupé Alice Martin, désormais docteure, lors de sa thèse menée au laboratoire DISP1. Alors que les structures de santé françaises rencontrent des difficultés structurelles, celles-ci tentent d'améliorer la prise en charge des patients notamment en cas de maladies chroniques. Pour anticiper l’évolution de la consommation des actes thérapeutiques, Alice Martin a cherché à comprendre les aspects du profil des patients à travers la donnée.
Aujourd’hui, les structures de santé rencontrent des difficultés structurelles dans l'organisation des soins et la prise en charge de leurs patients. Quelles sont-elles ?
L’accès aux soins souffre de fractures multiples : augmentation du nombre de maladies chroniques, vieillissement de la population, fracture territoriale dans l'accès aux soins médicaux, pressions financières et recherche d’efficience à tout prix… Beaucoup de structures de santé tentent de s’adapter à ces transformations en optimisant les parcours patients, notamment grâce à la prédiction des évènements cliniques. Cela suppose de mieux comprendre les patients pour leur proposer des prises en charge adaptées à leurs besoins et à leur profil clinique. D’autre part, il y a une disponibilité croissante des données de santé et une meilleure applicabilité de l’intelligence artificielle. Près de 30 % des données stockées dans le monde sont des données de santé et l’exploitation de celles-ci peuvent aider notamment à assurer la viabilité du système de santé français, qui n’a pas de visée de rentabilité.
Durant votre thèse, vous avez travaillé à cette prédiction des parcours patients. Comment mieux prévoir et soulager les structures dans leurs organisations ?
Pour anticiper des évènements cliniques sur un profil de patient donné, il a fallu étudier de près beaucoup de données médico-économiques. Ces données, notamment celles issues de la facturations des hôpitaux, sont très révélatrices des parcours de soins. Elles permettent de recomposer la trajectoire suivie des patients, grâce à l’intelligence artificielle qui offre d’excellentes perspectives d’analyse, de modélisation et d’interprétation. Nous avons étudié deux cas d’application. Le premier avec les Hospices Civils de Lyon, autour des troubles neurocognitifs comme l’Alzheimer. Nous avions accès à une base de données de suivi très riche qui, croisée avec les données de l’assurance maladie, ont donné un maillage très précis. Cela nous a permis d’identifier des profils types et d’établir des liens entre le profil et des évènements qui pourraient affecter le parcours de santé. Le deuxième cas d’application concernait un hôpital où l’enjeu était de réduire la variation des besoins en soins de patients traités à domicile, lors de situation de soins palliatifs ou de polyhandicap par exemple. Malheureusement, nous n’avons pas pu donner de suite concrète aux travaux avec cet organisme de santé, mais nous aurions souhaité développer une interface d’aide à la prise de décision pour les personnels soignants.
Des applications réelles de ce type de prédiction sont donc possibles pour les organisations de santé ?
Bien sûr, l’usage des algorithmes pour les organisations de santé n’est pas nouveau, mais dans notre cas, une réelle application pose plusieurs questions. D’abord, il faut s’assurer de pouvoir obtenir des données de santé de qualité, pouvant varier d’un établissement ou d’un service à un autre. Ensuite, il existe toujours des biais : ces données sont-elles représentatives de la réalité ? Les biais de représentations et de réplications de nos propres stéréotypes s’appliquent aussi ici. Sur les données que j’ai traitées, il y a eu une situation assez révélatrice : à l’occasion d’un questionnaire visant à évaluer le niveau de dépendance de patients atteints de trouble neurocognitifs, une série de questions les interrogeait sur leurs habitudes à faire le ménage, la lessive ou la vaisselle. De prime abord et au regard de ces questions, les patients de sexe masculin semblaient assez dépendants, alors qu’en réalité, ces patients n’avaient jamais été habitués à ces tâches quotidiennes durant toute leur vie. Avec ces seules données, on aurait tendance à surestimer la dépendance des hommes, alors qu’en réalité, ça n’est qu’un mode de vie qui se reflète. Face à ces biais, il faut être attentif pour pouvoir y apporter des corrections. Aussi, dans notre cas, nos IA généralisent et s’adaptent assez mal à de nouveaux contextes ; difficile pour elles de prévoir des évènements comme la crise Covid par exemple. Plus loin encore se pose la question de la responsabilité juridique de l’algorithme : à partir du moment où l’on décide de son implémentation au sein d’un hôpital, qui doit porter la responsabilité des résultats ? En fait, il y a beaucoup de problématiques qui dépassent la vision académique et qui peuvent poser énormément de freins à l’adoption même si nos travaux ont ouvert beaucoup de perspectives en matière de soutien au corps médical et à la qualité de prise en charge des patients.
[1] Decision & Information Systems for Production systems (INSA Lyon/ Lyon 2/Lyon 1/Université Jean Monnet)

Sciences & Société
Regards croisés #4 "Dessine-moi un algorithme - Intelligence artificielle et créativité"
Avec l’émergence d’IA (Intelligences Artificielles) génératives telles que ChatGPT ou Dall-e, quelle place conserve l’humain dans le processus créatif ?
En deux mois, le robot conversationnel ChatGPT de l’entreprise OpenAI a franchi le cap des 100 millions d’utilisateurs. Une croissance impressionnante lorsque l'on sait que Google Maps a atteint ce seuil en deux ans. Derrière la fascination du grand public pour cet outil dont les applications sont multiples (génération d’images, brainstorming, rédaction d’articles, …), cette percée amène à redéfinir la conception même de la créativité.
Quelle part de créativité revient à l'IA ? Et au concepteur ? Ces IA vont-elles concurrencer la créativité humaine ou au contraire l’élargir ? Alors que les entreprises du secteur et géants de la Tech accélèrent le déploiement de ces solutions, le monde de l’enseignement et la recherche est également impacté par cette révolution, qu’il s’agisse d’intégrer ou non l’IA dans l’apprentissage, de former aux métiers de demain ou d’utiliser le machine learning pour optimiser des travaux de recherche. Quelles perspectives ces nouvelles technologies ouvrent-elles ?
Venez débattre de ce sujet brûlant avec :
► Flavien CHERVET, Directeur innovation d’IRIIG (International Research Institute for Innovation & Growth) et co-fondateur de Lyon-iS-Ai
► Virginie MATHIVET, Data Science & Engineering Manager chez TeamWork Animation : Camille Guyon, Fabrique de l'Innovation
Informations complémentaires
- fabrique.innovation@universite-lyon.fr
- https://fabriqueinnovation.universite-lyon.fr/regards-croises-4-dessine-moi-un-algorithme--300544.kjsp?RH=1608210241363
-
Fabrique de l'Innovation - 28-30 avenue Gaston Berger 69100 Villeurbanne (sous le Quai 43)
Derniers évènements
Théâtre « Roméo et Juliette » (section Théâtre-études)
Du 05 au 08 maiAteliers danse avec la Cie MF
Les 15 et 22 mai 2025
Sciences & Société
Conférence : une machine de Turing en légo
Conférencier : Aurélien Alvarez
Qu’est-ce qu’un calcul, qu’est-ce qu’un algorithme ?
En 1936, Alan Turing a apporté une réponse à ces questions en définissant ce que l’on appelle aujourd'hui une machine de Turing, c’est-à-dire un modèle mathématique abstrait qui donne un sens précis à la notion intuitive et ancestrale de calcul, et est particulièrement adapté sur le plan théorique pour aborder des questions de calculabilité et de complexité. Peut-on imaginer construire, uniquement avec des briques Lego, une « machine de Turing » bien réelle et « voir » ainsi un calcul ? C’est le challenge qui sera discuté dans cet exposé.
Informations complémentaires
-
Amphithéâtre Emilie du Châtelet, Bibliothèque Marie Curie
Mots clés
Derniers évènements
Théâtre « Roméo et Juliette » (section Théâtre-études)
Du 05 au 08 maiAteliers danse avec la Cie MF
Les 15 et 22 mai 2025
Recherche
« L’inclusion des minorités doit être une priorité pour l’IA »
Industrie, médecine, applications de rencontres ou même justice : l’intelligence artificielle (IA) inonde divers aspects de notre vie quotidienne. Seulement, certaines erreurs plus ou moins graves, sont régulièrement relevées dans le fonctionnement de celles-ci. En cause ? Des biais de représentativités présents dans les jeux de données.
Virginie Mathivet, ingénieure INSA du département informatique (2003) et docteure du laboratoire Liris1, est engagée sur la question. Pour l’auteure et conférencière, un maître-mot pour que l’IA ne soit pas un outil de duplication des discriminations déjà vécues dans la vie réelle par certaines minorités : la diversité. Récemment nommée experte IA de l’année 2022, Virginie a partagé son savoir à la communauté dans le cadre de « la semaine des arts et des sciences queer » organisée par l’association étudiante Exit+. Elle alerte sur l’extrême nécessité de porter une attention particulière à l'inclusion dans l’intelligence artificielle. Interview.
On connaît l’importance de la diversité pour faire une société plus égalitaire ; pourquoi est-elle aussi importante dans les jeux de données utilisées par les IA ?
Les intelligences artificielles sont des machines apprenantes : grâce à des bases de données, que l’on appelle des « datasets », des modèles sont fabriqués par des développeurs dans un but précis, par exemple pour détecter des défauts sur les chaînes de fabrication industrielles et pour lesquelles ils donnent de très bons résultats. Cependant, ces dernières années on a vu exploser les applications entraînant des prises de décisions sur les humains : l’accès à un crédit, le recrutement, des décisions de justice… On a aussi vu que ces IA étaient capables d’erreurs systématiques. On se souvient du logiciel de recrutement discriminant d’Amazon dont l’objectif était de faire économiser du temps aux ressources humaines en étudiant les candidatures les mieux notées par la machine. Il s’est avéré que l’algorithme sous-notait les profils féminins fréquemment car les jeux de données utilisés pour modéliser le logiciel s’appuyaient sur les CV reçus les dix dernières années, dont la plupart étaient des candidatures masculines. C’est ce que l’on appelle « un biais » : la machine ne fait jamais d’erreur aléatoire ; elle répète les biais -conscients ou inconscients- que les expérimentateurs ont commis en choisissant les données. Sans diversité, qu’elle soit de genre, culturelle, de génération, l’IA restera une extension des inégalités vécues dans la vie réelle.
Avez-vous d’autres illustrations de ce risque que représente le manque de diversité dans les jeux de données ?
Un exemple assez parlant est celui du système de reconnaissance faciale utilisée par les iPhones. La première version de FaceID n’était pas capable de reconnaître les propriétaires asiatiques car le dataset initial ne comptait pas assez de visages de ce type et l’algorithme n’avait tout simplement pas appris à les reconnaître ! Mais il existe des exemples aux conséquences beaucoup plus graves comme les systèmes de détection automatique des cancers de la peau : l’intelligence artificielle est tout à fait capable de reconnaître des mélanomes sur les peaux blanches, beaucoup moins sur les peaux foncées. Cela occasionne des problèmes d’accès aux soins considérables, en omettant une partie de la population. Pour aller plus loin encore dans l’illustration, de nombreuses applications ne considèrent pas les minorités sexuelles : aujourd’hui, on considère que l’on est soit un homme, soit une femme. Qu’en est-il pour les personnes transgenres, intersexes ou même non-binaires ? C’est le vide intersidéral, notamment lorsqu’il s’agit de traitements médicaux grâce aux IA.
Comment ces biais sont-ils remarqués ou relevés ? Ne peuvent-ils pas être détectés plus en amont ?
Aujourd’hui, les erreurs systématiques sont relevées car certaines personnes en sont victimes et dénoncent les manquements. Souvent, on a la très forte impression d’attendre des conséquences potentiellement graves pour analyser le dataset et tester le modèle. C’est ce qu’il s’est passé avec une voiture autonome d’Uber à Tempe (Arizona) qui a tué un piéton. La raison de l’accident s’est révélée après l’enquête : le dataset n’avait pas permis à l’IA d’apprendre à reconnaître les piétons hors des passages cloutés. La victime, qui marchait à côté de son vélo, a été percutée par la voiture qui arrivait trop vite malgré l’identification tardive de la personne comme un piéton. Il faut croire que les questions financières et les retours sur investissements sont plus importants pour ces entreprises que les dégâts que ces IA peuvent causer, par manquement ou négligence.
Existe-t-il une façon pour les expérimentateurs de se prémunir contre ces biais ?
Il existe une seule solution : diversifier les jeux de données au maximum. Est-ce que toutes les populations sont bien représentées par rapport à la réalité ? C’est la question qu’il faudrait se poser à chaque apprentissage, mais il faut penser à toutes les situations donc c’est extrêmement difficile. Si l’équipe chargée d’implémenter l’IA est composée de personnes venant de tous horizons, on peut arriver à limiter les biais. Chacun arrivant avec sa vision des choses, son quotidien et les situations quotidiennement vécues : celui ou celle dont la mère se déplace avec un déambulateur pensera à telle situation ; ou dont le mari est en fauteuil roulant à d’autres ; ceux avec des enfants penseront autrement, etc. Ça n’est pas tant que les modèles conçus contiennent des biais volontaires, mais il y a forcément des minorités auxquelles on pense moins car nous n’en avons pas de représentations dans nos vies quotidiennes. Autre piste, pour éviter que la technologie ne divise encore plus et ne cause plus de dégâts, un brouillon de loi européenne est actuellement en cours de validation. L’Artificial Intelligence Act doit être voté en 2022 pour une application en 2023.
Quelles seront les grandes lignes de ce règlement ?
Cette loi décompose l’utilisation de l’intelligence artificielle selon trois catégories : les « applications interdites » ; les « applications à haut-risque » ; et les « applications à faible risque ». Pour les « applications à haut risque », comme celles utilisées pour l’autorisation de crédit bancaire ou la justice, elles seront soumises à un certificat de conformité CE avant la vente et l’utilisation du modèle. Ces types d’IA seront certainement les plus surveillées car ce sont les plus propices à reproduire des biais discriminants. Cette législation permettra un premier pas vers l’inclusion, je l’espère, en Europe.
La conférence « Jeux de données - biais et impacts sur les femmes dans un monde numérisé » a eu lieu le mercredi 4 mai,
dans le cadre de la semaine des arts et des sciences Queer organisée par l’association étudiante exit+.
[1] Laboratoire Informatique en Images et Systèmes d’Informations
Podcasts « Les cœurs audacieux » - Saison 2 / Épisode 6 - 19 mai 2022

Recherche
Si les algorithmes ont le pouvoir de façonner l’opinion publique, il faut qu’ils puissent le faire avec équité et diversité
« À regarder si vous avez aimé tel film », « notre sélection pour vous », « votre playlist du jour ». Quotidiennement, nos applications préférées suggèrent l’air de rien des contenus capables de retenir l’intérêt. Ces programmes sont l’œuvre d’une mécanique de ciblage comportemental souvent invisible pour l’internaute qui soulève de nombreux enjeux sociétaux. Diana Nurbakova, maître de conférence au laboratoire LIRIS1 et membre de l’équipe DRIM2 travaille à l’analyse et la compréhension de ces systèmes. Voyage au cœur de la machine dont le moteur principal s’avère être lui, bien humain.
Pour les utilisateurs, les systèmes de recommandation de contenus semblent obéir à des règles obscures tant ils sont parfois précis. Comment est-il possible de catégoriser des utilisateurs en fonction de leurs intérêts ?
Le ciblage est basé sur les comportements de chaque utilisateur. Chaque clic, commentaire ou like est une trace numérique traduisant un choix et constitue une base pour établir un profil utilisateur. Il existe des mécanismes de ciblage simples, comme l’association de mots-clés : si vous cherchez des informations sur un vélo, vous pourrez certainement être considéré comme un utilisateur qui sera intéressé par les activités de pleine nature par exemple. Pour aller plus loin dans la compréhension du lien entre clic et profil psychologique, il me semble qu’il est important de rappeler le rôle des émotions sur nos actions digitales. Un bon exemple pour illustrer cela est une analyse à laquelle j’ai participé et qui consistait à étudier la façon dont l’information pouvait évoluer au fil des posts twitter durant le confinement. La question de la crise sanitaire et de la vaccination a suscité beaucoup de réactions polarisées sur les réseaux sociaux. L’objectif premier de notre analyse était de comprendre la façon dont les informations énoncées initialement se transformaient tout au long des discussions sur le réseau social, jusqu’à parfois devenir des informations fausses. Ce qu’il y a de notable, c’est la cascade d’émotions exprimées au fil de la discussion : même si le tweet initial était politiquement neutre, plus le fil du tweet s’allongeait, plus les émotions exprimées étaient fortes. Ce qui m’a particulièrement intéressée dans cette étude était de pouvoir établir un lien avec le profil psychologique des internautes qui intervenaient sur le post. Pour cela, nous avons utilisé la célèbre classification Big five, qui propose cinq grands types de personnalités. Le profil qui ressortait le plus souvent était celui du « névrosisme », qui décrit des états émotionnels réactifs qui peuvent entraver la capacité à raisonner face aux situations stressantes. Voilà une autre façon de constituer un profil d’utilisateur.
Finalement, ces systèmes de recommandations sont à la jonction entre l’informatique et la psychologie ?
Effectivement pour certains cas d’études, il faut s’entourer d’experts en cognition, comme des psycholinguistes par exemple. En tant que chercheurs en données, nous n’inventons rien en psychologie. Nous utilisons des modèles déjà existants et conventionnels. Par exemple, le modèle Big Five dont je parlais, qui regroupe cinq grands groupes de traits de personnalité et habitudes de comportement, a été établi originellement par un psychologue dans les années 1990. Pour réaliser notre étude sur Twitter, nous avons utilisé un service IBM Watson Personality Insights, basé sur cette classification. Il en existe évidemment beaucoup d’autres et les entreprises du numériques ont souvent leurs propres algorithmes et classifications.
La plupart des internautes ont connaissance de la technique de profilage en raison des nombreuses publicités ciblées dont ils sont destinataires chaque jour. N’existe-t-il pas d’utilisations plus vertueuses à ces techniques ?
La modélisation du comportement est une logique mathématique et comme toute technologie, elle peut être détournée et utilisée à mauvais escient. Si nous prenons le cas des GAFAM3, ces entreprises ont en effet des systèmes de profilage très puissants en raison de la quantité et de la qualité des données récoltées chaque seconde. Souvent, elles sont utilisées pour générer du profit. S’il est difficile de reprocher ces activités légalement, éthiquement, c’est une autre question. En tant qu’internaute, je trouve bien sûr que ce système est trop intrusif dans notre quotidien privé et a un trop grand pouvoir d’influence. Mais en matière de recherche, il faut comprendre que le mécanisme a ses vertus. Par exemple, en collaboration avec l’université de Passau en Allemagne, nous avons pour projet le développement d’un outil d’accompagnement et de recommandation à destination de patients atteints d’obésité. Ici, savoir établir un profil type en fonction des choix de l’utilisateur est un avantage énorme, puisqu’il permet un suivi médical personnalisé presque holistique et des résultats certainement plus efficaces que les régimes conventionnels globaux.
Quoiqu’il en soit, ces techniques de modélisation du comportement soulèvent donc de grandes questions éthiques et sociétales ?
Dès lors qu’il s’agit d’outils aussi puissants que l’informatique, les responsabilités sont grandes. Pour l’aspect scientifique, la compréhension du mécanisme du comportement humain est une étude vaste, mais finalement, l’amélioration de l’efficacité des algorithmes en tant que tels ne sont pas vraiment l’objectif. Il me semble que l'objectif le plus responsable ici serait de travailler à garantir la diversité et une certaine forme de liberté d’accès à toutes les informations, sans biais, tout en respectant la vie privée des utilisateurs. Pour illustrer un peu grossièrement, il conviendrait que l’on ne vous propose pas « Le journal de Bridget Jones » ou « Fast and furious » selon le sexe que vous aurez renseigné dans votre profil à l’inscription. En résumé, les algorithmes ne peuvent être que le prolongement des biais que celui ou celle qui l’a créé. Pour moi, la grande question éthique de la modélisation des comportements se trouve ici : si les algorithmes ont le pouvoir de façonner l’opinion publique, sur les réseaux sociaux notamment, il faut qu’ils puissent le faire selon deux valeurs : équité et diversité.
[1] Laboratoire d'Informatique en Images et Systèmes d'Information (CNRS/INSA Lyon/Lyon 1/Lyon 2/ ECL)
[2] Distribution, Recherche d'Information et Mobilité
[3] L'acronyme GAFAM désigne les cinq entreprises américaines du secteur de la technologie les plus populaires et cotées en bourse : Google, Apple, Facebook, Amazon et Microsoft.
Podcasts « Les cœurs audacieux » - Saison 2 / Épisode 6 - 19 mai 2022

Recherche
« Détecter les influenceurs peut aider à prédire les évènements boursiers »
L’information a fait le tour des réseaux sociaux cette dernière semaine : à l’occasion d’une conférence de presse, le champion de football portugais Cristiano Ronaldo a fait chuter le cours de l’action de l’entreprise Coca-Cola de 4 milliards de dollars en écartant deux bouteilles de soda au profit d’une bouteille d’eau. La nouvelle a fait le tour de la toile et a fait sourire Előd Egyed-Zsigmond, chercheur au LiRiS1. Ce passionné d'informatique bien habitué des fluctuations de la NASDAQ2 ne boursicote pas, comme il aime le rappeler. S’il étudie les cours boursiers chaque matin, c’est pour faire avancer la science de la prédiction car sous la mécanique du système boursier se cache une mystérieuse beauté logique et des enjeux scientifiques de taille. Il explique.
En quelques secondes seulement, Cristiano Ronaldo a réussi à influer sur le cours de l’action de l’une des entreprises les plus influentes du monde. Comment est-ce possible ?
Il faut d’abord se pencher sur les mécanismes du marché boursier. La Bourse est dominée par la loi de l’offre et la demande : concrètement, si une action est très recherchée par les acheteurs, son prix monte. À l’inverse, l’action baisse quand il y a plus de vendeurs que d’acheteurs. Tous les initiés vous le diront, lorsque vous voulez faire de la plus-value en bourse, chaque information compte car il faut bien comprendre que les évènements extérieurs agissent directement sur ces fluctuations. Avec un geste comme celui de Ronaldo, vu par des millions de personnes, beaucoup de décideurs ont choisi de suivre la célébrité car il a une influence sur les consommateurs ; c’est une question d’image. Détecter les influenceurs peut bien sûr aider à prédire des évènements boursiers, mais soyons réalistes, les 4 milliards de perte induits par le geste de Ronaldo ne sont pas grand-chose à l’échelle d’une telle entreprise, la baisse était de moins de 2 %. En comparaison, lorsque les terrasses et les restaurants ont fermé en mars 2020 avec la crise sanitaire, la marque de soda avait perdu 30 % de sa valeur. Les évènements politiques et sociaux ont une plus grande influence sur la Bourse.
Pour vos recherches, vous passez beaucoup de temps à surveiller les variations des prix, et vous les mettez en parallèle avec des informations contextuelles. À quoi cela sert-il ?
Notre but est de trouver des liens de corrélations et de cause à effet entre les variations des actions et les actualités. C’est un travail purement informatique sur lequel nous basons le développement d’algorithmes capables de prédire les oscillations. La Bourse est un cas d’école très intéressant car les données sont facilement accessibles et très nombreuses et il est donc aisé d’évaluer l’efficacité de nos méthodes scientifiques. Pour donner une idée du volume, chaque cours de bourse génère quotidiennement quatre valeurs intéressantes au minimum : le prix d’ouverture en début de journée, le minimum, le maximum et le prix de fermeture. Avec mon équipe, nous observons les chiffres quotidiennement, un peu comme des traders : toutes les 5 minutes nous relevons le cours des actions, des tweets et des millions d’articles de presse en ligne. Au milieu de cet océan de données, nous demandons à nos algorithmes de tracer les liens. Mais ces liens ne sont pas une réponse universelle, car beaucoup d’éléments contextuels peuvent nous échapper et influer sur le choix des investisseurs. En fait, un algorithme automatique ne sera jamais capable de gérer et générer des gains seul sur un portefeuille pour la simple raison que les choix humains sont imprévisibles. Par exemple, lors du tragique accident survenu sur le vol AF 447 Rio-Paris en 2009 à bord d’un avion Airbus, les financiers auraient pu parier que le concurrent principal de l’entreprise, Boeing, prendrait de la valeur boursière. Or, c’est toute la branche de transports aériens de voyageurs qui a été décotée ; on peut imaginer que le facteur « peur » ait influencé les choix. Mais les ressentis et les émotions ne sont pas toujours automatiques, alors comment intégrer ces notions à un algorithme ?
Quels sont les enjeux scientifiques du développement de tels outils ?
L’arrivée des journaux et médias en ligne a donné un élan à l’automatisation de l’extraction de données. Aujourd’hui, un outil informatique est capable de digérer d’énormes quantités d'informations. Mais dans un monde sursaturé d’informations, il faut privilégier la qualité au-delà de la quantité et c’est ce que nous cherchons : créer des outils capables d’aider l’humain à y voir plus clair pour faire ses choix. Grâce à une méthode combinée entre le « deep-learning » et le « machine-learning », nous éduquons nos outils à la sémantique, c’est-à-dire à la manière d’interpréter les énoncés pour leur attribuer un sens. C’est un des principaux enjeux de la fouille de données. D’ailleurs, les vaccins contre la Covid n’auraient pas pu être fabriqués aussi vite sans ces algorithmes : imaginez le nombre de données bibliographiques en matière de pharmacologie qu’il a fallu éplucher avant que les scientifiques puissent lancer les phases expérimentales… Cela me fait dire que la discipline a encore de grandes années devant elle.
Mais pour en revenir à la Bourse, si vos algorithmes marchent trop bien, ne pourraient-ils pas compromettre le système tout entier ?
En réalité, nos expériences montrent que les outils informatiques peuvent aider à être un peu plus efficace, mais tant que ce sont des humains qui vont et viennent sur les actions, la technologie ne pourra jamais être une solution miracle pour faire de la plus-value. Et ça n’est pas plus mal comme ça ! Il nous reste beaucoup à découvrir dans l’analyse d’information structurelle et aujourd’hui, je m’interroge beaucoup : faut-il vraiment tout comprendre de ces mécanismes ? Bien sûr, les méthodes de fouilles de données que nous développons auront des répercussions sur bien d’autres domaines et peuvent permettre par exemple de détecter des signaux faibles pour des crises de toute sorte. Et si le lien logique entre le geste de Cristiano Ronaldo et l’action de Coca-Cola est facile à expliquer, faire comprendre l’humain à des lignes de code nécessite encore quelques bonnes années de recherche !
1 Laboratoire d’InfoRmatique en Image et Systèmes d’information (CNRS/INSA Lyon/Lyon 1/Lyon 2/ECL)
2 Nasdaq : National Association of Securities Dealers Automated Quotations, est la deuxième bourse de valeurs des États-Unis
Crédit photo : UEFA

Recherche
Algorithmes, sécurité et vidéo : tout est dans le geste
Durant ses trois années de thèse au sein du laboratoire LiRis1, Fabien Baradel a tenté d’éduquer des algorithmes à la gestuelle humaine. Non pas pour les implémenter à des robots humanoïdes, mais pour faire évoluer les performances de l’analyse automatique vidéo et améliorer la sécurité des individus. Récemment récompensé pour son travail de thèse soutenu en 2020, c’est entre l’INSA Lyon, le Canada et les bureaux d’un des géants de l’internet que Fabien a fait mouliner les neurones de ses ordinateurs pour transformer l’analyse vidéo en un outil d’aide à la décision. Explications.
De la vidéo, partout et pour tout
500 heures par minute. C’est la quantité vertigineuse de contenu vidéo déposée chaque minute sur la plateforme YouTube, à elle seule. Sur internet ou dans le monde réel, le format vidéo est un outil presque systématique : communication, divertissement, surveillance, santé… Aujourd’hui, le nombre de contenus dépasse très largement le temps et le personnel disponible pour visionner, traiter et exploiter ce contenu massif en constante augmentation. Pourtant, leur compréhension automatique pourrait impacter plusieurs domaines d’applications en démultipliant le potentiel de l’outil. « Si l’on prend l’exemple des caméras de surveillance qui génèrent beaucoup de contenu qui ne sera presque jamais examiné, l’analyse vidéo automatique peut permettre de repérer les comportements suspects et éviter les incidents en avertissant le personnel de sécurité. Pour cela, il nous faut développer des algorithmes capables d’identifier les actions humaines. Aujourd’hui, des applications logicielles sont capables de générer automatiquement des descriptions globales du déroulement d’une vidéo, mais les algorithmes développés sont loin de comprendre finement l’action en train de se faire », explique Fabien Baradel, docteur INSA Lyon et désormais chercheur au centre de recherche grenoblois Naver Labs.
Des intelligences à la mémoire courte
Pour les algorithmes, il existe plusieurs niveaux de reconnaissance et de compréhension. Et il semblerait que le niveau de granularité des informations manipulées par ceux que nous côtoyons le plus souvent, ne soit pas particulièrement fin. « La plupart des algorithmes que nous utilisons au quotidien peuvent détecter des concepts, plus que des détails. Ils sont capables d’identifier que telle vidéo traite de football ou de tennis, mais ils ne sont pas en mesure de cerner le détail des actions comme une passe ou un service. Ils détectent le b.a.-ba et les objets qu’ils ont l’habitude de voir. Ce qu’ils ne connaissent pas est invisible pour eux », poursuit Fabien.
Alors comment permettre à une machine de comprendre la gestuelle humaine, par essence … humaine ? « Un algorithme de deep-learning a besoin d’être nourri en permanence pour être efficace. À force de répétition, il devient capable de reconnaître si c’est un chat ou un chien qui apparaît à l’image, car il a vu beaucoup d’images différentes de ces animaux. Mais c’est un peu comme une plante en pot : si le substrat est bon, elle continuera de grandir, mais si la terre manque de nutriments, elle finit par s’éteindre : un algorithme a besoin d’entretien pour fonctionner. Dans le cas de notre travail de recherche, il était tout bonnement impossible de faire apprendre tous les gestes qu’il existe d’humains sur Terre », explique l’ancien doctorant.
L’humain, la gestuelle et l’objet
Fabien Baradel a donc passé trois années à enseigner à ses algorithmes les subtilités du geste humain à travers le plus grand des miroirs : le regard. « Puisque la reconnaissance fine de l’action humaine était un objectif bien trop titanesque, nous avons mis l’accent sur l’interaction entre l’individu et les objets. Nous avons entraîné les algorithmes à reconnaître d’abord la pose humaine articulée, puis à déduire les interactions importantes à travers l’espace. Plus concrètement, nous nous sommes basés sur le principe de l’attention visuelle : si l’individu se met en mouvement dans une scène, l’algorithme se concentrera sur les parties du corps en action. Ce que nous avons surtout réussi à développer, c’est une méthode capable d’identifier automatiquement une information, à l’aide du contexte de la vidéo. La mise en évidence de ce mécanisme a permis d’améliorer les performances d’analyse, mais il reste encore un peu de chemin avant l’ère de la compréhension automatique ultra précise. Et puis en matière d’algorithme informatique, rien n’est jamais fini », prévient-il.
Segmenter pour mieux filtrer
La recherche pour la compréhension automatique des contenus vidéo semble donc avoir encore quelques années devant elle avant que les modérateurs de plateformes telles que YouTube puissent s’affranchir des nombreuses heures de visionnage de contenus violents et inappropriés. « Nous faisons aujourd’hui des choses incroyables en la matière par rapport à ce que nous faisions il y a dix ans. Le deep-learning a besoin de beaucoup de pouvoir de calcul qui prend souvent plusieurs jours, ça n’est pas de la magie. J’ai bon espoir que ce travail serve à soulager l’humain dans les domaines où la vidéo a une place importante. Par exemple, dans l’automobile et plus précisément dans le développement de l’aide à la conduite. S’appuyer sur des algorithmes pour détecter les piétons et estimer leurs trajectoires permettrait de mieux adapter la vitesse du véhicule et réduire le risque d’accident. Je n’ose pas réfléchir à toutes les possibilités d’applications, mais je sais qu’elles sont infinies ! », conclut Fabien Baradel.
1Laboratoire d’Informatique en Image et Systèmes d’Information (CNRS / INSA Lyon / Université Claude Bernard Lyon 1 / Université Lumière Lyon 2 / École Centrale de Lyon)

Recherche
L’algorithme : cette formule arbitraire, miroir de l’intention humaine
Les algorithmes sont sûrement au 21e siècle ce qu’étaient les moteurs à explosion à l’ère préindustrielle. De plus en plus présents et de plus en plus élaborés, ils sont pourtant mal compris par le public non-averti. À l’occasion d’une conférence organisée par le Centre d'Innovations en Télécommunications et Intégration de Services1 (CITI) le 10 octobre dernier, Antoine Boutet, enseignant-chercheur au département informatique, explique les problématiques posées par les « blacks boxes », ces algorithmes au centre de nos vies. Immersion dans un monde opaque, où le citoyen réclame la transparence.
Algorithme, nm (lat. algorithmus) : ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur.
Une vieille recette de mathématiques qui s’impose dans tous les domaines : finances, orientation professionnelle ou même vie amoureuse. Partout, ils conseillent un film à regarder, un nouvel emploi ou même, un nouvel ami.
Pour comprendre le processus, il faut en revenir aux faits. Je suis confortablement installé dans mon canapé et je m’apprête à visionner un film au moyen d’une plateforme de vidéo à la demande. Ma sélection génère une donnée qui correspond à mes goûts cinématographiques, par exemple, un genre en particulier, une thématique ou une actrice que j’apprécie voir jouer. À la fin de mon visionnage, l’application, à l’aide d’un algorithme, me suggérera d’autres films à regarder en fonction des données récoltées lors que mes choix précédents. Mais selon quels critères sont sélectionnés les films qui me sont proposés ? Quelqu’un a-t-il décidé d’établir ces règles ?
Avant l’automatisation et s’il avait été question de livres, ma bibliothécaire m’aurait conseillé tel ou tel ouvrage, mais j’aurais su, d’une façon inconsciente, que ses propositions n’auraient été ni exhaustives ni totalement objectives, car elles étaient le résultat de sa propre expérience de lecture et de mes goûts littéraires. Or, lorsque je suis en face de mon ordinateur ou de ma télévision connectée, je ne suis pas nécessairement en mesure de comprendre naturellement que l’algorithme qui fait ces propositions, a été implémenté par… Un humain.
« L’algorithme n’est pas un outil neutre et peut soulever des problèmes d’équité. Pour créer un algorithme, il faut l’intervention d’un développeur. En fonction de ses croyances personnelles, ses schémas cognitifs ou émotionnels du développeur, l’apprentissage de l’algorithme peut comporter des discriminations. Que ce soit inconsciemment, avec des erreurs d’implémentation ou consciemment avec l’introduction de biais fixés par son entreprise, l’algorithme reproduit les biais dans le résultat de l’algorithme », explique Antoine Boutet. Autre facteur de biais : l’observation des données passées pour exploiter des corrélations entre les critères de goûts et de sélection de l’utilisateur. L’une des conséquences de ce biais est l’apparition d’une bulle informationnelle. « Un même algorithme peut enfermer l’utilisateur dans un même rouage de pensées. En fonction de ses choix et des règles fixées par l’algorithme, il retombe souvent sur les mêmes informations ou les mêmes types de films par exemple », complète l’enseignant-chercheur.
L’outil algorithmique soulève donc des questions qui dépassent la discipline informatique, et ici, l’enjeu est bien éthique. « Au-delà du fait que les données personnelles peuvent contrôler le comportement de ces algorithmes, données qui sont maintenant régies par le RGPD, nous sommes face à un outil qui nous décrit, nous et le monde qui nous entoure. L’implémentation d’algorithmes répond à des intentions, individuelles ou collectives. La réflexion sous-jacente est surtout celle de la relation de l’homme à la technique : l’algorithme n’est pas un outil qui fonctionne seul, c’est un miroir de l’intention du développeur. Et aujourd’hui, sous couvert d’une technicité parfois inexplicable au grand public, certains en profitent, ne laissant aucune lisibilité au citoyen sur les algorithmes qui irrigue sa vie quotidienne », poursuit-il.
Pour le choix d’un film ou d’un livre, la question du biais de l’algorithme peut paraître anecdotique. Mais lorsqu’il s’agit d’accorder un prêt bancaire, proposer un futur partenaire de vie à travers une application de rencontre ou même scorer les patients en liste d’attente pour un don d’organe, les enjeux soulevés par les biais des algorithmes relèvent-ils encore de l’anecdote ?
Alors comment arbitrer ? Comment attribuer la liberté de concevoir un algorithme et quelle responsabilité légale imposer ? « Il est très difficile de comprendre le comportement d’un algorithme si l’on peut uniquement analyser les résultats qu’il fournit en fonction de nos interactions avec lui. Et c’est justement cette difficulté technique qui freine l’attribution des responsabilités. La régulation des pratiques est indispensable », prévient Antoine. Si l’Union Européenne s’est récemment lancée sur le sujet du droit à l’explication, l’enseignant-chercheur affirme que la sensibilisation des utilisateurs est une première étape primordiale pour avancer vers une société numérique plus transparente.
« C’est pour cela que nous avons organisé cet atelier qui a réuni informaticiens, juristes, sociologues et membres de comités éthiques. C’est une bonne façon de lancer l’alerte et de démêler les enjeux qui interrogent la société toute entière. La prochaine étape sera d’aligner les intérêts communs, pour aller vers des règles éthiques viables », conclut Antoine Boutet
1EA 3720 – Tutelles INSA Lyon et INRIA