Research

27 Oct
27/Oct/2021

Research

Si les algorithmes ont le pouvoir de façonner l’opinion publique, il faut qu’ils puissent le faire avec équité et diversité

« À regarder si vous avez aimé tel film », « notre sélection pour vous », « votre playlist du jour ». Quotidiennement, nos applications préférées suggèrent l’air de rien des contenus capables de retenir l’intérêt. Ces programmes sont l’œuvre d’une mécanique de ciblage comportemental souvent invisible pour l’internaute qui soulève de nombreux enjeux sociétaux. Diana Nurbakova, maître de conférence au laboratoire LIRIS1 et membre de l’équipe DRIM2 travaille à l’analyse et la compréhension de ces systèmes. Voyage au cœur de la machine dont le moteur principal s’avère être lui, bien humain.

Pour les utilisateurs, les systèmes de recommandation de contenus semblent obéir à des règles obscures tant ils sont parfois précis. Comment est-il possible de catégoriser des utilisateurs en fonction de leurs intérêts ? 
Le ciblage est basé sur les comportements de chaque utilisateur. Chaque clic, commentaire ou like est une trace numérique traduisant un choix et constitue une base pour établir un profil utilisateur. Il existe des mécanismes de ciblage simples, comme l’association de mots-clés : si vous cherchez des informations sur un vélo, vous pourrez certainement être considéré comme un utilisateur qui sera intéressé par les activités de pleine nature par exemple. Pour aller plus loin dans la compréhension du lien entre clic et profil psychologique, il me semble qu’il est important de rappeler le rôle des émotions sur nos actions digitales. Un bon exemple pour illustrer cela est une analyse à laquelle j’ai participé et qui consistait à étudier la façon dont l’information pouvait évoluer au fil des posts twitter durant le confinement. La question de la crise sanitaire et de la vaccination a suscité beaucoup de réactions polarisées sur les réseaux sociaux. L’objectif premier de notre analyse était de comprendre la façon dont les informations énoncées initialement se transformaient tout au long des discussions sur le réseau social, jusqu’à parfois devenir des informations fausses. Ce qu’il y a de notable, c’est la cascade d’émotions exprimées au fil de la discussion : même si le tweet initial était politiquement neutre, plus le fil du tweet s’allongeait, plus les émotions exprimées étaient fortes. Ce qui m’a particulièrement intéressée dans cette étude était de pouvoir établir un lien avec le profil psychologique des internautes qui intervenaient sur le post. Pour cela, nous avons utilisé la célèbre classification Big five, qui propose cinq grands types de personnalités. Le profil qui ressortait le plus souvent était celui du « névrosisme », qui décrit des états émotionnels réactifs qui peuvent entraver la capacité à raisonner face aux situations stressantes. Voilà une autre façon de constituer un profil d’utilisateur. 

Finalement, ces systèmes de recommandations sont à la jonction entre l’informatique et la psychologie ? 
Effectivement pour certains cas d’études, il faut s’entourer d’experts en cognition, comme des psycholinguistes par exemple. En tant que chercheurs en données, nous n’inventons rien en psychologie. Nous utilisons des modèles déjà existants et conventionnels. Par exemple, le modèle Big Five dont je parlais, qui regroupe cinq grands groupes de traits de personnalité et habitudes de comportement, a été établi originellement par un psychologue dans les années 1990. Pour réaliser notre étude sur Twitter, nous avons utilisé un service IBM Watson Personality Insights, basé sur cette classification. Il en existe évidemment beaucoup d’autres et les entreprises du numériques ont souvent leurs propres algorithmes et classifications. 

La plupart des internautes ont connaissance de la technique de profilage en raison des nombreuses publicités ciblées dont ils sont destinataires chaque jour. N’existe-t-il pas d’utilisations plus vertueuses à ces techniques ? 
La modélisation du comportement est une logique mathématique et comme toute technologie, elle peut être détournée et utilisée à mauvais escient. Si nous prenons le cas des GAFAM3, ces entreprises ont en effet des systèmes de profilage très puissants en raison de la quantité et de la qualité des données récoltées chaque seconde. Souvent, elles sont utilisées pour générer du profit. S’il est difficile de reprocher ces activités légalement, éthiquement, c’est une autre question. En tant qu’internaute, je trouve bien sûr que ce système est trop intrusif dans notre quotidien privé et a un trop grand pouvoir d’influence. Mais en matière de recherche, il faut comprendre que le mécanisme a ses vertus. Par exemple, en collaboration avec l’université de Passau en Allemagne, nous avons pour projet le développement d’un outil d’accompagnement et de recommandation à destination de patients atteints d’obésité. Ici, savoir établir un profil type en fonction des choix de l’utilisateur est un avantage énorme, puisqu’il permet un suivi médical personnalisé presque holistique et des résultats certainement plus efficaces que les régimes conventionnels globaux. 

Quoiqu’il en soit, ces techniques de modélisation du comportement soulèvent donc de grandes questions éthiques et sociétales ? 
Dès lors qu’il s’agit d’outils aussi puissants que l’informatique, les responsabilités sont grandes. Pour l’aspect scientifique, la compréhension du mécanisme du comportement humain est une étude vaste, mais finalement, l’amélioration de l’efficacité des algorithmes en tant que tels ne sont pas vraiment l’objectif. Il me semble que l'objectif le plus responsable ici serait de travailler à garantir la diversité et une certaine forme de liberté d’accès à toutes les informations, sans biais, tout en respectant la vie privée des utilisateurs. Pour illustrer un peu grossièrement, il conviendrait que l’on ne vous propose pas « Le journal de Bridget Jones » ou « Fast and furious » selon le sexe que vous aurez renseigné dans votre profil à l’inscription. En résumé, les algorithmes ne peuvent être que le prolongement des biais que celui ou celle qui l’a créé. Pour moi, la grande question éthique de la modélisation des comportements se trouve ici : si les algorithmes ont le pouvoir de façonner l’opinion publique, sur les réseaux sociaux notamment, il faut qu’ils puissent le faire selon deux valeurs : équité et diversité.

 

[1] Laboratoire d'Informatique en Images et Systèmes d'Information (CNRS/INSA Lyon/Lyon 1/Lyon 2/ ECL)
[2] Distribution, Recherche d'Information et Mobilité
[3] L'acronyme GAFAM désigne les cinq entreprises américaines du secteur de la technologie les plus populaires et cotées en bourse : Google, Apple, Facebook, Amazon et Microsoft.