LIRIS

06 oct
06/10/2023 09:30

Sciences & Société

Soutenance de thèse : Youcef REMIL

A Data Mining Perspective on Explainable AIOps with Applications to Software Maintenance

Doctorant : Youcef REMIL

Laboratoire INSA : LIRIS

Ecole doctorale : ED512 Infomaths

La supervision des systèmes informatiques modernes est confrontée à des défis de scalabilité, de fiabilité et d'efficacité. Les approches traditionnelles de maintenance manuelle sont inefficaces, de même que les systèmes experts à base de règles pour gérer les alertes générées par les systèmes informatiques. AIOps for Operating Systems (AIOps) propose l'utilisation de techniques avancées d'apprentissage automatique centrées sur les données pour améliorer et automatiser la supervision des systèmes. Cependant, plusieurs défis doivent être relevés pour concrétiser cette vision. Le manque de terminologie claire et unifiée dans le domaine de l'AIOps rend difficile la progression et la comparaison des contributions. Les exigences et les métriques nécessaires à la construction de modèles AIOps alignés sur les contraintes industrielles ne sont pas suffisamment développées. Les contributions théoriques se sont principalement concentrées sur les modèles prédictifs, négligeant les défis liés à la qualité et à la complexité des données. La dépendance excessive aux modèles boîte noire opaques limite leur adoption par les praticiens de l'industrie. De plus, les solutions AIOps existantes accordent peu d'importance à l'évaluation des performances des modèles et aux problèmes de scalabilité. Nous proposons dans le cadre de cette thèse une approche systématique de l'AIOps en fournissant une catégorisation conforme aux normes industrielles. Nous explorons également la découverte de sous-groupes pour extraire des hypothèses intéressantes à partir de vastes ensembles de données diversifiées. Nos contributions dans cet axe de recherche comprennent l'identification de fragments de requêtes SQL suspects pour résoudre les problèmes de performance, un mécanisme d'interprétation pour les modèles de triage des incidents, et l'analyse des problèmes de saturation de mémoire Java caractérisé par un ensemble de données complexes intégrant des données hiérarchiques. Nous étudions également la scalabilité en se concentrant sur le problème de déduplication des incidents en se référant à la technique de hachage sensible à la localité.

Informations complémentaires

  • Salle 501.337, Bâtiment Ada Lovelace (Villeurbanne)

14 sep
14/09/2023 14:00

Sciences & Société

Soutenance de thèse : Lisa BLUM MOYSE

Computational neuroscience models at different levels of abstraction for synaptic plasticity, astrocyte modulation of synchronization and systems memory consolidation

Doctorante : Lisa BLUM MOYSE

Laboratoire INSA : LIRIS

Ecole doctorale : ED512 Infomaths

Dans cette thèse, des modèles théoriques à niveaux d’abstraction croissants sont développés pour aborder des questions issues d’expériences de neuroscience. Ils sont étudiés par des approches numériques et analytiques. Avec le laboratoire de Laurent Venance (Paris), nous avons développé un modèle du protocole ITDP (input-timing- dependent plasticity) pour la plasticité des synapses cortico- et thalamo-striatales. Le modèle a été calibré par des données ex vivo et permettra de déterminer la présence de plasticité synaptique in vivo, lors d’expériences de comportement visant à déterminer le rôle des entrées corticales et thalamiques dans l’apprentissage moteur. Au niveau des populations neuronales, j’ai étudié la modulation des comportements collectifs neuronaux par les astrocytes, en particulier la synchronisation Up-Down, une alternance spontannée entre des périodes de forte activité collective et des périodes de silence. J’ai proposé des modèles de fréquence de décharge et de réseaux de neurones à spikes de populations interconnectées de neurones et d’astrocytes. Ils proposent des explications sur la façon dont les astrocytes induisent les transitions Up-Down. Les astrocytes sont aussi probablement impliqués dans la génération des crises d’épilepsie, pendant lesquelles la synchronisation neuronale est altérée. Sur la base des modèles précédents, j’ai développé un réseau neurone-astrocyte avec une connectivité en clusters, montrant la transition entre des dynamiques Up-Down et des évènements de très forte activité mimant une crise d’épilepsie. Enfin, au niveau du cerveau lui-même, j’ai étudié la théorie standard de la consolidation, selon laquelle la mémoire à court terme dans l’hippocampe permet la consolidation de la mémoire à long terme dans le néocortex. J’ai cherché à expliquer ce phénomène en intégrant des hypothèses biologiques – taille du néocortex expliquant la lenteur de l’apprentissage, et neurogenèse dans l’hippocampe expliquant l’effacement de sa mémoire – dans un modèle de champs neuronaux interconnectés qui reproduit bien les principales caractéristiques de la théorie.

Informations complémentaires

  • Salle 337, Bâtiment Ada Lovelace (Villeurbanne)

21 juil
21/07/2023 10:00

Sciences & Société

Soutenance de thèse : Behnam EINABADI

Nouvelles méthodes d'aide à la décision pour la maintenance prédictive dynamique basée sur la science des données et l'optimisation multi objectifs

Doctorant : Behnam EINABADI

Laboratoire INSA : LIRIS

Ecole doctorale : ED512 Informatique Et Mathématiques de Lyon

La maintenance prédictive (PdM) est devenue un sujet de recherche majeur dans l'industrie et dans le monde académique. L'objectif est d'utiliser des données en temps réel pour surveiller l'état de santé des équipements et prédire leur durée de vie restante (RUL). La plupart des études se concentrent sur la prédiction des défaillances, tandis que la prescription de décisions pour les activités de maintenance est beaucoup moins abordée. L'objectif de cette thèse est d'explorer les nouvelles méthodes et approches de PdM et de maintenance préventive (PvM) grâce à la science des données et aux méthodes d'optimisation mathématique. Notre étude vise à répondre à plusieurs questions telles que la possibilité d'estimer l'état de santé et/ou la RUL des équipements et de proposer une planification intégrale des activités de maintenance. Pour cela, une approche globale est proposée, qui couvre l'ensemble des stratégies de maintenance, et intègre l'analyse de la criticité de l'équipement, l'identification de la stratégie de maintenance, l'acquisition de données et d'informations, la surveillance de l'état de santé des équipements, la surveillance du système de maintenance, l'estimation de la RUL et la planification. Pour la mise en œuvre de cette approche, plusieurs outils, algorithmes et méthodes appropriés ont été développés et expérimentés sur quelques cas d'utilisation à l'usine Fiat Powertrain Technologies Bourbon-Lancy. Les résultats ont permis de démontrer la faisabilité de l'estimation de la RUL en se basant sur des données en temps réel, ainsi que l'efficacité engendrée. Par la suite, une méthode d'optimisation de planification des activités PdM et PvM a été développée et appliquée sur un cas réel en prenant en compte la RUL, le groupement opportuniste des activités et le risque de défaillance. Enfin, les perspectives managériales et les défis de la mise en œuvre de l'approche globale proposée dans d'autres entreprises ont été discutés.

16 juin
16/06/2023 14:00

Sciences & Société

Soutenance de l'Habilitation à Diriger des Recherches en sciences : Omar HASAN

Soutenance est publique

Maître de conférences : Omar HASAN

Laboratoire INSA : LIRIS

Rapporteurs : 

  • M. Nicolas ANCIAUX    Directeur de recherche, Inria Saclay
  • M. François CHAROY    Professeur, Université de Lorraine, Inria Nancy
  • M. François TAIANI    Professeur, Université de Rennes 1, Inria Rennes

Jury :
Examinateurs :

  • Mme Elisa BERTINO    Professeur, Purdue University
  • M. Lionel BRUNIE    Professeur, INSA Lyon
  • M. Stelvio CIMATO    Professeur, Università degli Studi di Milano
  • M. Christophe GARCIA (invité)    Professeur, INSA Lyon
  • Mme Parisa GHODOUS    Professeur, Université Claude Bernard Lyon 1
  • M. Andrew MARTIN    Professeur, University of Oxford
     

Informations complémentaires

  • Salle 501.337, bâtiment Ada Lovelace

Mots clés

31 mai
31/05/2023 13:30

Sciences & Société

Soutenance de thèse : Méghane DECROOCQ

Développement d’une méthode de modélisation et maillage de réseaux artériels basée sur la ligne centrale pour les études hémodynamiques des pathologies cérébrovasculaires / Development of a centerline-based arterial network modeling and meshing framework for hemodynamic studies of cerebrovascular pathologies

Doctorante : Méghane DECROOCQ

Laboratoire INSA : LIRIS
Ecole doctorale : ED512 Infomaths

La dynamique des fluides numérique (CFD) est une technique qui fournit des informa- tions précieuses sur l’écoulement du sang à partir de la géométrie vasculaire, permettant de comprendre, de diagnostiquer et de prévoir l’issue des maladies vasculaires. Cependant, la résolution des images médicales actuelles n’est pas satisfaisante, et il est encore difficile d’extraire les vaisseaux sanguins, en particulier ceux dont la géométrie est complexe, comme les réseaux d’artères cérébrales. Dans cette thèse, nous avons proposé un cadre en deux étapes pour produire des maillages prêts pour la CFD à partir d’une représentation simplifiée des réseaux vasculaires par leurs lignes centrales. Dans la première étape, afin de pallier aux défauts de la représentation basée sur les lignes centrales (dispersées, bruitées), une étape de modélisation a été introduite pour reconstruire un modèle anatomiquement réaliste à partir de connaissances a-priori sur les vaisseaux et les géométries des bifurca- tions. Ensuite, une étape de maillage a été développée pour créer un maillage volumique de haute qualité avec des cellules hexaédriques structurées et orientées vers l’écoulement, répondant aux exigences de la CFD. Grâce à ce logiciel, nous avons créé une base de donnée de maillages pour la CFD de réseaux entiers d’artères cérébrales, qui peut être utilisé pour l’évaluation de dispositifs médicaux et les études hémodynamiques. Ce logiciel contribue à combler des lacunes des méthodes de maillage actuelles et permet la construction de bases de données de larges réseaux artériels cérébraux pour la CFD.

 

Informations complémentaires

  • Salle de conférence de la bibliothèque universitaire, Université Lyon 1 (Villeurbanne)

15 mai
15/05/2023 10:00

Sciences & Société

Soutenance de thèse : Alaa ALHAMZEH

Language Reasoning by means of Argument Mining and Argument Quality

Doctorante : Alaa ALHAMZEH

Laboratoire INSA : LIRIS

Ecole doctorale : ED512 Infomaths

Understanding of financial data has always been a point of interest for market participants to make better informed decisions. Recently, different cutting-edge technologies have been addressed in the Financial Technology (FinTech) domain, including data analysis, opinion mining and financial document processing. In this thesis, we are interested in analyzing the arguments of financial experts with the goal of supporting investment decisions. Although various business studies confirm the crucial role of argumentation in financial communications, no work has addressed this problem as a computational argumentation task. In other words, the automatic analysis of arguments. Focusing on this issue, this thesis presents contributions in the three essential dimensions of theory, data, and evaluation. First, we propose a method for annotating the structure of the arguments stated by company representatives during the earnings conference calls. The proposed scheme is derived from argumentation theory at the micro-structure level of discourse. We further conducted the corresponding annotation study and published the first financial dataset annotated with arguments: FinArg. Moreover, we further investigate the question of evaluating the quality of arguments in this genre of text. To tackle this challenge, we suggest using two levels of quality metrics, considering both the Natural Language Processing (NLP) literature of argument quality and the financial era peculiarities. We have also enriched the FinArg data with our quality dimensions to produce the FinArgQuality dataset. In terms of evaluation, we validate the principle of ensemble learning on the argument identification and argument unit classification tasks. We show that combining a traditional machine learning model along with a
deep learning one, via an integration model (stacking), improves the overall performance, especially in small dataset settings. Although argument mining is mainly a domain-dependent task, to this date, the number of studies that tackle the generalization of argument mining models is still relatively small. Therefore, using our stacking approach and in comparison to the transfer learning model of DistilBert, we address and analyze three real-world scenarios concerning the model robustness over unseen domains and variant topics. In addition, with the aim of the automatic assessment of argument strength, we have investigated and compared different (refined) versions of Bert-based models. Consequently, we managed to outperform the baseline model by 13 ± 2% in terms of F1-score through integrating Bert with encoded categorical features. Beyond our theoretical and methodological proposals, the dimensions of argument quality assessment, annotated corpora, and evaluation approaches are publicly available, and can serve as strong baselines for future work in both FinNLP and computational argumentation domains. Hence, directly exploiting this thesis, we described and proposed to the community, within the framework
of the NTCIR-17 conference, a new task/challenge, the FinArg-1 task, relating to the analysis of financial arguments. We also used our proposals to respond to the Touché challenge at the CLEF 2021 conference. Our contribution was selected among the « Best of Labs ».

Informations complémentaires

  • Salle de créativité 202 - (Bibliothèque Marie Curie) - Villeurbanne

07 avr
07/04/2023 10:00

Sciences & Société

Soutenance de thèse : Léon Victor

Learning-Based Interactive Character Animation Edition

Doctorant : Léon Victor

Laboratoire INSA : LIRIS

Ecole doctorale : ED512 Informatique Et Mathématiques de Lyon

La principale méthode utilisée pour animer un personnage virtuel consiste à éditer le mouvement d’un squelette, sur lequel un modèle sous forme de maillage sera appliqué et déformé au besoin. Pour convaincre le spectateur, le mouvement d’un personnage doit respecter de nombreuses règles implicites, comme le modèle physique qui régit son monde ou les limites de sa morphologie. Ce faisant, il doit aussi rendre explicite l’action réalisée, et laisser transparaître l’état émotionnel du personnage. La subtilité de ces contraintes rend la création d’animation difficile et la production d’une animation réaliste et/ou plaisante repose fortement sur les connaissances, l’expérience et minutie de l’animateur. La démocratisation des techniques de capture de mouvement (Motion Capture, ou MoCap) permet de produire de plus en plus de données de mouvements tirés du monde réel, qui portent intrinsèquement des informations sur ces contraintes. Les travaux présentés dans cette thèse proposent d’exploiter ces données à l’aide de méthodes récentes d’apprentissage automatique, utilisant les réseaux de neurones pour fournir de nouveaux outils aux artistes animateurs.

Informations complémentaires

  • Salle C5 du bâtiment Nautibus de l'UCBL (Villeurbanne)

30 mar
30/03/2023 14:00

Sciences & Société

Soutenance de thèse : Luca VEYRIN-FORRER

Explaining machine learning models on graphs by identifying hidden structures built by GNNs

Doctorant : Luca VEYRIN-FORRER

Laboratoire INSA : LIRIS

Ecole doctorale : ED512 Infomaths

La dernière décennie a vu une énorme croissance dans le développement de techniques basées sur les réseaux de neurones profonds pour les graphes. Les réseaux de neurones sur graphes (GNNs) se sont avérés les plus efficaces pour de nombreux problèmes d'apprentissage automatique de graphes tels que les méthodes de noyaux. Cependant, le fonctionnement interne des modèles GNN reste opaque, ce qui constitue un obstacle majeur à leur déploiement, soulevant des questions d'acceptabilité sociale et de fiabilité, limites qui peuvent être surmontées par l'explication du fonctionnement interne de tels modèles. Dans cette thèse, nous étudions le problème de l'explicabilité des GNNs. Notre contribution principale, INSIDE, vise à extraire les règles d'activation dans les couches cachées du modèle pour comprendre quels descripteurs et caractéristiques de graphes ont été automatiquement extraits des graphes. Le défi consiste à fournir un petit ensemble de règles qui couvrent tous les graphes d'entrée. Nous proposons un domaine de motifs subjectif pour résoudre cette tâche. Nous proposons l'algorithme INSIDE qui est efficace pour énumérer les règles d'activation dans chaque couche cachée.  Les règles d'activation peuvent ensuite être utilisées pour expliquer les décisions du GNN. l'étude expérimentale montre des performances très compétitives par rapport aux audres méthodes de l'état de l'art. Cependant, les règles d'activation ne sont pas interprétables. Nous proposons d'interpréter ces règles en identifiant un graphe entièrement plongé dans le sous-espace associé à chaque règle. La méthode DISCERN que nous avons mise mise au point est basée sur une recherche arborescente de type Monte Carlo dirigée par une mesure de proximité entre le plongement du graphe et la représentation interne de la règle. Les graphes ainsi obtenus sont réalistes et pleinement compréhensibles par l'utilisateur final.

Informations complémentaires

  • Salle 501.337 - Amphi FC, Bâtiment Ada Lovelace (Villeurbanne)

13 mar
13/mar/2023

Recherche

« Il est possible d’aller vers une IA plus frugale »

« Faire aussi bien (voire mieux) avec moins de ressources » : ce pourrait bien être la maxime préférée de Stefan Duffner, enseignant-chercheur au laboratoire LIRIS1. Spécialiste de l’apprentissage et de la reconnaissance des formes au sein de l’équipe Imagine2, il explore une approche de l’Intelligence Artificielle (IA) plus frugale. Comment faire de l’IA robuste, sécurisée et fiable avec moins de données ? Comment relever le défi de la sobriété dans un domaine tenaillé par une course à la performance permanente ? Quel degré d’erreurs est-il acceptable pour un système à qui l’on demande de prendre des décisions pour nous-même ? Stefan Duffner propose d’explorer un concept qui encourage une approche de compromis, entre performances et impacts sur l’environnement. Explications.

Pourquoi, de tous les outils du numérique, l’intelligence artificielle devrait-elle prendre le pli d’une certaine frugalité ou sobriété ?
Derrière le terme « intelligence artificielle » se cache un monde très vaste. Pour ma part, je m’intéresse à l’apprentissage automatique et aux réseaux de neurones profonds, appelé « deep-learning », qui sont des méthodes qui régissent nos principaux usages de l’intelligence artificielle. Ces dernières années, les outils faisant appel à des IA, se sont largement démocratisés, au moyen d’appareils embarqués et de données massivement exploitées. Si l’utilisation de ces données volumineuses permet d’avoir des modèles très précis, il est désormais reconnu qu’elle présente de lourdes conséquences sur le plan environnemental, notamment en matière de consommation d’énergie. Aussi, cette exploitation de données massives va souvent de pair avec des calculs de plus en plus complexes et lourds. Une autre part de la consommation énergétique de l’IA vient de l’apprentissage. Pour qu’un modèle d’intelligence artificielle fonctionne, il a besoin d’être entraîné, d’apprendre. Souvent déployée sur des data centers de grande envergure, cette activité peut s’avérer très gourmande en énergie. Ces approches actuelles, qui ne tiennent pas compte des ressources limitées de la planète, ne sont plus tenables. C’est pour cette raison qu’une partie de la communauté scientifique appelle à plus de frugalité dans l’utilisation des intelligences artificielles, en étudiant d’autres approches plus sobres, tout au long du cycle de développement de l’IA.

Concrètement, quels leviers peuvent être actionnés pour que l’intelligence artificielle soit plus « frugale » ?
Le but, c’est de faire plus léger. Aujourd’hui, beaucoup de modèles sont surdimensionnés et consomment beaucoup plus d’énergie que le besoin le requiert. Il y a beaucoup d’approches pour faire plus « frugal » en matière d’intelligence artificielle et la communauté scientifique commence à s’intéresser notamment à la réduction de la complexité des modèles, en utilisant moins de données ou en les « élaguant ». Il y a aujourd’hui, une surenchère des réseaux de neurones car c’est le système fournissant les résultats les plus performants et efficaces. Cependant, il existe de nombreux usages pour lesquels un apprentissage un peu moins efficace, moins énergivore et plus explicable comme les modèles probabilistes, pourrait convenir. Et puis, concernant les autres leviers, il y a la dimension du matériel, du réseau et du stockage des données qui mériterait d’être repensée pour des IA plus sobres. Je dis « sobre », car il me semble que c’est un terme à différencier de « frugal ». La frugalité invite à faire mieux avec moins, alors qu’il me semble que la sobriété implique de remettre en question les besoins, à l’échelle sociologique, ce qui n’est pas de mon domaine de chercheur en informatique. 

Donc, d’après ce que vous laissez entrevoir, l’IA frugale, ça n’est pas vraiment pour tout de suite. Quels sont les freins ?
J’identifie au moins deux freins majeurs. D’abord, un frein technique. Faire de l’IA frugale implique de trouver le bon compromis entre sécurité, robustesse et réponse au besoin. Les deux premières propriétés sont complètement inhérentes à notre usage de l’intelligence artificielle : nous ne voulons pas utiliser d’IA qui fasse de graves erreurs et qui soit sujette aux attaques malicieuses. Parfois, en diminuant les modèles pour gagner en économie d’énergie, on diminue la robustesse. Prenons l’exemple de la voiture autonome : nous ne voulons certainement pas diminuer la robustesse de l’IA qui contrôle la voiture automatique, et que celle-ci confonde un vélo et un piéton. Pour lui faire apprendre à différencier les situations, cette IA a « appris », à travers une multitude de situations différentes. Il sera donc difficile dans cette situation d’alléger le modèle car le seuil de tolérance doit être très bas pour éviter la moindre catastrophe. Bien sûr, on peut questionner le besoin de développer des voitures autonomes, mais c’est un autre débat… L’autre frein majeur pour le développement d’une IA plus frugale, c’est qu’elle implique des compétences dans plusieurs domaines, ce qui réduit le champ des spécialistes pouvant s’impliquer dans cette mouvance. C’est d’ailleurs ce qui m’a motivé à faire un projet avec la SATT Pulsalys
3 pour développer un service, facile d’utilisation destiné aux ingénieurs, data-scientists ou à des entreprises qui souhaiteraient s’investir dans la réduction de modèles, sans pour autant en être spécialistes. Nous sommes encore en train de travailler sur un prototype qui ne devrait pas tarder à voir le jour.

Il y a un vrai débat entre les approches dites « green IT » et « IT for Green ». Les terminologies sont proches, pourtant, les démarches ne sont pas les mêmes. Comment y voir plus clair ?
Effectivement, il y existe un vrai débat entre ces approches, qui peuvent être complémentaires. La première prévoit de minimiser l’impact négatif des opérations et des équipements sur l’environnement. L’autre est une démarche qui utilise le numérique dans un objectif de réduction de l’empreinte écologique. Pour ma part, je crois que les intelligences artificielles sont encore trop largement utilisées pour créer des besoins dont l’utilité pourrait être remise en question. Cela est dû au déploiement massif de l’IA ces dernières années, lui-même rendu possible par la disponibilité des ressources de calcul et le matériel disponible, assez bon marché. Jusqu’à aujourd’hui, il est facile d’investir dans l’IA, grâce à des financements. Il ne faut pas oublier que c’est un domaine encore jeune, et que les solutions pour faire plus frugal, ne sont pas encore à la portée de tous. Sur le papier, j’ai le sentiment qu’il y a beaucoup de volonté pour faire « plus vert », mais dans les entreprises, la décision est difficile : utiliser une IA plus « verte » coûte souvent plus cher. Alors que développer un outil d’IA pour faire « plus vert », est un projet plus facilement défendable devant des financeurs. C'est aussi un domaine qui manque encore de règlementation. Nous pourrions imaginer que l’utilisation d’une IA soit soumise à des obligations d’économie d’énergie : ces règles existent pour le chauffage, pourquoi pas avec une IA ?


L’INSA Lyon lance la semaine du numérique responsable
Envie d’explorer le sujet de l’intelligence artificielle frugale plus en détail ?
Stefan Duffner sera présent lors de la première édition de la semaine du numérique responsable qui se tiendra du 3 au 7 avril, à l’INSA Lyon. À travers des conférences ouvertes à tous, avec la participation de chercheurs, d’étudiants ou de partenaires économiques et académiques, l’INSA Lyon souhaite pousser à la réflexion autour de la transition numérique lors d’une semaine dédiée.
=> Découvrir le programme

 

 

[1] Laboratoire d'InfoRmatique en Image et Systèmes d'information (UMR 5205 CNRS / INSA Lyon / Université Claude Bernard Lyon 1 / Université Lumière Lyon 2 / École Centrale de Lyon)
[2] Computer vision, Machine Learning, Pattern recognition
[3] Créée en 2014, La Société  d’Accélération du Transfert de technologies (SATT) Pulsalys du site Lyon et Saint Étienne a pour mission de mutualiser les moyens et compétences des établissements de recherche publique de l’écosystème lyonnais et stéphanois en vue d'accélérer le transfert de technologies issu de leurs laboratoires.

 

Mots clés

14 déc
14/déc/2022

Recherche

Crypto-prêts : de la tradition de village à la blockchain

Dans de nombreux pays émergents, il est difficile d’entreprendre pour les personnes disposant de faibles revenus. La plupart des prêts accordés par les banques traditionnelles étant des prêts garantis, les termes et conditions ne sont pas toujours faciles à remplir pour les emprunteurs. C’est le cas en Indonésie, le pays d’origine de Wisnu Uriawan, où ces barrières empêchent certains de créer ou de développer une activité génératrice de revenus. 
Docteur de l’INSA Lyon depuis quelques mois, il a passé ses quatre années de doctorat au LIRIS1 à étudier des solutions d’émancipation financière par la blockchain. En s’inspirant de modèles informels de prêts traditionnels de villages africains, le désormais docteur a travaillé à mettre en place une plateforme, « TrustLend », pour faire se rencontrer emprunteurs, recommandataires et prêteurs. Il a récemment obtenu le prix Mahar Schützenberger, une récompense franco-indonésienne pour la qualité de ses travaux de thèse.

 Wisnu UriawanFavoriser l’émancipation et l’inclusion financière
Acheter du matériel agricole, une machine à coudre pour lancer un micro-business, financer une opération chirurgicale ou des frais de scolarité… Pour les citoyens de certains pays émergents, il est parfois difficile de mobiliser de l’épargne pour faire évoluer son activité et améliorer son niveau de vie. Pour pallier cette situation, des systèmes de micro-crédits de particulier à particulier ont vu le jour. Aussi, le développement exponentiel de la technologie blockchain et des cryptomonnaies dans les pays émergents semblent également avoir trouvé des applications dans le secteur financier : les prêts peer-to-peer sur la blockchain pourraient représenter un volume estimé à près d’un billion de dollars d’ici 2050. Témoin de la situation dans son pays, Wisnu Uriawan a rejoint le LIRIS il y a quatre ans avec cette idée : rendre accessible le système de prêt de pair à pair grâce à la technologie blockchain et aux smart contracts.

Redéfinir la fiabilité d’un emprunteur grâce à la communauté
En s’inspirant d’un système informel de prêt au sein de certaines communautés, Wisnu a imaginé un fonctionnement permettant de remplacer tout ou partie des garanties bancaires exigées traditionnellement par les organismes prêteurs pour les remplacer par un mécanisme de réputation sociale. Comme dans certains villages africains, l’engagement de la communauté ferait office de soutien au demandeur. « Mes travaux de thèse proposent que la fiabilité des emprunteurs soit utilisée comme alternative dans les demandes de prêts afin que les emprunteurs ne soient plus accablés par des garanties ou garants. La principale problématique était de réussir à calculer de manière fiable, cette fiabilité », explique le docteur.
Wisnu et ses encadrants de thèse ont ainsi développé le modèle « LAPS », pour « Loan risk Activity, Profile and Social recommendation2 », permettant de calculer un « score de fiabilité » pour chaque emprunteur. « Nous introduisons la notion de recommandation sociale en soutien à l’emprunteur en fonction de certaines variables telles que le risque de prêt, son activité, son profil ou son projet. Ce score peut aider à convaincre les prêteurs et les investisseurs de lui accorder des prêts avec peu ou pas de garanties classiques. »

Un prêt sans banque, grâce à la blockchain et aux smart contracts
Une fois la fiabilité de l’emprunteur reconnue par les pairs, comment contractualiser la transaction, sans l’intervention d’un organisme bancaire ? « Les smart contracts, ou contrats intelligents, sont des programmes codés alimentés par la blockchain. Ils peuvent faire office d’intermédiaires entre les pairs de manière sécurisée et où toutes les règles classiquement convenues peuvent être appliquées », explique Wisnu. Comptant sur les vertus de traçabilité et de partage de données de la blockchain, les conditions et termes du smart contract sont ainsi visibles par tous, obligeant à la bonne exécution du contrat. L’autre avantage du smart contract réside dans le coût d’exécution : en évitant une grande partie des intermédiaires, le processus de contractualisation bénéficie de coût réduit ; un avantage notable par rapport aux crédits classiques dont le coût est relativement élevé. Reste à lever l’un des freins majeurs du système : le jugement lors d’un litige, avis duquel la blockchain ne pourrait pas se substituer à l’humain.

Une plateforme qui fait se rencontrer emprunteurs et prêteurs
C’est ainsi que Wisnu Uriawan a souhaité voir ces années de travaux sur la blockchain et les smart contracts se concrétiser : en développant une application dédiée à la rencontre entre emprunteurs et prêteurs. Intitulée « TrustLend », le logiciel, s’il est prêt à être déployé, doit encore attendre certaines évolutions de la régulation. « Je viens d’un pays émergent où j’imagine une application très vertueuse de ce système. L’idée est d’aider des gens dans le monde, pas de faire du profit. Je suis rentré à Java désormais, et j’ai apporté cette idée dans mes valises. Je suis persuadé que, pour les emprunteurs, ce système sera très utile, par exemple pour un agriculteur qui ne pourrait pas acheter son tracteur comptant. » 
La blockchain, qui se trouve également être au service de la finance participative, le crowdfunding, pourrait trouver sa place entre finance, anthropologie et informatique. « La blockchain a beaucoup à apporter au secteur financier en matière de transparence des transactions. Si l’on ajoute à cela la confiance accordée par la communauté, on peut espérer créer un cercle vertueux où plus vous avez fait preuve de fiabilité et plus vous obtenez un score recommandable par la communauté. C’est une autre façon de penser les prêts financiers et l’argent en général. » 

 

[1] Laboratoire d’Informatique en Images et Systèmes d’Informations (CNRS / INSA Lyon / Université Claude Bernard Lyon 1 / Université Lumière Lyon 2 / École Centrale de Lyon)
[2] Risque de crédit, Activité, Profil, et Recommandation sociale

 

Mots clés

Pages