FORMATION

08 mar
08/mar/2022

FORMATION

« L’ingénieur peut faire avancer la loi pour une technologie plus juste »

Comment un objet technologique est-il capable de faire évoluer le droit ? C’est le sujet de fond du Tech Law Clinics auquel a participé Dac An Nguyen, étudiant en 3e année de génie électrique. Organisé par l’Université Catholique de Lyon pour mesurer l’impact des transformations technologiques en matière de droits et libertés, l’exercice de procès fictif est proposé aux élèves-ingénieurs de l’INSA Lyon dans le cadre de la formation à la responsabilité sociale de l’ingénieur.

Dans la mise en scène, tout est fait pour que ça ait l’air réel. Sur les bancs de la cour administrative d’appel de Lyon, avocats et magistrats en herbe tiennent le procès. Dac An Nguyen est l’expert judiciaire de la cour. Il apporte aux juges, les éléments de compréhension nécessaires à la résolution du cas, hautement technologique : un chatbot peut-il être déclaré coupable pour mauvaise exécution d’un « smart contract » ? La séance est ouverte.

Vous avez tenu le rôle « d’expert » pendant l’exercice du Tech Law Clinics. En quoi cela a-t-il consisté ?
L’expert est sollicité par le juge pour apporter un avis sur des points techniques précis. J’étais chargé d’expliquer et vulgariser le fonctionnement de la technologie mise en cause. Dans les faits, je suis surtout intervenu en amont du procès physique, car le sujet était difficile. Il concernait les chatbots et les contrats intelligents. J’ai dû me documenter pendant plusieurs mois avant d’être capable d’adapter mes explications aux magistrats, qui n’avaient aucune notion technique et scientifique. L’expert doit savoir rester neutre dans ses explications car il n’est ni du côté de la défense, ni de l’accusé. Il est uniquement en soutien aux juges qui restent libres d’intégrer son avis à la décision finale. C’est un exercice que de ne pas prendre parti face à ce qui nous semble être injuste ! D’ailleurs, les avocates avaient des tons très dramatiques pendant les plaidoiries. On sentait vraiment que l’émotion était importante pour persuader l’assemblée, là où l’expert doit rester impartial.

Le scénario, fictif, se déroulait en 2035. En quoi consistait le cas ?
Le plaignant était un patient admis dans un hôpital pour un séjour de courte durée. À son arrivée, il a été accueilli par un chatbot, une application chargée de recueillir des informations pour son service en chambre. Après s’être authentifié via son compte Facebook, le patient choisit son offre : repas végétariens, goûts musicaux et taille de la chambre. Seulement, lorsqu’il prend ses quartiers, les repas ne sont pas végétariens, la chambre est plus petite qu’annoncée et la musique n’est pas celle choisie : le contrat n’est pas honoré, le patient porte plainte. Seulement en 2035, les tribunaux administratifs sont devenus virtuels. La décision est portée par des algorithmes automatiques : l’hôpital gagne le procès, le tribunal considérant que les réponses fournies trop vagues du patient n’ont pas pu permettre à l’application de satisfaire précisément ses besoins. Le patient, insatisfait de la décision automatique, fait appel et voit son cas être traité dans un tribunal « en chair et en os ». C’est ici qu’à vraiment commencé l’exercice pour mes camarades en droit. En se connectant au compte Facebook, le chatbot a en réalité accès à des données personnelles qui lui permettent d’estimer sa capacité de paiement et d’adapter son offre tarifaire en fonction du patient qui se présente à lui. Face à cette offre discriminante, les juges ont finalement concédé un « dol incident » : l’hôpital a usé de manœuvres abusives pour pousser le patient à payer plus cher. 

Comment les magistrats en herbe ont-ils résolu le cas ? 
Ils se sont appuyés sur des textes de loi déjà existants comme l’article 13 du Règlement Général sur la Protection des Données (RGPD) qui indique que la collecte des données personnelles doit respecter le devoir d’information. Aujourd’hui, grâce au recul sur le sujet, le cadre juridique sur la protection des données est plutôt solide et protège les utilisateurs. Pour certaines technologies, s’il existe des textes, ils sont souvent incomplets. Cela peut autant concerner les droits et les libertés, la dignité des personnes face aux machines, la liberté d’expression, la responsabilité… Les questionnements sont nombreux ! Une technologie peut avoir été pensée pour un dessein et être détournée pour tout autre chose : qui doit être responsable ? Celui qui a créé la technologie ? Celui qui l’utilise ?  On ne peut pas estimer toutes les conséquences de chaque outil. C’est un élément qui freine la création de textes de lois efficaces pour encadrer les technologies.

N’est-il pas un peu utopique de penser que le rythme de création de la législation soit capable de suivre celui de la technologie numérique notamment ?
La loi prend du temps pour être créée : à force de débats entre les forces politiques, l’opinion publique, les concordances avec les autres lois, les forces administratives… Il faut beaucoup de personnes et de temps pour cela. La bonne nouvelle, c’est que l’ingénieur a toute sa place dans ce travail et même, peut faire avancer la loi plus rapidement. En vulgarisant le fonctionnement d’une technologie auprès des faiseurs de loi, il participe à fabriquer une technologie plus juste. Il faut travailler main dans la main.

Pourquoi vous êtes-vous engagé dans cet exercice, le Tech Law Clinics ?
J’ai toujours été intéressé par les sujets mêlant sciences et loi. La première problématique qui m’a passionné portait sur l’utilisation des algorithmes automatiques et leurs biais : si un algorithme donne un résultat qui n’était pas attendu et qu’il engendre du mal, qui doit être le responsable ? Comment prouver que l’entreprise ou la personne qui a implémenté l’algorithme en question ait eu ou non, l’intention de nuire dès le départ ? Ce sont des cas complexes avec les algorithmes de plus en plus élaborés et dont il est parfois difficile de prédire leurs résultats avec certitude. 
Ici, c’était la première fois que j’assistais à un procès, même fictif. Je crois que j’aimerais en faire mon métier, celui d’expert juridique. Il me faut encore étudier le fonctionnement la justice et la façon dont sont fabriquées les lois, mais c’est un monde passionnant. Paradoxalement à mon esprit de futur ingénieur très cartésien, j’aime la controverse et la nuance exigée par le droit. C’est un équilibre à trouver.

 


Photo : Tech Law Clinics, mars 2022 à la cour administrative d’appel de Lyon

 

Le Tech Law Clinics de l’UCLy en partenariat avec la cour administrative d’appel de Lyon, propose aux élèves-ingénieurs de s’emparer de ces thématiques prospectives, à travers des procès fictifs sur des cas concrets.
« La participation au Tech Law Clinics entre dans le cadre des enseignements sur la responsabilité sociale des ingénieurs et sur l’éthique des technologies. En créant de la pluridisciplinarité entre ingénieurs et juristes, cet exercice est une chance de pouvoir comprendre comment les technologies inventées par des ingénieurs, peuvent engendrer des conséquences sociales et légales », explique Marie-Pierre Escudié.