Sciences & Société

23 Feb
23/Feb/2026

Sciences & Société

IA : derrière l’intelligence, l’illusion

Pas un jour sans que l’on ne parle d’elle. Depuis quelques années, l’intelligence artificielle (IA) inonde tous les secteurs de l’économie et s’implante même un peu plus dans la vie quotidienne de tout à chacun avec le lancement de ChatGPT fin 2022. Capable de répondre à nos questions, de raisonner, de corriger, de détecter et de créer, elle apparaît sans limite. Et pourtant, dans de nombreux cas, l’IA aurait encore beaucoup à apprendre. Parfois même, elle apparaît décontenancée. Alors comment lui faire confiance ? Frédéric Prost, maître de conférence en informatique, spécialiste de la théorie des langages de programmation, chercheur au Centre d’Innovation en Télécommunications et Intégration de services (CITI) à l’INSA Lyon, appelle à mieux comprendre cette technologie et à prendre du recul sur ses usages. Décryptage.

L’IA, pourtant capable de réussir l’examen du barreau, montre encore de réelles limites. Pour Frédéric Prost, enseignant-chercheur à l’INSA Lyon, c’est une évidence qu’il faudrait rappeler plus souvent : « Ce sont simplement des outils qui analysent d’énormes quantités de données et qui en déduisent la réponse statistiquement la plus probable. Cela peut donner l’illusion de l’intelligence, mais il ne s’agit pas de compréhension réelle ». L’IA peut même produire des résultats absurdes et Frédéric Prost en a déjà fait l’amer expérience. Cette fragilité souligne l’importance de prendre du recul et de ne pas lui accorder une confiance aveugle. Une vraie problématique alors même que l’IA s’implante de plus en plus dans nos usages du quotidien. En France, 64 % des actifs utilisent l’IA à des fins personnelles et 53 % l’utilisent aussi dans un contexte professionnel [1].

L’IA répond à Socrate

En plus d’apporter des solutions à nos problèmes du quotidien, l’IA rend des services dans de nombreux secteurs. Difficile de la qualifier de stupide tant elle apparaît comme une révolution. Dans le domaine de la santé, elle affine les diagnostics, anticipe les métastases, personnalise les traitements, nourrit la recherche… Elle apporte également enfin la solution à une problématique qui a traversé l’histoire de ces 2500 dernières années. « Les écrits sont muets, ils ne savent pas défendre ou clarifier leurs propos lorsqu’on les interroge », déclarait Socrate, célèbre philosophe connu pour être le fondateur de la philosophie mais également pour son rejet intrinsèque de l’écrit et des livres. « Socrate pensait que c’était réduire la pensée et la réflexion. Avec l’IA, appuyée par les Large Language Models (LLM) [2], vous avez un livre, un manuel utilisateur, vous avez une question, et vous pouvez obtenir diverses explications et niveaux d’éclairage, apprendre et réfléchir », explique Frédéric Prost. « Cela reste pratique et intelligent dans la mesure où on donne à l’IA des textes intelligents. Si à l’inverse on lui donne des éléments qui racontent n’importe quoi, l’IA vous racontera n’importe quoi », insiste le chercheur. Et quand la machine déraille, les conséquences peuvent parfois s’avérer délétères.

Bugs et désinformation

En avril 2020, alors que l’épidémie de Coronavirus commence à se diffuser un peu partout sur la planète, les consommateurs se ruent sur les paquets de pâtes et de riz et les rouleaux de papier toilette dans les supermarchés, tout comme sur le gel hydroalcoolique et les masques. Les plateformes de vente en ligne les plus connues sont elles aussi prises d’assaut et la vente de ces mêmes articles s’envole. Dans un premier temps, les algorithmes de recommandation d’achat, pilotés par l’IA, suivent la dynamique. Quelques semaines plus tard, catastrophe, le site Amazon.com fait peu à peu remonter des articles totalement incohérents, avec une date de livraison délirante et parfois même des arnaques. Le géant du e-commerce doit rapidement réagir et retirer de son site plusieurs centaines de milliers d’articles et supprimer des vendeurs. « On voit bien que quand l’IA dysfonctionne, cela peut mener à l’échec total. Il ne faut pas compter sur l’IA pour prévoir un crash boursier », renchérit Frédéric Proust. En la matière, l’IA met aussi à mal les piliers de nos démocraties. En avril 2024, auditionnés par la commission d’enquête du Sénat sur les influences étrangères, les journalistes Thomas Huchon et Gérald Holubowicz, apportent ainsi la preuve que l’IA est capable de générer des vidéos en imitant parfaitement de nombreuses voix de personnalités politiques françaises. Et Thomas Huchon de signaler devant la commission : « Ces programmes informatiques ne sont pas de l’intelligence (…) il faut plutôt parler de malignité et d’une tentative de substituer aux êtres humains et à leurs parties cognitives des machines qui vont permettre de mieux contrôler différents univers ». Un enjeu de taille à l’heure où une partie non négligeable des jeunes est très fortement exposée à l’information numérique notamment via les réseaux sociaux et a recours à l’IA à un niveau deux fois supérieur à celui du grand public.

Dire merci à son frigo

« Aujourd’hui, je ne demande plus aucune lettre de motivation quand je recrute un apprenti », déclare un peu désabusé Frédéric Prost. « Cela ne sert plus à rien car je sais que je vais lire du ChatGPT », prend soin d’ajouter le chercheur. « J’ai également complètement changé ma manière de faire cours en informatique. Dans la mesure où la technique est rendue disponible et accessible avec l’IA, je passe désormais moins de temps sur la technique et plus de temps à apprendre simplement aux étudiants les grands concepts. A la fois c’est positif et à la fois je m’interroge sur tout une phase de l’apprentissage et sur la pratique qui vont probablement disparaître », explique avec préoccupation l’enseignant-chercheur. Et si l’IA menaçait bien au-delà de l’apprentissage, notre construction intellectuelle ? « Il y a un vrai problème sur la manière dont chacune et chacun attribue des usages à l’IA pour laquelle elle n’est pas destinée », indique Frédéric Prost. « Il faut absolument éviter d’anthropomorphiser (rendre humain) cet outil. Cela doit rester une machine, et cela ne viendrait à l’esprit de personne de dire merci à son frigo pour générer du froid ou à sa voiture lorsqu’elle démarre », ironise le chercheur avant d’inviter les utilisateurs à « s’approprier la machine et à se poser des questions ».

Une responsabilité intellectuelle

Depuis quelques années, d’éminents spécialistes du numérique tirent eux aussi la sonnette d’alarme sur l’IA. Comme Luciano Fioridi, philosophe spécialiste de l'information et de l’éthique de l'informatique qui appelle à comprendre les technologies pour pouvoir les diriger vers un bien commun plutôt que les subir aveuglément [3]. D’autres, comme Marion Carré, entrepreneure, enseignante, conférencière, créatrice d’Ask Mona, une intelligence artificielle (IA), invitent également à cette réflexion : « ce que produit l’IA ne peut jamais être dissocié de notre propre responsabilité intellectuelle » [4]. De quoi éviter, qu’un jour peut-être, l’IA ne contrôle entièrement l’humanité. Un scénario auquel Frédéric Prost ne croit pas du tout : « Déposez un robot IA sur une île déserte, et dites-lui d’aller chercher de la nourriture contre de l’électricité. Je vous fais le pari que le robot va mourir rapidement. L’IA n’a aucune volonté, aucun comportement social, aucune notion de survie ».

[1] 6e édition du Baromètre de la formation et de l'emploi 2025.
[2] Les LLM sont des modèles d'apprentissage automatique qui sont spécifiquement conçus pour comprendre et générer du texte en se basant sur des exemples et des modèles statistiques.
[3] Luciano Floridi, L’éthique de l’intelligence artificielle, Milan, Mimesis, 2023.
[4] Utiliser l'IA pour ressusciter Socrate ? Entretien avec Marion Carré.