Nos débatteurs du jour sont Isabelle Ryl et Mathieu Corteel. Plus d'info : https://www.radiofrance.fr/franceinter/podcasts/le-debat-du-7-10/le-debat-du-7-10-du-mardi-08-avril-2025-8758468
Catégorie
🗞
NewsTranscription
00:00France Inter, Léa Salamé, Nicolas Demorand, le 7-10.
00:06On débat ce matin de l'intelligence artificielle.
00:09Pas une semaine sans une nouvelle avancée époustouflante, pour le meilleur ou pour le pire.
00:15Une chose est certaine, le brouillage entre l'humain et la machine est en marche et rien ne semble devoir l'arrêter.
00:22On va en parler avec Mathieu Cortel.
00:24Bonjour, philosophe, historien des sciences, chercheur post-doc à Sciences Po, à l'Institut Imagine et Harvard,
00:33auteur de « Ni Dieu, ni IA », une philosophie sceptique de l'intelligence artificielle, aux éditions La Découverte.
00:41Isabelle Rille, bonjour, vice-présidente d'Intelligence Artificielle de l'université PSL Paris Sciences et Lettres
00:50et directrice de, on prononce comment, Prairie PSAI, c'est ça ?
00:54PSAI Paris School of Engineering.
00:56Voilà. Soyez les bienvenus en tout cas.
00:59Merci d'être au micro d'Inter, je le disais, pas une semaine sans nouvelle frappante venue du monde de l'IA.
01:04L'IA qui passe désormais le test de Turing.
01:08Rappelez-nous, Mathieu Cortel, de quoi il s'agit et quelles conclusions vous en tirez ?
01:13Alors, le test de Turing, en fait, c'est davantage un test de psychologie comportementale
01:17qu'un test qu'on fait passer à la machine, c'est plutôt à l'utilisateur.
01:21C'est-à-dire qu'en fait, on a une interface, une machine avec qui on échange
01:24et puis, si on n'arrive pas à discerner si c'est un humain ou une machine qu'on dit que c'est un humain, le test est passé.
01:29Alors, le fait est qu'il y a déjà eu une annonce en 2014 où on disait que une IA avait déjà passé le test avec 30% de succès.
01:38Là, aujourd'hui, le papier qui est sorti en préprint, c'est 70%.
01:43Donc, c'est des étudiants en psychologie qui ont passé le test et 70% d'entre eux ont cru que c'était un humain qui parlait avec eux.
01:50Alors, ce qui est intéressant de voir là-dedans, c'est que la plupart ont posé des questions d'ordre émotionnel, d'ordre culturel, etc.
01:55Et seulement 12% ont posé des questions d'ordre logique pour essayer de voir s'il n'y avait pas quelque chose dans la syntaxe
02:01qui ne collait pas avec un raisonnement humain ou, en tout cas, seulement 12% ont essayé de la coincer d'un point de vue de paradoxe.
02:11Ce qui est très intéressant, ce mode de questionnement.
02:15Ça veut dire qu'on reste dans un paradigme humain, si j'ose dire, alors qu'on ne questionne pas les paradigmes techniques.
02:24Exactement. C'est-à-dire qu'en fait, ce sont des modèles mathématiques et on ne les vit pas en tant que tels.
02:29C'est-à-dire qu'il y a un lien anthropologique qui se noue avec une continuité psychologique qu'on met en place avec l'IA.
02:34En tout cas, là, en l'occurrence, c'était Chatty Petit 4.5.
02:37Et ce qui est intéressant, c'est que ça montre un manque, je dirais, de culture critique vis-à-vis de l'IA.
02:42D'ailleurs, ce que j'appelle de mes voeux dans le livre, c'est l'idée qu'il faut réussir à démasquer l'IA en comprenant justement la modélisation mathématique qu'il y a derrière.
02:51Et justement pour ça, la logique, la philosophie des sciences, la sociologie des sciences peuvent aider.
02:57Oui, bien sûr. Isabelle Rille, comment avez-vous vécu, analysé ce test-là et la manière dont il s'est déroulé ?
03:09Sans en être plus que ça perturbée.
03:12C'est-à-dire qu'on est aujourd'hui dans une phase où on est fasciné par l'IA.
03:17Et en fait, on est fasciné par un type particulier de l'IA qui est l'IA générative et qui est la manipulation du langage.
03:23Et ce que ça interroge surtout, c'est pas si la machine est intelligente, parce qu'elle ne l'est pas.
03:27Elle génère des mots à partir de statistiques.
03:30Mais c'est bien le rapport que nous entretenons au langage et les attributs que nous lui donnons en pensant que toute l'intelligence du monde s'exprime dans le langage.
03:39Ce qui n'est pas du tout le cas.
03:40Aujourd'hui, une machine, une IA, n'est pas capable de faire des tâches simples, ménagères ou des tâches de manipulation du monde.
03:50Mais elle peut parler, ou en tout cas écrire.
03:53Oui, c'est ce qui entretient ce moment un peu particulier dans lequel on a un peu peur.
04:00Alors moi, je suis du côté des optimistes, de l'usage qui peut en être fait.
04:04Parce que justement, comme Mathieu vient de le dire, on n'a pas assez éduqué les gens à avoir un esprit critique et à bien utiliser les outils qu'on leur met dans les mains.
04:12Il faut absolument qu'on apprenne à tout le monde que c'est un outil extrêmement puissant, extrêmement utile.
04:18Mais qu'il doit rester sous contrôle et bien utilisé.
04:21Ce travail d'enseignement, tout simplement, n'a pas été fait parce que c'est trop récent.
04:26Ces outils-là sont apparus et se sont généralisés à l'ensemble de la population il y a finalement quoi ? Un an et demi ? Deux ans ?
04:34Deux ans. Alors tout à fait.
04:35Ce n'est pas la première évolution technologique qu'on connaît, que l'humanité connaît.
04:38Ce n'est pas la première qui fait très peur.
04:40On l'a oublié, mais l'électricité, le train, etc. ont fait très peur.
04:43Par contre, celle-ci va beaucoup plus vite que tous les autres.
04:46Et ça, ça met en défaut la capacité d'adaptation des humains, réticence au changement, etc.
04:54Et là, on a vraiment une vague qui va très très vite.
04:57Apprendre à se servir des outils est-ce suffisant selon vous, Mathieu Cortel ?
05:02Ou faut-il ce que vous apportez à ce débat, à savoir un scepticisme bien armé ?
05:10Alors il me semble que d'une part, oui, bien sûr, il faut comprendre comment fonctionnent les outils.
05:14C'est-à-dire que bien évidemment, apprendre les principes de la programmation est essentiel.
05:18Mais je crois aussi que la nécessité de développer une pensée critique de l'IA,
05:23c'est-à-dire de comprendre qu'en fait, on est face à des objets techniques qui sont très particuliers.
05:28C'est-à-dire que, comme on le disait, il y a un lien anthropologique très particulier
05:32avec une continuité psychologique qui s'établit entre les utilisateurs et l'objet technique,
05:37ce qui est très particulier dans le monde des objets techniques.
05:42Alors je pense que là, les sciences humaines et sociales...
05:45Ce n'est pas n'importe quelle machine, quoi !
05:46Exactement, oui, c'est-à-dire que c'est un modèle mathématique,
05:49sauf que quand on voit une IA, on ne voit pas des équations différentielles sur un tableau.
05:52On a une interface avec un échange qui s'individue et qui crée un lien particulier.
05:57Et je pense qu'à cet égard, les sciences humaines et sociales ont vraiment un rôle à jouer.
06:01Elles ont été un peu mises sur le banc de touche sur ces questions,
06:04mais je crois qu'elles ont un rôle à jouer pour justement sortir, démasquer l'IA,
06:09pour bien la questionner, dans cet espace des objets techniques,
06:13en critiquant, en fin de compte, les paradoxes dans lesquels on s'embarque.
06:17Parce qu'effectivement, si on prend l'objet pour ce qu'il n'est pas,
06:20on peut lui déléguer une part de décision et une part d'action
06:24qui ne correspondent pas à la réalité du contexte, à la situation.
06:28Ça n'est pas déjà trop tard, quand on voit l'omniprésence de ces outils,
06:35maintenant vous faites une mise à jour d'application,
06:39pof, il y a une nouvelle petite bulle dans un coin
06:42qui est une bulle qui permet de mobiliser de l'intelligence artificielle.
06:46Vous faites la mise à jour de votre téléphone et c'est devenu autre chose,
06:52sans même que vous l'ayez demandé.
06:55Est-ce qu'il n'y a pas quelque chose d'irréversible désormais
06:59qui met entre parenthèses toute possibilité de scepticisme, voire d'enseignement ?
07:04Ce qui s'est passé, c'est qu'il y a une démultiplication des IA
07:09dans à peu près tous les interstices de notre culture,
07:11dans l'ensemble du devoir de l'étudiant paresseux jusqu'à l'article scientifique.
07:15Aujourd'hui, on a recours à l'IA,
07:17et donc elle participe activement à l'ensemble de nos activités cognitives.
07:20Le fait est que maintenant, il faut avoir une capacité de discernement
07:25à propos de ces objets techniques-là, que j'appelle de mes voeux,
07:28justement par une réflexion sceptique,
07:31dans le sens où il faut sortir des dogmes à la fois technophiles et technophobes,
07:36et se concentrer de manière pragmatique sur ce que sont ces objets techniques-là,
07:39et comment les employer de la meilleure manière possible
07:42pour ne pas complètement dévaluer l'intelligence humaine,
07:45et justement trouver des applications concrètes et pragmatiques dans nos sociétés,
07:48parce que l'outil est vraiment utile, bien évidemment.
07:50Isabelle Rille, ce chemin-là du scepticisme et de la raison,
07:57comment le recevez-vous ?
08:01Alors, moi je suis côté optimiste, je l'ai déjà dit, mais optimiste prudent.
08:06C'est-à-dire qu'aujourd'hui, l'IA apporte des bienfaits dans de nombreux domaines.
08:13La santé, ça a permis de faire beaucoup d'avancées,
08:18d'avancées sur lesquelles il serait difficile de revenir.
08:21Sur le côté de la place de l'homme, sur les sujets très dangereux,
08:27type défense, santé, etc., on a une obligation de déléguer la décision finale à un être humain.
08:33Effectivement, sur l'application, l'adolescent qui va regarder sur son téléphone,
08:37c'est beaucoup plus difficile.
08:39Et là, on a encore une fois un besoin d'éduquer,
08:41alors pas forcément faire des programmeurs,
08:43mais justement d'éduquer les gens à ce qu'est la réalité,
08:46ce que sont les outils, ce qu'on doit faire.
08:49Et en ça, je rejoins relativement Mathieu.
08:51Éduquer à la réalité ?
08:53Disserner la réalité de toute la mystification qu'il peut y avoir autour
08:59et d'habituer les gens à ne pas gober l'information
09:02parce qu'elle vient d'un écran, d'un écran tactile quelconque.
09:06Ça n'est pas de plus en plus difficile, Isabelle Rille, avec l'intelligence artificielle,
09:12justement de pouvoir faire la séparation de ce qui est réel,
09:17d'autres images, je pense, notamment.
09:20Bien sûr que si.
09:22En termes bêtement pratiques, bien sûr qu'il est aujourd'hui beaucoup plus difficile.
09:27Plus la technique va s'améliorer, plus il sera difficile de discerner.
09:30D'où l'intérêt d'avoir un recul et un regard éclairé sur ce qu'on reçoit.
09:35Il faut quoi ? Des processus de certification ?
09:39Mettre sur une image générée par l'IA un coup de tampon numérique
09:43pour dire qu'elle est fausse, entre guillemets ?
09:46Alors ça, c'est par exemple ce que proposait le philosophe Daniel Dennett avant de mourir.
09:50C'était justement d'avoir une labellisation qui permette la distinction
09:53entre les images générées par l'IA et celles produites par humains.
09:57Donc avoir peut-être un label 100% humain sur les productions.
10:00Mais je ne suis pas sûr que ça nous fasse sortir du piège,
10:02parce qu'en fin de compte, ils trouveront toujours des subterfuges
10:06pour sortir de ce principe-là.
10:08Et d'ailleurs, aux États-Unis, ils ont complètement dérégulé.
10:10L'AI Safety Institute a été complètement mise à mal par la politique de Trump.
10:14Et donc, il n'y a plus du tout de régulation à ce niveau-là.
10:16En tout cas, ce n'est pas à l'ordre du jour aux États-Unis.
10:19Et c'est d'ailleurs de là qu'on reçoit la majorité des productions par l'IA.
10:23Donc il faut se rendre compte que, sans doute, ce n'est pas de là que ça va venir.
10:26Je pense que ce qui se passe, c'est qu'avec l'IA,
10:29il y a un ensemble de normes, de pratiques, des règles
10:32qui sont implicites dans l'utilisation.
10:35Et on a perdu, d'une certaine manière, la conscience de la règle.
10:38Cette capacité, justement, d'avoir une approche critique
10:41sur l'usage et sur l'outil qu'on utilise.
10:44C'est-à-dire qu'on veut vite en finir avec une IA.
10:46On va appuyer sur un bouton, on a une image, on a un texte produit.
10:48Et c'est très différent de, par exemple, quand on écrit un texte
10:51où, là, on a une pratique qui nous permet de nous auto-construire,
10:54de se développer soi-même, de développer sa propre réflexion.
10:56Et là, je crois qu'il y a vraiment une réflexion à avoir
10:59d'un point de vue sociétal là-dessus,
11:01sur la place que doit prendre l'IA, en fin de compte,
11:04dans notre activité intellectuelle collective,
11:07par rapport à notre intelligence collective,
11:09pour ne pas avoir un impact délétère sur celle-ci.
11:12C'est-à-dire que, moi, je pense que ça peut tout à fait favoriser
11:14des développements réjouissants dans les sciences.
11:17Et d'ailleurs, on en a énormément besoin pour le traitement de données.
11:20Il faut bien sectoriser les applications,
11:24pas simplement la démultiplier à l'infini
11:28et générer, en fin de compte, du désordre
11:31et de l'incertitude dans plein de domaines.
11:34On a vu les ravages que peuvent faire les réseaux sociaux,
11:38le fait qu'ils ne soient pas, peu, ou mal,
11:43ou plus modérés.
11:46On aurait pu se dire plus jamais ça.
11:49Là, on a de nouveaux outils, Isabelle Rille,
11:52qui sont à notre disposition depuis deux ans
11:55et on a le sentiment qu'aucune des leçons des réseaux sociaux n'a été tirée.
11:59Je me trompe ?
12:01Probablement pas.
12:03Le problème, aujourd'hui, qu'on a, c'est qu'on veut associer...
12:06On demande à l'IA d'être plus vertueuse que les humains.
12:10Alors qu'en fait, on oublie qu'elle apprend sur le comportement des humains.
12:14Et donc c'est très difficile, ça nous jette juste au visage
12:18tous les travers qu'on a pu avoir par le passé,
12:21mais en les démultipliant.
12:23Et donc ça permet, effectivement, à toute personne avec une intention malveillante
12:26d'agir beaucoup plus vite.
12:28Et c'est ça le danger derrière l'outil,
12:31c'est l'usage qu'on peut en faire.
12:33On dit Twitter ne modère plus, Facebook ne modère plus...
12:37Que pensez-vous, Mathieu Cortel,
12:40des grandes entreprises qui sont derrière les outils
12:43d'intelligence artificielle,
12:46ont-elles une éthique ?
12:48Alors ça, effectivement, on en doute aujourd'hui,
12:51quand on voit, en fin de compte, ce qu'elles développent.
12:55Là, le problème, c'est les algorithmes d'influence
12:58qui ont été générés, notamment sur les réseaux sociaux,
13:01et qui impactent jusqu'au choix social, c'est-à-dire jusqu'au vote.
13:04Il y a là un risque réel d'ingérence démocratique
13:08qui, moi, m'effraie particulièrement.
13:11Et quand on voit la dérégulation qui est faite aux Etats-Unis aujourd'hui,
13:14on a du mal à espérer quelque chose de bien dans ce sens-là.
13:18Alors là, c'est un vrai problème de société,
13:21c'est-à-dire qu'on a, je trouve, une rupture du contrat social
13:24à cet égard-là, sur la représentativité.
13:27Étant donné que l'impact cognitif des IA est si puissant sur le choix social,
13:31il faut se demander comment, justement, on régule ça.
13:34On a en Europe, justement, l'AI Act, la DSA,
13:38qui permettent une première normativité,
13:41une première injection de normes pour réguler ces outils-là.
13:44Mais je pense qu'il faut aller encore plus loin
13:47et, bien sûr, avoir une régulation
13:50qui soit diamétralement posée.
13:53Isabelle Rille, d'un mot ?
13:56Je pense que c'est juste un choix de ne pas rester passif.
13:59Si vous prenez l'exemple de Twitter,
14:01nombreuses universités françaises ont décidé de sortir de Twitter.
14:04Et c'est un choix qui est offert à chacun,
14:06de prendre sa propre décision de ne pas être influencée
14:09par des contenus qu'on ne maîtrise plus.
14:12Utile rappel, effectivement.
14:14Merci infiniment, Isabelle Rille, vice-présidente
14:17Intelligence Artificielle de l'université PSL,
14:21Mathieu Cortel.
14:23Votre livre « Ni Dieu, ni IA, une philosophie sceptique »
14:26de l'intelligence artificielle aux éditions La Découverte.
14:30Merci encore.