ABONNEZ-VOUS pour plus de vidéos : http://www.dailymotion.com/Europe1fr
À l'occasion du vendredi thématique "L’Intelligence Artificielle, à l’aube une nouvelle révolution sociale et industrielle", Dimitri Pavlenko reçoit Laurence Devillers, spécialiste des interactions homme-machine, professeure d'informatique à l'université Paris-Sorbonne, chercheuse au Limsi du CNRS et membre du Comité national pilote d’éthique du numérique.
Retrouvez "Le club de la presse" sur : http://www.europe1.fr/emissions/le-club-de-la-presse
LE DIRECT : http://www.europe1.fr/direct-video
Retrouvez-nous sur :
| Notre site : http://www.europe1.fr
| Facebook : https://www.facebook.com/Europe1
| Twitter : https://twitter.com/europe1
| Google + : https://plus.google.com/+Europe1/posts
| Pinterest : http://www.pinterest.com/europe1/
À l'occasion du vendredi thématique "L’Intelligence Artificielle, à l’aube une nouvelle révolution sociale et industrielle", Dimitri Pavlenko reçoit Laurence Devillers, spécialiste des interactions homme-machine, professeure d'informatique à l'université Paris-Sorbonne, chercheuse au Limsi du CNRS et membre du Comité national pilote d’éthique du numérique.
Retrouvez "Le club de la presse" sur : http://www.europe1.fr/emissions/le-club-de-la-presse
LE DIRECT : http://www.europe1.fr/direct-video
Retrouvez-nous sur :
| Notre site : http://www.europe1.fr
| Facebook : https://www.facebook.com/Europe1
| Twitter : https://twitter.com/europe1
| Google + : https://plus.google.com/+Europe1/posts
| Pinterest : http://www.pinterest.com/europe1/
Category
🗞
NewsTranscription
00:00 Il est 8h45 sur Europe 1. Bon début de journée, Dimitri Pavlenko.
00:05 Vendredi thématique consacré toute la journée sur Europe 1 à l'intelligence artificielle.
00:10 Que va changer l'IA dans les années, dans les décennies à venir ?
00:13 Chad DiPietti, depuis six mois, a agi un peu comme un révélateur.
00:16 L'IA a un point de bascule.
00:18 Aujourd'hui, elle est comme sortie de sa tour d'ivoire, battant l'homme à presque tous les jeux,
00:22 imitant sa voix, réussissant des examens universitaires,
00:25 connaissant mieux le code pénal que n'importe quel juriste.
00:28 Voilà, c'est une IA domestiquée, capable aussi de produire des deepfakes,
00:32 de la désinformation, de truquer aussi des élections.
00:35 En tout cas, ce qui manipule cette intelligence artificielle.
00:38 Et en cas d'émergence, cette fameuse émergence d'une IA générale, comparable à une espèce humaine.
00:43 Voilà, c'est des questions extrêmement profondes, dont on va parler ce matin.
00:47 Il y a aussi cette gigantesque bataille géopolitique
00:50 qui va redistribuer les cartes de la puissance autour de l'intelligence artificielle.
00:54 Il nous fallait un grand esprit pour en parler.
00:57 Bonjour, Laurence de Villers.
00:58 - Bonjour.
00:58 - C'est vous le grand esprit, professeur en sciences de l'informatique à la Sorbonne Paris 4.
01:04 Vous êtes également chercheuse au Limsy.
01:06 C'est le laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur.
01:10 On pourrait peut-être commencer, Laurence de Villers,
01:12 par une brève histoire de l'intelligence artificielle.
01:15 J'ai dit tout à l'heure très sommairement qu'en réalité,
01:17 ça fait 70 ans à peu près,
01:19 depuis même, il y a des signes dès le début de la seconde guerre mondiale,
01:23 de réflexion sur cette notion d'intelligence artificielle.
01:27 - Oui, tout à fait.
01:28 Donc reproduire les capacités humaines de perception de raisonnement et de génération d'action.
01:32 - Et d'apprendre par l'expérience aussi.
01:34 - De capacités comme ça cognitives,
01:36 c'était le but des grands-pères de l'IA dans les années 50.
01:40 Turing, McCarthy, etc.
01:43 On voit ensuite deux grandes voix qui apparaissent.
01:46 L'IA symbolique, c'est-à-dire que ce sont les humains qui créent des règles intelligentes
01:49 et la machine ne fait que les jouer.
01:53 Et donc la puissance de la machine n'est pas tellement intelligente.
01:56 Et puis l'IA connexionniste, qui est en fait une inspiration neuromimétique
02:00 de la façon dont on stocke les informations dans nos cerveaux,
02:03 mais c'en est une imitation très lointaine.
02:05 - C'est ce qu'on appelle le deep learning.
02:07 - Ce sont les réseaux de neurones.
02:08 Le deep learning, c'est des réseaux de neurones avec beaucoup de couches cachées.
02:12 Et ça, c'est pas nouveau.
02:13 La modélisation d'une cellule qui vient d'une cellule de la couche visuelle,
02:18 qui est très simplifiée par un modèle mathématique, qui est le neurone formel,
02:23 ça, ça date de 1943.
02:24 La règle de Hebb, qui est de dire qu'on a une plasticité cérébrale pour apprendre,
02:29 ça date du même moment.
02:31 Donc ces idées de modéliser un système qui serait intelligent
02:36 à partir d'une imitation extrêmement simplifiée de ce que est notre cerveau,
02:41 ça ne date pas d'hier.
02:43 Ça date plutôt d'hier.
02:44 - Mais pourquoi on parle d'un boom de l'intelligence artificielle ?
02:48 Quelles sont d'ailleurs les conditions qui préexistent à ce boom de l'IA, Laurence de Villers ?
02:54 Les capacités de stockage, la puissance de calcul, etc. ?
02:58 - En fait, les IA connexionnistes, moi j'ai travaillé comme Yann Lequin,
03:01 Joshua Benjot sur ces sujets pour ma thèse en 92.
03:05 Le vrai problème était la puissance de calcul et les données qu'on pouvait utiliser.
03:09 Donc il y a eu un hiver de l'IA pour nous qui était lié à ça.
03:12 On ne savait pas comment passer au niveau de la puissance de calcul nécessaire
03:17 pour montrer que ces systèmes, qui pouvaient apprendre très différemment de nous,
03:21 pouvaient avoir des performances exceptionnelles.
03:23 Et donc là, la rupture se fait en 2010 sur l'apprentissage profond
03:26 parce qu'on a des capacités de paralléliser les calculs sur les machines.
03:29 Et c'est là qu'il y a le grand boom.
03:31 - Paralléliser, c'est-à-dire qu'on peut faire plusieurs calculs en même temps ?
03:34 Les cartes graphiques vont jouer un rôle très important là-dedans ?
03:38 - C'est ça, les GPU, Nvidia, tout ce qui est de l'accélération de ces calculs,
03:41 parce que ce sont des calculs matriciels,
03:43 et si on sait faire un algorithme où ces calculs peuvent être faits indépendamment,
03:46 on peut les faire faire par des machines de façon parallèle.
03:49 C'est ça le grand boom.
03:50 Et derrière, les données, on va savoir en traiter des milliards.
03:56 Et c'est là le vrai changement.
03:58 Ensuite, les transformers en 2017, c'est encore une avancée algorithmique,
04:03 mais c'est un continuum.
04:04 Il y a eu les réseaux récurrents, on a vraiment avancé pas à pas
04:07 pour comprendre qu'il fallait prendre du contexte.
04:09 Si on ne prenait pas de contexte dans les phrases,
04:11 par exemple, je vais prendre l'idée du traitement automatique de la langue,
04:15 on n'était pas capable d'interpréter la sémantique.
04:17 Ça ne veut pas dire que la machine comprend,
04:20 elle interprète le sens des mots à travers leur contexte.
04:23 Et on a créé des systèmes, qui sont ceux qu'on utilise dans le chat de GPT aujourd'hui,
04:27 qui montrent ces performances émergentes, comme vous en avez parlé.
04:31 C'est-à-dire qu'avec des milliards de données,
04:33 et utilisant ces systèmes capables d'engranger des représentations
04:38 qui sont des black box pour nous,
04:39 - Des boîtes noires, on ne sait pas ce qui se passe à l'intérieur, c'est ça en gros l'idée.
04:43 - On ne sait pas, on fait beaucoup de recherches sur l'explicabilité de tout cela,
04:48 et essayer de comprendre comment ces machines vont créer des univers dans le deep learning,
04:54 dans toutes les couches successives,
04:56 qui sont de l'abstraction autour des structures qui existent dans notre langage.
05:01 Plus j'ai de données, plus j'arrive à interpréter ça.
05:03 Ce qui donne derrière une machine capable de voir de la syntaxe,
05:06 et voir un semblant de sémantique proche de notre langage.
05:10 - Gare à l'anthropomorphisme, c'est pas des êtres humains,
05:12 c'est pas de l'intelligence humaine, ça y ressemble mais ça n'en est pas.
05:15 - Et puis l'anthropomorphisme, vous avez raison, il y a trois grandes tentations.
05:18 La machine a ingurgit des connaissances, donc elle peut avoir plus de connaissances que nous,
05:22 donc qu'est-ce qu'on fait ?
05:24 La machine peut dire "je suis", "je t'aime", "je..."
05:27 et avoir un peu d'affect, simuler cela à travers tous les mots qu'elle peut utiliser.
05:33 Et donc là aussi il y a une tentative de suivre,
05:36 et puis peut-être des qualités morales aussi qu'elle n'a pas du tout.
05:39 - Oui, alors venons-en à cette question qui est un peu troublante,
05:42 les big tech, les grandes entreprises de technologie,
05:44 les Google, les Facebook, etc., Amazon,
05:48 avaient un discours sur l'intelligence artificielle extrêmement prudent il y a quelques temps,
05:52 elles disaient "attention, ça n'est pas à laisser entre toutes les mains".
05:55 Et voilà qu'elles les diffusent absolument massivement.
05:58 Ça veut dire quoi ?
06:00 J'ai posé très directement la question à Yann Lequin tout à l'heure,
06:02 est-ce qu'il y a un danger lié à l'intelligence artificielle ?
06:05 Si oui, a-t-il été neutralisé ?
06:07 Lui considère que toutes les mises en garde sur l'IA, bombes nucléaires, etc.,
06:12 c'est n'importe quoi, ça n'a pas lieu d'être.
06:14 Quelle est votre position, Laurence de Villers ?
06:16 - Je pense comme lui, en fait, la métaphore là est beaucoup trop forte,
06:20 ça n'a rien à voir.
06:22 Ça n'a rien à voir non plus avec les dangers de manipulation génétique.
06:26 Nous sommes face à une machine que nous construisons nous,
06:29 avec, même si on ne contrôle pas exactement l'émergence de comportement de ces systèmes,
06:33 si on est éduqué suffisamment,
06:36 on va pouvoir comprendre, comme Yann Lequin, comme beaucoup de chercheurs,
06:40 et dire "non, on ne va pas aller vers ça".
06:42 Lorsque des chercheurs ayant beaucoup d'expérience
06:45 vont sur la peur d'eux, c'est parce qu'ils pensent qu'il y a des gens mal intentionnés
06:49 qui pourraient utiliser ça, il y a un certain pouvoir à utiliser ces systèmes de manipulation d'opinion,
06:53 de prendre l'attention des gens,
06:56 ces systèmes ne racontent pas des vérités, ça peut raconter n'importe quoi.
07:00 - Mais c'est un instrument de puissance, c'est potentiellement une arme,
07:03 et selon l'usage que l'on en fait, ça peut être dangereux.
07:05 - Si elle tombe dans vos mains, effectivement, c'est une arme dangereuse.
07:08 Donc ça, on peut le réguler par de la police,
07:11 on est en train de faire les actes en mettant des bornes.
07:14 - Donc c'est la fameuse régulation européenne.
07:16 - Maintenant, il y a un dilemme qui est réel, et que Yann Lequin reprend aussi,
07:18 c'est le dilemme de l'open source.
07:20 Quand on met en open source, on aggrave les risques,
07:22 que quelqu'un puisse le mal utiliser.
07:24 - Open source, c'est quand la technologie est mise à disposition des chercheurs,
07:27 et tout le monde travaille en transparence.
07:29 - Et plus largement d'industriels, etc.
07:31 Et le dilemme, c'est si je laisse en open source,
07:34 s'il y a des risques que quelqu'un puisse utiliser à mauvaise escient,
07:37 et en même temps, si je ne le fais pas, et que ce n'est pas du tout transparent,
07:40 il y a quelques big tech qui vont être dominantes,
07:43 et qui vont dominer largement avec un pouvoir important.
07:45 Donc on voit bien qu'on a besoin de mettre des règles dans tout cela.
07:49 - Mais alors, l'autre jour, le patron de Open AI,
07:53 donc c'est l'entreprise qui a inventé ChatGPT,
07:56 Sam Altman, devant le congrès des Etats-Unis,
07:59 dit "mais régulez-moi, régulez-moi".
08:01 Et sous-entendu, je m'inquiète d'une réglementation européenne,
08:03 il faut que les Américains s'en saisissent.
08:05 Il y a une bataille géopolitique autour de cette histoire de réglementation,
08:08 il veut véritablement la régulation sur Sam Altman ?
08:10 - Ah oui, il la veut pour les autres, c'est très clair.
08:13 - Il la veut pour les autres, c'est-à-dire ?
08:14 - Ah oui, lui il est déjà sur la marche où il a récupéré, volé, toutes les données qu'il lui fallait.
08:18 Il est déjà à un certain niveau,
08:19 excusez-moi, oui on peut dire volé,
08:21 c'est-à-dire récupérer des données sans que tout le monde soit conscient de cela.
08:24 Même en France, vous avez l'impression que vous parlez avec Google Home,
08:28 ou je ne sais quoi, vous ne demandez pas si vos données vont directement aux Etats-Unis ou pas.
08:32 Elles le peuvent.
08:33 - Elles y vont ?
08:34 - Elles y vont s'ils ont la volonté de les récupérer.
08:37 Donc OpenAI, là on joue avec ChatGPT,
08:40 mais à votre avis, qu'est-ce qu'il y a au cœur de ce système ?
08:42 Il y a un système, d'abord, qui est entraîné à partir de données américaines,
08:46 et qui nous parle en français, donc là,
08:48 une espèce de puissance de manipulation,
08:51 parce qu'il apprend les structures du langage,
08:53 donc il apprend aussi, finalement,
08:55 à travers la co-occurrence des termes d'une phrase,
08:57 les opinions...
08:58 - Il pense en anglais, vous voulez dire ?
09:00 - Oui.
09:01 Et on l'adapte au français.
09:03 Alors comment l'adapte-t-on vraiment ?
09:05 Si c'est une plateforme qui n'est pas open science,
09:07 qui n'est pas ouverte,
09:08 on ne saura pas comment on l'adapte,
09:10 et là il y a un danger, vous voyez ?
09:11 Donc c'est très très important, à mon avis,
09:14 que ce problème de guerre géopolitique soit plus transparent,
09:18 qu'on oblige les grands groupes, les big tech,
09:20 à faire aussi de la recherche.
09:21 Parce que, excusez-moi, l'influence d'un langage sur un autre,
09:25 si le modèle est à 80% de données américaines,
09:28 est-ce que c'est étudié correctement,
09:30 et est-ce que les résultats ne sont pas diffusables à tous ?
09:33 - Vous avez dit tout à l'heure, si on est éduqué,
09:35 face à l'IA, ça va bien se passer.
09:38 C'est quand même une phrase assez intéressante.
09:41 Quels impacts vous pensez que la intelligence artificielle
09:44 va avoir sur la société ?
09:46 On parlait tout à l'heure, Neuralink a de la possibilité, pourquoi pas,
09:49 de se télécharger Wikipédia directement dans le cerveau
09:52 par le truchement d'une puce.
09:53 - Non mais arrêtez, ça c'est totalement
09:56 du marketing science-fiction,
09:59 qui n'est pas si science-fiction,
10:00 parce qu'on sait qu'il y a des implants cérébraux profonds
10:02 pour aider dans les pathologies d'Alzheimer,
10:06 qui sont extrêmement intéressantes,
10:08 mais de là à aller encoder dans votre esprit
10:10 des informations venant d'ailleurs,
10:11 et dire que tous les enfants doivent être à égalité
10:14 face à l'intelligence,
10:15 on est sur de l'eugénisme,
10:17 on est sur de la manipulation des foules,
10:19 on est sur du totalitarisme,
10:21 parce que qui va manipuler ces petites informations
10:24 qu'on vous met dans le cerveau ?
10:25 Si quand bien même, ça serait possible de le faire.
10:28 Donc je trouve cela absurde,
10:30 et en tout cas, en ce moment,
10:32 dans les discours qu'on entend dans la presse
10:34 par ces grands acteurs,
10:36 il y a une énorme position de manipulation de beaucoup,
10:40 pour différents aspects,
10:42 que ce soit pour leur buzz personnel,
10:45 des gens comme Hinton,
10:46 parce que c'est pas nouveau que Google...
10:48 - Geoffrey Hinton, donc...
10:49 - Geoffrey Hinton, qui est un des pères aussi fondateurs
10:51 comme Joshua Benjo et...
10:54 - Geoffrey Hinton, il a quitté Google,
10:55 et aujourd'hui il est en première ligne
10:57 de ceux qui disent "attention, l'intelligence artificielle
10:59 il faut réguler", etc.
11:00 - Il était à l'intérieur du système,
11:01 il s'en est bien rendu compte avant,
11:03 certaines comme Timid Gebru, Margaret Mitchell,
11:05 l'ont dit, ont publié des articles...
11:08 - Mais pourquoi ce retournement ?
11:10 Est-ce que véritablement il se dit
11:11 "je suis un peu comme le docteur Frankenstein
11:13 et ma création échappe en contrôle" ?
11:14 - Ah chacun est un peu comme un rentemplant, il est un peu en retard.
11:16 - Ah vous croyez ça ? C'est une prise de conscience tardive.
11:18 - Moi j'ai trouvé que c'était quand même assez absurde
11:21 d'un seul coup s'ériger en chevalier blanc,
11:24 alors qu'on faisait partie du système
11:25 et qu'on avait déjà vu des problèmes.
11:27 Regardez OpenAI,
11:28 quand il a GPT-2, qui est donc moins important
11:31 parce qu'il a dit "d'émergence"
11:33 qui surprend tous les chercheurs,
11:34 qui va aussi surprendre tout le monde
11:35 parce qu'on ne sait pas comment les gens vont réagir
11:37 et on ne sait pas quels vont être
11:38 les émergences de phrases, de comportements de ces machines.
11:42 Eh bien, GPT-2 c'était vraiment des systèmes
11:45 où il y avait moins de données
11:47 et déjà OpenAI disait "c'est dangereux".
11:49 Alors pourquoi le met-il après ?
11:51 Tchad GPT 3.5 dans les mains de tout le monde ?
11:53 - Mais pourquoi alors ? Je vous pose la question, d'après vous.
11:54 - Pour des raisons de business,
11:57 pour des raisons économiques.
11:58 Ne soyons pas naïfs.
12:00 - Parce qu'il faut gagner de l'argent
12:01 après avoir beaucoup investi ?
12:02 - C'est une guerre.
12:03 C'est une guerre de position géopolitique,
12:05 c'est une guerre sur les normes,
12:06 c'est une guerre d'influence
12:09 entre l'Amérique et les Etats-Unis
12:11 et l'Europe qui essaie de se débattre
12:13 en essayant de poser des limites
12:15 et l'Europe a raison
12:16 et nous avons cette carte à jouer,
12:17 il faut absolument la jouer.
12:18 - Voilà, comme on dit "the winner takes all",
12:20 le gagnant emporte tout, c'est un peu ça.
12:22 - On ne fera pas que de la législation,
12:24 on fera aussi des grands systèmes européens,
12:26 monolingues, on les fera multilingues
12:28 pour différents aspects applicatifs,
12:29 il faut y croire et c'est le moment
12:31 de monter au créneau sur l'Europe.
12:32 - Merci beaucoup Laurence de Villers,
12:33 je rappelle que vous êtes professeure en sciences
12:35 de l'informatique à la Sorbonne,
12:36 paréca, de chercheuse au Limsy.
12:37 Merci d'être venue nous voir ce matin sur Europe 1.