• il y a 7 mois
Les Vraies Voix responsables avec Nathan Bonnet, CEO de Polymnia, la première IA de prise de parole, et incubateur d'IA
---
Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry

———————————————————————

▶️ Suivez le direct : https://dai.ly/x8jqxru
Retrouvez nos podcasts et articles : https://www.sudradio.fr/

———————————————————————

Nous suivre sur les réseaux sociaux

▪️ Facebook :

/ sudradioofficiel
▪️ Instagram :

/ sudradioofficiel
▪️ Twitter :

/ sudradio
▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr

##LES_VRAIES_VOIX_RESPONSABLES-2024-05-01##

Category

🗞
News
Transcription
00:00 - SUDRADIO, les vraies voies qui font bouger la France, 19h20, les vraies voies responsables.
00:06 - Les vraies voies responsables, on est ravis de vous retrouver avec un sujet important ce soir.
00:11 Quels sont les enjeux de l'intelligence artificielle pour nous ou notre société ?
00:16 Selon les promoteurs, l'intelligence artificielle serait la plus grande invention de l'histoire de l'humanité depuis l'électricité.
00:21 Elle serait notre porte d'entrée pour le XXIe siècle et notre salut face à tous nos défis sociaux, économiques et environnementaux.
00:28 Aujourd'hui, l'IA a déjà un impact sur notre société.
00:31 Des algorithmes prétendent déjà pouvoir identifier les meilleurs candidats pour un emploi,
00:35 assister les médecins pour établir des diagnostics ou aider les avocats devant les tribunaux.
00:39 - Mais tout cela n'est pas totalement nouveau puisque déjà dans les années 80,
00:42 des systèmes experts assistaient les humains avec un haut niveau d'expertise.
00:46 Aujourd'hui, l'heure est à la prise de conscience.
00:48 - Ce segment souligne l'urgence d'une régulation dans le domaine de l'IA
00:51 et l'importance de maintenir une implication humaine significative dans les processus de prise de décision.
00:57 On en parle avec nos invités.
00:58 - Et Yoann Pantic est avec nous, expert en IA et fondateur de Data Eclosion.
01:02 Merci d'être avec nous. Bonsoir. - Bonsoir.
01:05 - Nathan Bonnet aussi, CEO de Polymynia, qui est la première IA de porte-parole et incubateur d'IA.
01:11 Bonsoir, merci d'être avec nous. - Bonsoir.
01:13 - Et puis David Yagarou, qui est étudiant en dernière année de Centrale Supélec à l'ENS Paris-Saclay
01:18 en mathématiques appliquées à l'intelligence artificielle.
01:21 On vous souhaite les bienvenus. - Bonsoir, enchanté.
01:23 - Merci d'être avec nous. On est ensemble avec Philippe Daly jusqu'à 20h.
01:26 C'est les vrais voix responsables.
01:28 Et c'est vrais voix responsables avec une vraie première question finalement, Philippe.
01:35 - Qu'est-ce que l'IA ? Parce que l'intelligence artificielle, ça veut tout et rien dire.
01:39 On va faire un tour de table pour votre conception de l'IA.
01:42 Yoann Pantic. - Alors l'IA, qu'est-ce que c'est ?
01:45 Parce qu'il y a beaucoup de gens qui en parlent, qui ne savent pas vraiment ce que c'est.
01:48 - C'est pour ça qu'on veut le vulgariser dans cette émission.
01:51 Donc tout simplement, l'IA, en fait, certains disent que c'est une simulation d'une partie de l'intelligence humaine.
01:58 Mais si on parle de cette définition, le calcul, faire 1+1=2, c'est de l'intelligence humaine.
02:04 Donc en fait, l'IA existerait depuis Blaise Pascal, c'est-à-dire depuis le 17ème siècle.
02:09 Ou encore depuis les débuts de l'informatique.
02:12 Comme vous l'avez dit en introduction, les systèmes experts qui étaient dans les années 80,
02:19 on appelait ça à l'époque "intelligence artificielle".
02:22 - Déjà à l'époque. - Déjà à l'époque.
02:24 D'ailleurs, moi, j'ai étudié à la faculté de l'Umini à Marseille.
02:29 Et mon professeur était le professeur Alain Colmer-Aouer,
02:33 qui était l'inventeur du langage prologue, un système de règles qui appliquait un petit peu des règles.
02:38 Et on est allé comme ça jusqu'à battre Kasparov aux échecs.
02:43 Et tout ça, c'était des règles.
02:44 - Alors Kasparov, c'est le plus grand joueur d'échecs de l'histoire.
02:47 - Voilà. Et ça s'est fait en 97.
02:50 - Quand on dit que c'était des règles, c'est-à-dire que dans ce cadre-là, il y a une logique ?
02:52 C'est ça que vous voulez dire ?
02:53 - Il y a une logique. - D'accord.
02:55 - Il y a un algorithme. Il y a une recette de cuisine qui est appliquée par un ordinateur.
02:58 - C'est mathématique, en fait. - C'est mathématique.
03:01 Et on a cru longtemps qu'on allait pouvoir continuer comme ça.
03:03 Et on est arrivé à des limitations.
03:05 Finalement, ce qu'on a fait, c'est qu'on est passé sur les réseaux de neurones.
03:11 Alors, on y avait pensé dès le début, les réseaux de neurones, déjà depuis les débuts de l'informatique.
03:18 Sauf qu'il a fallu énormément de puissance de calcul pour que ça soit vraiment utilisable.
03:23 Et vraiment, c'est en 2012 qu'il y a Geoffrey Hinton qui gagne un grand concours de reconnaissance d'images.
03:31 Et là, on rentre vraiment dans l'ère du réseau de neurones.
03:33 Et c'est depuis qu'on est sur du deep learning.
03:37 - Nathan Bonnet, c'est quoi l'IA pour vous ?
03:39 - Pour moi, l'IA, c'est une nouvelle donnée, une nouvelle ressource.
03:42 Et en fait, ce sont des milliers de données qu'on a récupérées sur Internet
03:45 et qu'on est capable de formater dans un objectif précis.
03:48 En gros, pour moi, c'est ça l'IA.
03:50 C'est toutes les données qu'on a récupérées sur Internet depuis des années
03:54 qu'on peut maintenant fine-tuner pour leur donner un objectif.
03:57 Par exemple, il est applicable dans le droit
03:59 parce que c'était facile de collecter toutes des données juridiques
04:02 ou alors des données d'images.
04:03 Et en fait, à partir de là, on peut formater des modèles, des grands modèles.
04:08 Et puis leur donner un objectif avec un prompt.
04:12 - David Yagher, pour vous, l'IA, c'est quoi ?
04:14 - On explique ce qu'est un prompt, ça c'est très important.
04:17 C'est-à-dire qu'on explique à l'intelligence artificielle
04:20 ce qu'on a envie de lui faire faire.
04:21 - En gros, c'est exactement ça. On lui donne presque un ordre.
04:23 Et actuellement, là où on en est depuis la dernière fois
04:25 quand on s'est vu en septembre,
04:26 c'est que maintenant, on arrive à faire travailler des intelligences artificielles
04:28 les unes avec les autres.
04:29 Avant, on était capable d'avoir une intelligence artificielle.
04:31 - ChaTGPT4 avec une autre ?
04:32 - Plusieurs mêmes ChaTGPT.
04:34 - D'accord.
04:35 - Maintenant, on est capable d'en connecter plusieurs.
04:37 Et en les connectant plusieurs, on peut recréer des équipes.
04:39 Actuellement, voilà. C'est ce qui se passe.
04:41 - David Yagher, pour vous, c'est quoi l'intelligence artificielle ?
04:44 - Moi, j'aimerais bien donner une définition assez générale de tout ça.
04:47 En me basant sur une définition communément donnée.
04:50 C'est un processus d'imitation de l'intelligence humaine
04:53 qui se fait par des aléorhythmes exécutés par des ordinateurs
04:57 dans un environnement informatique.
04:59 C'est un processus d'automatisation et de traitement d'informations à grande échelle.
05:04 Le but, c'est de faire en sorte que les ordinateurs pensent et agissent comme les humains.
05:09 Pour ce qui est de penser comme des humains, j'ai mis quelques réserves.
05:12 À mon avis, ils ne pensent pas comme des humains.
05:15 Ils ne sont pas capables de penser.
05:17 Pour ce qui est d'agir comme des humains, je crois qu'on arrive à le faire.
05:23 C'est pourquoi les IA sont très utilisées.
05:29 Avec les ordinateurs actuels, on arrive à faire en sorte que ça arrive.
05:33 Vous avez parlé des données, qui sont cruciales dans l'IA.
05:37 Ça fait partie de l'IA.
05:39 Ce n'est pas l'IA en soi, c'est une façon de faire en sorte que les modèles soient assez performants
05:46 pour qu'ils reproduisent le comportement d'humains.
05:49 Les humains, on apprend à partir des données.
05:51 Notamment, depuis la naissance, on voit des images, on entend des sons.
05:57 Ça fait partie des données.
06:00 Si on se concentre tant sur les données pour les ordinateurs,
06:04 on se dit qu'il faut en donner comme des humains pour qu'il y ait un processus d'apprentissage.
06:11 Pour qu'on comprenne bien, ce qui est le cas de ChatGPT,
06:15 c'est de dire par exemple "je prends moi, j'écris comme ça, je pense comme ça, etc."
06:20 et je peux influencer mon intelligence.
06:24 Et lui donner un rôle qui me ressemble le plus.
06:27 Le meilleur moyen d'utiliser ChatGPT, c'est de lui donner une position.
06:31 De lui dire "vous êtes professeur de français,
06:33 et en tant que professeur de français, j'aimerais que vous m'analysiez,
06:35 que vous m'écriviez un document là-dessus."
06:37 Il essaie de s'adapter aux compétences que vous lui avez demandées.
06:42 C'est la question que tout le monde se pose quand je vous écoute,
06:47 parce que c'est toujours le grand drame de se dire
06:49 "est-ce qu'on va se faire supplanter par la machine ?
06:51 À un moment donné, il faudra toujours la main de l'homme pour le diriger et organiser."
06:59 C'est ça peut-être ?
07:01 D'un point de vue... parce qu'en fait on a une vision anthropologique de l'IA,
07:06 qui est une sorte de super ordinateur qui remplace l'humain.
07:11 En réalité, ce qu'on a aujourd'hui, c'est très impressionnant,
07:15 mais en fait, on a une variété de ce qu'on appelle des modèles.
07:19 Par exemple, chaque GPT n'est bon qu'à la parole.
07:23 Chaque GPT peut faire des choses, peut raisonner un petit peu,
07:27 mais il n'est pas capable de planification ultra avancée.
07:30 Et ce qui est bien, c'est que si on veut aller très loin,
07:32 il faut le compléter avec d'autres modèles.
07:34 Mais c'est un super assistant en fait, c'est ça ?
07:35 C'est un super assistant qui a enblobé tous les textes qui existent quasiment.
07:40 Cela dit, pour de la reconnaissance de tumeurs, par exemple, et de radio,
07:45 il faut utiliser d'autres modèles.
07:47 Oui, vous voulez réagir, Nathan Bonnet ?
07:49 Sur cette question, je suis assez partagé.
07:53 Je pense qu'il y a beaucoup de secteurs qui sont déjà en train de subir
07:57 les courroux de cette technologie.
07:59 Déjà parce qu'il y a beaucoup de travail rédactionnel.
08:01 Lesquels par exemple ?
08:02 Les courroux parce que cette technologie n'est pas très contente.
08:06 Parce qu'en tout cas, elle est efficace.
08:08 Nous, on a fait un cas d'application très simple,
08:11 c'est qu'on génère du SEO automatique sur des sites.
08:14 C'est quoi le SEO ?
08:15 L'objectif, c'est de bien référencer son site.
08:17 Pour bien référencer son site, actuellement...
08:19 Qui remonte automatiquement ?
08:20 Exactement.
08:21 Et souvent, ça dépend de la qualité du contenu que vous faites
08:23 et du nombre d'articles que vous publiez.
08:26 Avec l'IA, vous pouvez pratiquement sortir, si vous le voulez,
08:29 200 articles par jour sur votre site.
08:31 Et ça, c'était quand même beaucoup de personnes qui faisaient du travail,
08:34 c'est du travail de littéraire, c'est des gens qui aimaient écrire,
08:37 qui sont face à un outil de masse assez violent.
08:41 Oui, sauf que Nathan, pour écrire ses articles,
08:45 il faut quand même la main de l'homme.
08:47 Il faut que l'homme le dirige, qu'il corrige,
08:50 parce que l'IA n'est pas capable de se dire...
08:53 Il y a beaucoup d'avocats qui se sont servis de l'IA,
09:00 et l'IA a trouvé des jurisprudences qui n'existaient pas.
09:05 Donc, il faut bien vérifier tout ça derrière.
09:07 La main de l'homme est obligatoire.
09:08 Mais ça, c'est parce que les modèles étaient mal entraînés.
09:10 C'est-à-dire que les modèles qu'ils ont utilisés n'étaient pas les bons.
09:15 Par exemple, vous allez...
09:17 C'est le cas d'un avocat en Italie, par exemple,
09:19 où il y a eu une plaidoirie qui a été catastrophique,
09:22 parce que c'était une plaidoirie, une jurisprudence qui n'existait pas.
09:24 De toute manière, il faut toujours se relire,
09:25 surtout sur des choses aussi importantes que l'aspect juridique.
09:27 Là où je rejoins Johan, c'est qu'effectivement,
09:29 on fera toujours confiance plus à un être humain,
09:31 surtout sur des questions d'importance comme son droit.
09:35 L'importance vitale.
09:36 Les gens ne nous feront pas, sur des choses aussi essentielles,
09:39 confiance qu'à l'intelligence artificielle.
09:41 Par contre, il y a beaucoup d'avocats qui l'utilisent,
09:44 parce que nous, avec Goode Legal,
09:46 qui est un produit d'un de mes associés,
09:49 on a découvert quand même qu'il y avait beaucoup de cabinets d'avocats
09:52 qui l'utilisaient, parce que ça permettait de faire gagner du temps.
09:54 Bien sûr.
09:55 Mais il y aura toujours la main de l'homme, c'est ce que je vous dis.
09:57 Il faudra toujours des avocats pour discuter avec...
10:00 Oui, ça permet de tempérer, parce que, effectivement,
10:03 ce qui se passe, c'est qu'il y aura peut-être moins besoin de la main de l'homme
10:06 au fur et à mesure que les modèles vont se raffiner.
10:10 Cela dit...
10:12 Oui, enfin, ce n'est pas un ordinateur qui va plaider.
10:14 Non.
10:15 Donc, il faudra toujours la main de l'homme.
10:17 Mais est-ce que cette main de l'homme se rétrécit ?
10:20 Le temps d'intervention a tendance à se rétrécir.
10:24 David Yagaru ?
10:25 Sur cette question, je pense surtout que l'IA,
10:28 elle tend à supprimer des tâches,
10:30 pas des métiers en entier.
10:32 C'est ça.
10:33 Et donc, la main de l'homme...
10:34 Ah, il est bien ce petit ! Voilà, voilà !
10:37 Donc, la main de l'homme, elle sera nécessaire, en fait,
10:40 au moins quelque part, il faudra piloter ces modèles d'IA,
10:44 parce qu'on ne peut pas leur faire confiance à 100%
10:47 sur un processus entier qui ne soit pas piloté par un humain.
10:50 Et justement, il y a tout un défi pour notre société
10:54 d'apprendre à travailler avec les IA,
10:56 de piloter justement ces IA.
10:58 Et c'est un challenge.
11:00 Exemple pour l'avocat, il va faire sortir par de l'IA
11:03 10 jurisprudences dans des procès équivalents,
11:05 et lui, après, il va faire le tri.
11:06 Bon, là, il y a une connerie, là, c'est bon, tiens, celle-là,
11:08 je peux l'utiliser parce que c'est pile mon client.
11:10 Mais le travail sera dégrossi,
11:11 plus par une secrétaire juridique, mais par une IA.
11:14 Ou par des stagiaires, mais...
11:16 Oui, c'est ça !
11:17 C'est souvent ça, on ne voit pas.
11:19 En droit, les stagiaires sont en souffrance.
11:21 La main experte, elle reste de l'humain.
11:23 C'est la main experte qui va dire comment entraîner le modèle, notamment.
11:27 Les médecins, pour entraîner le modèle d'IA,
11:29 ils le servent énormément, ils discutent avec des IA engineers
11:33 pour justement entraîner, c'est toujours très important.
11:36 Allez, on fait une petite pause, on revient dans quelques instants,
11:39 cette intelligence artificielle,
11:41 et on verra dans lesquels sont les domaines
11:43 où on l'utilise le plus,
11:46 et forcément, elle est bénéfique.
11:48 On parle beaucoup de la santé, du diagnostic, par exemple.
11:50 On en parle dans un instant, tout de suite.
11:52 Sud Radio, vote au sable.
11:54 On est très bien entourés, ce soir,
11:56 Philippe, David et moi.
11:58 On est dépassés au niveau intelligence.
12:00 On pensait qu'on avait une intelligence artificielle,
12:03 en fait, ce n'est pas la bonne.
12:05 La nôtre est vraiment artificielle, ce n'est pas la bonne.
12:07 Il y en a une qui est efficace, et nous on ne l'est pas.
12:09 Je vous le dis tout de suite.
12:10 On fait ce qu'on peut avec ce qu'on a, désolé.
12:12 On n'est pas aidés, mais ce n'est pas grave.
12:15 On est là quand même, on va essayer de vous servir le meilleur.
12:17 Vous nous direz, vous nous aiderez.
12:19 En tout cas, très bien entourés,
12:21 Johan Pantic est avec nous, expert en IA et fondateur de Data Eclosion,
12:24 Nathan Bonnet, CEO de Polymia,
12:27 premier IA de prise de parole et incubateur d'intelligence artificielle,
12:30 et David Yagaru, étudiant en dernière année à Centrale Supélec
12:36 et à l'ENS Paris-Saclay en mathématiques appliquée à l'IA.
12:39 Juste commencer par une petite interrogation avec vous, David.
12:44 C'est quoi l'envie ? Pourquoi avoir voulu faire ces études-là ?
12:48 Qu'est-ce qui vous plaît finalement en intelligence artificielle ?
12:51 C'est tout un parcours.
12:52 En moi, de base, j'ai plutôt un profil mathématique.
12:54 Je suis passé par ce qu'on appelle la voie royale.
12:57 Classe préparatoire aux grandes écoles, maths sup, maths sp,
13:00 j'ai intégré Centrale Supélec et je suis spécialisé.
13:02 Attendez, il faut que je maquille.
13:05 C'est la classe.
13:07 J'ai eu un vertige aussi.
13:09 Je me recoiffe un petit peu.
13:12 Moi, je n'ai pas le droit de le faire.
13:14 Il se trouve que dans les mathématiques et les applications,
13:18 dans les cours qu'on a pu avoir,
13:20 on a pu être confronté aux grands enjeux de la société,
13:24 à Centrale Supélec, notamment l'IA.
13:27 C'est quelque chose, théoriquement, que j'ai beaucoup aimé.
13:32 Je me suis dit que ça peut avoir de grandes répercussions sur la société.
13:35 Ça vous amènera à quoi, comme type de métier ?
13:37 Par exemple, aujourd'hui, vous fléchez quel type de métier ?
13:40 Chercheur, ingénieur.
13:43 Ça peut être data scientist aussi.
13:46 Ce n'est pas mon cas personnel.
13:48 On verra ça.
13:50 Pour l'instant, je pense démarrer une thèse en mathématiques appliquées.
13:55 Il y aura de l'IA dedans.
13:57 Plutôt du côté recherche appliquée.
13:59 Recherche en IA.
14:01 Yann, vous voulez réagir ?
14:03 Oui.
14:04 Je pense que les jeunes doivent absolument travailler les mathématiques.
14:09 C'est vrai que ces dernières années, on a quand même une perte de niveau.
14:13 On l'a vu dans le classement Teams.
14:16 C'est quand même assez inquiétant.
14:18 Parce qu'en France, on était les meilleurs.
14:21 Un de mes grands combats, c'est la souveraineté.
14:26 Ça passe aussi par l'éducation.
14:28 On ne va pas continuer à être un pays riche si on néglige ces aspects-là.
14:35 Vous avez raison.
14:37 Je me dis toujours que toutes les jeunes générations savent se servir d'un téléphone.
14:41 Mais ils ne savent pas comment ça fonctionne.
14:43 On n'est plus capable de se dire comment on fabrique tout ça.
14:47 Pour compléter ce qui a été dit,
14:50 maintenant, c'est très simple.
14:52 Je pense qu'il faut le dire aux gens aussi de créer des outils en IA.
14:55 Grâce à ChatGPT, c'est quand même la référence.
14:57 Mais quand on fait des progrès, on est capable de travailler avec d'autres modèles
15:00 et d'être plus éthique et souverain pour la France.
15:02 Qui sont les concurrents de ChatGPT ?
15:04 Semistral, ça c'est français, il faut soutenir.
15:06 Bravo les mecs, ils se la donnent.
15:08 Ils ont un super modèle qui est en train de tout tabasser.
15:11 Nous on les fait tourner, on est super fier que ça existe et que ce soit français.
15:15 Déjà, on peut en parler.
15:16 Et puis le deuxième, c'est le modèle de Lama de Microsoft
15:19 qui est totalement open source.
15:21 C'est-à-dire que Mark Zuckerberg, après encore une grande décision,
15:23 il s'est dit "Ok, j'ouvre un modèle super puissant
15:25 qui demande un serveur assez faible pour le faire tourner,
15:29 ça tourne sur un Mac, et vous pouvez créer votre propre IA là-dessus."
15:33 Et ça, c'est quand même assez remarquable.
15:34 Et ce que je voulais juste dire, c'est que quand même,
15:36 on est à une période où moi, dans notre incubateur,
15:38 j'ai récupéré des gens qui n'étaient vraiment pas formés,
15:40 très loin du monde éducatif.
15:42 On aime bien aussi faire ça chez Polynya,
15:44 prendre des gens qui sont très loin de l'emploi, ce genre de choses.
15:46 Et avec juste ChatGPT, on a réussi à leur créer des business avec des revenus.
15:50 Parce qu'en fait, les experts vont prendre le contrôle.
15:52 C'est-à-dire que si vous êtes expert dans un domaine,
15:54 et que vous êtes capable de prompter du coup cette IA,
15:56 après avoir échangé par exemple 1500 fois avec ChatGPT,
15:58 vous pouvez créer de la valeur.
16:00 Alors, je voudrais poser une question qui a peut-être voulu laisser rêveur.
16:03 Est-ce qu'un jour, pas à horizon 5 ans, mais 10 ans, 20 ans, 30 ans,
16:06 on pourrait avoir une IA qui crée un nouveau vaccin ?
16:09 Je prends un exemple, ça fait 41 ans qu'on a découvert le virus du Sida,
16:12 et on n'a toujours pas de vaccin.
16:14 Ou faire, après en imprimant de 3D, un cœur artificiel,
16:17 comme celui qui n'avait pas marché sur Barnet Clark.
16:19 Est-ce que c'est envisageable ?
16:20 - Mais ce n'est même pas dans 20 ans, c'est déjà le cas en fait.
16:22 - Oui, mais on n'a pas encore fait de cœur artificiel ou de vaccin en IA.
16:25 - Attendez, le vaccin contre le Covid, il y a de l'IA là.
16:28 - Ah oui, il y a de l'IA dans le...
16:30 - On n'aurait pas sorti si vite si on n'avait pas utilisé du machine learning.
16:32 - Ah ben là, vous m'apprenez une chose.
16:34 - Mais c'est le cas de...
16:35 - Alors pour que nos éditeurs comprennent ce qu'on appelle le machine learning,
16:38 c'est important de l'expliquer.
16:40 - Machine learning, c'est l'apprentissage en machine en français,
16:43 et c'est ce que je disais tout à l'heure, c'est-à-dire, c'est la vraie IA selon moi,
16:46 c'est-à-dire vraiment la capacité à une machine à apprendre des choses.
16:50 Donc on va pouvoir traiter une quantité astronomique de données,
16:56 chose qu'avant on ne pouvait pas du tout faire,
16:58 et on va pouvoir trouver des signaux faibles dans du bruit.
17:01 Par exemple, imaginez un ciel étoilé avec des milliards d'étoiles,
17:05 vous allez pouvoir repérer des étoiles très particulières,
17:09 peut-être deux étoiles sur des milliards.
17:11 Imaginez si un humain devait regarder des millions de photos, une par une...
17:15 - En fait, quand je vous écoute, c'est l'homme augmenté finalement l'IA,
17:20 parce que c'est la base de ce que l'homme pourrait faire, vitesse à la lumière.
17:25 - 3000%, oui, vitesse de la lumière.
17:27 - C'est vrai que ça va vite,
17:29 mais je pense que sur les modèles que vous venez d'évoquer,
17:32 les modèles scientifiques, ça va prendre des années à se perfectionner,
17:37 parce qu'on autorise aussi moins l'hallucination,
17:41 qui est important dans l'IA, dans ces secteurs-là.
17:45 C'est pour ça qu'on ne voit pas très bien les effets actuellement,
17:48 mais il y en a vraiment partout, beaucoup d'hôpitaux sont déjà dotés de tout ça.
17:50 - Mais ce qui est important, c'est le diagnostic médical,
17:54 c'est-à-dire que l'intelligence est capable d'aller chercher dans des fichiers dans le monde entier,
17:59 ce que ne peut malheureusement pas faire un médecin généraliste, par exemple, David ?
18:03 - Donc oui, l'intelligence artificielle, les modèles qui sont utilisés sont très efficaces,
18:08 quand ils sont bien faits, ils sont capables de faire des choses énormes,
18:11 comme vous avez dit, détecter deux étoiles...
18:13 - Au milieu d'un milliard, quoi !
18:15 - Exactement. Après, il faut toujours qu'elles soient supervisées par des humains, évidemment,
18:19 mais c'est toujours très puissant.
18:21 Pour ce qui est du vaccin, je ne serais pas positionné sur la capacité de l'IA à le faire dans chaque état.
18:28 - C'était l'exemple du sida, c'était un exemple parmi d'autres.
18:30 - C'est tout à fait, je pense que c'est possible, on n'est pas des experts,
18:35 donc c'est capable de faire des choses fantastiques.
18:37 Et c'est aussi quelque chose à réguler dans le sens où, en fonction des applications,
18:47 il y a un énorme potentiel, et ce potentiel peut être utilisé dans beaucoup de directions différentes,
18:54 et donc ça peut être aussi dangereux.
18:56 C'est surtout au niveau des applications qu'on parle de dangerosité.
18:59 - D'accord.
19:00 - Tu parlais de la dangerosité ?
19:02 - Justement sur les...
19:03 - Sur la dangerosité, il y en a malheureusement, parce qu'à chaque médaille, il y a le revers de la médaille.
19:08 - La dangerosité, est-ce que c'est la malveillance de l'homme ?
19:12 - Ce n'est que la malveillance de l'homme.
19:15 - Ok, c'est ça.
19:17 - Exemple, on m'a parlé d'une IA, et on me l'a démontré, par exemple,
19:21 on peut parfaitement, en prenant votre voix sur internet, vous faire dire n'importe quoi,
19:26 et même en vidéo, faire bouger vos lèvres pour faire du deepfake,
19:29 ça, est-ce que c'est quelque chose qu'il va falloir craindre ?
19:32 - Non seulement oui, mais en plus, c'est déjà en cours, et ça va s'empirer.
19:37 Donc c'est pour ça que, moi je suis en train de travailler à la création d'un think-tank,
19:41 qui va s'appeler IA et Arguments, dont le but sera vraiment de discuter de ces choses-là.
19:46 Et je pense qu'il faut légiférer, et que les législateurs doivent d'ores et déjà
19:50 réfléchir à des solutions plus pratiques.
19:54 - Je réagis, Nathan, est-ce que ça veut dire qu'aujourd'hui, on va avoir des IA malveillantes,
20:00 soyons clairs, avec la main de l'homme, il va falloir effectivement avoir des IA positives,
20:06 comme les hackers, les contre-hackers, et tout ça, tout le temps ?
20:09 - C'est déjà ce qui se passe sur les réseaux sociaux, il y a des milliers de bots russes et chinois,
20:13 par exemple sur Twitter, vous pouvez voir l'IA, comment elle est utilisée par beaucoup de russes et chinois,
20:18 sur Twitter il n'y a plus de fautes d'orthographe, vous voyez, depuis l'arrivée de chef député,
20:22 il n'y a plus de fautes d'orthographe, ce sont des bots qui écrivent des tweets, des tweets, des tweets,
20:27 et du coup il faut créer aussi des tweets qui ramènent un autre avis, juste pour avoir une objectivité,
20:33 même si on n'est pas tout à fait d'accord, et puis après sur les dangers, il y a 2 ou 3 autres dangers
20:36 que je peux donner, que je vois actuellement, le premier c'est que maintenant vous pouvez prendre
20:40 la photo de quelqu'un que vous connaissez, souvent des filles sur Instagram, les envoyer à des IA,
20:43 et elle vous fait des projections de ce qu'elle ressemble nue, ça c'est des choses qui sont déjà utilisées.
20:47 - Ah oui, je sais, moi j'ai eu parfois des cordes ouf sur les réseaux sociaux, je n'ai plus rien expliqué.
20:51 - Qu'est-ce qu'il faut expliquer ? - Je les sais faire, moi je dis, moi ça me va très bien,
20:55 gauler comme ça, ça me va très bien. - J'ai pas vu cette chance !
20:59 - Mais pour des enfants... - Je vous le ferai, ne vous inquiétez pas.
21:03 - Pour les plus jeunes, c'est quand même des problèmes qui sont... - Je plaisante, mais effectivement
21:07 ça peut être contre-productif. - Et un deuxième cas d'application
21:11 qui est assez important actuellement, c'est l'IA qui n'est pas capable de se corriger toute seule
21:21 et qui du coup raconte n'importe quoi. Ça arrive de temps en temps aussi, quand elle est mal.
21:25 - David ? - Je voudrais revenir sur les deepfakes,
21:29 j'aimerais ajouter qu'il y a une énorme course à l'armement qui se joue là-dessus.
21:33 Je choisis bien mes termes "course à l'armement" parce qu'on est en fait dans une guerre d'information,
21:38 notamment avec la Russie qui envoie des bots et deepfakes pour influencer l'opinion publique.
21:45 Donc c'est important aussi de savoir détecter ce genre de choses,
21:50 et c'est pour ça qu'on a une course à l'armement notamment, sur beaucoup d'autres aspects également.
21:56 - Mais en parlant de géopolitique, je vous coupe, qui sont les pays les plus à craindre ?
22:01 Vous parlez de la Chine, de la Russie, finalement sur la technologie ?
22:06 - En fait, ceux qui sont le plus à craindre, c'est les lobbyings de manière générale aussi,
22:11 qui prennent en main l'IA, puisqu'on peut la manipuler pour faire du volume.
22:18 - Non mais est-ce que nous, les Français, on fait ça ?
22:21 - Oui, oui. - Pas tant que ça, je trouve.
22:25 Honnêtement, pour en avoir un peu fait, pour avoir regardé un peu ce que ça donnait,
22:30 non mais pour avoir essayé, parce que je trouve que c'était très intéressant de voir ce que ça donnait,
22:34 nous on essaie d'être objectifs chez Polymia, et ramener de l'objectivité dans le débat public,
22:38 je pense que si en fait nous on le fait pas, je vois pas qui va le faire.
22:41 Honnêtement, j'ai croisé personne qui a fait ces constats-là,
22:46 et c'est des constats de terrain après avoir passé des heures et des heures sur les sujets.
22:50 - Moi j'attends qu'on me mette avec les pectoraux Elisabeth de Nuneau de Schwarzenegger.
22:54 - Moi j'attends ça parce que je...
22:57 - Vous me direz la taille des muscles et tout ça.
23:00 - Vous regardez l'affiche de Commando, vous savez là.
23:03 - C'est largement possible.
23:06 - Et soit pour foutre trucage. - On va vous faire, s'il faudra du trucage.
23:10 - Mais pas beaucoup. - On vous connaît physiquement Philippe.
23:12 - Ah non, vous me connaissez mal. - Ah oui, enfin oui, mais bref.
23:16 Allez, je m'enterre. On fait une petite pause, on revient dans un instant.
23:19 France, 19h20, les vraies voix responsables.
23:23 Les vraies voix responsables, spéciale l'intelligence artificielle,
23:26 on a l'impression de parler dans une autre dimension,
23:29 mais c'est bien réel puisque c'est la vie d'aujourd'hui.
23:31 L'intelligence artificielle est partout, dans tous les domaines, dans tous les métiers,
23:35 dans tous les secteurs d'activité.
23:37 Des professionnels avec nous aujourd'hui pour en parler,
23:39 Johan Pantic par exemple, expert en IA et fondateur de Data Eclosion,
23:43 Nathan Bonnet qui est avec nous, CEO de Polymnia,
23:46 la première intelligence artificielle de prise de parole et incubateur d'IA,
23:49 et puis David Iagarou qui est avec nous, étudiant en dernière année à Centrale Supélec,
23:53 et à l'ENS Paris-Saclay en mathématiques appliquées à l'IA,
23:57 et qui je pense sera bientôt quelqu'un de très connu, parce qu'en tout cas...
24:02 - Ah oui, oui, non, non, non, non, non, non, non, non, non, non, non, non, non, non.
24:04 - Il se recroifle. - Non, il se recroifle.
24:06 - Alors... - Grand talent autour de nous.
24:08 - Alors il y a plusieurs IA, a priori, il y a l'IA faible, il y a l'IA forte,
24:11 et on parle de l'IA qui pourrait être comparable à l'intelligence humaine
24:14 à court ou moyen terme, l'artificielle super intelligente.
24:18 Est-ce que vous nous expliquez ce que sont ces trois IA ?
24:20 Tiens, Johan Pontic.
24:22 - L'IA forte, c'est ce qu'on appelle aussi l'IA générale,
24:25 c'est-à-dire l'idée, c'est ce que je disais tout à l'heure,
24:28 sur cette IA anthropomorphique qui va dépasser l'homme en fait,
24:32 qui va supplanter l'homme, et bien sûr ça fait très peur comme Terminator.
24:37 - Oui, ah ben on part en Verne, je ne suis pas un Tornéguer, donc...
24:40 - Voilà. - C'est un bon bonnet.
24:42 - Alors moi, je n'utilise pas les mêmes termes, mais après, voilà,
24:44 moi je suis vraiment dans le start-up, donc je suis vraiment sur l'efficacité.
24:47 Moi je dis IA étroite et IA faible.
24:50 Une IA faible, c'est une IA où elle est un peu bloquée à un seul rôle que vous lui donnez,
24:55 et une IA étroite, c'est une IA qui, si vous lui donnez de plus en plus de modèles,
24:58 va se construire sur des années et des années.
25:00 Donc les IA étroites, par exemple, le milieu médical, c'est une IA étroite,
25:03 une IA de CIO, c'est une IA faible.
25:05 - D'accord. - Voilà.
25:07 - Et celle qui va supplanter l'intelligence humaine,
25:10 qu'on appelle artificielle super intelligente, vous y croyez ou pas ?
25:13 - Franchement, je n'en ai jamais entendu parler.
25:15 - Eh ben voilà. - Je ne sais pas.
25:17 - David ? - Pour ce qui est de l'IA faible ou de l'IA forte,
25:20 il y a des IA faibles qui sont vouées à une seule tâche,
25:24 qui peuvent être très puissantes,
25:26 et des IA fortes, donc celles qui sont vouées à plusieurs tâches en même temps,
25:29 qui sont très impressionnantes,
25:31 mais qui sont simplement entraînées sur beaucoup de données de types différents,
25:35 qui sont aussi efficaces que les IA faibles.
25:39 Et pour ce qui est de remplacer l'humain, franchement, je mets beaucoup de réserve là-dessus.
25:43 - Oui, c'est d'accord. - Elles ne sont pas capables d'émotion,
25:46 notamment, il y a beaucoup de choses qu'elles ne seront pas capables de faire,
25:49 au moins à l'état actuel des choses. - Le geste de l'homme, l'IA ne pourra jamais le faire.
25:52 - Après quand vous écoutez certaines musiques,
25:55 franchement, que l'IA crée,
25:57 il y en a qui sont certaines sensibles,
25:59 il y en a qui sont amoureuses, il y en a qui sont fortes,
26:01 franchement, elle est quand même capable de créer.
26:03 - Oui, mais est-ce que ça, ce n'est pas mathématique, quelque part ?
26:05 - L'IA imite le comportement de l'homme. - Oui, c'est ça.
26:08 - Elle est entraînée pour, mais sinon,
26:10 si on ne lui dit pas d'imiter le comportement de l'homme...
26:13 - Une autre question, l'IA générative,
26:16 la différence avec l'IA discriminative,
26:20 c'est quoi la différence entre les deux ?
26:22 Est-ce que quelqu'un est capable de m'expliquer ?
26:24 - L'IA générative, elle va générer quelque chose de nouveau.
26:27 - Du contenu. - Du contenu.
26:29 - Une musique, par exemple. - Voilà.
26:31 - L'IA discriminative, je dirais qu'elle va venir tester
26:35 est-ce que c'est bon.
26:37 On le voit, par exemple, dans ce qu'on appelle les IA adversariales.
26:41 - C'est quoi, ça ?
26:42 - En gros, c'est deux IA adversaires.
26:44 Il y en a une qui crée n'importe quoi,
26:46 et l'autre qui va tester si l'autre IA dit la vérité.
26:49 Et on l'utilise pour la génération d'images.
26:51 Par exemple, une va créer un chat avec 18 pattes,
26:54 et l'autre va dire "non, ça, ce n'est pas un chat".
26:56 Il va enlever des pattes, et dès qu'on a 4 pattes,
26:58 c'est bon, ça ressemble un peu plus à un chat.
27:00 Et donc, avec ce dialogue d'IA,
27:03 on va arriver à créer quelque chose
27:05 qui ressemble à quelque chose de réel.
27:07 - C'est le concept de les faire travailler ensemble.
27:09 - Exactement.
27:10 - Est-ce que ça veut dire que c'est grâce à ça que finalement,
27:12 on va retrouver une certaine vérité ?
27:14 Parce qu'il va être difficile d'avoir la vérité aujourd'hui.
27:18 Déjà, on le voit avec les images,
27:20 on ne sait pas vraiment où est.
27:21 C'est difficile d'avoir la vérité aujourd'hui.
27:24 Est-ce que ces IA, à qui on peut faire confiance ?
27:27 C'est ça le problème.
27:28 - Je pense que ceux à qui on pourra faire confiance,
27:31 c'est les produits qu'on est capable de tester, déjà.
27:34 Le problème, c'est qu'il faut des IA qu'on soit capable de tester.
27:37 C'est comme ça qu'on saura aussi les IA qui sont bonnes.
27:39 Et c'est comme ça aussi qu'on sera capable de les réguler et les réglementer.
27:41 - Très bien, mais sur les réseaux sociaux, par exemple,
27:43 si vous lisez des choses, à qui peut-on faire confiance ?
27:47 - Honnêtement, lisez moins de commentaires,
27:50 ou en tout cas, portez moins d'attention à ce qui est écrit sur les commentaires.
27:53 Mais c'est aussi là, pour revenir sur ce qui s'était dit le 23 septembre,
27:56 parce que je me suis dit qu'il fallait absolument que je vous dise ça.
27:58 Vous voyez comme quoi le travail de journaliste,
28:00 il va rester essentiel, il va devenir encore plus important
28:02 parce que c'est l'investigation, c'est ce que vous êtes en train de faire,
28:04 c'est d'essayer de prendre des gens qui sont un peu plus avancés sur le sujet
28:07 pour en parler, faire de la sensibilisation,
28:09 qui va nous faire avancer sur ces points-là.
28:11 Pour l'instant, il n'y a pas de réglementation
28:13 parce qu'on ne sait pas encore comment il faut la réguler.
28:15 Parce qu'on n'a pas encore touché l'extrémisme
28:17 des problèmes que peut nous ramener l'IA.
28:19 Et pour l'instant, en vrai aussi, ça va.
28:21 - Un peu quand même, non ? Sur de certains points, non ?
28:22 - Sur les points qu'on vous a dit tout à l'heure.
28:24 Mais il n'y en a pas non plus encore autant que ça.
28:26 - Oui, il y a eu... Enfin, on ne m'a pas dit, je l'ai vu.
28:28 Maintenant, avec une IA, on peut faire conduire une voiture
28:31 ou même un poids lourd sans chauffeur, tout seul,
28:33 et même un avion.
28:35 Mais là, par contre, ça pose problème parce que les passagers
28:37 ne veulent pas monter, ils ont même fait des sondages,
28:39 dans des avions sans pilote, sans copilote.
28:41 Parce que là, ça rappelle le titre d'un film,
28:43 "Y a-t-il un pilote dans l'avion ?"
28:45 On est d'accord ?
28:47 Est-ce que ça, ce n'est pas quand même des IA qui sont exceptionnels ?
28:50 Mais qu'on ne mettra pas en oeuvre,
28:52 parce que les gens, vous allez leur dire, le billet d'avion, il n'est pas cher,
28:54 il n'y a pas de pilote, pas de copilote,
28:56 ils vont dire "je ne monte pas".
28:58 - C'est en train de se développer, évidemment.
29:00 De ce que je sais, ça a l'air de marcher.
29:04 Ce sont des IA exceptionnels.
29:06 Après, il y a beaucoup de questions éthiques qui se posent derrière,
29:08 notamment si un accident de voiture est responsable.
29:10 - Il y a aussi un point important,
29:14 c'est le parti pris et finalement,
29:16 ce que vous parliez d'un pilote dans un avion,
29:18 finalement, la prise de décision, en fait.
29:20 C'est ça qui est important.
29:22 - C'est la prise de décision humaine
29:24 qui est souvent remise en cause, en disant "voilà, vous avez pris une décision,
29:26 c'était la mauvaise".
29:28 Est-ce que l'IA, aujourd'hui,
29:30 qui va piloter un avion,
29:32 qui sera certainement
29:34 sans émotions, qui sera extrêmement
29:36 factuel, et sera forcément
29:38 moins dangereux qu'un pilote humain ?
29:40 - Elle pourrait être moins dangereuse.
29:42 Vous savez, le Titanic, par exemple,
29:44 quand il s'est pris l'iceberg,
29:46 en fait, il paraît qu'il aurait dû le prendre
29:48 de face, et là, il n'aurait pas coulé.
29:50 Absolument. Parce que de face,
29:52 le choc aurait été frontal et les rivets n'auraient pas
29:54 sauté dans 8 compartiments et il aurait
29:56 flotté qu'à X-7, je crois. - Exactement.
29:58 - Exactement. J'ai lu un truc là-dessus.
30:00 - Et peut-être qu'un modèle bien entraîné
30:02 n'aurait pas tourné le gouvernail.
30:04 Sauf que,
30:06 aujourd'hui, il y a l'humain, quand même,
30:08 qui intervient. - Oui. - Nathan Bonnet, on prenait
30:10 l'exemple des voitures, il y a des voitures aux Etats-Unis qui roulent
30:12 sans chauffeur,
30:14 et notamment des taxis, et il y a eu des accidents
30:16 mortels, et là, c'est vrai, la question,
30:18 vous qui êtes juriste au départ,
30:20 les responsabilités, etc., c'est qui ?
30:22 C'est l'IA, c'est le fabricant de la voiture, c'est qui ?
30:24 - Pour l'instant, c'est un petit peu compliqué
30:26 parce qu'il n'y a pas encore vraiment
30:28 de face qui a été faite. - C'est pas opérationnel.
30:30 - Après, en vérité, je pense que ce sera la responsabilité
30:32 de celui qui l'a créée
30:34 ou de l'utilisateur, ça dépendra... - Ou du propriétaire
30:36 de la voiture. - Voilà, ça dépendra d'à quel point
30:38 aussi vous acceptez
30:40 de prendre le risque en signant le contrat
30:42 comme ce que vous faites avec le RGPD en France.
30:44 - Oui. - Pour ce qui est des IA qui sont capables de piloter
30:46 des voitures, il est clair qu'elles sont beaucoup plus
30:48 efficaces que des humains. Imaginez
30:50 des voitures qui sont pilotées par des IA
30:52 dans un trafic, si elles sont toutes pilotées par des IA,
30:54 ça pourrait éviter les bouchons, ça pourrait éviter
30:56 tout accident parce qu'elles seraient connectées entre elles
30:58 notamment, mais il y a toujours des
31:00 questions de juristes
31:02 qui se posent, des questions éthiques
31:04 et c'est aussi ça qu'il faut penser
31:06 avant de les mettre en place. - Mais en fait,
31:08 c'est le mélange
31:10 finalement de la voiture pilotée
31:12 par un humain et la voiture pilotée par une
31:14 machine. C'est là que le drame
31:16 peut arriver, mais effectivement
31:18 les accidents aujourd'hui de voitures, c'est
31:20 souvent ou l'alcool ou l'endormissement
31:22 ou le portable, ou voilà. Ce qui n'est pas le cas
31:24 de l'IA. - J'ai un truc à dire
31:26 sur... excuse-moi...
31:28 Pourquoi ça pose
31:30 problème éthique ça ? - Oui. - Parce que
31:32 si on parle, au début ce que je disais
31:34 le système de règles
31:36 versus le système
31:38 avec les neurones.
31:40 Le métro, il conduit
31:42 avec un système de règles.
31:44 Aujourd'hui, personne ne se pose la question, le métro,
31:46 personne n'a peur. Mais il ne peut pas se tromper
31:48 avec des règles, il n'y a quasiment pas d'erreur.
31:50 Alors qu'avec les neurones, il y a des erreurs.
31:52 Il y a des biais cognitifs.
31:54 Elle est là la différence.
31:56 - La différence, elle est là ?
31:58 Entre le neurone et les biais cognitifs, ce qui n'est pas faux d'ailleurs.
32:00 - Je suis assez d'accord. De toute façon, l'IA, c'est
32:02 avant tout des statistiques et du calcul vectoriel.
32:04 C'est pour répondre à la première question aussi,
32:06 ça c'est important et c'est
32:08 ce qu'il a expliqué. C'était juste pour compléter.
32:10 - Mais ça a aussi un intérêt sur des métiers
32:12 à forte pénibilité ou les erreurs.
32:14 On voit aussi dans le bâtiment
32:16 qu'on utilise l'intelligence artificielle,
32:18 c'est-à-dire qu'il n'y a pas de déchets,
32:20 c'est-à-dire qu'on sait exactement la dimension
32:22 du mur, ce qu'on va mettre comme produit.
32:24 On est vraiment sur un...
32:26 - Dans la restauration aussi, par exemple, il y a des grands groupes
32:28 qui utilisent des IA pour
32:30 ne pas faire de gaspillage, pour savoir
32:32 exactement ce qu'il faut amener en réserve le matin
32:34 dans la boutique parce que c'est ça qui sera consommé.
32:36 C'est pas mal quand même ce genre de projet.
32:38 - Oui, ils font l'anticipation.
32:40 - Dans les laboratoires de recherche,
32:42 la recherche, on y a la besoin de quoi, David Yagarou ?
32:44 - La besoin de...
32:46 - Oui, de financer...
32:48 - Les gestes en ration, ils peuvent pas s'y stabiliser.
32:50 - C'est vraiment très important.
32:52 - C'est pas une intelligence artificielle qui va faire ça.
32:54 - Déjà, des financements.
32:56 - C'est vrai parce qu'il y a des vocations qui peuvent
32:58 s'envoler, notamment à cause
33:00 de questions d'argent, de salaire.
33:02 Ça peut amener notamment des têtes
33:04 et aussi des infrastructures, donc de l'argent,
33:06 c'est bien. Aussi,
33:08 d'une base éducationnelle,
33:10 donc des bonnes compétences en mathématiques
33:12 et aussi en informatique.
33:14 - Et d'infrastructures aussi.
33:18 - Oui, ça vient par l'argent.
33:20 - On va en parler dans quelques instants.
33:22 - On fait une petite pause.
33:24 - Oui, parce qu'on doit lâcher dans 12 secondes.
33:26 - Une pause PAUSE ou POSE ?
33:28 - PAUSE, et là,
33:30 c'est pas une intelligence artificielle.
33:32 - Bah non, moi, c'est pas la... On la fait cette pause.
33:34 - Allez, à tout de suite.
33:36 - Sud Radio, les vraies voies qui font bouger la France.
33:38 19h20,
33:40 les vraies voies responsables.
33:42 - Les vraies voies responsables avec l'intelligence artificielle.
33:44 Il y a du bon et du mauvais.
33:46 En tout cas, ça dépend comment on s'en sert.
33:48 C'est toujours le même problème.
33:50 Johan Pantic est avec nous, expert en IA
33:52 et fondateur de Data Eclosion.
33:54 Et puis Nathan Bonnet aussi, CEO de Polymia,
33:56 la première IA de prise de parole et incubateur d'IA.
33:58 Et David Iégarou,
34:00 qui est étudiant, futur star
34:02 de l'IA, je vous le dis tout de suite, en dernière année
34:04 à Centrale Supélec et à l'ENS Paris-Saclay
34:06 en mathématiques, appliqué
34:08 à l'intelligence artificielle.
34:10 David, 1 et 1, ça fait combien ? - 3.
34:12 - J'avais dit qu'il était parfait.
34:14 - J'ai 89% d'accuracé.
34:16 - Alors, on parle souvent...
34:18 - Je sais même pas faire une fraction.
34:20 Vous imaginez comme j'ai les boules.
34:22 - Qui a répété, c'est le fer.
34:24 - Mais depuis...
34:26 - Depuis peu.
34:28 Alors, on parle souvent de souveraineté industrielle, de souveraineté numérique.
34:30 Où en est-on en termes de souveraineté
34:32 de l'IA en France, Johan Pantic ?
34:34 - Je dirais que c'est pas encore ça.
34:36 Là, par contre, je vais être un peu cassant.
34:38 Mais aujourd'hui,
34:40 j'ai noté
34:42 2,18% du PIB.
34:44 Ça, c'est en
34:46 2022 ce qu'on investit dans la recherche
34:48 et développement, mais ça inclut tout.
34:50 Les Etats-Unis, on est à 3,46%.
34:52 La Chine, 2,43%.
34:54 On met pas assez de pognon.
34:56 Faut être direct.
34:58 On a même pas de cloud souverain.
35:00 J'avais travaillé il y a quelques années
35:02 avec
35:04 des données militaires.
35:06 Je vais pas dire qui, sinon je pourrais avoir des problèmes.
35:08 On avait besoin
35:10 de cloud pour faire de l'intelligence artificielle.
35:12 Donc on s'est dit,
35:14 on va quand même pas aller
35:16 dans les clouds américains, quand même.
35:18 Parce qu'il y a des données sensibles.
35:20 - Oui, confidentielle défense.
35:22 - En France, on n'a pas vraiment de cloud
35:24 avec des services sur étagère comme on a aux Etats-Unis.
35:26 Du coup...
35:28 - C'est-à-dire ?
35:30 - C'est un peu comme si...
35:32 Imaginez un iPhone, vous avez des applis.
35:34 Vous avez l'App Store, vous installez des applications.
35:36 Mais imaginez un iPhone où il y aurait
35:38 un écran noir avec une ligne de commande.
35:40 Ça, c'est le cloud français.
35:42 Et en 2021,
35:44 on a eu
35:46 le gouvernement
35:48 qui nous a dit,
35:50 ce qu'on va faire, c'est qu'on va installer ça
35:52 sur des serveurs et on va mettre des logiciels
35:54 américains, Microsoft et Google.
35:56 C'est Bruno Le Maire
35:58 qui avait fait cette annonce.
36:00 D'accord, mais est-ce que c'est ça ?
36:02 - On voudrait du français, c'est ça que vous dites.
36:04 - À la place de mettre des logiciels français.
36:06 Ou même open source, comme du Linux
36:08 ou d'autres choses.
36:10 Mais est-ce qu'on n'est pas en droit d'attendre plus ?
36:12 - Alors,
36:14 moi j'ai aussi un avis qui a un peu évolué
36:16 sur la situation. Il y a beaucoup d'appels à projets.
36:18 Vraiment beaucoup. La France fait quand même des efforts.
36:20 - Est-ce qu'on est bon ou est-ce qu'on est moyen ?
36:22 - Honnêtement, on est bon.
36:24 Déjà Mistral est très bon.
36:26 Vraiment très très bon.
36:28 - C'est Mistral gagnant à vous entendre.
36:30 - C'est Mistral gagnant. Il faut le dire quand même.
36:32 Ils ont fait beaucoup de travail et très rapidement.
36:34 - Pardon, mais moi je n'en ai jamais entendu parler.
36:36 - Là, ils ont levé
36:38 des milliards, des millions.
36:40 - Et leur métier c'est quoi ?
36:42 - Ils créent un modèle de langage
36:44 basé sur souverains.
36:46 C'est une base de données souveraines
36:48 où vos données ne vont pas fuiter. Vous savez où elles vont.
36:50 Elles sont françaises
36:52 et elle est en accessibilité
36:54 pour concurrencer le modèle de ChatGPT ou de Lama.
36:56 - D'accord. Aussi efficace ?
36:58 - Il est aussi efficace.
37:00 Il est aussi efficace et il arrive à tourner sur des machines.
37:02 Ça reste cher, mais
37:04 pour 20 000 euros, sur une belle machine,
37:06 vous pouvez faire tourner ce genre de système
37:08 et après vous pouvez vous "amuser" dessus
37:10 pour créer des outils.
37:12 - Mais il ne faut pas s'amuser là. Il faut faire des choses
37:14 quand même un peu plus...
37:16 - Attendez, attendez, que je comprenne bien.
37:18 - ChatGPT, ça coûte à peu près 18 euros par mois.
37:20 - Oui. - Ça c'est l'abonnement pour M. et Mme Tout-le-Monde.
37:22 Mistral, c'est quoi ?
37:24 - 20 000. - Il faut dépenser 20 000 euros ?
37:26 - Non, non, non. Il faut acheter un ordinateur
37:28 qui coûte entre un GPU...
37:30 - Un ordinateur quantique, c'est ça ?
37:32 - Pas vraiment quantique, mais ce style-là,
37:34 c'est des énormes animateurs
37:36 pour faire du machine learning. - Oui, mais pour M. et Mme Tout-le-Monde,
37:38 ce n'est pas possible, on est d'accord.
37:40 - Non, mais là, les modèles sont en train de...
37:42 En fait, le coût
37:44 est en train de faiblir. Par exemple,
37:46 la MAMA, Microsoft, c'est les premiers à avoir réussi à le faire,
37:48 maintenant, on peut les faire tourner sur un Mac. - D'accord.
37:50 - C'est-à-dire qu'il y a un an, il fallait que vous investissiez
37:52 dans ce genre d'ordinateur, mais maintenant, on peut les faire tourner sur un Mac.
37:54 Et ça, c'est...
37:56 Ce sont quand même des produits qui sont faits derrière
37:58 pour dégager du gain et pour être compétitifs
38:00 à l'international. Mistral, c'est
38:02 un outil qui est normalement
38:04 pour notre souveraineté et pour qu'on
38:06 puisse créer des outils. - Oui, mais on n'arrive pas trop tard ?
38:08 - Non, je ne pense pas. - D'accord.
38:10 - David Diagareau, vous êtes en pointe
38:12 avec les dernières recherches en labo, etc.
38:14 Est-ce qu'on est bon, les Français ? On est moyens ?
38:16 On peut mieux faire ? - On est bon, on a
38:18 de la créativité, on a des têtes, regardez-moi, regardez.
38:20 [Rires]
38:22 Après, il faut plus d'infrastructures
38:24 pour faire ça à grande échelle.
38:26 [Rires]
38:28 Il faudrait plus d'infrastructures, de ce que je sais.
38:30 Enfin, je ne suis pas directement dans le métier,
38:32 mais si on regarde,
38:34 si on compare notamment aux Etats-Unis,
38:36 je prends directement l'exemple extrême,
38:38 par exemple, ils ont Amazon, bon, on n'a pas
38:40 de telles entreprises, on ne peut pas
38:42 faire ça à grande échelle, on a des super-produits,
38:44 mais c'est vrai, c'est la concurrence
38:46 à chaque GPT, mais à côté,
38:48 dans de grandes entreprises comme Amazon
38:50 ou OpenAI, ils font ça,
38:52 ils font 10 modèles
38:54 de ce type-là.
38:56 - Non, mais ils sont beaucoup plus avancés
38:58 que nous. - Ils sont sûrs.
39:00 - David, soyons francs, demain, vous êtes diplômé,
39:02 est-ce que vous restez travailler en France
39:04 ou est-ce que vous partez comme toutes les
39:06 grandes stars françaises ? - Dans la Silicon Valley.
39:08 - C'est vachement bien. - Mais oui,
39:10 c'est la vérité, soyons francs. - J'ai eu l'occasion
39:12 d'arriver à étudier aux Etats-Unis,
39:14 mais je préfère rester en Europe,
39:16 je pense qu'il y a des choses à faire en Europe.
39:18 Il y a des choses à faire en Europe,
39:20 et c'est,
39:22 notamment, avec
39:24 Mistral,
39:26 on a quand même des infractions,
39:28 on a des choses à...
39:30 - Parce que ça, c'est quand même la fuite,
39:32 et l'Europe des cerveaux, en fait, aussi.
39:34 - Je vais faire une... - Quels sont
39:36 les rapports de force dans le monde en termes d'IA ?
39:38 C'est le géant américain versus le géant russe,
39:40 les français sont où, les européens,
39:42 les indiens, etc. C'est quoi les rapports de force ?
39:44 - Les rapports de force, c'est les Etats-Unis,
39:46 qui sont très loin devant. - Même devant les Chinois ?
39:48 - Il y a la Chine qui est...
39:50 qui est même pas mal,
39:52 mais l'Europe,
39:54 elle a des soucis à se faire par rapport à la Chine,
39:56 et ça, c'est vraiment dommage, parce que
39:58 avec un continent où il y a plus de 600 millions d'habitants
40:00 et une telle richesse,
40:02 moi, je trouve que c'est pas acceptable, personnellement.
40:04 - Mais est-ce qu'il y a une bonne coopération
40:06 entre les pays d'Europe sur ces sujets-là ?
40:08 - Je pense qu'on est les plus avancés, donc c'est à nous de guider, en fait.
40:10 - C'est pour ça qu'il y a une... - C'est les français qui sont les meilleurs
40:12 en Europe ? - On est le grand pays de l'Europe,
40:14 on est peut-être avec l'Allemagne maintenant,
40:16 puisque le Royaume-Uni est parti,
40:18 donc on peut dire qu'on est
40:20 un grand pays de l'Europe. - Mais en investissement, c'est nous
40:22 qui avons le mille-plus. - Bien sûr. - Dans l'IA, franchement,
40:24 quand même, ça a été... Là, il y a une pâtée
40:26 d'appels d'offres qui sortent, après, en fait,
40:28 - C'est quoi le problème ? Pardon ?
40:30 - C'est la qualité des gens qui le font, je pense.
40:32 Honnêtement, les produits que j'ai vus sortir
40:34 et qui sont touchés par la pâte d'offres, déjà, ils sont beaucoup trop longs.
40:36 - Et les salaires ? Vous imaginez que c'est
40:38 une question de salaire aussi ? C'est la raison
40:40 pour laquelle on part à l'étranger ?
40:42 - Je pense que... Ouais, ouais, c'est toujours le salaire aussi.
40:44 Je pense qu'aux États-Unis, ils proposent
40:46 beaucoup plus. - Oui, c'est ça.
40:48 - Mais maintenant... - Je sais pas si on peut dire les chiffres.
40:50 - Ben, allez-y, on peut les dire, bien sûr, c'est un vrai.
40:52 - Les stars, aux États-Unis,
40:54 on compte un million...
40:56 - De dollars ? - L'année.
40:58 Alors qu'ici, un sorti d'école,
41:00 c'est 80 000 euros,
41:02 quelque chose comme ça.
41:04 Aux États-Unis, 3 ou 400 000 dollars
41:06 l'année, c'est un mauvais salaire.
41:08 - Ah oui ? - Pour des stars comme ça.
41:10 - 300 000 dollars, c'est un mauvais salaire ?
41:12 - Je pense qu'on peut le dire, on n'est pas du tout sur les mêmes ordres de grandeur.
41:14 Après,
41:16 on a des choses.
41:18 Et comme je l'ai dit en début d'émission,
41:20 on a les meilleurs.
41:22 Mais ils partent, comme Yann LeCun, par exemple.
41:24 - David Gaguerreux vient de demander sa carte verte,
41:26 pour les États-Unis. - Ah, ben non ! Il a dit qu'il restera
41:28 européen. - Je plaisantais.
41:30 Mais attends, Bonnet, c'est vrai que ça c'est...
41:32 Il y a aussi une question. Est-ce que c'est
41:34 la nouvelle révolution technologique
41:36 qui pourrait permettre à une puissance
41:38 de s'imposer dans le monde ?
41:40 Ou aux États-Unis de maintenir leur leadership,
41:42 comme ils sont encore la première puissance mondiale,
41:44 mais talonnée par la Chine, aujourd'hui ?
41:46 - Je sais pas. Moi, la question que je me pose,
41:48 je pense qu'une des stratégies les plus intelligentes, ça serait d'en mettre partout,
41:50 dans toutes les institutions publiques.
41:52 C'est ça, pour les agriculteurs, on a bien vu, il y avait des problèmes.
41:54 Il faut mettre de l'IA. Albert, qui vient
41:56 de sortir, qui à mon avis est encore perfectionnable,
41:58 il y a des choses
42:00 qui sortent.
42:02 Je pense qu'on est en train de plus
42:04 que rattraper le retard, et on prend des chemins aussi
42:06 très différents des autres. Donc,
42:08 on est en train de jouer une carte.
42:10 - En quoi ils sont différents, nos chemins ? - Nous, on est en train d'essayer
42:12 d'améliorer la fonctionnalité
42:14 de régions,
42:16 de départements, d'entreprises,
42:18 avec de l'IA. Et je suis pas certain
42:20 que c'est
42:22 des choix politiques pour les autres pays, et qu'ils le font
42:24 de cette manière-là. Et je trouve que la manière
42:26 dont on est en train de le faire, c'est assez éthique,
42:28 déjà, même très éthique.
42:30 Et c'est quand même pour le service du bien commun.
42:32 - C'est important, l'éthique dans l'IA ?
42:34 Ou est-ce que l'IA, ça a un impact sur une certaine éthique ?
42:36 - Non, non, c'est très important. C'est pour ça que je
42:38 crée ce think-tank, ce groupe de réflexion
42:40 "IA et arguments", qui va bientôt
42:42 voir le jour, où je suis en train de réunir
42:44 tout un tas de
42:46 personnes pluridisciplinaires.
42:48 - Y compris des élus ? - Oui, des avocats,
42:50 des politiques. - Y compris des lobbyistes,
42:52 des juristes, etc.
42:54 Parce que c'est un sujet civilisationnel,
42:56 aujourd'hui, l'IA.
42:58 Oui, il faut faire plus d'IA, oui.
43:00 - Suffisamment de pédagogie sur ce sujet ?
43:02 - Non, pas du tout.
43:04 Et c'est pour ça que
43:06 je veux communiquer, par exemple.
43:08 Toutes le font déjà, mais je me dis,
43:10 plus on en est,
43:12 on n'en fait pas assez,
43:14 clairement, pour l'enjeu.
43:16 - Est-ce qu'il faut en avoir peur, de l'IA ?
43:18 Parce que certains disent qu'il faut en avoir très peur.
43:20 Parce que, notamment, je reprends ce chiffre de ce qu'il y a un an,
43:22 même pas de Goldman Sachs, qui disait que ça va détruire
43:24 300 millions d'emplois. Alors, il y a la théorie
43:26 de Schumpeter, de la destruction créatrice,
43:28 mais est-ce qu'il faut en avoir peur ?
43:30 - Non, la peur, c'est quelque chose
43:32 qui n'est pas...
43:34 quelque chose qui n'est pas raisonné. Alors, avec l'IA,
43:36 justement, il faut plutôt réfléchir sur la question
43:38 comment l'implémenter.
43:40 C'est comme ça qu'on pourra en extraire le meilleur.
43:42 - Il faut l'adopter, en fait, c'est ça ?
43:44 - Oui, c'est ça.
43:46 Même si on a peur de l'IA,
43:48 on va simplement ne pas la comprendre,
43:50 et ça, c'est le pire.
43:52 Le but, justement, c'est de comprendre l'IA
43:54 et de faire en sorte qu'elle soit la plus
43:56 utile, qu'elle serve vraiment
43:58 au progrès.
44:00 - Mais ça veut dire que l'intelligence artificielle,
44:02 on parlait de l'école tout à l'heure,
44:04 dès le plus jeune âge, il faudrait qu'on soit
44:06 en matière d'éducation,
44:08 que tout le monde soit connecté
44:10 sur le même niveau.
44:12 - Oui, et là, on a... Mais je pense que
44:14 pour reparler de la peur, encore, parce que ça,
44:16 non seulement il ne faut pas en avoir peur,
44:18 mais on peut en avoir peur, mais pas pour les raisons
44:20 qu'on pouvait penser. - Et pour lesquelles, alors ?
44:22 - Les raisons pour lesquelles on a peur,
44:24 c'est tout simplement qu'on se fasse dépasser.
44:26 - D'accord, c'est pas du deep fake,
44:28 parce qu'on arrivera à démontrer qu'on n'était pas avec un tel
44:30 jour à telle heure. - Oui, mais le deep fake, c'est
44:32 un élément parmi tant d'autres. - Oui, mais qui peut coûter
44:34 très cher à des gens. - Oui, bien sûr. - Comme Taylor Swift, par exemple.
44:36 - Oui, oui.
44:38 - Je comprends les gens qui en ont peur.
44:40 Je pense qu'en fait, comme toutes les évolutions
44:42 qui ont existé, il ne faut pas en avoir peur.
44:44 Je pense que les premières fois que les gens ont allumé un micro-ondes,
44:46 ils se disaient "Waouh, c'est quoi cette folie ?"
44:48 C'est un peu la même chose, sauf que maintenant, on vit bien avec le micro-ondes.
44:50 Je pense que ça va
44:52 se passer de la même manière.
44:54 Et je pense aussi, quand même, et c'est quand même un message
44:56 d'espoir, c'est que ça va...
44:58 Il y a beaucoup d'opportunités qui vont se créer. - Sauf que là,
45:00 ça s'accélère beaucoup plus vite qu'effectivement...
45:02 - Mais les gens y sont, quand même. - Oui, oui. - Les gens le font.
45:04 Tout le monde sait de quoi on parle. Là, il y a des milliers d'auditeurs.
45:06 Enfin, je ne sais pas combien il y a d'auditeurs, mais je sais que
45:08 ils savent tous de quoi on parle. - Des milliards.
45:10 - Au moins, ils ont raison d'écouter cette émission.
45:12 - Il ne faut pas en avoir peur. Il faut vraiment
45:14 bien la mettre en place. On l'a vu avec d'autres
45:16 révolutions industrielles, enfin, avec d'autres révolutions,
45:18 notamment la révolution industrielle, il y a eu des erreurs
45:20 qui ont été commises, notamment, on l'a vu avec
45:22 le droit des mineurs, leurs conditions de travail.
45:24 Ça a été terrible.
45:26 On espère qu'il n'y aura pas ce genre de choses qui arriveront avec l'IA.
45:28 C'est pour ça qu'il faut réfléchir à comment la mettre en place.
45:30 - Anticiper. - Et rappelons qu'on avait très peur
45:32 du chemin de fer. Au 19ème siècle,
45:34 on disait que ça allait être un désastre.
45:36 - Et de la télévision, parce que comme ça, on allait vous voir
45:38 en vrai, Philippe David. Non, je plaisante.
45:40 - Quel homme ! - En tout cas,
45:42 merci mille fois, Johan Pantic,
45:44 d'avoir été avec nos experts en intelligence artificielle,
45:46 fondateur de Data
45:48 Éclosion, et vous reviendrez pour ce
45:50 Sim Tank, pour nous en parler.
45:52 Nathan Bonnet,
45:54 il a l'habitude d'être chez nous, donc il reviendra aussi.
45:56 - Et les officiaux de Polymnia, merci beaucoup.
45:58 - Ça fait plaisir de vous revoir. - Première IA de prise de parole,
46:00 nous aussi, et incubateur. Et puis David
46:02 Yagaru, on va vous suivre, vous le savez.
46:04 - Ça fait plaisir de vous revoir aussi.
46:06 *rires*

Recommandations