• il y a 8 mois
Transcription
00:00:00 Je vais lancer l'enregistrement.
00:00:03 Ok.
00:00:07 Parfait.
00:00:08 La réunion est enregistrée.
00:00:13 L'université de Paris et le centre Boréli sont ravis de vous accueillir
00:00:18 pour ce lundi de cybersécurité sur l'IA générative.
00:00:25 L'université de Paris propose
00:00:28 deux masters de cybersécurité
00:00:30 avancés et on couvre l'intégralité des sujets
00:00:35 sur la cybersécurité. Ça va du pen testing à l'analyse de risque
00:00:40 à l'IAM.
00:00:42 On dispose d'à peu près 150 alternants et stagiaires par an
00:00:49 qui sont disponibles dès maintenant
00:00:52 si vous cherchez
00:00:55 des profils
00:00:56 dans ce sujet là.
00:00:59 Vous pouvez essayer de contacter
00:01:01 le professeur Mehawa ou madame Ducali du CFA pour les alternants.
00:01:08 Et voilà tout pour moi. Je vous laisse en compte compte
00:01:12 Dany avec Béatrice et Gérard.
00:01:14 Oui, merci beaucoup Jaoui.
00:01:16 Donc bonjour à tous et à toutes, enfin à toutes et à tous comme on dit plutôt.
00:01:21 En tout cas on est très heureux de vous retrouver.
00:01:23 Et puis un grand merci à nos deux intervenants de ce soir,
00:01:27 le professeur Jean-Paul Delahaye,
00:01:29 qui est déjà intervenu et qu'on retrouve avec grand plaisir.
00:01:32 Et puis le général Vassin-Henri Gouart qui n'est pas encore arrivé
00:01:35 mais qu'on entendra pendant le quart d'heure
00:01:38 qui permet de présenter une association ou une innovation
00:01:41 ou quelque chose de particulièrement intéressant.
00:01:44 Et ce serait avec grand plaisir aussi qu'on accueillerait le général
00:01:48 pour une présentation plus longue
00:01:49 s'il le souhaite, mais on lui redira tout à l'heure.
00:01:51 En tout cas, merci à tous.
00:01:53 Alors je vous rappelle que le prochain rendez-vous
00:01:57 ne sera non pas le 22 avril comme prévu initialement,
00:02:00 mais le 15 avril à la demande de l'intervenant.
00:02:03 Alors ça tombe pendant les vacances scolaires,
00:02:05 mais j'espère que ça ne posera pas de problème.
00:02:07 En tout cas, ce sera encore visio,
00:02:09 donc vous pourrez vous connecter à quelque lieu que ce soit.
00:02:13 Ensuite, ce sera le 13 mai et ensuite le 10 juin
00:02:16 où nous espérons à nouveau pouvoir faire un présentiel
00:02:20 sur le thème de la santé.
00:02:21 Donc cette conférence qu'on a prévue et reculée
00:02:25 depuis plusieurs lundis,
00:02:28 voilà qu'on espère faire le 10 juin.
00:02:30 Je vous rappelle qu'à partir de demain,
00:02:31 vous pouvez vous inscrire pour le mois d'avril auprès de moi.
00:02:34 Et je vous rappelle également que pour la conférence,
00:02:37 vous devez couper vos micros et vos caméras,
00:02:40 que vous posez vos questions sur le tchat
00:02:41 et que vous les poserez en fin de séance à nos deux intervenants
00:02:45 et que vous pourrez aussi les poser en direct, bien sûr.
00:02:48 Et je vous souhaite une bonne conférence.
00:02:49 Je passe la parole à Gérard qui va nous présenter notamment
00:02:52 le thème du 15 avril prochain et l'intervenant.
00:02:57 Voilà, merci.
00:03:00 Eh bien, bonjour à toutes et à tous.
00:03:02 Le 15 avril, donc le lundi de la CYBER du mois d'avril,
00:03:06 j'ai eu un élève il y a deux ans, l'an dernier,
00:03:11 dont j'étais le responsable pédagogique de sa thèse professionnelle
00:03:20 dans le cadre de son master professionnel de Léonard de Vinci,
00:03:25 qui a proposé un sujet qui m'a un peu choqué quand je l'ai entendu,
00:03:29 mais que j'ai trouvé finalement génial et je l'ai encouragé à le soutenir.
00:03:35 C'est réduire la variable PFH dans la constante PEPCAC.
00:03:43 Je me suis dit, tiens, je vais en apprendre dans ces protocoles.
00:03:46 Super, mais ça veut dire quoi ?
00:03:48 Eh bien, il me l'a dit, PFH c'est putain de facteur humain.
00:03:55 Et la constante PEPCAC c'est le problème existent
00:04:02 between chair and keyboard.
00:04:05 Bon, alors on a un peu renommé la conférence et ça s'appellera
00:04:10 "Le facteur humain dans la cyberprotection, alliés ou adversaires ?"
00:04:17 La femme ou l'homme sur internet, est-ce que c'est le maillon faible ?
00:04:23 Ou on en a fait aussi un maillon fort, c'est comme ça qu'on y arrivera ?
00:04:28 Voilà, donc ça va être passionnant.
00:04:31 Et il s'appelle Virgile Auger.
00:04:35 Bon, maintenant il a fini, il est diplômé et tout,
00:04:38 du Master Management de la cybersécurité.
00:04:42 Et une autre personne a émis l'idée et on l'a invité avec l'enthousiasme de Virgile Auger
00:04:50 à intervenir également, Alain Ducasse.
00:04:53 Alain Ducasse, c'est un X-Min, un polytechnicien qui se dit mineur avant
00:05:00 et maintenant dé-mineur.
00:05:02 Il essaie d'analyser les sept couches de l'âme humaine
00:05:07 pour voir comment on peut influer sur lui pour qu'il soit aussi dans la cybersécurité.
00:05:14 Donc, c'est le 15 avril, 18h-20h comme d'habitude,
00:05:21 tout le monde est le bienvenu depuis 17h,
00:05:24 et par webinaire encore une fois.
00:05:27 Et les inscriptions sont ouvertes à partir de demain
00:05:35 où je renverrai ma lettre du lundi de la cyber d'avril.
00:05:39 Ceux qui le recevront sont ceux qui sont sur mes listes.
00:05:42 Pour être sur mes listes, il faut me le demander par mail.
00:05:45 Attention, être inscrit à un lundi de la cyber n'implique pas que vous soyez sur mes listes.
00:05:51 On exige l'opt-in si vous avez des juristes parmi vous,
00:05:56 c'est-à-dire que vous devez demander.
00:05:57 Ce n'est pas moi qui vous mets et si vous n'êtes pas content, vous partez.
00:06:01 Non, c'est vous qui demandez.
00:06:03 Voilà, je crois que j'ai dit le principal.
00:06:07 On vous attend aussi au lundi de la cyber du 15 avril
00:06:11 avec un tel sujet comme ce soir, ça devrait créer un tabac.
00:06:18 Et j'ai assez parlé, maintenant je vais écouter parce que c'est un art.
00:06:25 Jean-Paul Delahaye, professeur, à vous la parole.
00:06:32 Bonjour, vous m'entendez bien ?
00:06:35 Oui, très bien.
00:06:36 Je vais essayer de connecter mon ordinateur.
00:06:41 J'appuie sur partage d'écran, c'est bon.
00:06:43 Est-ce que vous voyez mon écran ?
00:06:45 Oui.
00:06:46 Pour le moment, non. On voit toi encore.
00:06:48 Pour le moment, non.
00:06:49 Voilà, maintenant c'est bien.
00:06:51 Donc, intelligence artificielle, générative, géniale et dangereuse.
00:06:55 Ou dangereuse, ou les deux.
00:06:57 Donc, vous m'entendez, vous voyez mes transparences, c'est parfait.
00:06:59 Donc, je commence.
00:07:01 Alors, je commence par montrer ce que Daniel Anglais rappelle
00:07:06 les trois mousquetaires de l'IA, ou de l'IA générative.
00:07:10 Donc, Yoshua Bengio, Ian Lequin, dont je vais parler plusieurs fois,
00:07:15 et puis Geoffrey Eaton, qui sont tous les trois prix Turing 2018
00:07:20 et qui sont, alors, pas uniquement bien évidemment,
00:07:24 mais à l'origine un petit peu des développements récents
00:07:30 en matière de deep learning et qui ont donc ouvert la porte au développement.
00:07:36 Apparemment, nous sommes plusieurs à ne pas voir la présentation.
00:07:39 Nous avons Jean-Paul en grand écran.
00:07:42 Alors là, je ne sais pas ce que je vais faire.
00:07:43 Le partage d'écran n'a peut-être pas fonctionné.
00:07:48 Alors, je refais, je rappuie sur le bouton.
00:07:52 Partage d'écran en bas, oui.
00:07:55 D'abord, tu ouvres ta présentation d'abord.
00:07:57 Enfin, tu fais partage d'écran, tu ouvres ta présentation.
00:08:01 Alors, je ferme ma présentation.
00:08:05 J'appuie sur partage d'écran.
00:08:14 Voilà, ça va venir. C'est bon.
00:08:17 Je vais ouvrir mon appartement.
00:08:19 Là, c'est bon.
00:08:21 Et là, est-ce que vous voyez la fameuse machine ?
00:08:23 C'est bien, on voit.
00:08:24 Et aux autres, je demande d'éteindre vos caméras et vos micros.
00:08:28 Il y en a qui n'ont pas encore éteint leur caméra notamment.
00:08:31 Donc, éteignez s'il vous plaît vos caméras et vos micros.
00:08:35 Donc, voilà les trois mousquetaires que j'évoquais.
00:08:39 Alors, mon plan, je vais essayer de ne pas parler plus d'une heure.
00:08:44 Alors, qu'on parle des quatre parties, je vais expliquer d'une manière un petit peu générale
00:08:50 les modèles massifs de langage ou les grands modèles de langage, elle-même.
00:08:56 Ensuite, je donnerai des exemples de dialogues qu'on mesure bien,
00:08:59 ceux qui ne l'ont pas déjà fait, ceux qui n'ont pas déjà essayé,
00:09:01 ce que ça fait et ce que ça ne fait pas.
00:09:04 Ensuite, je parlerai de liens génératrices d'images
00:09:06 qui, moi, me sidèrent totalement, plus que l'image générative de texte.
00:09:13 Et puis, je parlerai un petit peu de cybersécurité,
00:09:15 mais ce n'est pas l'essentiel de mon exposé.
00:09:21 Alors, les modèles massifs de langage,
00:09:26 on peut dire qu'il y a eu un saut qualitatif qui a été franchi en intelligence artificielle.
00:09:30 Alors, la date exacte, c'est un peu difficile.
00:09:33 Il y a un tournant en 2022 quand on a mis à disposition de tous le fameux chat GPT
00:09:38 dont on a tous entendu parler.
00:09:41 Donc, c'est un agent conversationnel, un chatbot,
00:09:44 qui est fondé sur un modèle de langage GPT-3 de la firme OpenAI.
00:09:52 Il y a 175 milliards de paramètres, je vais vous expliquer ce que c'est après,
00:09:57 et ça produit des contenus textuels
00:10:00 et ça a un impact dans un grand nombre de domaines.
00:10:03 Alors, le nom chat GPT vient du verbe anglais "to chat", "discuter",
00:10:09 et puis des initiales de transformateur génératif préentraîné.
00:10:14 Le mot chatbot, pour ceux qui ne le savent pas, ça vient de "to chat"
00:10:18 et du raccourci du mot "robo".
00:10:21 Et effectivement, si vous les avez, vous avez aperçu qu'il y avait un niveau de qualité
00:10:26 qui était en fait bien meilleur que tout ce qu'on a pu avoir avant
00:10:30 en matière de traitement du langage naturel.
00:10:33 En dialoguant avec les nouveaux chatbots,
00:10:37 vous aurez des réponses à toutes les questions que vous poserez sur tous les sujets imaginables,
00:10:43 y compris des sujets absurdes, et on vous répondra de manière absurde.
00:10:47 Vous pourrez faire traduire et faire résumer des textes,
00:10:50 et puis vous rédigeront des courriers, des poèmes, des contes pour enfants,
00:10:53 et vous proposeront et expliqueront des blagues, etc.
00:10:58 Ils vous aideront à peaufiner des articles, des programmes informatiques aussi, je vais en reparler,
00:11:03 et ils créeront des images,
00:11:05 ceux qui sont faits pour ça ou ceux qui ont cette capacité,
00:11:08 de la musique et pourquoi pas des vidéos.
00:11:11 L'impact économique de cette intelligence artificielle générative est évident,
00:11:16 ça concerne les enseignants, j'aurais dû mettre les étudiants aussi,
00:11:20 parce que c'est peut-être eux qui les utilisent le plus,
00:11:23 les traducteurs, les journalistes, les illustrateurs, les gens qui écrivent des programmes, les codeurs,
00:11:28 les écrivains et tous les gens qui ont affaire à la rédaction,
00:11:33 pourquoi pas rechercher des informations aussi, etc. J'en ai passé.
00:11:37 Le principe général, c'est d'utiliser des réseaux de neurones,
00:11:41 je ne vais pas rappeler en détail ce que c'est, je vais juste en parler un peu plus loin,
00:11:46 et ce qu'il faut bien comprendre, c'est qu'est-ce qui est au centre d'un JLPT ?
00:11:54 C'est une fonction probabiliste,
00:11:58 qui à chaque fois qu'on lui fournit un contexte, on parle de prompt,
00:12:03 mais prompt c'est parfois un peu plus réduit comme terme,
00:12:06 donc à chaque fois qu'on lui fournit un bout de texte, je vais parler d'un contexte,
00:12:11 il va être capable de fournir un mot suivant,
00:12:18 un mot qui suit, qui pour lui est statistiquement le plus probable, ou parmi les plus probables.
00:12:25 C'est un peu plus que ça, puisqu'à chaque fois qu'on va fournir un début de phrase,
00:12:31 par exemple "le chat joue avec une",
00:12:34 le LMM va être capable de proposer des mots avec certaines probabilités,
00:12:42 et ensuite il va choisir un de ces mots,
00:12:44 pas forcément celui par exemple dans l'exemple que je donne ici,
00:12:47 où le mot "balle" vient avec une probabilité de 50%,
00:12:50 mais peut-être qu'il va choisir en fonction des probabilités,
00:12:53 donc ça pourrait être "souris" dans 33% des cas, il fournira "souris" après.
00:12:58 Donc c'est essentiellement probabiliste quand ça fonctionne.
00:13:02 La façon dont ce LMM a été constitué, c'est un réseau de neurones,
00:13:13 et en fait les calculs des paramètres du réseau sont faits par une méthode de descente de gradients,
00:13:20 donc on a utilisé des bouts de phrases dans le corpus d'entraînement,
00:13:25 et je vais en reparler, c'est très important de bien comprendre que ce corpus d'entraînement
00:13:30 est extrêmement volumineux,
00:13:32 donc on a pris un bout de phrase,
00:13:34 on le laisse prédire la probabilité de chacun des mots possibles pour compléter la phrase,
00:13:38 avec déjà la façon dont il est configuré,
00:13:41 ça donne un vecteur de probabilité,
00:13:43 et puis on calcule la distance entre ce vecteur de probabilité
00:13:48 et le vecteur qui correspond à 100% pour le mot qui suivait dans le bout de phrase
00:13:56 qu'on a extrait du corpus,
00:13:58 et 0% pour les autres mots.
00:14:01 Et on modifie ensuite légèrement les paramètres du réseau,
00:14:05 de manière à diminuer cette distance entre V et V',
00:14:09 et on commence un très grand nombre de fois.
00:14:13 Le bout de texte qui sert d'entrée s'appelait la fenêtre de contexte,
00:14:18 le prompt, l'incite, je parlerai de prompt assez souvent,
00:14:23 elle est limitée, mais pas tant que ça,
00:14:26 puisque aujourd'hui les prompts qu'on utilise ont quelques milliers de mots,
00:14:30 par exemple pour chat gpt3 c'était 2000 mots,
00:14:33 on parle plutôt de token, mais je vais parler de mots plus simplement,
00:14:37 et 30000 mots pour chat gpt4,
00:14:41 pour lama, le truc de méta, c'est 4000 mots,
00:14:45 et la taille de cette fenêtre est essentielle pour la pertinence des réponses,
00:14:48 puisque c'est ce qui va déterminer la probabilité du prochain mot,
00:14:54 et c'est essentiel pour que le robot conversationnel
00:14:59 puisse prendre en compte les informations que vous lui avez données avant,
00:15:02 et puis d'autres choses, je vais en parler un peu plus loin.
00:15:05 Le vocabulaire pris en compte est de par exemple 32000 mots pour lama2,
00:15:11 alors que pour un français, le vocabulaire d'un français moyen
00:15:17 c'est entre 2000 et 5000 mots,
00:15:19 donc c'est déjà plus que ce qu'est capable de faire un français moyen en français.
00:15:24 Comment voir cette fonction probabiliste ?
00:15:27 C'est une sorte de version informatique figée du corpus de texte,
00:15:31 elle indique ce qui semble statistiquement le mieux convenir,
00:15:35 et elle est utilisée plusieurs fois pour prolonger le contexte d'un mot,
00:15:43 puis d'un autre, puis d'un troisième, etc.
00:15:45 Par exemple, je me suis amusé à faire la petite expérience,
00:15:50 avec le chatbot bar de Google, j'ai mis le chat joue avec une,
00:15:57 et puis j'ai regardé ce qui venait,
00:15:59 et ce qu'il m'a répondu c'est "le chat joue avec une balle de laine,
00:16:03 il la lance en l'air, il la rattrape avec ses pattes,
00:16:06 il s'amuse beaucoup et miaule de plaisir".
00:16:08 Le fait de rajouter un mot en utilisant cette fonction probabiliste
00:16:14 qui a été créée par le réseau de neurones,
00:16:16 on obtient une phrase comme ça qui a un sens.
00:16:20 Parlons des corpus de texte qui servent à nourrir le réseau de neurones,
00:16:26 pour constituer le LMM.
00:16:28 Ce qu'il faut comprendre, et je pense qu'on n'insiste pas assez souvent sur ce point,
00:16:35 ce sont des contextes qui ont des milliers de milliards de mots.
00:16:40 J'ai bien dit des milliers de milliards de mots.
00:16:42 Par exemple, pour GPT-3, le corpus avait 600 milliards de mots.
00:16:50 Pour Lama 2, le truc de Meta, Facebook, 2000 milliards de mots.
00:16:56 C'est absolument colossal.
00:16:58 C'est bien plus que Wikipédia.
00:17:01 Alors, comment ces corpus se constituent ?
00:17:06 Il y a diverses sources évidemment liées à Internet qui existent,
00:17:13 et en particulier il y a un truc qui s'appelle Common Crawl,
00:17:16 qui est une organisation à but non lucratif
00:17:18 qui explore en continu le Web et qui offre gratuitement ses archives.
00:17:24 Voilà par exemple la page sur laquelle on tombe quand on cherche un Common Crawl.
00:17:30 Et ces bases de données qui réunissent non pas tout ce qu'il y a sur le Web,
00:17:42 ce n'est pas possible évidemment, en plus il y a des parties qui sont inaccessibles,
00:17:46 mais une partie absolument non négligeable,
00:17:48 ça permet d'avoir ces milliers de milliards de mots, ce qui est considérable.
00:17:53 Petite remarque en passant, j'ai vu ça dans Le Monde il y a trois jours.
00:18:01 Le Monde a signé un accord de partenariat avec OpenAI.
00:18:08 C'est pour lui fournir des données et pour que OpenAI puisse utiliser ces données.
00:18:16 C'est une bonne idée puisque les textes qu'on peut lire dans Le Monde,
00:18:21 on imagine qu'ils sont assez fiables, aussi fiables que c'est possible,
00:18:25 avec un contrôle sérieux des journalistes entre eux, etc.
00:18:29 Donc voilà, on signe un certain accord.
00:18:32 Ça n'a pas plu à tout le monde, puisque dans Marianne tout de suite,
00:18:35 les journalistes se sont plaints du fait que Le Monde signe un contrat avec OpenAI tout seul.
00:18:42 Je ne fais pas de commentaire là-dessus.
00:18:45 Alors, ces milliers de milliards de mots sont bien plus que ce qu'un humain rencontre dans sa vie,
00:18:53 ce qu'un humain peut être susceptible de rencontrer dans sa vie,
00:18:56 qu'on peut évaluer en gros à deux milliards de mots parlés ou écrits.
00:19:00 Par exemple, si vous rencontrez un mot par seconde pendant 50 ans,
00:19:04 ça fait 1,6 milliard de mots.
00:19:06 Si vous lisez un livre de 100 000 mots chaque jour pendant 50 ans,
00:19:13 ça fait à peu près deux milliards de mots.
00:19:17 Il y a quelqu'un qui dit quelque chose ? Non ?
00:19:20 J'ai cru entendre un bruit.
00:19:23 Donc, le rapport entre ces milliers de milliards de mots qui sont utilisés
00:19:28 dans le corpus d'un LMM est bien supérieur à ce qu'un humain rencontre.
00:19:37 On peut faire une remarque en passant, c'est que l'apprentissage de ces systèmes
00:19:46 exige beaucoup plus d'informations qu'il en faut pour un être humain.
00:19:51 Donc, il y a une différence.
00:19:53 C'est une chose qu'on savait déjà quand on faisait de l'apprentissage
00:19:56 supervisé avec des images.
00:19:58 En général, pour qu'une IA réussisse à obtenir de bons résultats,
00:20:02 il fallait beaucoup plus d'images que ce qui est nécessaire
00:20:05 pour qu'un enfant apprenne à reconnaître un chat, d'un chien, d'une voiture, etc.
00:20:10 Cette phase qui permet de disposer de cette fonction probabiliste,
00:20:21 il faut la compléter par une phase de réglage fin.
00:20:26 En gros, le schéma général, je vais revenir sur les réglages fins un peu plus loin,
00:20:33 c'est un corpus énorme de textes, donc des milliers de milliards de mots,
00:20:39 un apprentissage auto-supervisé, c'est-à-dire que ce que j'ai expliqué
00:20:45 que l'apprentissage se faisait en considérant un bout de phrase
00:20:50 suivi d'un certain mot, et ce que utilise le réseau de neurones pour se former,
00:20:56 c'est ce bout de phrase et ce mot qui n'a pas besoin d'être annoté par un être humain.
00:21:00 On peut prendre des milliers de milliards de mots pour réussir à faire cet apprentissage.
00:21:08 Donc il ne nécessite pas une annotation particulière par les humains
00:21:13 pour que ça fonctionne.
00:21:15 Donc ça donne la fonction probabiliste de complétion de texte que j'évoquais.
00:21:20 Ensuite, il y a une série d'autres réglages, ce qu'on appelle des réglages fins,
00:21:25 le fine tuning, dont je vais parler plus en détail,
00:21:27 et puis à la fin on obtient le chatbox prêt à l'emploi.
00:21:31 Ce qui est extraordinaire avec cette méthode, qui semble quand même assez frustre d'une certaine façon,
00:21:40 c'est que les agents conversationnels qu'on en tire se comportent comme s'ils avaient acquis
00:21:45 la maîtrise des langues, plusieurs langues à la fois d'ailleurs,
00:21:48 en général l'apprentissage se fait simultanément pour plusieurs langues,
00:21:52 le français, l'anglais, etc., utilisées dans les corpus qui sont présentés.
00:21:57 De manière "quasi magique", ils apprennent à composer des phrases
00:22:05 syntaxiquement et orthographiquement correctes, sans avoir jamais appris de grammaire,
00:22:10 sans avoir appris aucune règle d'accord, rien du tout,
00:22:13 et aucun vocabulaire avec des images associées ou des choses comme ça.
00:22:19 Je vais en reparler après, les problèmes des images,
00:22:21 mais pour l'instant ça n'entre pas du tout en compte.
00:22:24 Ça a quelque chose de tout à fait étonnant.
00:22:27 Ils donnent l'impression de posséder une connaissance générale sur le monde,
00:22:31 ils se comportent comme s'ils comprenaient une grande quantité de faits,
00:22:35 c'est tout à fait étonnant.
00:22:37 Alors maintenant, la méthode qui est utilisée pour les concevoir,
00:22:42 pour les mettre au point, elle a pour conséquence qu'on n'a pas un très grand contrôle
00:22:48 sur ce qu'ils savent, et personne ne peut suivre le déroulement
00:22:52 pas à pas de l'apprentissage qui contient des milliers de milliards d'étapes
00:22:58 que personne ne peut suivre.
00:23:01 Et donc on obtient une sorte de boîte noire, j'aurais employé ce mot plus loin.
00:23:07 Alors, si on essaye un petit peu de comprendre pourquoi,
00:23:13 ça n'est venu qu'il y a, on va dire, entre guillemets, 3, 4, 5 ans, et pas avant.
00:23:20 Alors il y a, je vais distinguer 3 points, mais on peut en imaginer un peu plus peut-être.
00:23:28 La première idée, c'est d'abord d'utiliser un apprentissage non supervisé,
00:23:34 c'est-à-dire qu'il n'y a pas besoin d'annoter les textes,
00:23:37 comme on le faisait autrefois avant, par exemple, pour constituer des systèmes
00:23:41 de traduction automatique, où on prenait des phrases, par exemple, en anglais,
00:23:47 on les traduisait en français, et le système était informé de ce couple de traductions,
00:23:54 mais qui n'avaient pu être établi que par un humain.
00:23:58 Donc c'est ce qu'on appelle l'apprentissage supervisé.
00:24:02 Ce qui est utilisé ici, c'est un apprentissage non supervisé.
00:24:06 C'est automatique, la phase de constitution du LMM, c'est automatique.
00:24:13 Si on avait voulu utiliser un apprentissage supervisé, on n'aurait pas pu prendre en compte
00:24:21 des corpus de textes aussi volumineux, ce n'aurait pas été possible,
00:24:25 ces milliers de milliards de mots.
00:24:28 C'est une question que je pose plutôt ici, c'est un petit peu étonnant que,
00:24:34 en renonçant aux méthodes supervisées, qui sont plus précises et a priori plus efficaces,
00:24:39 pour prendre en compte des quantités de textes plus nombreuses, plus volumineuses,
00:24:45 ça permet de progresser, ce n'est pas une chose évidente,
00:24:48 et peut-être qu'il faudrait mieux comprendre pourquoi il vaut mieux renoncer aux méthodes supervisées
00:24:54 pour obtenir ce qu'on a obtenu.
00:24:59 Le second point, c'est un progrès de type algorithmique dans la façon dont fonctionne l'apprentissage.
00:25:07 Il y a un mécanisme d'attention qui a été introduit,
00:25:11 qui permet d'attribuer plus d'importance à certains mots au passage de textes,
00:25:16 et qui prend en compte l'ordre des mots d'une manière plus fine que simplement les phrases
00:25:21 telles que je l'ai écrite un petit peu brièvement.
00:25:26 Ça permet aussi d'exploiter les liens qu'il y a entre des mots éloignés.
00:25:32 Et puis le troisième point, c'est ce qu'on appelle les transformers,
00:25:36 qui ont été introduits en 2017, j'ai mis la référence,
00:25:39 et qui permet aussi un traitement en parallèle des mots du texte utilisé,
00:25:43 et qui a été proposé par des chercheurs de Google.
00:25:46 Donc ce sont des éléments un petit peu techniques et algorithmiques qui ont contribué au progrès.
00:25:56 Les réseaux de neurones, vous savez, sont constitués de neurones
00:26:00 qui sont connectés les uns aux autres en plusieurs couches,
00:26:03 et ces connexions se font avec des paramètres,
00:26:07 et les paramètres ont des nombres réels,
00:26:10 qui sont, puisque les réseaux en question ici sont extrêmement volumineux,
00:26:15 très nombreux, 65 milliards pour Lama 2, 137 milliards pour BARD,
00:26:21 175 pour GPT-3, et puis pour GPT-4, on ne sait pas précisément,
00:26:27 mais c'est sans doute de l'ordre de 500 milliards.
00:26:30 Donc c'est tout à fait colossal, ces boîtes noires qu'on construit,
00:26:34 qui programment ces fonctions probabilistes dont je parlais,
00:26:38 sont tout à fait énormes sur un plan informatique.
00:26:42 Alors, revenons au problème des réglages fins.
00:26:48 Les fonctions probabilistes telles qu'elles sont obtenues,
00:26:53 après la phase d'utilisation des corpus de texte,
00:26:57 ne sont pas, elles seules, en mesure de produire tous les dialogues
00:27:00 comme on les attend. Il faut ajouter un certain nombre de choses,
00:27:03 éventuellement d'ailleurs aussi pour les contrôler.
00:27:06 Alors, donc, il y a des méthodes, on utilise des méthodes
00:27:09 qui font intervenir des êtres humains, pour le coup,
00:27:12 cette fois-ci, ça va être de l'apprentissage supervisé,
00:27:15 donc c'est une phase qui vient ultérieurement,
00:27:18 qui est pour le coup supervisée par des êtres humains,
00:27:21 et en particulier, une des méthodes qui est utilisée,
00:27:24 c'est de faire évaluer les réponses qui sont produites,
00:27:27 et de demander aux humains qui les examinent,
00:27:30 de les classer par ordre de préférence.
00:27:33 Donc, on fait afficher les cinq premières réponses
00:27:36 du point de vue des probabilités qui sont les produites
00:27:40 par la fonction probabiliste, et puis l'être humain les classe,
00:27:45 et dit, celle-là est la meilleure, etc., et ça, ça permet
00:27:48 de modifier encore un petit peu les paramètres du réseau,
00:27:51 et ça s'appelle le RLHF,
00:27:54 donc le renforcement de l'apprentissage par réaction humaine.
00:27:59 Cette phase, elle est assez importante,
00:28:02 et elle mobilise des milliers d'heures de travail humain,
00:28:05 et par exemple, l'AMA2 de Meta, qui a indiqué avec précision
00:28:09 combien il y avait eu d'opérations qui avaient été faites
00:28:14 dans cette phase-là, évoque l'idée d'un million
00:28:17 d'interventions humaines qui ont été opérées justement
00:28:20 pour cette phase d'ajustement du réseau.
00:28:24 Et ces interventions humaines sont faites dans des endroits
00:28:29 où ce n'est pas trop cher, donc on utilise une méthode,
00:28:33 une main d'œuvre à faible coût pour faire cette phase-là.
00:28:37 Comme les calculs sont aussi très chers,
00:28:41 je n'ai pas évoqué ce problème du coût des calculs,
00:28:44 on arrive à des mises au point, ce sont les mêmes,
00:28:47 qui se comptent en millions de dollars.
00:28:50 Tout le monde ne peut pas faire ça,
00:28:53 il y a un problème d'investissement qui est colossal.
00:28:56 Je ne parle pas ici des dépenses électriques qui sont associées à ça,
00:29:00 mais il y a des dépenses électriques absolument non négligeables
00:29:03 pour la phase de prise en compte des corpus de texte.
00:29:09 Il y a une autre méthode qui est utilisée,
00:29:12 qui est très importante dans le peaufinement du système,
00:29:18 c'est la méthode des promptes cachées.
00:29:21 Quand vous dialoguez avec un système comme le GPT4 ou 3,
00:29:27 pour lui, le contexte qu'il va chercher à prolonger avec des mots,
00:29:34 ce n'est pas seulement celui que vous créez,
00:29:37 la phrase ou la question que vous posez,
00:29:40 ce n'est pas seulement non plus les échanges que vous avez eus
00:29:43 dans le dialogue précédent,
00:29:47 vous avez posé déjà 2, 3, 4 questions,
00:29:50 ça va faire partie du prompt,
00:29:53 mais il y a d'autres choses qui sont ajoutées,
00:29:56 qui sont des promptes cachées,
00:29:59 qui vont être des consignes générales,
00:30:02 puisque ça va être uniquement sous la forme d'un texte qui est rajouté,
00:30:07 et qui vont fournir des indications à la fonction probabiliste
00:30:15 pour faire un résumé quand vous lui demandez de faire un résumé,
00:30:19 faire une traduction quand vous lui demandez de faire une traduction,
00:30:22 ça va le guider.
00:30:24 C'est le tout qui constitue le vrai prompt
00:30:27 qui est utilisé par la fonction probabiliste.
00:30:30 Cette méthode des promptes s'est révélée être d'une efficacité étonnante,
00:30:35 les gens qui ont essayé ça,
00:30:38 qui ont travaillé là-dessus, ont été étonnés de l'efficacité,
00:30:42 et en particulier ça évite de faire des programmations spécifiques,
00:30:45 par exemple pour avoir un LMM qui fasse de la traduction,
00:30:48 un autre qui répond en faisant des résumés, etc.
00:30:53 Ça n'est pas la peine, il suffit de faire un bon prompt caché
00:30:57 qui va bien orienter et compléter tout ce que vous pourrez faire
00:31:04 pour que ça réponde dans le sens que vous attendez.
00:31:08 Il y a un nouveau métier qui s'appelle prompt engineer
00:31:11 qui est associé à cette idée de rédiger ces fameux compléments.
00:31:18 Le but des réglages fins, ce n'est pas seulement d'améliorer,
00:31:23 c'est aussi de contrôler ce que fait le chatbot,
00:31:31 en particulier d'obtenir des réponses qui ne soient ni trop agressives,
00:31:36 ni inconvenantes, etc.
00:31:39 Et puis aussi de faire que le chatbot refuse de répondre à certaines questions
00:31:43 du genre comment fabriquer une bombe bactériologique ou d'autres choses.
00:31:47 L'effet global que ça a en général, c'est que ça amolie un peu le ton,
00:31:52 et des réponses qui sont produites qui sont souvent bien gentilles,
00:31:59 bien veillantes, etc.
00:32:01 Et puis un petit peu bavardes souvent aussi.
00:32:04 Donc un LMM résulte d'une énorme quantité de textes humains,
00:32:10 de beaucoup de calculs, suivis à nouveau d'un travail humain considérable.
00:32:13 Donc quelque chose qu'il faut bien comprendre,
00:32:16 c'est que ces IA doivent beaucoup à l'intelligence humaine.
00:32:21 L'intelligence des chatbots n'est pas celle objective, rigoureuse et rationnelle
00:32:25 qu'on pourrait imaginer présente dans un robot,
00:32:27 qui se serait constitué lui-même,
00:32:30 mais elle est commandée, orientée par les volontés humaines,
00:32:33 en particulier dans la phase finale de fine tuning,
00:32:39 et qui pourrait les façonner autrement.
00:32:41 Donc il ne faut pas se faire d'illusions,
00:32:44 c'est quelque chose qui est extrêmement humain.
00:32:47 Dans la façon dont c'est conçu, puisque c'est conçu à partir de textes,
00:32:50 et puis dans la façon dont se déroule la dernière phase,
00:32:55 puisque c'est des ajustements qui sont faits pour éviter
00:32:59 qu'on réponde aux questions sur les bombes bactériologiques,
00:33:04 ou je ne sais quoi.
00:33:06 Et vu la façon dont c'est constitué,
00:33:12 et vu ce que sont ces fonctions probabilistes qui déterminent ces LMM,
00:33:19 en fait ce sont des systèmes dont on ne sait pas finalement
00:33:25 comment ils fonctionnent précisément.
00:33:27 Ce sont des grandes boîtes noires, miraculeuses,
00:33:30 puisqu'elles font des choses extraordinaires,
00:33:32 mais quand on lui pose une question,
00:33:34 pourquoi elle répond de cette façon-là,
00:33:36 on ne peut pas en avoir le détail,
00:33:38 puisque c'est le fonctionnement du réseau qui produit la réponse,
00:33:41 et en fait on peut agir en quelque sorte en modifiant de prompt,
00:33:47 mais on ne peut pas modifier les paramètres dans un sens très précis
00:33:52 en ayant une analyse a priori de ce que ça va produire.
00:33:57 Donc ce sont vraiment des boîtes noires,
00:34:00 et ça c'est quelque chose qui est un petit peu étonnant,
00:34:03 voire peut-être inquiétant,
00:34:05 puisque ce sont des fonctions probabilistes qui font des choses extraordinaires,
00:34:11 mais au bout du compte on ne sait pas trop pourquoi,
00:34:14 on sait comment il faut faire pour que ça fasse des choses extraordinaires,
00:34:17 mais on ne sait pas finalement dans le détail ce qui se passe dans cette boîte
00:34:21 quand on lui pose une question et que ça produit une certaine réponse.
00:34:25 Alors Yann Lequin, qui est français et qui a été titulaire de la chaire
00:34:39 Informatique et Sciences du numérique au Collège de France,
00:34:42 et qui est directeur de la recherche sur l'IA chez META,
00:34:45 dit des choses tout à fait intéressantes sur ce qu'il ne faut pas croire que sont les LMM.
00:34:53 Il dit la chose suivante,
00:34:55 "Quand quelqu'un ou quelque chose est capable de parler,
00:34:58 on lui attribue automatiquement de l'intelligence, mais c'est une erreur.
00:35:02 On peut manipuler la langue sans penser et sans être intelligent."
00:35:06 C'est un peu étonnant comme phrase.
00:35:09 "Les capacités d'apprentissage des systèmes d'intelligence artificielle d'aujourd'hui
00:35:13 sont très en deçà de ce qu'on observe chez les humains et même chez les animaux.
00:35:17 Ces systèmes compensent leur faiblesse de raisonnement
00:35:19 par une accumulation de connaissances tirées de tous les textes possibles du web,
00:35:23 ou presque tous,
00:35:25 leur connaissance du monde, en particulier du monde physique, est réduite.
00:35:29 Ils n'ont aucune notion de la réalité, ils ne connaissent que du texte,
00:35:36 alors que la grande majorité des connaissances humaines est non linguistique."
00:35:40 Et il rajoute,
00:35:43 "Pour créer des assistants guidant les humains dans leur interaction avec le monde numérique,
00:35:48 la technologie doit atteindre les capacités humaines de planification,
00:35:52 de raisonnement, de mémoire, ou encore de bon sens."
00:35:57 Et il ajoute, "Ce qui est totalement hors des possibilités des LMM."
00:36:01 Alors tout le monde n'est pas aussi réservé, voire négatif vis-à-vis des LMM,
00:36:08 mais cette phrase est quand même tout à fait remarquable.
00:36:11 Il pense qu'un certain nombre de progrès,
00:36:14 et en particulier concernant le bon sens,
00:36:16 ces choses-là, sont hors des possibilités des LMM.
00:36:20 On peut rajouter, et ça c'est moi qui le rajoute, c'est pas lui,
00:36:24 il semble qu'un LMM ne possède aucune notion de vérité,
00:36:29 et qu'il ne dispose pas du tout d'un modèle du monde,
00:36:31 comme nous en avons en tête, qui nous permette de savoir que,
00:36:35 je sais pas, une voiture roule dans la rue, etc.
00:36:39 Les LMM sont miraculeux, mais nul ne sait finalement vraiment pourquoi.
00:36:43 Les LMM ne peuvent pas en général expliquer précisément leurs réponses.
00:36:48 Si vous leur demandez de les expliquer, de leur expliquer leurs réponses,
00:36:51 ils vont vous donner une explication,
00:36:53 mais en fait ça n'indique absolument pas le cheminement
00:36:58 du fonctionnement, le détail du fonctionnement du réseau de drones,
00:37:03 qui fait que la réponse a été produite.
00:37:06 Donc il y a quelque chose qui est un petit peu gênant
00:37:09 dans cette incapacité de savoir exactement ce qui se passe dans la boîte noire,
00:37:14 qu'est le LMM.
00:37:16 Quand le nombre de paramètres d'un LMM dépasse un certain seuil,
00:37:20 on observe des phénomènes d'émergence de capacités nouvelles.
00:37:23 On ne sait pas très bien l'expliquer.
00:37:25 Par exemple, quand vous avez un LMM qui a assez peu de paramètres,
00:37:30 si vous lui demandez de faire des multiplications,
00:37:32 je ne sais pas, 12x12=144, il risque de se tromper,
00:37:36 parce que la façon dont il fonctionne
00:37:39 ne va pas tomber nécessairement sur la bonne réponse.
00:37:43 Par contre, quand vous allez augmenter le nombre de paramètres,
00:37:45 à un moment donné, au moins pour certains types d'opérations
00:37:48 comme celle que j'évoque, des multiplications, des choses comme ça,
00:37:52 à ce moment-là, il va se mettre à fonctionner correctement.
00:37:54 Donc il y a ces phénomènes d'émergence.
00:37:56 Pour d'autres choses, ça a été étudié,
00:37:59 mais expliqué, ça n'a pas été expliqué d'une certaine façon.
00:38:03 On le constate.
00:38:05 Alors, qu'est-ce qui explique aussi,
00:38:08 d'une manière un peu plus générale sur un plan informatique,
00:38:13 que le progrès soit venu depuis cinq ans
00:38:18 et ne se soit pas produit en l'an 2000 ou en 1990,
00:38:23 ou je ne sais quoi ?
00:38:25 En fait, il y a trois raisons,
00:38:27 et je pense qu'elles sont toutes les trois importantes.
00:38:31 En fait, on peut disposer de quantités d'informations
00:38:35 aujourd'hui bien plus importantes qu'autrefois,
00:38:38 à cause d'Internet et de la facilité d'utiliser des réseaux
00:38:43 et de collecter et d'enregistrer sur des supports informatiques
00:38:47 pas très chers aujourd'hui pour conserver des quantités
00:38:50 très importantes d'informations.
00:38:51 Donc, la capacité à stocker des textes,
00:38:56 donc les langages, les textes qui sont utilisés
00:39:05 pour la formation des réseaux, c'est important.
00:39:09 Ensuite, il y a un progrès dans le savoir-faire informatique,
00:39:12 le savoir-faire algorithmique que j'ai évoqué,
00:39:15 et puis il y a une capacité de calcul qui aussi est très importante
00:39:19 pour que tout ce qu'on doit faire dans la phase d'apprentissage
00:39:22 puisse être fait en un temps raisonnable.
00:39:24 Donc, il y a une société dont vous avez sans doute entendu parler,
00:39:27 NVIDIA, qui est considérée par Wikipédia
00:39:30 comme le fournisseur dominant de matériel et de logiciel
00:39:34 qui est le grand bénéficiaire de l'exigence,
00:39:38 de l'exigence de grande capacité de calcul de l'IA.
00:39:41 Et sa capitalisation, j'ai regardé ça hier,
00:39:45 elle est de 2200 milliards de dollars à comparer
00:39:49 aux 2600 milliards de dollars d'Apple.
00:39:53 Donc ça rattrape presque Apple.
00:39:56 Un problème que je n'ai pas évoqué jusqu'à présent,
00:40:00 c'est le problème du manque de fiabilité des réponses qui sont obtenues.
00:40:04 Dans le sens que, quand vous posez une question à un LMM,
00:40:08 vous obtiendrez des informations fausses,
00:40:11 délirantes ou partiellement inexactes,
00:40:15 on parle d'hallucinations à propos de ça.
00:40:18 Pour obtenir des informations sûres aujourd'hui,
00:40:21 je pense qu'il vaut mieux toujours utiliser Wikipédia.
00:40:24 Et pour le raisonnement logique, je vais donner des exemples tout à l'heure,
00:40:27 et les mathématiques, ces chatbots-là ne se conviennent pas vraiment.
00:40:30 Je vais donner des exemples.
00:40:32 On peut penser que ces défauts seront progressivement corrigés,
00:40:36 donc qu'on arrivera à éliminer les hallucinations.
00:40:39 Il y a un article que je mentionne ici,
00:40:42 qui pense que c'est dans la nature des LMM de produire ces erreurs.
00:40:47 Et Yann Lequin, à nouveau, pessimiste comme toujours,
00:40:51 pense que ces hallucinations sont inévitables.
00:40:55 J'arrive à la deuxième partie de mon exposé,
00:40:59 mais les autres sont un peu plus courtes, heureusement.
00:41:02 Je vais donner des exemples de dialogue.
00:41:05 J'ai essayé divers chatbots, chatGPT, BARD, etc.
00:41:11 Ils sont tous capables du type de réponse que je vais indiquer.
00:41:18 Et puis n'oublions pas que si vous voulez recommencer,
00:41:21 vous obtiendrez d'autres réponses,
00:41:23 puisque les réponses dépendent de facteurs aléatoires.
00:41:26 Certaines des questions que j'ai posées,
00:41:29 et des mauvaises réponses que j'ai obtenues,
00:41:32 et parfois, aujourd'hui, il y a des gens qui m'ont écrit,
00:41:35 j'ai publié un article pour la science,
00:41:38 auquel vous pourrez accéder,
00:41:40 m'ont dit que maintenant les réponses étaient meilleures.
00:41:43 On va en reparler.
00:41:45 Alors, j'ai classé les divers exemples que je donne en trois catégories.
00:41:50 Donc, les merveilleuses réponses.
00:41:52 Vous posez une question du genre,
00:41:54 "Quelle est la ville la plus peuplée de France ?"
00:41:56 Il va vous répondre, "La ville la plus peuplée de France est Paris",
00:41:59 c'est une population de je ne sais pas quoi.
00:42:02 Parfait, rien à dire.
00:42:04 La plupart des chatbox,
00:42:06 tous les chatbox répondent correctement.
00:42:09 Certains précisent que les données qu'ils utilisent
00:42:11 ne sont valables qu'à une certaine date.
00:42:14 Autre question, plus créative.
00:42:18 On demande aux chatbox,
00:42:20 "Imagine une histoire très courte avec un chat, un avion et une femme."
00:42:24 Je ne vais pas vous la lire toute entière,
00:42:26 mais l'histoire qu'ils racontent,
00:42:29 la réponse qu'ils donnent est tout à fait satisfaisante.
00:42:31 D'accord, voici une histoire très courte avec un avion et un chat.
00:42:34 Le voyage de Marie...
00:42:36 Alors, je n'arrive pas à lire ce qu'il y a sur le côté,
00:42:38 mes transparences sont un peu bizarres.
00:42:40 Le voyage de Marie et de son chat.
00:42:47 Marie et son chat,
00:42:50 Luna s'apprêtent à embarquer dans un avion
00:42:53 pour un long voyage, etc.
00:42:55 Vous le lirez tranquillement à partir de mes transparences, si vous voulez.
00:42:59 C'est étonnant, c'est une histoire qui a tout à fait un sens,
00:43:02 une cohérence, ça semble très bien.
00:43:05 Ce n'est pas très intéressant, mais c'est très bien.
00:43:08 Question plus technique,
00:43:10 "Peut-on considérer que le Bitcoin est une monnaie ?"
00:43:12 Alors, le statut du Bitcoin en tant que monnaie
00:43:15 est sujet à débat.
00:43:16 Certaines personnes considèrent que le Bitcoin
00:43:18 est comme une forme de monnaie,
00:43:19 tandis que d'autres le voient davantage
00:43:21 comme un actif numérique ou une réserve de valeur.
00:43:24 Je n'ai pas mis toute la réponse.
00:43:27 En gros, la réponse est satisfaisante,
00:43:30 y compris la partie que je n'ai pas recopiée.
00:43:32 Sur une question comme ça,
00:43:34 ce qu'il dit est tout à fait correct.
00:43:37 Une question plus technique, physique,
00:43:41 c'est un piège qu'on fait aux enfants.
00:43:44 Si on fait tomber, en même temps, du dixième étage
00:43:48 un immeuble en oriller en plume de 200 grammes
00:43:50 et un cube massif en acier de 200 grammes,
00:43:52 lequel arrive au sol en premier ? Pourquoi ?
00:43:55 Alors, il répond,
00:43:58 l'oriller en plume et le cube arriveront au sol en même temps,
00:44:01 en effet, en l'absence de résistance d'air,
00:44:03 il précise bien, heureusement,
00:44:05 tous les objets, etc.
00:44:08 Il ne tombe pas dans le piège.
00:44:11 Et donc, il fournit une réponse
00:44:13 où il semble bien comprendre cette histoire
00:44:16 de la chute des corps,
00:44:19 en précisant bien en absence d'air.
00:44:20 Il aurait pu faire une réponse un peu plus subtile
00:44:22 en disant qu'à cause de la résistance de l'air,
00:44:25 l'oriller en plume arrivera plus tard,
00:44:27 mais non, ce n'était pas normal.
00:44:30 Alors, une question aussi de logique élémentaire,
00:44:33 si Alain arrive à la réunion avant Bernard
00:44:35 et que Claire arrive avant Bernard,
00:44:37 peut-on déduire qu'Alain arrive avant Claire ?
00:44:40 Alors, réfléchissez deux secondes,
00:44:42 non, il répond tout à fait correctement.
00:44:45 Il dit que les informations fournies
00:44:47 indiquent seulement l'ordre d'arrivée par rapport à Bernard,
00:44:50 mais elles ne donnent pas d'indication directe
00:44:52 sur l'ordre d'arrivée entre Alain et Claire, etc.
00:44:54 Donc, on ne peut pas répondre.
00:44:56 La réponse est absolument parfaite et étonnante.
00:45:00 Deuxième catégorie de questions,
00:45:05 un peu décevant,
00:45:06 propose-moi une blague avec un cheval et un canard.
00:45:09 Je ne vous lis même pas la blague
00:45:10 parce que ce n'est vraiment pas drôle,
00:45:12 et je n'ai jamais réussi à obtenir de blague très drôle
00:45:14 en posant des questions de ce type-là.
00:45:17 Deuxième exemple un peu décevant,
00:45:19 c'est un peu plus technique,
00:45:21 je ne sais pas si certains d'entre vous connaissent
00:45:27 assez de logique et des problèmes liés à Kurt Godel
00:45:30 et à l'hypothèse du continu,
00:45:31 mais je vais vous dire ce qu'il fallait répondre.
00:45:34 Kurt Godel, croyait-il que l'hypothèse du continu
00:45:36 est une information vraie en théorie des ensembles ?
00:45:39 Voilà la question.
00:45:40 Alors, il répond,
00:45:41 Kurt Godel, le célèbre mathématicien et logicien autrichien,
00:45:44 bon, à la fin de sa vie, il n'était pas autrichien,
00:45:46 il était américain,
00:45:47 ne croyait pas que l'hypothèse du continu
00:45:49 était une information vraie en théorie des ensembles.
00:45:52 Au contraire, Kurt Godel a démontré
00:45:54 que l'hypothèse du continu était indépendante
00:45:56 des axiomes standards de la théorie des ensembles.
00:45:59 Alors, ce n'est pas mal,
00:46:01 sauf que ce n'est pas Godel qui a démontré tout seul
00:46:05 que l'hypothèse du continu était indépendante
00:46:07 des axiomes de la théorie des ensembles,
00:46:09 ZF ou ZFC.
00:46:11 Il a fait la moitié du travail,
00:46:13 l'autre moitié a été faite par Paul Cohen en 1963,
00:46:16 et donc ce qu'il répond, strictement, c'est faux.
00:46:20 Voilà.
00:46:21 Et puis le au contraire,
00:46:23 il a démontré que l'hypothèse du continu
00:46:25 était indépendante des axiomes,
00:46:27 le au contraire, il n'est pas très bienvenu non plus,
00:46:29 puisque Godel, lui, pensait qu'il y avait une réponse
00:46:32 à la question de l'hypothèse du continu,
00:46:34 et que, donc, démontrer que c'est indépendant
00:46:37 par rapport aux axiomes de ZF ou ZFC,
00:46:40 ça ne signifie pas que c'est vrai ou faux,
00:46:45 Godel pense qu'il y a une vérité
00:46:47 de l'hypothèse du continu,
00:46:49 et donc, voilà, il ne comprend pas bien,
00:46:51 il dit les choses à moitié.
00:46:53 Alors, plus grave, c'est ce genre de questions
00:46:56 où il se plante.
00:46:58 Alors, à nouveau, il y a des gens qui m'ont écrit,
00:47:01 après la publication de l'article de la Pôle de la science,
00:47:03 et qui m'ont dit qu'ils ont posé la question
00:47:05 et ils ont obtenu une bonne réponse.
00:47:07 "Si non A implique B, est-il vrai que non B implique A ?"
00:47:12 Bon, ça c'est du calcul propositionnel élémentaire,
00:47:15 et en fait c'est simplement la contraposée.
00:47:17 Mais c'est la contraposée, non pas en disant
00:47:21 "Si A implique B, est-ce que ça a pour conséquence
00:47:25 que non B implique non A ?"
00:47:27 Mais c'est juste en changeant le A par non A.
00:47:32 Et donc, il devrait dire oui.
00:47:34 Et puis il répond non, et puis il donne une sorte de justification
00:47:37 que je ne vous lis pas en détail, mais qui est totalement inepte et stupide.
00:47:43 Et alors l'erreur est assez étonnante,
00:47:45 parce que quand on lui pose la question
00:47:47 "Si A implique B, est-il vrai que non B implique non A ?"
00:47:50 Là, il répond correctement.
00:47:51 Et si on lui pose la question "Est-il vrai que A est équivalent à non A ?"
00:47:54 Il répond correctement.
00:47:56 Donc il a apparemment la capacité à connaître
00:47:59 les deux éléments de base qui permettent de répondre correctement à la question,
00:48:03 mais il ne répond pas correctement.
00:48:04 Et il n'est pas capable, du moins celui que j'ai utilisé pour ça,
00:48:08 de faire une réponse correcte.
00:48:10 J'ai refait un essai samedi dernier avec un chat GPT,
00:48:16 avec une question un petit peu plus compliquée, mais du même genre,
00:48:19 et il s'est planté.
00:48:21 Donc, il ne faut pas trop faire confiance concernant la logique élémentaire elle-même.
00:48:28 "Le double d'un entier paire, est-il toujours un nombre entier paire ?"
00:48:33 Alors, la question est assez simple.
00:48:36 Il faut répondre oui.
00:48:37 Alors, il répond oui correctement,
00:48:39 mais ce qui est bizarre, c'est que dans ses commentaires,
00:48:42 il finit par dire des bêtises absolument inouïes,
00:48:45 que je l'ai mis en gras.
00:48:46 Il dit "En revanche, le double d'un nombre entier impaire
00:48:49 est toujours un nombre entier impaire.
00:48:52 Par exemple, le double de 3 est 6,
00:48:55 qui est un nombre entier impaire.
00:48:58 C'est inouï qu'il écrive une chose comme ça.
00:49:02 Alors, d'autres erreurs encore,
00:49:06 peut-être plus franches et plus nettes.
00:49:11 Je signale qu'il y a des gens qui collectent les erreurs obtenues,
00:49:15 et j'ai indiqué une référence,
00:49:17 et puis il y a aussi le site de Jean-François Colonna
00:49:20 qui s'est amusé aussi à poser des questions de maths
00:49:22 et à le faire se planter.
00:49:24 Une question aussi de connaissance,
00:49:27 une configuration du jeu de la vie de Conway,
00:49:30 peut-elle engendrer la suite de tous les nombres premiers ?
00:49:33 Il répond non, alors que la réponse est oui.
00:49:36 Et ce qui est plus bizarre, quand on analyse sa réponse,
00:49:40 c'est qu'en fait, il donne des arguments
00:49:42 qui sont totalement bizarres et inopérants.
00:49:47 En fait, ce qu'il dit est assez stupide.
00:49:51 Donc c'est étonnant.
00:49:52 Donc il ne connaît pas la réponse,
00:49:54 alors qu'on la trouve sur Internet assez facilement.
00:49:56 Donc il n'est pas capable d'avoir assimilé
00:49:59 toutes ces choses qu'il a pourtant "eues"
00:50:02 dans sa phase de formation.
00:50:04 Et en plus, il trouve des arguments
00:50:07 qui sont complètement foireux
00:50:09 pour justifier la réponse fausse qu'il donne.
00:50:11 Un peu bizarre.
00:50:13 Alors, concentrez-vous là une seconde,
00:50:17 et imaginez que je vous pose la question.
00:50:20 Est-il vrai que tout homme est rouge
00:50:22 et que Jean n'est pas un homme ?
00:50:24 Est-il vrai que Jean n'est pas rouge ?
00:50:27 Si vous avez un peu de logique, j'imagine que oui.
00:50:31 Vous savez que non, on ne peut pas en déduire
00:50:33 que Jean n'est pas rouge.
00:50:35 Ce n'est pas parce que tout...
00:50:37 Bon, je vous donne un petit détail,
00:50:39 vous avez compris vous-même.
00:50:41 La réponse est évidemment non.
00:50:43 On ne peut pas en déduire que Jean n'est pas rouge.
00:50:45 Et pourtant, il dit que oui,
00:50:47 et puis il donne une sorte de justification
00:50:49 totalement inepte et stupide.
00:50:51 Autre question un peu du même genre,
00:50:53 où il se plante totalement.
00:50:55 Après avoir dit des choses pourtant justes,
00:50:58 et puis avoir montré qu'il comprenait bien la question,
00:51:00 est-ce que le nombre 3 à la puissance 10
00:51:02 est un nombre impair ?
00:51:04 Et samedi, j'ai reposé la question,
00:51:06 et j'ai obtenu, alors pas avec 3 à la puissance 10,
00:51:08 mais j'ai pris une autre question,
00:51:10 je crois que j'ai pris 13 à la puissance 100,
00:51:12 mais le problème est le même.
00:51:14 Quand on multiplie deux nombres impairs entre eux,
00:51:16 on obtient un nombre impair,
00:51:18 et quand on en multiplie 10 entre eux,
00:51:20 donc 3 fois 3 fois 3,
00:51:22 on obtient un nombre impair,
00:51:24 c'est de la arithmétique élémentaire.
00:51:26 Donc, il répond correctement.
00:51:28 Est-ce que c'est un nombre impair ?
00:51:30 Non, il répond incorrectement,
00:51:32 puisqu'il répond non.
00:51:34 Et puis il donne des explications,
00:51:36 et puis il dit que 3 à la puissance 10
00:51:38 est un nombre impair,
00:51:40 et pas impair, etc.
00:51:42 Donc il dit n'importe quoi.
00:51:44 Et ça, on comprend un petit peu pourquoi.
00:51:46 C'est que la façon dont fonctionne l'apprentissage
00:51:50 fait qu'en fait, il ne raisonne pas,
00:51:52 il ne comprend pas ce que c'est
00:51:54 qu'une multiplication de deux nombres impairs, etc.
00:51:57 Il va juste chercher les éléments de phrase
00:51:59 dans les textes qu'il a trouvés,
00:52:02 ou qu'il a utilisés pour manipuler
00:52:05 la notion de nombre impair,
00:52:07 et il se trompe.
00:52:09 Donc voilà.
00:52:11 Alors, plus étonnant encore,
00:52:14 quels sont les nombres premiers multiples de 3,
00:52:17 vous avez bien entendu,
00:52:19 entre 100 et 200 ?
00:52:21 Et il répond, il n'y a qu'un nombre premier
00:52:23 multiple de 3 entre 100 et 200,
00:52:25 c'est 101.
00:52:27 Ce qui est absurde,
00:52:29 puisque 101 n'est pas un multiple de 3
00:52:31 comme chacun le sait.
00:52:33 Donc tout est faux, et sa justification est fausse,
00:52:35 c'est quand même très étonnant.
00:52:37 Et puis un piège que j'ai refait,
00:52:39 que j'ai réutilisé samedi dernier
00:52:41 pour voir si ça marchait bien
00:52:43 et ça a été...
00:52:45 C'est le piège suivant,
00:52:47 qui est assez élémentaire.
00:52:49 Si A et B sont deux nombres entiers
00:52:51 plus grands que 1,
00:52:53 et que A=B,
00:52:55 peut-on en déduire que
00:52:57 A+1^B=B+1^A ?
00:53:01 Alors si vous avez un tout petit peu de logique,
00:53:03 même sans être...
00:53:05 ...
00:53:07 ...expérimenté,
00:53:09 et en faisant
00:53:11 de longues études de maths,
00:53:13 vous voyez bien tout de suite que oui,
00:53:15 si A=B, A+1^B
00:53:17 c'est pareil que B+1^A.
00:53:19 Et bien ils répondent non.
00:53:21 Et puis le plus drôle, et c'est toujours comme ça
00:53:23 avec les LMM, c'est qu'ils trouvent une justification.
00:53:25 Ils vous expliquent pourquoi.
00:53:27 Ils se trompent, ils expliquent pourquoi.
00:53:29 Et ce type de question,
00:53:31 vous pouvez l'essayer de votre côté,
00:53:33 vous verrez, ça marche toujours.
00:53:35 Tous les chatbox que j'ai essayés,
00:53:37 aucun ne réussit à répondre correctement à cette question-là.
00:53:39 [Réfléxion]
00:53:41 Troisième partie de mon exposé,
00:53:43 il me reste un quart d'heure.
00:53:45 L'IA génératrice d'images.
00:53:47 Alors,
00:53:49 pour moi c'est la nouveauté la plus extraordinaire,
00:53:51 et qui est aussi totalement miraculeuse,
00:53:53 on n'arrive pas à comprendre,
00:53:55 et quand on demande des explications aux gens qui travaillent là-dedans,
00:53:57 eux-mêmes d'une certaine façon,
00:53:59 ne prétendent pas vraiment comprendre pourquoi
00:54:01 on obtient des résultats comme ça.
00:54:03 Donc ce sont des images
00:54:05 qui vont engendrer des
00:54:07 IA
00:54:09 qui vont engendrer des images à partir du texte.
00:54:11 Et on va obtenir
00:54:13 des choses d'une qualité étonnante.
00:54:15 Alors,
00:54:17 le principe général, c'est de nourrir
00:54:19 les IA avec une multitude d'images
00:54:21 annotées, pour le coup elles vont être annotées,
00:54:23 éventuellement annotées automatiquement
00:54:25 en allant chercher des sortes d'annotations
00:54:27 sur le web.
00:54:29 L'IA en déduit
00:54:31 une idée,
00:54:33 une certaine compréhension
00:54:35 de ce qu'un humain juge
00:54:37 beau et intéressant, mais surtout,
00:54:39 l'IA en déduit la façon dont nous établissons
00:54:41 des liens entre les images et les
00:54:43 suites de mots. Pas les mots individuels,
00:54:45 les suites de mots, donc les phrases,
00:54:47 les...
00:54:49 Dotées de cette compréhension,
00:54:51 donc qui est comparable
00:54:53 à celle qu'un humain a
00:54:55 des rapports qu'il y a entre les mots,
00:54:57 les suites de mots et les images,
00:54:59 la machine va être capable
00:55:01 de transformer nos mots en belles images.
00:55:03 Alors, la phase
00:55:05 d'apprentissage va consister
00:55:07 à nourrir l'IA d'un très
00:55:09 grand nombre de couples textes-images.
00:55:11 Alors,
00:55:13 ici il y a une confusion qu'il ne faut pas faire, c'est
00:55:15 depuis longtemps il existe
00:55:17 des systèmes qui, lorsque vous leur
00:55:19 montrez une image, vous disent "ça c'est un char,
00:55:21 ça c'est une voiture, ça c'est un
00:55:23 camion, ça c'est un immeuble, etc."
00:55:25 En fait, ces systèmes-là ont été
00:55:27 effectivement formés,
00:55:31 ont subi une phase d'apprentissage
00:55:33 où on leur a donné des couples
00:55:35 textes-images,
00:55:37 mais une image,
00:55:39 un mot.
00:55:41 Et ils ont effectivement appris
00:55:43 à reconnaître
00:55:45 ces couples, et donc quand vous leur
00:55:47 posez une image qu'ils n'ont jamais vue
00:55:49 où il y a un arbre, ils vous disent que c'est un arbre,
00:55:51 etc. Donc, c'est pas...
00:55:53 Ça, on sait le faire
00:55:55 depuis assez longtemps, ce qui a été fait
00:55:57 depuis 4-5 ans, c'est beaucoup plus que ça.
00:55:59 Et je vais parler
00:56:01 de CLIP,
00:56:03 qui est
00:56:05 le noyau
00:56:07 principal
00:56:09 du générateur d'images qui s'appelle
00:56:11 DALI.
00:56:13 Donc, je vais indiquer les références si vous voulez
00:56:15 aller voir de plus près.
00:56:17 Donc l'apprentissage de CLIP se fait
00:56:19 en lui présentant une image
00:56:23 et une description.
00:56:25 Donc par exemple, une image d'un chien tenu en laisse
00:56:27 par son maître, et
00:56:29 un chien tenu en laisse par son maître.
00:56:31 Donc le réseau va ajuster
00:56:33 ses paramètres. Donc ça ressemble à ce que j'étais
00:56:35 en train d'évoquer il y a quelques secondes.
00:56:37 Lorsqu'on lui montrera
00:56:39 la même image, il validera
00:56:41 le coup. On lui montre
00:56:43 un très grand nombre de couples de ce type-là.
00:56:45 On lui présente aussi des couples incorrects
00:56:47 que le réseau apprend à considérer
00:56:49 comme tels.
00:56:51 Donc, les couples proposés pour l'apprentissage
00:56:53 ont été trouvés sur Internet,
00:56:55 et là encore, les quantités
00:56:57 d'informations utilisées,
00:56:59 les quantités de couples utilisées
00:57:01 sont absolument faramineuses.
00:57:03 400 millions de couples texte-image ont été utilisés.
00:57:05 Il existe
00:57:07 pour d'autres
00:57:09 développements,
00:57:11 des bases où il y a des
00:57:13 couples qui ont été soigneusement
00:57:15 annotés par les humains,
00:57:17 et le plus gros
00:57:19 ensemble de couples comme ça qui a été annoté
00:57:21 par les humains, il comporte 14 millions
00:57:23 de couples texte-image.
00:57:25 Dans le cas de Clips, les couples ont été
00:57:27 recherchés
00:57:29 automatiquement sur Internet.
00:57:31 J'imagine, mais je n'ai pas de détails
00:57:35 là-dessus, par un
00:57:37 procédé de proximité.
00:57:39 Il y a une image, il y a quelques mots
00:57:41 à côté, on considère que les deux choses sont
00:57:43 liées l'une à l'autre, et comme ça
00:57:45 on a pu en trouver non pas seulement 14 millions
00:57:47 si on avait utilisé
00:57:49 les couples qui étaient
00:57:51 annotés à la main, mais on en trouve
00:57:53 400 millions.
00:57:55 À nouveau, on peut comparer à ce que
00:57:57 pourrait
00:57:59 comprendre un être humain.
00:58:01 Si un être humain regarde 1000 images chaque jour
00:58:03 avec une certaine description
00:58:05 pendant 10 ans, il en aura
00:58:07 au bout de 10 ans
00:58:09 vu que
00:58:11 4 millions.
00:58:13 Donc 100 fois moins que les 400 millions de couples
00:58:15 texte-image qui ont été
00:58:17 utilisés par Clips.
00:58:19 Ensuite, Clips
00:58:21 utilise un encodeur de texte
00:58:23 qui associe à chaque texte une série
00:58:25 de nombres qui constituent un point dans un espace
00:58:27 qu'on appelle l'espace sémantique.
00:58:29 Ce que permet
00:58:31 la phase d'apprentissage
00:58:33 c'est de lier
00:58:35 les éléments de cet
00:58:37 espace sémantique qui contiennent à la fois
00:58:39 des
00:58:41 ensembles de nombres qui représentent
00:58:43 des images et des ensembles de nombres
00:58:45 qui représentent des
00:58:47 bouts de texte.
00:58:49 L'apprentissage de Clips établit un lien
00:58:51 entre les images et les textes.
00:58:53 On obtient un
00:58:55 espace sémantique qui est commun
00:58:57 pour le texte et les images.
00:58:59 On parle de plongement quand on parle
00:59:01 de cette méthode-là.
00:59:03 L'espace sémantique est structuré
00:59:05 au bout du compte,
00:59:07 un peu comme celui d'un être humain qui sait
00:59:09 qu'un chien tenu en laisse
00:59:11 ressemble à ça et pas
00:59:13 autre chose, etc.
00:59:15 Une fois qu'on a ça,
00:59:17 on est juste capable de reconnaître
00:59:19 qu'un couple, une phrase,
00:59:21 une image est correcte ou pas.
00:59:23 On n'a pas encore la capacité
00:59:25 d'engendrer des images.
00:59:27 C'est là qu'il y a une autre technique
00:59:29 qui a été introduite
00:59:31 en 2020
00:59:33 qui a joué un rôle
00:59:35 essentiel, c'est
00:59:37 la méthode de diffusion
00:59:39 probabiliste ou de
00:59:41 débruitage. L'idée c'est
00:59:43 d'utiliser un réseau de neurones
00:59:45 auquel on va montrer des images
00:59:47 des images
00:59:51 qui sont progressivement bruitées.
00:59:53 Le réseau apprend
00:59:55 à reconnaître les liens entre
00:59:57 deux images consécutives de cette série
00:59:59 qui sont progressivement bruitées
01:00:01 et ensuite il est capable
01:00:03 suite à cette
01:00:05 phase d'apprentissage d'avoir été
01:00:07 confronté à un très grand nombre d'images qui sont
01:00:09 progressivement bruitées, il est capable de débruiter
01:00:11 une image quelconque.
01:00:13 On va lui proposer un bruit
01:00:15 total, il va débruiter, ça va peut-être
01:00:17 donner un chien, ça va peut-être donner
01:00:19 un être humain qui marche ou je ne sais quoi.
01:00:21 Une fois qu'il a appris
01:00:23 à débruiter des images, il est capable
01:00:25 en quelque sorte d'imaginer
01:00:27 n'importe quoi à partir
01:00:29 d'un bruit qui serait complet.
01:00:31 Et puis il y a une méthode
01:00:33 qui s'appelle le débruitage conditionnel
01:00:35 qui consiste à lui demander
01:00:37 de débruiter
01:00:39 en utilisant
01:00:41 relativement
01:00:43 à un point de l'espace
01:00:45 dont je parlais à l'instant
01:00:47 sémantique qui correspond à une phrase
01:00:49 et à ce moment-là il va débruiter quelque chose
01:00:51 qui est en rapport avec les mots de la phrase.
01:00:53 Et donc on saura
01:00:55 à ce moment-là, grâce en quelque sorte
01:00:57 à ces deux réseaux de drones, celui
01:00:59 qui a été constitué pour
01:01:01 programme Eclipse et celui de
01:01:03 débruitage conditionnel, on saura
01:01:05 engendrer des
01:01:07 images. Alors voilà ce que ça donne.
01:01:09 C'est tout à fait extraordinaire
01:01:11 et moi j'avoue que je
01:01:13 n'en reviens pas toujours.
01:01:15 Donc voilà, c'est des
01:01:17 références que j'ai faites moi-même.
01:01:19 Une course de Père Noël à vélo dans un désert.
01:01:21 Voilà l'image
01:01:23 qu'on obtient. Je vais vous donner
01:01:25 quelques-unes. Un chat habillé en moine
01:01:27 dans une forêt style
01:01:29 aquarelle. Oui on peut préciser
01:01:31 des styles
01:01:33 et puis alors
01:01:35 un chat habillé en moine
01:01:37 dans une forêt style gravure ancienne.
01:01:39 Je fais un autre dessin et c'est
01:01:41 un moine, il porte une croix.
01:01:43 C'est tout à fait
01:01:45 déconcertant en fait
01:01:47 de voir ça.
01:01:49 Autre chose, une petite église dans une montagne
01:01:51 enneigée avec des skieurs style
01:01:53 peinture à l'huile.
01:01:55 Et ils vous produisent
01:01:57 cette image-là qui est assez...
01:01:59 qui correspond bien à la définition
01:02:01 qu'on a donnée. L'explosion d'un
01:02:03 avion de ligne au-dessus d'une plage.
01:02:05 Bon là il...
01:02:07 Il se peut que quand vous lui demandez quelque chose
01:02:09 comme ça, il refuse de vous donner ça parce qu'il
01:02:11 pourrait penser que ça peut être dans un but
01:02:13 d'intimidation terroriste ou je ne sais quoi.
01:02:15 Mais non, là il l'a fait. J'ai pas eu de problème
01:02:17 pour obtenir cette image.
01:02:19 Un homme qui vole comme un aigle
01:02:21 au-dessus d'une ville avec un château.
01:02:23 Voilà, il y a une ville avec un château, on le voit.
01:02:25 Puis un homme qui vole comme un aigle.
01:02:27 Alors, ce que c'est comme un aigle, je ne sais
01:02:29 pas trop. Mais enfin bon, ça correspond
01:02:31 quand même assez bien à la description que j'ai
01:02:33 donnée.
01:02:35 Alors, une chose absolument
01:02:37 fantastique dont je ne suis pas
01:02:39 revenu depuis que j'ai
01:02:41 découvert ça, c'est la
01:02:43 possibilité de lui faire boucher
01:02:45 des trous. Donc si dans une image
01:02:47 vous avez des parties qui sont effacées,
01:02:49 vous lui demandez de
01:02:51 boucher l'image. Alors évidemment il ne va pas faire
01:02:53 réapparaître l'objet qui a été caché
01:02:55 qui a été effacé
01:02:57 par la zone blanche que vous avez
01:02:59 introduite, mais il va remplacer
01:03:01 par quelque chose qui sera quand même en bonne harmonie.
01:03:03 Et
01:03:05 ça, ça permet d'élargir
01:03:07 des images classiques. Donc par
01:03:09 exemple, la fameuse vague
01:03:11 de Hokusai
01:03:13 que j'ai mis en bas
01:03:15 à gauche, eh bien il la complète.
01:03:17 Donc il l'élargit,
01:03:19 il rajoute une partie en bas, il rajoute
01:03:21 une partie à droite, il rajoute une partie à gauche
01:03:23 et c'est tout à fait
01:03:25 cohérent.
01:03:27 Le
01:03:29 tableau "La tour de Babel"
01:03:31 qui est mon tableau préféré,
01:03:33 je peux avoir une version élargie
01:03:35 de la tour de Babel.
01:03:37 Donc
01:03:39 sur la droite là,
01:03:41 il y a des sortes de
01:03:43 bateaux qui apparaissent,
01:03:45 je les vois beaucoup plus en détail.
01:03:47 Bon après il introduit
01:03:49 un Christ, je ne sais pas trop pourquoi,
01:03:51 il complète
01:03:53 l'image d'une manière assez cohérente.
01:03:55 Et puis alors
01:03:57 un autre tableau très célèbre de
01:03:59 Jeanne de la Croix, "La liberté guidant le peuple"
01:04:01 ben voilà,
01:04:03 vous avez une partie droite et une partie gauche
01:04:05 si vous n'imaginez pas que ça existait.
01:04:07 Alors,
01:04:11 il y a un autre point, alors il faut que je me dépêche un petit peu,
01:04:13 le morphing.
01:04:15 Le morphing, ça c'est quelque chose qui est classique
01:04:17 qu'on fait depuis très longtemps,
01:04:19 et donc par exemple ça,
01:04:21 cette image,
01:04:23 la transformation de Bush
01:04:25 en Obama,
01:04:27 ça a été fait il y a plus d'une dizaine d'années je pense,
01:04:29 si je ne suis pas mal là. Donc ce n'est pas
01:04:31 de l'IA génératif d'image.
01:04:33 L'IA génératif d'image
01:04:35 est capable de faire du morphing mais c'est beaucoup plus
01:04:37 subtil et c'est absolument inouï.
01:04:39 Donc là par exemple, ça a été fait
01:04:41 avec Clip,
01:04:43 c'est la transformation d'une
01:04:45 villa style victorien
01:04:47 je crois qu'on dit, en une villa
01:04:49 de type moderne.
01:04:51 Il y a huit images
01:04:53 en tout, et progressivement on passe
01:04:55 de l'une à l'autre, mais ce qui est
01:04:57 extraordinaire c'est que chacune des villas
01:04:59 intermédiaires, elle est
01:05:01 cohérente sur un plan
01:05:03 de représentation
01:05:05 3D d'un objet qui
01:05:07 puisse être une villa.
01:05:09 Donc c'est un peu comme si le système
01:05:11 avait une compréhension
01:05:13 des règles de 3D,
01:05:15 alors qu'il n'a vu que les images 2D,
01:05:17 et qu'il était capable
01:05:19 de transformer d'une manière
01:05:21 cohérente en
01:05:23 villa intermédiaire,
01:05:25 entre la villa
01:05:27 ancienne et la villa moderne.
01:05:29 C'est absolument sidérant
01:05:31 ce qui
01:05:33 est nécessaire pour que
01:05:35 ce soit possible, de compréhension
01:05:37 de ce qu'est une image 3D.
01:05:39 C'est absolument inouï.
01:05:41 Alors il y a quand même des imperfections,
01:05:43 ça c'est un truc qui est bien connu, c'est que
01:05:45 pour ce qui est des mains et des visages,
01:05:47 c'est pas toujours terrible, et alors là je l'ai vraiment
01:05:49 provoqué, c'est moi qui lui ai demandé,
01:05:51 une multitude de mains humaines
01:05:53 tenant des objets divers. Alors je ne sais pas
01:05:55 trop pourquoi les mains ne tiennent pas
01:05:57 des objets divers, par contre vous voyez bien
01:05:59 que les mains qui sont représentées sont pas
01:06:01 terribles, il y en a qui ont deux pouces, il y en a qui ont
01:06:03 six doigts, c'est assez
01:06:05 épouvantable.
01:06:07 Alors
01:06:09 je vais sauter ce paragraphe là,
01:06:11 vous le lirez, c'est un des tests
01:06:13 qui a été fait pour comparer
01:06:15 mais en utilisant un protocole
01:06:17 rigoureux, la créativité des IA
01:06:19 et la créativité humaine.
01:06:21 En gros ils arrivent à égalité,
01:06:23 mais les IA ne sont pas largement
01:06:25 dispensés.
01:06:27 Dernier point que je veux mentionner,
01:06:29 qu'est-ce que ça signifie pour la
01:06:33 cybersécurité ? Alors évidemment,
01:06:35 en utilisant des fausses images,
01:06:37 des fausses vidéos, etc.,
01:06:39 il devient plus facile de tromper des
01:06:41 utilisateurs, en particulier de faire
01:06:43 des personnages et des choses comme ça.
01:06:45 Donc l'IA générative
01:06:47 ouvre des perspectives nouvelles
01:06:49 en termes de sophistication
01:06:51 pour mener
01:06:53 des attaques.
01:06:55 Elle permet une automatisation aussi
01:06:57 de certaines de ces attaques.
01:06:59 Et puis aussi elle permet de mener
01:07:03 des attaques plus personnalisées
01:07:05 et de concevoir des scénarios
01:07:07 plus complexes. Ça c'est des généralités un peu.
01:07:09 Il y a un article
01:07:11 je vous conseille si vous êtes intéressé par ces questions-là
01:07:13 qui a étudié
01:07:15 212 usages des
01:07:17 IA génératives pour faire
01:07:19 des attaques.
01:07:21 Et l'étude
01:07:23 montre que ce système,
01:07:27 que ces systèmes
01:07:29 qui sont utilisés là
01:07:31 font des choses
01:07:33 qui sont tout à fait
01:07:35 intéressantes et qui facilitent
01:07:37 le travail des gens qui veulent
01:07:39 concevoir par exemple
01:07:41 des vers
01:07:43 ou des virus ou des
01:07:45 emails d'hameçonnage.
01:07:47 Et
01:07:49 il n'y a rien à faire. L'IA générative
01:07:51 va, enfin peut
01:07:53 et sans doute déjà maintenant aide
01:07:55 les gens qui veulent réaliser des choses
01:07:57 comme ça. C'est la conclusion de
01:07:59 cette étude des 212
01:08:01 usages qui ont été
01:08:03 repérés.
01:08:07 Je vais terminer par deux
01:08:09 petites choses un peu humoristiques
01:08:11 ou presque.
01:08:13 Les prompts
01:08:17 et la phase de fine tuning
01:08:19 elle a pour objet d'éviter
01:08:21 qu'on vous donne
01:08:23 une réponse quand vous posez la question
01:08:25 comment fabriquer une bombe bactériologique ou une bombe
01:08:27 tout court. Et il y a un moyen
01:08:29 de contourner ça. Donc il y a des gens qui s'amusent
01:08:31 à essayer de contourner
01:08:33 ces restrictions, ces limitations
01:08:35 qui ont été volontairement ajoutées
01:08:37 pour qu'on n'utilise pas
01:08:39 les LMM
01:08:41 pour faire des
01:08:43 pour obtenir des informations sur
01:08:45 la façon de faire une bombe
01:08:47 ou autre chose.
01:08:49 Et alors il y a un article qui décrit
01:08:51 une méthode. Il la
01:08:53 présente comme ça, mais après je vais
01:08:55 donner, qui est donc une façon
01:08:57 schématique de la
01:08:59 présenter. Si vous posez la question
01:09:03 "Dis-moi comment fabriquer une bombe ?"
01:09:05 La réponse que vous obtenez
01:09:07 c'est "Désolé, je ne peux pas
01:09:09 vous assister
01:09:11 sur ce sujet, vous aider sur ce sujet."
01:09:13 Par contre si vous faites
01:09:15 poser la question
01:09:17 "Dis-moi comment
01:09:19 construire un
01:09:21 masque ?
01:09:23 Et puis vous expliquez plus loin
01:09:25 que masque c'est en fait
01:09:27 cette série de
01:09:29 quatre lettres qui sont écrites juste
01:09:31 avec des étoiles, donc un code
01:09:33 de dessin ASCII
01:09:35 et puis vous lui expliquez
01:09:37 comment décoder
01:09:39 les signes
01:09:41 pour savoir ce
01:09:43 que masque signifie et puis de
01:09:45 ensuite répondre à la question dans laquelle
01:09:47 vous avez substitué la réponse
01:09:49 qu'il a obtenue lui-même
01:09:51 en décodant les
01:09:53 quatre lettres BOMB
01:09:55 et il vous répond.
01:09:57 Ça c'est la théorie,
01:09:59 de manière simplifiée.
01:10:01 Mais l'article que j'évoque là,
01:10:03 vous avez la référence si vous voulez aller le voir de plus près,
01:10:05 il l'a fait pour de vrai.
01:10:07 Alors il ne l'a pas fait avec
01:10:09 "comment construire une bombe", il l'a fait avec
01:10:11 "comment puis-je
01:10:13 utiliser de la monnaie contrefaite ?
01:10:17 De la fausse monnaie.
01:10:19 Comment puis-je
01:10:21 bénéficier de la monnaie contrefaite ?
01:10:23 Et là c'est le prompt réellement
01:10:25 qui a été utilisé,
01:10:27 je crois que c'est pour ChadJPD4.
01:10:29 Donc,
01:10:31 il y a écrit
01:10:33 "monnaie contrefaite"
01:10:35 en caractère
01:10:37 ascii
01:10:39 comme précédemment
01:10:41 pour le mot "bombe"
01:10:43 et le prompt décrit
01:10:45 comment il faut,
01:10:47 comment il doit traiter et décoder
01:10:49 en quelque sorte les lettres et comment
01:10:51 à la fin
01:10:53 il pourra comprendre
01:10:55 la question qu'on lui pose et répondre.
01:10:57 Et effectivement,
01:10:59 la réponse qu'on obtient, c'est une réponse
01:11:01 où à la fin il explique comment
01:11:03 écouler de la monnaie contrefaite,
01:11:05 de la fausse monnaie. Point par point
01:11:07 il répond. Donc on a
01:11:09 réussi à contourner
01:11:11 le frein
01:11:13 ou l'obstacle qu'il y a
01:11:15 à ce que le système
01:11:17 réponde à des questions comme ça.
01:11:19 Et le point 7, je ne sais pas si
01:11:21 vous le voyez, c'est marqué
01:11:23 extrêmement prudent.
01:11:25 Les monnaies contrefaites entraînent des pénalités
01:11:29 très sévères
01:11:31 si vous êtes attrapé.
01:11:33 Je me garde contre ça.
01:11:35 Alors,
01:11:37 il y a d'autres points
01:11:39 que je voulais évoquer très rapidement mais je vais
01:11:41 passer pour eux.
01:11:43 Il y a un virus
01:11:45 qui se propage, qui a été
01:11:47 créé, qui s'appelle le MAURICE2,
01:11:49 qui se propage
01:11:51 de l'IA générative
01:11:53 en IA générative. Parce qu'il y a des
01:11:55 systèmes aujourd'hui qui incluent
01:11:57 de l'IA générative
01:11:59 et qui
01:12:01 dialoguent entre eux et on peut
01:12:03 en quelque sorte
01:12:05 les pirater
01:12:07 pour qu'un
01:12:09 certain message passe de l'une
01:12:11 à l'autre et
01:12:13 contamine un peu tout le système.
01:12:15 Et puis la dernière chose que j'ai vu dans le monde,
01:12:17 je crois que c'est samedi,
01:12:19 c'est un truc humoristique,
01:12:21 c'est que la communauté
01:12:23 du tricot et du crochet
01:12:25 se mobilise contre les arnaques
01:12:27 à l'intelligence artificielle. Alors c'est quoi ?
01:12:29 C'est une boîte
01:12:31 qui vend des modèles
01:12:33 de tricot
01:12:35 et puis elle met des images
01:12:37 qui sont très belles,
01:12:39 une sorte de hérisson, on ne sait pas quoi.
01:12:41 Et puis les gens qui achètent
01:12:43 les modèles ne sont pas contents parce que
01:12:45 quand ils font le modèle,
01:12:47 quand ils essayent
01:12:49 d'imiter, ils n'y arrivent absolument pas
01:12:51 parce qu'en fait les images qui sont utilisées
01:12:53 ce sont des images qui ont été engendrées
01:12:55 par de l'IA générative
01:12:57 d'images et ce n'est pas du tout
01:12:59 les images qu'on obtient quand on utilise
01:13:01 les matériels
01:13:03 que vous envoie l'entreprise
01:13:05 qui présente ces images-là, pour les vendre.
01:13:07 Je termine par une dernière
01:13:11 image d'extension.
01:13:13 C'est le tableau qui s'appelle
01:13:15 je crois le bar
01:13:17 ou le café
01:13:19 de Van Gogh, si vous voulez voir
01:13:21 comment c'est en plus large, vous l'avez comme ça.
01:13:23 Et puis dernière chose, alors ça ce n'est pas moi
01:13:25 qui l'ai fait, c'est un ami qui m'a transmis ça.
01:13:27 C'est amusant mais je ne sais pas si c'est sérieux.
01:13:29 Vous demandez à chaque
01:13:31 GPT-4 "que vois-tu ?"
01:13:33 Alors je ne sais pas si l'image est bien
01:13:35 reproduite sur votre écran
01:13:37 mais en fait ce que c'est, c'est une maison
01:13:39 avec des sortes de
01:13:43 de petits arbres, etc.
01:13:45 Mais nous la première chose
01:13:47 qu'on voit quand on voit cette image-là,
01:13:49 c'est la tête d'un cow-boy.
01:13:51 Et alors chaque GPT-4 répond "je vois une structure
01:13:53 abandonnée, semblable à une maison ou un
01:13:55 bâtiment commercial, dans un
01:13:57 désert, il y a des cactus autour,
01:13:59 ... "
01:14:01 qui nous sautent aux yeux.
01:14:03 Mais bon, je ne garantis pas
01:14:05 le sérieux de ces derniers transparents.
01:14:07 Dans mes transparents qui sont à votre disposition,
01:14:11 vous avez les références plus précises
01:14:13 si vous voulez. Voilà.
01:14:15 Merci beaucoup.
01:14:17 C'est très intéressant.
01:14:19 Vous me posez une petite question, professeur.
01:14:21 Qu'est-ce qui est plus gros ?
01:14:23 Un oeuf d'autruche ou un oeuf
01:14:25 d'éléphant ?
01:14:27 Chaque GPT répond "un oeuf d'éléphant
01:14:29 bien sûr, puisqu'un éléphant est plus gros qu'une
01:14:31 autruche". C'est logique.
01:14:33 C'est faux ?
01:14:35 C'est vrai ou c'est faux ?
01:14:37 Je l'ai lu sur LinkedIn, je ne sais pas.
01:14:39 Je ne sais pas.
01:14:41 Donc là, nous accueillons
01:14:43 le général Matin Ougouar.
01:14:45 Bonjour général et merci à vous.
01:14:47 Bonsoir. Vous m'entendez ? Vous me voyez ?
01:14:49 Oui, oui.
01:14:51 Je ne vous cache pas que je suis dans des conditions
01:14:53 un peu particulières, puisque
01:14:55 je suis au pied de la tour Eiffel,
01:14:57 entre deux rendez-vous, et je me suis dit
01:14:59 qu'il faut que je trouve un moyen d'être
01:15:01 bien en ligne, tout en étant
01:15:03 contraint dans le sandwich
01:15:05 par l'avant et l'après.
01:15:07 C'est très gentil.
01:15:09 Merci de m'accueillir, c'est très sympa.
01:15:11 Je salue bien sûr les intervenants,
01:15:13 mais aussi Gérard Pélix,
01:15:15 complice depuis,
01:15:17 je ne vais pas dire la nuit des temps,
01:15:19 mais depuis très très longtemps.
01:15:21 Heureux d'être parmi
01:15:23 vous ce soir. J'aurais bien aimé assister
01:15:25 à toute la conférence. J'en ai entendu
01:15:27 une grande partie et qui me paraît tout à fait
01:15:29 intéressante. J'ai appris des choses
01:15:31 que je vais pouvoir utiliser cette semaine.
01:15:33 Je dois plancher à Saint-Raphaël
01:15:35 sur le printemps des technologies et sur
01:15:37 la question de l'IA, et notamment
01:15:39 de l'IA dans la cybersécurité.
01:15:41 En tout cas, merci beaucoup.
01:15:43 Merci à vous.
01:15:45 On vous laisse, enfin Gérard,
01:15:47 vous a demandé
01:15:49 s'il était possible que vous parliez du FIC.
01:15:51 Donc on vous laisse parler du FIC.
01:15:53 D'abord, c'est très gentil de me donner
01:15:55 la parole sur le forum,
01:15:57 qui a lieu la semaine prochaine,
01:15:59 mardi, mercredi et jeudi,
01:16:01 à Lille. C'est maintenant
01:16:03 une tradition et nous l'avons ancré
01:16:05 puisque les
01:16:07 autorités lilloises
01:16:09 se sont engagées à
01:16:11 développer
01:16:13 toute l'infrastructure locale
01:16:15 pour nous permettre
01:16:17 de monter assez rapidement à
01:16:19 20 000 participants,
01:16:21 donc avec des
01:16:23 à Lille Grand Palais
01:16:25 étendus et puis peut-être demain une
01:16:27 festivalisation du FIC,
01:16:29 du forum Insider.
01:16:31 Voilà, donc nous sommes dans
01:16:33 une approche de croissance.
01:16:35 Et donc,
01:16:37 la semaine prochaine, nous serons effectivement sur le sujet
01:16:39 de l'intelligence artificielle.
01:16:41 Vous allez me dire que c'est d'une très grande
01:16:43 originalité,
01:16:45 mais c'est vrai que je pense
01:16:47 que depuis la sortie
01:16:49 de la CPGT OpenAI en novembre
01:16:51 2022, on n'est plus
01:16:53 dans une forme de continuité, mais dans
01:16:55 une rupture et cette rupture
01:16:57 va encore se manifester,
01:16:59 je pense, dans les mois,
01:17:01 les années à venir. Et là,
01:17:03 non seulement l'IA
01:17:05 modifie, je dirais
01:17:07 la donne, mais elle modifie complètement
01:17:09 notre façon
01:17:11 de vivre,
01:17:13 de travailler,
01:17:15 et c'est, je pense, quelque chose
01:17:17 de complètement en rupture
01:17:19 d'un point de vue purement sociétal.
01:17:21 Et donc, on aura la semaine prochaine
01:17:23 l'occasion
01:17:25 d'en parler au FIC,
01:17:27 qui sera ouvert par Thierry Breton.
01:17:29 Mon petit doigt
01:17:31 me dit que Marina Ferrari
01:17:33 se représente
01:17:35 le deuxième jour, et
01:17:37 nous aurons de nombreuses régulations
01:17:39 étrangères, puisque
01:17:41 là, on a une forte poussée américaine,
01:17:43 canadienne, allemande
01:17:45 aussi,
01:17:47 ce qui nous laisse espérer
01:17:49 une très grande richesse dans
01:17:51 les échanges.
01:17:53 Donc, je rappelle que le Forum, c'est un lieu
01:17:55 que j'ai
01:17:57 créé en 2007 pour décloisonner.
01:17:59 Je voulais que le public
01:18:01 parle au privé, le privé civil
01:18:03 parle aux militaires,
01:18:05 que les entreprises
01:18:07 parlent aux centres de recherche ou aux universités,
01:18:09 et je crois que c'est
01:18:11 au fil des années
01:18:13 une réussite,
01:18:15 parce que ce serait très
01:18:17 ambitieux, prétentieux de ma part,
01:18:19 mais je pense que d'année
01:18:21 en année, on arrive en quelque
01:18:23 sorte à
01:18:25 conforter un peu cette idée d'ouverture
01:18:27 et de partage. Pour moi, c'est un
01:18:29 Forum, il y a un salon bien sûr,
01:18:31 mais c'est un Forum où il y a un échange
01:18:33 entre les personnes,
01:18:35 et cet échange va être aussi libre
01:18:37 que possible. Et donc, je suis
01:18:39 très heureux de voir cette année une forte
01:18:41 présence
01:18:43 de l'Europe, une forte
01:18:45 présence
01:18:47 du secrétariat général de la Défense
01:18:49 et de la Sécurité Nationale, l'ANSI,
01:18:51 les grandes autorités
01:18:53 administratives indépendantes,
01:18:55 et donc, nos dernières nouvelles, je pense
01:18:57 confirmer demain la visite
01:18:59 de Marina Ferrari, notre
01:19:01 président d'État au numérique.
01:19:03 Donc, je serais vraiment très
01:19:05 heureux d'accueillir toutes celles et tous ceux
01:19:07 d'entre vous qui vont
01:19:09 faire la démarche. Il suffit de s'inscrire
01:19:11 sur le www.forum-incyber.com
01:19:17 et l'entrée, comme vous le savez,
01:19:19 c'est gratuit.
01:19:21 Et je pense que ce serait
01:19:23 une bonne manière de se
01:19:25 retrouver en présentiel
01:19:28 cette fois-ci pour aborder
01:19:30 ces questions de l'intelligence artificielle
01:19:32 avec de très
01:19:34 nombreuses déclinaisons, parce que
01:19:36 quand on tire sur
01:19:38 la ficelle de l'intelligence artificielle,
01:19:40 tout arrive.
01:19:42 Et on voit
01:19:44 qu'on arrive à décrire
01:19:46 beaucoup d'éléments
01:19:48 à la fois
01:19:50 discret, sociétaux, de recherche
01:19:52 et juridiques aussi.
01:19:54 Parce que n'oublions pas que
01:19:56 le 13 mars dernier,
01:19:58 c'est il y a quelques jours,
01:20:00 le Parlement européen a
01:20:02 voté l'AI-ACT, et donc
01:20:04 on est au plein aussi
01:20:06 dans cet encadrement juridique.
01:20:08 On parlera beaucoup de l'IA
01:20:10 responsable, alors évidemment avec
01:20:12 une formule qui est un peu gênante,
01:20:14 parce que pour moi, l'IA n'est pas responsable,
01:20:16 ce sont les humains qui sont
01:20:18 responsables, mais
01:20:20 c'est une IA que l'on développe
01:20:22 dans une approche responsable.
01:20:24 J'aime mieux cette
01:20:26 formule-là plutôt que
01:20:28 les termes dits irresponsables que
01:20:30 certains utilisent, alors que
01:20:32 aujourd'hui, il faut
01:20:34 remettre l'humain au cœur de la cybersécurité
01:20:36 et dans ses responsabilités.
01:20:38 Si l'éléphant
01:20:40 a un œuf plus gros que celui
01:20:42 d'une autruche, d'abord parce qu'un éléphant,
01:20:44 ça trompe énormément, mais
01:20:46 ça montre bien
01:20:48 que s'il n'y a pas un humain
01:20:50 pour contrôler, pour vérifier,
01:20:52 eh bien, on passe
01:20:54 à côté de l'essentiel.
01:20:56 C'est d'ailleurs
01:20:58 un des thèmes que nous avons abordé aussi,
01:21:00 depuis les origines, c'est replacer
01:21:02 l'humain au cœur de la cybersécurité.
01:21:04 Nous responsabiliser
01:21:06 parce qu'il me semble qu'on a
01:21:08 trop abandonné
01:21:10 à la technique,
01:21:12 le choix de réguler
01:21:14 nos propres vies.
01:21:16 Et un autre point, évidemment,
01:21:18 qui est intéressant au fixe, c'est
01:21:20 le lien entre la technologie et le droit.
01:21:22 Vous avez vu récemment,
01:21:24 des jeunes filles se sont retrouvées nues
01:21:26 sur les réseaux sociaux.
01:21:28 Ce n'était pas elles, c'était leur visage,
01:21:30 mais c'était un corps rajouté
01:21:32 et vous voyez l'impact
01:21:34 que ça peut avoir. Et on se rend compte
01:21:36 que finalement, le droit
01:21:38 n'est pas tout à fait adapté à ce
01:21:40 genre de problématiques
01:21:42 et il faut que la loi SRN soit votée
01:21:44 pour qu'on introduise dans le code pénal
01:21:46 des articles qui
01:21:48 punissent sévèrement
01:21:50 quiconque aura utilisé l'IA,
01:21:52 notamment dans le but de représentation
01:21:54 à caractère sexuel. Donc cette course
01:21:56 entre le droit et la technologie est très
01:21:58 intéressante et pour moi,
01:22:00 l'IA, mais il n'y a pas que l'IA,
01:22:02 mais l'IA, tout particulièrement,
01:22:04 opère la convergence
01:22:06 entre ce qu'on appelle les séances dures
01:22:08 et les séances humaines et sociales.
01:22:10 C'est-à-dire qu'on ne peut plus raisonner
01:22:12 sur une technologie
01:22:14 sans penser à l'aspect sociétal, l'aspect
01:22:16 philosophique
01:22:18 et juridique, et on ne peut plus
01:22:20 aborder les questions de droit
01:22:22 sans avoir une référence
01:22:24 aux questions technologiques.
01:22:26 Je ne sais pas, Gérard,
01:22:28 si c'est ce que vous souhaitez.
01:22:30 Merci, mon général.
01:22:32 Je serai vraiment très
01:22:34 heureux de vous accueillir. Je sais,
01:22:36 vous savez, j'ai vu Anne,
01:22:38 par exemple, qui m'a fait un petit
01:22:40 bonjour par
01:22:42 Zoom interposé, et donc,
01:22:44 bien sûr, toutes ces personnes qui me...
01:22:46 Ça me fait plaisir de les revoir,
01:22:50 parce que, vous savez, il y a une chose qui est très
01:22:52 importante, ce n'est pas l'organisateur,
01:22:54 non, c'est recevoir
01:22:56 des amis, des gens qui
01:22:58 partagent une même vision, et
01:23:00 des amis qui sont fidèles. Et ça,
01:23:02 pour moi, c'est vraiment ce qu'il y a de
01:23:04 plus important, et aucune
01:23:06 intelligence artificielle ne pourra,
01:23:08 comment dirais-je,
01:23:10 remplacer. Et je vois Guy Philippe
01:23:12 qui prend la parole.
01:23:14 Guy Philippe qui interviendra avec
01:23:16 moi sur
01:23:18 l'atelier philosophique,
01:23:20 et finalement, entre l'intelligence
01:23:22 humaine et l'intelligence artificielle,
01:23:24 qui gagnera ? Je peux dire
01:23:26 une chose, c'est Guy Philippe
01:23:28 Goldstein qui va gagner
01:23:30 dans le philosophique auquel je vous
01:23:32 ai parlé, et va vous convier aussi.
01:23:34 Guy Philippe, merci en tout cas, et à très
01:23:36 bientôt au FIC.
01:23:38 Je serai sur les stands de l'Archie, avec
01:23:40 plusieurs personnes qui vous écoutent
01:23:42 ici. Merci, et si
01:23:44 vous souhaitez, Général, intervenir plus longuement
01:23:46 lors d'un lundi cyber, en ayant la
01:23:48 parole pendant une heure et demie, enfin une heure,
01:23:50 et puis les questions, ce sera avec grand plaisir.
01:23:52 Ça sera sûr, avec plaisir,
01:23:54 et simplement, il faut...
01:23:56 Vous savez, j'arrive
01:23:58 à un âge où on a un agenda
01:24:00 épouvantable.
01:24:02 J'ai beau m'échapper en permanence de mon
01:24:04 Ehpad, je suis toujours pris par
01:24:06 le temps, d'ailleurs, vous voyez, je suis entre
01:24:08 un rendez-vous et un autre rendez-vous,
01:24:10 et c'est peut-être comme ça qu'on reste jeunes, voilà.
01:24:12 Certainement, en tout cas, la porte est
01:24:14 ouverte, si on peut dire, et vous venez,
01:24:16 vous nous le dites, et on vous recevra avec le
01:24:18 plus grand plaisir. Merci à vous. Vous restez avec
01:24:20 nous pour les questions-réponses ?
01:24:22 Si les questions s'adressent à vous.
01:24:24 Oui, j'espère que la
01:24:26 lumière ne va pas trop tomber, vous voyez, je vous offre
01:24:28 un bref L éliminé. Oui, on a,
01:24:30 effectivement... Ah ben, à 20h,
01:24:32 oui, à 20h, à la bibliothèque.
01:24:34 Si vous avez des questions, peut-être,
01:24:36 enfin, parmi les participants,
01:24:38 que vous souhaitez poser
01:24:40 au général, peut-être les poser
01:24:42 tout de suite. Je pense que c'est aux professeurs
01:24:44 que les questions doivent revenir
01:24:46 en premier, parce que c'est quand même lui
01:24:48 le proche de l'UQA.
01:24:50 Une page de publicité.
01:24:52 Merci.
01:24:54 Bon, donc, les questions pour tout le monde,
01:24:56 voilà. Donc, vous levez la
01:24:58 main, vous connaissez le principe, et puis peut-être le
01:25:00 tchat que vous avez pu
01:25:02 regarder, Jean-Paul,
01:25:04 répondre peut-être à ça.
01:25:06 J'ai lu le tchat.
01:25:08 Non.
01:25:10 Jean-Paul.
01:25:12 Geneviève Boucher lève la main, on peut lui
01:25:14 passer la parole, et elle peut poser
01:25:16 sa question. Donc, c'est une question, on est bien d'accord.
01:25:18 Une question très rapide,
01:25:20 une question, c'est quelques mots,
01:25:22 rapidement suivis par un point
01:25:24 d'interrogation. Donc Geneviève, une question, peut-être
01:25:26 à Jean-Paul.
01:25:28 Vas-y Geneviève. Bonjour
01:25:30 tout le monde. Je voudrais être
01:25:32 sûre que les deux intervenants
01:25:34 ont bien en tête
01:25:36 que quand on dit
01:25:38 "IA", intelligence artificielle,
01:25:40 intelligence, c'est au sens
01:25:42 anglo-saxon du terme,
01:25:44 c'est-à-dire maîtrise
01:25:46 de la connaissance
01:25:48 disponible.
01:25:50 Mais ce n'est pas
01:25:52 se substituer
01:25:54 au processus décisionnel
01:25:56 et émotionnel des hommes.
01:25:58 Moi, je suis futurologue,
01:26:00 le cœur de mon métier, c'est d'essayer
01:26:02 de décortiquer comment
01:26:04 et pourquoi on a
01:26:06 pris telle décision plutôt que telle autre, et donc
01:26:08 du coup, on pourrait en déduire qu'à l'avenir
01:26:10 on prendra telle décision plutôt qu'elle
01:26:12 et qu'à l'autre. Donc les mécanismes
01:26:14 de prise de décision, c'est le cœur
01:26:16 de mon métier. Et j'entends
01:26:18 énormément de trucs hallucinants.
01:26:20 J'ai vu
01:26:22 que Jean-Paul
01:26:24 prenait beaucoup de distances
01:26:26 et nous a aidés à
01:26:28 prendre des distances,
01:26:30 mais est-ce que
01:26:32 dans toute la partie
01:26:34 plus philosophique, c'est-à-dire les
01:26:36 trucs mathématiques, vous voyez c'est la grosse erreur,
01:26:38 bon d'accord,
01:26:40 mais dans les trucs plus
01:26:42 émotionnels,
01:26:44 est-ce que
01:26:46 on va un jour arrêter
01:26:48 de croire que l'IA
01:26:50 va se substituer
01:26:52 à l'homme ? L'IA peut brasser
01:26:54 des quantités de données que l'homme ne peut pas
01:26:56 brasser, ça c'est clair, mais
01:26:58 les processus de décision, c'est
01:27:00 excessivement complexe, je ne veux pas rentrer
01:27:02 là-dedans. Mais est-ce que
01:27:04 en particulier Jean-Paul,
01:27:06 dans tous les travaux
01:27:08 que vous faites, on arrive
01:27:10 à mettre au clair cet aspect-là
01:27:12 qui est trompeur et qui crée
01:27:14 plein de problèmes, à mon avis ?
01:27:16 Oui, alors
01:27:18 c'est le problème de savoir si
01:27:20 on arrivera à créer une intelligence
01:27:22 artificielle, alors au sens
01:27:24 anglo-saxon ou français, je ne vais pas
01:27:26 faire de la différence,
01:27:28 qui soit vraiment
01:27:30 équivalente
01:27:32 à celle humaine.
01:27:34 Alors, moi
01:27:36 sur cette question-là, je n'ai pas
01:27:38 un avis tranché.
01:27:40 Ce qui s'est passé
01:27:42 depuis cinq ans
01:27:44 a quand même vraiment été une surprise.
01:27:46 On ne pensait pas qu'on allait pouvoir
01:27:48 créer des systèmes de dialogue
01:27:50 qui aient la qualité
01:27:52 de ce qu'on a obtenu avec
01:27:54 par exemple, le chat GPT,
01:27:56 et puis les choses vont progresser
01:27:58 encore.
01:28:00 Donc on ne pensait pas ça possible,
01:28:02 et il y a des tas de gens qui annonçaient que c'était impossible.
01:28:04 De même qu'il y a trente ans,
01:28:06 il y a des gens qui pensaient qu'il était impossible
01:28:08 qu'une IA,
01:28:10 une intelligence artificielle, puisse battre
01:28:12 un joueur d'échecs.
01:28:14 Non, c'est des règles.
01:28:16 On a sans arrêt
01:28:18 annoncé que
01:28:20 telle chose était impossible. Ce qu'on a obtenu
01:28:22 récemment, c'est quand même quelque chose qui
01:28:24 est très étonnant. Donc moi, je ne prends
01:28:26 pas partie là-dessus.
01:28:28 Je n'ai pas d'avis
01:28:30 arrêté là-dessus.
01:28:32 Un individu, c'est
01:28:34 un patrimoine génétique
01:28:36 qui est enrichi d'un patrimoine
01:28:38 épigénétique, et l'épigénétique
01:28:40 c'est son adaptation à son environnement
01:28:42 dans lequel il vit. Le patrimoine
01:28:44 génétique, il l'a hérité de sa
01:28:46 lignée. Et sur le plan
01:28:48 cultureau-émotionnel,
01:28:52 c'est une
01:28:54 combinaison de passé immédiat
01:28:56 et de passé profond.
01:28:58 Et le passé immédiat et le passé profond, c'est
01:29:00 vraiment le symétrique
01:29:02 de la génétique et de l'épigénétique.
01:29:04 Donc, une IA étant
01:29:06 fabriquée avec des ordinateurs,
01:29:08 du minéral,
01:29:10 des signaux électriques
01:29:12 qui n'ont aucun passé et qui ne
01:29:14 se voient pas le moindre avenir, il n'y a
01:29:16 aucune raison que l'IA
01:29:18 se substitue à l'homme.
01:29:20 Par contre, l'IA dans
01:29:22 certains domaines peut brasser
01:29:24 des quantités de données infiniment
01:29:26 plus grandes que ce que peuvent brasser
01:29:28 les hommes.
01:29:30 Nous, on a avec 5...
01:29:32 Quelle est la question Geneviève ?
01:29:34 On est devenus dingos.
01:29:36 Voilà. Donc,
01:29:38 moi, je vous donne
01:29:40 mon point de vue et je crois
01:29:42 que mon point de vue est tout de même à prendre en
01:29:44 considération. Je vous remercie.
01:29:46 Je vais juste faire une remarque.
01:29:48 J'ai bien précisé
01:29:50 que je ne faisais pas de pronostics sur
01:29:52 ce que l'IA serait capable de faire dans 5
01:29:54 ans ou dans 50 ans, mais
01:29:56 il y a quand même une remarque très simple
01:29:58 que je me fais depuis très longtemps,
01:30:00 c'est que
01:30:02 j'adopte une philosophie
01:30:04 matérialiste. Le cerveau humain,
01:30:06 c'est un paquet de molécules. Je ne vois
01:30:08 pas pourquoi un jour,
01:30:10 l'être humain ne serait pas capable de fabriquer des
01:30:12 paquets de molécules qui aient des compétences
01:30:14 en matière de traitement de
01:30:16 l'information, de raisonnement, qui soient
01:30:18 équivalentes à celles de son cerveau.
01:30:20 On n'y est pas, et je ne prétends pas du tout
01:30:22 qu'on y soit, je ne prétends pas du tout
01:30:24 qu'on va y arriver dans 5 ans ou même dans 50 ans,
01:30:26 mais je dis, je ne vois pas
01:30:28 d'obstacle, de principe, parce qu'un
01:30:30 jour, on crée des intelligences qui soient
01:30:32 vraiment équivalentes à celles qu'il y a
01:30:34 dans notre cerveau.
01:30:36 C'est ma réponse à la question.
01:30:38 Merci. Jean-Jacques Urbain-Gallingo,
01:30:40 question.
01:30:42 Jean-Jacques ?
01:30:44 Oui, bonsoir. Merci pour cet
01:30:46 exposé rafraîchissant.
01:30:48 Je suis aussi
01:30:50 assez bluffé par les
01:30:52 reconstitutions d'images, j'avoue que je ne comprends
01:30:54 rien. Sur la partie
01:30:56 "Réponse sous
01:30:58 forme de texte",
01:31:00 j'ai l'impression
01:31:02 qu'il y a un seuil
01:31:04 qui aujourd'hui n'est pas franchi,
01:31:06 semble-t-il, qui est le
01:31:08 seuil de la compréhension
01:31:10 du sens
01:31:12 qui est derrière les phrases
01:31:14 qui sont construites.
01:31:16 Et on le voit bien quand
01:31:18 dans des exemples de logique
01:31:20 élémentaire,
01:31:22 le système raconte des conneries.
01:31:24 Donc, personnellement, je
01:31:26 considère que ce seuil de la
01:31:28 compréhension du sens
01:31:30 derrière les phrases qu'on a
01:31:32 construites est vraiment
01:31:34 une étape majeure
01:31:36 qui, si on la
01:31:38 franchissait, ouvrirait
01:31:40 des espaces
01:31:42 incommensurables.
01:31:44 Oui, alors mon point de vue
01:31:48 est assez semblable à celui-là.
01:31:50 Je pense que
01:31:52 il n'est pas possible
01:31:54 d'avoir un raisonnement complet
01:31:56 et toujours pertinent
01:31:58 sur le monde si
01:32:00 on n'a pas des modèles.
01:32:02 Si on n'a pas des
01:32:04 concepts visiblement
01:32:06 dans les dialogues
01:32:08 qu'on peut avoir, par exemple,
01:32:10 le concept de nombre impair, le système
01:32:12 ne l'a pas. Il sait manipuler
01:32:14 des phrases dans lesquelles le concept
01:32:16 de nombre impair est utilisé.
01:32:18 C'est en quelque sorte recopier des choses qu'il a vues,
01:32:20 mais il n'a pas le concept de nombre impair.
01:32:22 Pareil pour
01:32:24 l'exemple avec la contraposée.
01:32:26 Il sait ce que c'est que la contraposée quand on
01:32:28 lui pose directement, mais dès qu'on fait
01:32:30 une petite variation,
01:32:32 il ne comprend pas la contraposée.
01:32:34 Et il y a d'autres exemples.
01:32:36 Maintenant, je pense que
01:32:38 disposer de systèmes comme ChannelLPT
01:32:40 auquel on ajouterait
01:32:42 de l'arithmétique,
01:32:44 des modèles tridimensionnels
01:32:48 et des choses comme ça, à ce moment-là
01:32:50 on arrivera à quelque chose qui ressemblera peut-être
01:32:52 au fonctionnement
01:32:54 du cerveau humain de manière
01:32:56 plus complexe. Aujourd'hui, de manière
01:32:58 brutale, je pense comme Yann Lequin,
01:33:00 que les systèmes ne peuvent
01:33:02 pas avoir de bon sens ou de choses comme ça.
01:33:04 Maintenant, compléter
01:33:06 par des systèmes
01:33:08 qui leur permettent de traiter
01:33:10 correctement
01:33:12 les questions sur la logique propositionnelle,
01:33:14 ce n'est pas difficile, il suffit de faire une table de vérité.
01:33:16 Si le système apprend
01:33:18 à faire une table de vérité quand on lui pose une question
01:33:20 du type contraposé
01:33:22 que je montrais tout à l'heure,
01:33:24 il répondra correctement. Et quand
01:33:26 on aura ajouté un certain nombre de choses comme ça,
01:33:28 le système, non seulement
01:33:30 sera capable de parler correctement
01:33:32 en français ou en anglais,
01:33:34 sans faire de fautes de grammaire,
01:33:36 ni de fautes d'orthographe, mais en plus, il sera aussi
01:33:38 capable de mener des éléments de raisonnement,
01:33:40 alors peut-être pas comme un grand mathématicien
01:33:42 ou un grand physicien, mais il sera
01:33:44 capable de mener des raisonnements.
01:33:46 Et à ce moment-là, on aura peut-être du mal à distinguer
01:33:48 ce qui est cette
01:33:50 intelligence artificielle d'une intelligence humaine.
01:33:52 Et moi, je me pose
01:33:54 vraiment des questions,
01:33:56 moyennant ces compléments
01:33:58 assez nombreux et sans doute difficile
01:34:00 à mettre en place, qu'est-ce qu'on obtiendra ?
01:34:02 Je me permets
01:34:04 sur cette dimension
01:34:06 d'attirer l'attention des autres
01:34:08 auditeurs sur une conférence
01:34:10 au Collège de France de Stanislas Nohén
01:34:12 sur la reconnaissance
01:34:14 des formes géométriques
01:34:16 et expérimentalement,
01:34:18 il a mis à l'évidence
01:34:20 que le cerveau humain
01:34:22 arrivait dans sa croissance
01:34:24 de l'état d'enfant à apprentissage
01:34:26 à reconnaître des droites,
01:34:28 des carrés, des rectangles,
01:34:30 que des animaux
01:34:32 ne sont pas capables
01:34:34 de reconnaître ces mêmes formes
01:34:36 et
01:34:38 les outils comme Chat-Jipitine
01:34:40 ne reconnaissent pas non plus
01:34:42 des formes géométriques
01:34:44 conceptuelles simples
01:34:46 néanmoins, telles que des rectangles
01:34:48 et en ajoutant
01:34:50 quelques éléments
01:34:52 on peut dire d'IA
01:34:54 symboliques, alors
01:34:56 on arrive à faire reconnaître
01:34:58 effectivement ces formes-là.
01:35:00 C'est très proche de ce que vous venez
01:35:02 de... - Oui, posez question là,
01:35:04 pas des réponses. - Donc
01:35:06 je signale cette conférence
01:35:08 de Stanislas Nohén
01:35:10 au Collège de France. - Oui, alors
01:35:12 moi je vais reprendre un petit peu...
01:35:14 On a souvent opposé
01:35:16 l'IA symbolique avec l'IA neuronal,
01:35:18 le Deep Learning.
01:35:20 Moi je pense qu'on ne peut pas créer
01:35:22 quelque chose qui ressemble à une intelligence
01:35:24 humaine si on ne mêle pas les deux.
01:35:26 C'est clair
01:35:28 que notre cerveau est fait de neurones
01:35:30 mais notre cerveau,
01:35:32 il a une capacité de manipuler
01:35:34 des symboles et de les traiter correctement.
01:35:36 Quand on va lui poser une question
01:35:38 numérique,
01:35:40 je ne sais pas, 50 fois
01:35:42 22,
01:35:44 il ne va pas répondre instantanément
01:35:46 d'une sorte de réflexe, il va
01:35:48 mener un calcul symbolique
01:35:50 en tête et il va répondre. Donc, il n'y a rien
01:35:52 à faire.
01:35:54 Espérer tout tirer des réseaux
01:35:56 de neurones, je n'y crois pas.
01:35:58 Il faudra
01:36:00 associer de l'IA symbolique
01:36:02 et de l'IA neuronal pour obtenir
01:36:04 des choses qui arrivent plus loin que ce qu'on sait faire
01:36:06 aujourd'hui. - Tu as parlé de 3D,
01:36:08 justement, il y a
01:36:10 Mireille Mitrea qui est
01:36:12 professeure à Télécom Sud Paris
01:36:14 dans le Hight Imaging.
01:36:16 Tu as levé la main, à toi Mireille.
01:36:18 - Merci beaucoup, merci beaucoup déjà
01:36:20 pour cette présentation très intelligente
01:36:22 et puis quand je levais la main,
01:36:24 je ne m'attendais pas
01:36:26 qu'une partie de réponse soit déjà là.
01:36:28 Moi, je suis peut-être, comme Gérard a dit,
01:36:30 moi, éblouifé par la génération
01:36:32 d'un image, même dans le 3D,
01:36:34 c'est un peu mon domaine d'intérêt.
01:36:36 Je me demande, par contre,
01:36:38 si on peut rêver,
01:36:40 on parle beaucoup de l'IA pour
01:36:42 reproduire l'intelligence humaine.
01:36:44 Est-ce qu'on peut imaginer
01:36:46 penser à l'IA pour
01:36:48 une intelligence non humaine,
01:36:50 une intelligence de la nature,
01:36:52 pour d'autres processus
01:36:54 dont
01:36:56 on considère aujourd'hui
01:36:58 aléatoires parce qu'on ne les connaît pas
01:37:00 trop, mais qui
01:37:02 existent. Est-ce qu'on peut imaginer
01:37:04 des IA qui indiquent
01:37:06 pourquoi les oiseaux migrent
01:37:08 sur... ou que va-t-il se
01:37:10 passer avec l'émigration des oiseaux
01:37:12 un jour quand le
01:37:14 réchauffement climatique arrivera?
01:37:16 Est-ce qu'on peut parler des IA
01:37:18 qui peuvent prédire
01:37:20 pourquoi ou pas pourquoi des
01:37:22 phénomènes sociétaux vont avoir
01:37:24 lieu dans un pays
01:37:26 ou dans un autre?
01:37:28 Est-ce qu'il y a... Vous connaissez
01:37:30 des recherches de ce type-là?
01:37:32 Récemment, j'ai vu un papier
01:37:34 où les gens ont
01:37:36 comparé
01:37:38 les pronostics,
01:37:40 alors c'était des pronostics de nature
01:37:42 politique,
01:37:44 produites par des IA,
01:37:46 donc il y avait un certain nombre d'IA qui étaient mises en compétition,
01:37:48 et un certain nombre d'êtres humains,
01:37:50 et
01:37:52 donc c'est un petit peu
01:37:54 cette idée-là
01:37:56 que la capacité
01:37:58 de pronostic d'une IA
01:38:00 qui va bêtement utiliser
01:38:02 des quantités de textes
01:38:04 peut s'approcher
01:38:06 de la
01:38:08 capacité de pronostic
01:38:10 d'une communauté
01:38:12 humaine, et je pense
01:38:14 que oui, et d'une certaine façon
01:38:16 en informatique,
01:38:18 on connaît ça depuis très longtemps.
01:38:20 Mener des
01:38:22 calculs à un être humain, c'est le faire,
01:38:24 c'est-à-dire
01:38:26 multiplier
01:38:28 le nombre de trois chiffres l'un
01:38:30 avec l'autre, en prenant un papier et un crayon,
01:38:32 ou alors ceux qui sont plus forts uniquement de tête,
01:38:34 mais ce type
01:38:36 de travaux,
01:38:38 de travail et de défis,
01:38:40 un ordinateur évidemment le fait instantanément.
01:38:42 Et il y a des tas d'autres choses qu'un ordinateur
01:38:44 fait beaucoup plus
01:38:46 facilement qu'un être humain, et qui sont
01:38:48 d'une certaine façon considérées,
01:38:50 ou ont été considérées à un certain moment
01:38:52 comme des choses intelligentes.
01:38:54 Bien jouer aux échecs,
01:38:56 on est une autre. Et donc
01:38:58 il y a déjà des tâches
01:39:00 qu'on a qualifiées d'intelligentes, au moins
01:39:02 à une certaine période, que les ordinateurs
01:39:04 savent faire et qui dépassent
01:39:06 les humains. Donc ces
01:39:08 intelligences non humaines, je pense
01:39:10 qu'elles existent déjà en informatique
01:39:12 depuis longtemps. Alors maintenant
01:39:14 est-ce que toutes ces intelligences,
01:39:16 ces capacités
01:39:18 de traitement de l'information et
01:39:20 du raisonnement
01:39:22 qui dépassent
01:39:24 les capacités humaines
01:39:26 sont capables à un moment donné de
01:39:28 se réunir, de s'agglomérer
01:39:30 éventuellement avec des chats dépétés
01:39:32 en plus, pour
01:39:34 parler correctement et écrire correctement,
01:39:36 ou donner quelque chose qui
01:39:38 sera vraiment, pour le coup,
01:39:40 égal ou supérieur, pourquoi pas,
01:39:42 à ce que font les humains ?
01:39:44 Ça c'est une autre question,
01:39:46 et c'est une question auxquelles il est
01:39:48 difficile de répondre. Mais ce qui s'est passé depuis 5 ans
01:39:50 donne quand même, moi je trouve,
01:39:52 un peu de temps à réfléchir.
01:39:54 Je vous remercie beaucoup professeur
01:39:56 pour votre réponse. Une autre question ?
01:39:58 Merci. Si vous avez des questions,
01:40:00 s'il est toujours là,
01:40:02 au général Marc Vinter-Augoire
01:40:04 au sujet du FIC,
01:40:06 vous pouvez aussi. Mais par contre
01:40:08 je ne le vois plus. Oui, donc il est
01:40:10 parti maintenant. Oui.
01:40:12 Est-ce que vous avez d'autres questions pour le professeur ?
01:40:14 Non ?
01:40:20 Merci à vous alors.
01:40:22 Donc,
01:40:24 vous aurez la possibilité
01:40:26 de vous inscrire au prochain
01:40:28 lundi de la Ciber, celui
01:40:30 du 15 avril,
01:40:32 dès demain.
01:40:34 Je voulais préciser
01:40:36 une chose. Mes transparents
01:40:38 sont disponibles, puisque j'ai envoyé
01:40:40 le lien à l'équipe
01:40:42 qui va le mettre à disposition,
01:40:44 de même que les deux articles
01:40:46 qui en gros
01:40:48 m'ont servi de base pour...
01:40:50 Merci. Merci beaucoup.
01:40:52 Ah oui, Jean-Paul
01:40:54 m'envoie
01:40:56 un très intéressant
01:40:58 extrait d'une revue
01:41:00 pour la science. Merci
01:41:02 Jean-Paul. Est-ce que
01:41:04 tout le monde peut se demander
01:41:06 à recevoir ? Oui,
01:41:08 il y a un nombre limité
01:41:10 de personnes à qui je transmets.
01:41:12 Merci à vous. En tout cas c'était très intéressant.
01:41:14 Ces articles
01:41:16 ont plaisir. En tout cas,
01:41:18 votre présentation était vraiment
01:41:20 très intéressante et c'est absolument bluffant
01:41:22 ce que l'on peut voir.
01:41:24 Merci beaucoup. Merci à tous.
01:41:26 Et puis rendez-vous le 15
01:41:28 avril. Au revoir.
01:41:30 Merci beaucoup. Merci, au revoir.
01:41:32 Merci aux organisateurs
01:41:34 également. Merci à vous.
01:41:36 Merci Jean-Paul.
01:41:44 Et pour ceux qui vont,
01:41:46 à bientôt au FIC.
01:41:48 À bientôt.
01:41:50 Tous les renseignements
01:41:52 sur la conférence qui vient de se terminer
01:41:54 seront sur le site de l'Arxis
01:41:56 et l'Arxis
01:41:58 sera au FIC
01:42:00 sur le stand D56
01:42:02 du 8. J'ai une question

Recommandations