ChatGPT, nouvel agent conversationnel en ligne fait la Une des médias depuis plusieurs semaines. Entre maîtrise presque parfaite des langues humaines, raisonnements logiques mais aussi incohérences et fake news : faut-il craindre les intelligences artificielles ? C'est le sujet du Talk franceinfo. Tous les soirs à partir de 18 heures, Manon Mella et ses invités débattent avec les internautes de la chaîne Twitch de franceinfo.
Category
🗞
NewsTranscription
00:00 (Musique)
00:02 (Musique)
00:04 (Musique)
00:06 (Musique)
00:08 (Musique)
00:10 (Musique)
00:12 (Musique)
00:14 (Musique)
00:16 (Musique)
00:18 (Musique)
00:20 (Musique)
00:30 (Musique)
00:42 (Musique)
00:44 (Musique)
00:54 (Musique)
01:04 (Musique)
01:06 (Musique)
01:16 (Musique)
01:26 (Musique)
01:28 (Musique)
01:38 (Musique)
01:48 (Musique)
01:50 (Musique)
02:00 (Musique)
02:10 (Musique)
02:12 (Musique)
02:22 (Musique)
02:32 (Musique)
02:34 (Musique)
02:44 (Musique)
02:54 (Musique)
02:56 (Musique)
03:06 (Musique)
03:16 (Musique)
03:18 (Musique)
03:28 (Musique)
03:38 (Musique)
03:40 (Musique)
03:42 (Musique)
03:44 (Musique)
03:46 (Musique)
03:48 (Musique)
03:50 (Musique)
03:52 (Musique)
03:54 (Musique)
03:56 (Musique)
03:58 (Musique)
04:00 Bonsoir tout le monde, bienvenue dans le talk de France Info.
04:02 Ravi de vous retrouver en ce lundi.
04:04 On est ensemble pendant une heure
04:06 sur Twitch et en podcast.
04:08 Comment s'est passé votre week-end ?
04:10 Racontez-moi un peu, est-ce que vous allez bien ?
04:12 Libre audio, hello,
04:14 je rédige une synthèse en ce moment sur l'utilisation
04:16 de l'intelligence artificielle en formation.
04:18 Ce live tombe bien, parfait.
04:20 Libre audio, n'hésitez pas alors à poser vos questions
04:22 aux invités qui sont avec nous
04:24 pendant toute l'heure.
04:26 Ce soir, on va terminer
04:28 un tout petit peu plus tôt d'ailleurs que d'habitude
04:30 puisqu'à 19h,
04:32 il y a d'ailleurs déjà une personne dans le chat
04:34 qui me l'a fait remarquer.
04:36 Il y a nos collègues de France Télévisions
04:38 qui vont commencer un stream à 19h pile
04:40 sur cette même chaîne,
04:42 donc sur la chaîne Twitch de France Info
04:44 avec Samuel Etienne et la journaliste Christelle Méral
04:46 qui recevront le porte-parole du gouvernement,
04:48 Olivier Véran.
04:50 Voilà, à 19h pile.
04:52 Moi, je rendrai l'antenne,
04:54 comme on dit à la radio et à la télévision,
04:56 à 18h55.
04:58 Comme ça, ça leur laissera le temps
05:00 de démarrer le leur.
05:02 Voilà,
05:04 "Rédiger ta synthèse par une..."
05:06 Ah oui, Citrouille qui dit "Il faut faire
05:08 rédiger ta synthèse par une intelligence artificielle".
05:10 C'est le sujet justement
05:12 ce soir dans le talk.
05:14 Aujourd'hui, on s'intéresse à l'intelligence artificielle
05:16 et en particulier à
05:18 ChatGPT, puisqu'on en parle
05:20 quand même beaucoup en ce moment. C'est pas la première fois
05:22 d'ailleurs que l'IA suscite
05:24 de l'intérêt, mais c'est vrai que ChatGPT
05:26 a fait quand même pas mal de bruit, probablement
05:28 parce que cette intelligence artificielle
05:30 est accessible à tous
05:32 et gratuite depuis quelques mois.
05:34 Voilà, on lui pose des questions par écrit
05:36 et le robot produit des réponses dans un
05:38 flot de paroles assez naturel d'ailleurs.
05:40 Il y a même nos collègues de France Inter
05:42 qui ont... Sonia De Villers
05:44 qui a carrément fait une interview
05:46 qui a interviewé ChatGPT.
05:48 Voilà, ChatGPT qui peut même
05:50 rédiger des poèmes ou des chansons.
05:52 Est-ce que vous vous êtes déjà servi
05:54 de ce robot conversationnel,
05:56 le chat ? Racontez-nous
05:58 un petit peu ce que vous en avez
06:00 pensé. Dites-nous si
06:02 ça suscite de l'inquiétude
06:04 ou pas du tout.
06:06 N'hésitez pas, racontez-nous ça
06:08 maintenant et puis après je reviendrai vers vous.
06:10 ChatGPT qui fascine
06:12 en tout cas et qui parfois inquiète aussi
06:14 tout comme l'intelligence
06:16 artificielle de manière générale
06:18 et depuis longtemps. Science Po a déjà pris la décision
06:20 d'ailleurs d'interdire ChatGPT
06:22 pour éviter la triche. Est-ce que
06:24 vous avez vu ça ? Les élèves qui s'y risqueraient
06:26 pourraient même être renvoyés.
06:28 Alors est-ce que ChatGPT marque un véritable
06:30 tournant ou est-ce qu'il s'inscrit dans la
06:32 continuité d'une histoire globale
06:34 de l'intelligence artificielle
06:36 qui est entamée déjà depuis de
06:38 nombreuses années ? Faut-il vraiment
06:40 avoir peur de l'intelligence artificielle ?
06:42 Comment vivre avec sans se laisser dépasser
06:44 par la technologie ?
06:46 L'intelligence artificielle va transformer
06:48 nos sociétés mais jusqu'où ?
06:50 Pour nous aider à comprendre tout ça,
06:52 nos invités, Laurence De Villers, bienvenue.
06:54 - Bonjour, merci. - Bonsoir.
06:56 Vous êtes professeure en
06:58 intelligence artificielle à l'université
07:00 Paris-Sorbonne, membre du comité
07:02 national pilote d'éthique du numérique, également,
07:04 autrice de la tribune
07:06 "ChatGPT, saluer l'avancée technologique
07:08 mais comprendre les limites de
07:10 ce type de système", publié
07:12 dans le journal Le Monde, votre
07:14 dernier livre "Les robots
07:16 émotionnels, santé, surveillance, sexualité
07:18 et l'éthique dans tout ça". Voilà,
07:20 il est là le livre. Vous pouvez le montrer
07:22 aux éditions de l'Observatoire.
07:24 Bienvenue. Jean-Gabriel
07:26 Ganasia, bonsoir.
07:28 - Bonsoir. - On prononce bien Ganasia ? - Oui, tout à fait.
07:30 - Informaticien, philosophe,
07:32 professeur à la faculté
07:34 des sciences de la Sorbonne et président
07:36 du comité d'éthique du CNRS,
07:38 auteur de "Intelligence
07:40 artificielle vers une domination programmée",
07:42 aux éditions de Cavalier Bleu,
07:44 et j'ai noté aussi "Servitude virtuelle",
07:46 aux éditions du Seuil. Bienvenue
07:48 à vous. Avant qu'on attaque
07:50 le débat, je vais vous montrer une petite
07:52 image, le
07:54 chat, peut-être que vous l'avez vu.
07:56 Alors nous, ce soir, on a un vrai chat.
07:58 Ce n'est pas "Chat GPT" dans le chat, ce sont des vrais
08:00 "gens", entre guillemets, qui sont derrière
08:02 leur ordinateur. Je vous montre
08:04 cette image et puis après, peut-être
08:06 une petite réaction.
08:08 [Musique]
08:10 [Musique]
08:13 [Musique]
08:16 [Musique]
08:19 [Musique]
08:21 [Musique]
08:48 Donc on voit, est-ce que
08:50 vous avez bien vu, bien entendu, l'extrait
08:52 dans le chat ? On voit donc une conductrice
08:54 qui est en train de dormir profondément
08:56 au volant de sa nouvelle
08:58 Tesla, visiblement. Donc la voiture
09:00 qui continue de rouler sur une autoroute
09:02 bien chargée. Donc ça suscite
09:04 vraiment la
09:06 curiosité, voire
09:08 presque la colère
09:10 d'une autre conductrice qui la filme.
09:12 Pourquoi ? Comment est-ce qu'on
09:14 explique ce genre de réaction ? Pourquoi ça suscite
09:16 ce genre de réaction de voir une voiture
09:18 rouler un peu toute seule ?
09:20 - Ah oui. - Laurence ?
09:22 - En fait, d'abord on n'est pas du tout
09:24 habituée à ça et puis les
09:26 voitures ne sont pas toutes autonomes. Donc c'est
09:28 compliqué en ce moment d'imaginer
09:30 une circulation avec des voitures autonomes et des
09:32 moins autonomes. Parce que
09:34 la voiture
09:36 ne va pas pouvoir anticiper tout ce
09:38 que font les humains dans leur voiture.
09:40 Alors que si c'était une voiture autonome, ça serait
09:42 plus facile. Et puis l'autre chose,
09:44 c'est que la personne est plus vigilante.
09:46 Elle ne pourra pas reprendre
09:48 le contrôle s'il arrive quoi que ce soit.
09:50 Et donc c'est ça qui fait très très peur.
09:52 Et pour l'instant,
09:54 il est important
09:56 de comprendre qu'on a besoin de s'adapter
09:58 à ces systèmes et
10:00 être vigilants sur
10:02 leur façon de les amener
10:04 dans la société. Parce qu'on va le voir
10:06 pour la médecine, on va le voir pour Chad Gepetit
10:08 dont on va parler, je pense, dans cette
10:10 émission. Si on n'est pas
10:12 suffisamment alerté,
10:14 si on ne comprend pas bien les limites de ces
10:16 systèmes, on peut s'endormir devant,
10:18 faire confiance, croire que c'est la vérité
10:20 et souvent se tromper.
10:22 Parce que la machine se trompe. Nous nous
10:24 trompons, on fait des erreurs.
10:26 Nous, humains, on perçoit l'environnement
10:28 mais on est capable de ne pas percevoir tout.
10:30 Et la machine a une autre perception qui n'est pas
10:32 du tout humaine. Et même si elle parle,
10:34 c'est une machine parlante. C'est
10:36 un système automatique qui n'a aucune
10:38 conscience, aucune pensée et qui
10:40 est capable de vous dire à la fois quelque chose de très bien
10:42 ou de très faux. Donc dans la voiture,
10:44 elle a une perception de l'environnement
10:46 et elle peut aussi se tromper.
10:48 Il est essentiel de
10:50 rester vigilant encore au volant
10:52 devant ces machines quand on
10:54 roule dans une Tesla aujourd'hui.
10:56 - Jean-Gabriel, une réaction à ces images
10:58 qu'on vient de voir, cette femme endormie au volant
11:00 de sa Tesla et puis l'autre conductrice qui est
11:02 vraiment à basse route. - C'est assez
11:04 traumatisant, effectivement, parce que
11:06 les Teslas ne sont pas faites pour cela.
11:08 - C'est pas le but. - Voilà, c'est pas le but.
11:10 On doit avoir les mains sur le volant
11:12 et rester absolument vigilant.
11:14 Ce sont des assistances à la conduite
11:16 mais pas une conduite
11:18 d'automatique ou autonome.
11:20 La question de l'autonomie est un tout petit peu délicate
11:22 et on ne discutera pas ici.
11:24 C'est de l'autonomie au sens
11:26 technologique. Mais
11:28 elles ne sont pas autonomes. Elles peuvent
11:30 éviter, effectivement,
11:32 les carambolages.
11:34 Elles sont faites pour respecter
11:36 les distances.
11:38 Il y a un régulateur de vitesse
11:40 mais de là à
11:42 avoir un véritable automatisme,
11:44 nous en sommes très loin et on recommande
11:46 de ne pas le faire. Et c'est bien sûr le danger
11:48 de ces automatismes, c'est que ça conduit
11:50 à des formes de perte de vigilance.
11:52 Et tous les spécialistes de facteurs humains
11:54 savent qu'effectivement,
11:56 il faut être très prudent. Vous voyez, par exemple,
11:58 on le sait sur les accidents
12:00 d'avion, ils sont souvent
12:02 dus à ce que les pilotes
12:04 à un moment donné
12:06 sont un peu déconnectés.
12:08 Donc la difficulté, c'est ce qu'on appelle les changements
12:10 de mode. C'est au moment où il faut se réadapter
12:12 à la situation
12:14 en cours. Et là,
12:16 bien sûr, c'est beaucoup plus problématique parce que dans
12:18 le cas des pilotes d'avion, bon,
12:20 ils sont quand même entraînés. On a
12:22 étudié de façon
12:24 rétrospective les accidents auxquels ça a pu conduire
12:26 mais là, tout le monde peut être dans sa voiture
12:28 et être un peu
12:30 assoupi. - Mais d'ailleurs,
12:32 Tesla a réagi en disant
12:34 "Attention, le système de pilotage
12:36 automatique peut assister les conducteurs
12:38 mais ne rend pas le véhicule autonome".
12:40 - Le véhicule devrait savoir
12:42 que le conducteur dort.
12:44 Il devrait avoir un moyen de le révéler
12:46 par un bic ou quelque chose. - Oui, mais je pense
12:48 qu'elle avait les mains sur
12:50 le volant parce que normalement, il faut avoir
12:52 les mains sur le volant. - On le voit un petit peu,
12:54 on le voit sur l'image. - Il n'y a pas d'activité
12:56 sur les mains, donc ça veut dire qu'il pourrait quand même
12:58 descendre. - Il faudrait descendre.
13:00 - Le rythme cardiaque ou quelque chose comme ça.
13:02 - Pour l'instant, il n'y a pas
13:04 cette boucle. - C'est ça,
13:06 le vrai sujet, c'est l'interaction
13:08 humain-machine. On fait des
13:10 machines qui ont certaines capacités, mais si on n'est
13:12 pas capable d'interagir correctement ou de
13:14 comprendre les capacités de la machine, on
13:16 va aller trop loin, on va trop
13:18 s'en méfier et ne pas utiliser. - Détecter
13:20 que le conducteur
13:22 dort, c'est bien pour les Tesla
13:24 mais c'est vrai pour les autres voitures aussi.
13:26 - On est d'accord.
13:28 Alors, Libre Audio,
13:30 je vois
13:32 ta question, je vais la poser,
13:34 je pose d'abord la mienne et ensuite
13:36 je pose la tienne. Est-ce que vous pouvez nous expliquer
13:38 ce que c'est
13:40 ChatGPT ?
13:42 Et ce que ça permet de faire ? Laurence ?
13:44 - ChatGPT, c'est une machine parlante,
13:46 c'est un système automatique capable
13:48 de répondre à un début
13:50 de phrase, qui n'est pas forcément
13:52 une question, ça ne répond pas aux questions
13:54 telles qu'on l'entend, nous,
13:56 entre humains. C'est-à-dire qu'il n'y a pas
13:58 de raisonnement, de pensée derrière tout cela,
14:00 il y a un gros modèle de langage
14:02 qui a agglutiné des milliards de données
14:04 qui viennent d'Internet,
14:06 deux sites en anglais, deux sites dans d'autres langues
14:08 qui sont traduits, tout ça est ramené
14:10 à une espèce de puzzle
14:12 qui ne correspond même pas à des mots,
14:14 il y a des entités
14:16 qui sont en dessous du mot,
14:18 c'est des suites de caractères, et en fait ça
14:20 apprie tout le contexte de la phrase.
14:22 L'idée, c'est que vous avez une phrase,
14:24 j'enleve un mot, et la machine apprend à
14:26 dire le mot en regardant tout le contexte
14:28 autour, tous les mots qui peuvent arriver autour.
14:30 Et donc avec des systèmes comme ça,
14:32 on est capable de créer
14:34 un contexte sémantique parce qu'il est
14:36 inclus, si vous voulez, dans la succession des mots qu'on utilise.
14:38 Et puis on a l'impression de parler
14:40 dans une conversation, et ce n'est pas une conversation,
14:42 parce que le système a une certaine
14:44 mémoire de ce que vous dites,
14:46 et donc il ne s'adapte pas vraiment à nous,
14:48 il prend juste en compte les différentes
14:50 phrases que vous avez prononcées, avec un buffer
14:52 d'ailleurs, enfin, un buffer,
14:54 une mémoire assez courte finalement,
14:56 donc il doit y avoir une sélection
14:58 particulière, on ne connaît pas tout,
15:00 tout n'est pas complètement transparent. Ce qu'il faut comprendre, c'est que
15:02 ces systèmes dont on a peur, qui sont
15:04 des systèmes dits automatiques, ils ont été faits
15:06 par beaucoup d'humains, qui ont choisi les données,
15:08 qui optimisent le système,
15:10 qui choisissent des algorithmes,
15:12 derrière, on a demandé aussi à des humains
15:14 de juger les réponses que faisait le système,
15:16 il y a des humains qui ont censuré,
15:18 qui ont enlevé certains sujets parce que
15:20 ce n'était pas politiquement correct, mais
15:22 on ne s'est pas encore vraiment posé les bonnes questions,
15:24 c'est-à-dire, on n'a pas réalisé
15:26 qu'il faut faire attention au biais,
15:28 peut-être qu'ils ne parlent
15:30 pas autant, ou de la même façon
15:32 de toutes les religions, peut-être qu'ils ne parlent pas
15:34 de la même façon des hominidés, enfin je ne sais pas, il y a un certain
15:36 nombre de sujets qu'il faut vérifier,
15:38 et puis cette machine, comme elle ne pense pas,
15:40 qu'elle ne réfléchit pas, qu'elle n'a pas d'histoire,
15:42 elle est hors sol, hors corps,
15:44 et hors espace,
15:46 quelque part, 3D, le nôtre,
15:48 c'est une machine qui parle
15:50 avec une parole totalement inhumaine,
15:52 et je dis pas centré sur un individu ni une culture,
15:54 c'est un mélange de cultures, tout ce qu'elle connaît,
15:56 et puis elle n'a pas d'idée de temporalité,
15:58 donc elle va se tromper dans les dates,
16:00 d'ailleurs elle ne s'est pas tellement dénombrée,
16:02 on pourrait améliorer encore ce système,
16:04 mais ce qui est très intéressant, et la vraie rupture,
16:06 c'est qu'on puisse jouer avec.
16:08 Alors c'est paradoxal parce qu'on est cobayes,
16:10 et on est en train d'optimiser le système pour eux,
16:12 - Oui, on contribue aussi nous-mêmes à améliorer
16:14 la technologie. - Et en même temps, je dirais que
16:16 c'est vraiment un système qui montre
16:18 les failles, et qu'il faut absolument
16:20 comprendre ses limites, et c'est l'occasion
16:22 là, d'aller plus loin que j'eusse joué avec.
16:24 C'est-à-dire qu'il ne faut pas se
16:26 retrouver dans cette situation, vraiment, d'être extérieur,
16:28 je pense qu'il faut de plus en plus
16:30 qu'on apprenne ce qu'est les vraies limites
16:32 de ces systèmes.
16:34 - On va revenir sur les limites,
16:36 les questions d'éthique notamment,
16:38 et aussi qui sont les humains
16:40 derrière cette technologie.
16:42 Jean-Gabriel peut-être sur
16:44 Laurence qui disait
16:46 "Ce n'est pas une conversation"
16:48 - Non, pas du tout.
16:50 - Et Chad Jibidi ne répond pas.
16:52 - Je crois qu'il y a deux points.
16:54 Le premier, c'est au plan
16:56 technique, comme l'a dit Laurence,
16:58 ce sont des gros modèles de langage qui sont
17:00 entraînés sur d'immenses corpus
17:02 avec des réseaux de neurones formels,
17:04 ce qu'on appelle de l'apprentissage profond,
17:06 et ce sont
17:08 des machines énormes. Il y a des centaines
17:10 de milliards de paramètres. - 175
17:12 milliards, je l'ai noté. - Voilà, c'est ça.
17:14 - Et ça coûte extrêmement cher en énergie.
17:16 Et puis il y a ensuite un autre
17:18 type d'apprentissage, c'est ce qu'on appelle le
17:20 apprentissage par renforcement, ce qui fait que ça va donner
17:22 le mot le plus plausible.
17:24 Alors, comment on pourrait caractériser
17:26 ça de façon intuitive ?
17:28 Et bien ce sont des perroquets.
17:30 C'est-à-dire qu'ils répètent ce qu'on leur a dit.
17:32 Comme un perroquet, ils ne comprennent
17:34 pas, mais ils répètent.
17:36 Et il y a un terme qui a été
17:38 introduit par une américaine
17:40 qui travaillait chez Google et qui critiquait justement
17:42 l'emploi qui était fait de ces gros modèles
17:44 de langage. Elle appelait ça des perroquets
17:46 stochastiques. Alors, qu'est-ce que ça veut dire "stochastique" ?
17:48 Ça veut dire que ça utilise l'aléatoire.
17:50 Et donc, effectivement, ce sont
17:52 des machines qui répètent ce qu'il
17:54 est de bon ton de dire et
17:56 qui le font, effectivement, avec une
17:58 certaine mémoire sur la distance.
18:00 Et ce qui est étonnant, ce qui nous a tous surpris,
18:02 c'est que le résultat
18:04 se tient à peu près. C'est-à-dire que les phrases
18:06 sont assez bien construites,
18:08 que le vocabulaire est assez large
18:10 et qu'il y a un enchaînement entre les phrases.
18:12 - C'est assez fluide, oui, en plus.
18:14 - Ils disent ce qu'il convient
18:16 de dire. En revanche,
18:18 effectivement, il n'y a aucun sens.
18:20 - Oui, il y a des erreurs.
18:22 - Oui, bien sûr. Je veux dire, ils disent...
18:24 - Ou des gros raccourcis. - Ils disent ce qu'il convient de dire
18:26 en ce sens où il n'y a pas de sens.
18:28 Simplement, ils enchaînent les mots
18:30 d'une façon qui est assez plausible.
18:32 Et quand on ne fait pas attention,
18:34 on peut se faire avoir.
18:36 Bien sûr, ensuite, dès qu'on confronte ce qui est dit
18:38 à la réalité, on se rend compte
18:40 d'énormes erreurs. Parce qu'il n'y a pas
18:42 de confrontation, il n'y a pas de recherche dans des bases
18:44 de données, il n'y a pas
18:46 d'essais de détection d'incohérences,
18:48 etc. - Pas encore, oui.
18:50 - Oui, mais ça, ça va arriver.
18:52 - Ça va certainement arriver. Mais en tout cas,
18:54 pour l'instant, ce sont
18:56 des machines qui font
18:58 énormément d'erreurs.
19:00 - Je ne sais plus jusqu'à quel
19:02 point il n'y a pas ça. Parce que dans Lambda,
19:04 par exemple, de Google, qui est la même machine,
19:06 qui est un perroquet savant, il y avait
19:08 ce type de vérification.
19:10 - Là, visiblement, il n'y en a pas. Parce qu'il y a tellement
19:12 de bêtises dans ce qu'il dit.
19:14 C'est étonnant.
19:16 - Samouraï of Anarchie, dans le chat,
19:18 qui dit "Pour moi, ChatGPT n'est qu'une étape
19:20 dans le développement des
19:22 intelligences artificielles et je trouve ça hyper
19:24 intéressant". Et je vous prends
19:26 la question de Libre Audio, qui vous
19:28 demande "Quels usages du ChatGPT
19:30 pouvons-nous imaginer
19:32 pour le secteur de la formation, pour les
19:34 professeurs, les élèves ? Merci".
19:36 - On peut imaginer pour beaucoup de choses.
19:38 - On a plein d'idées, je crois.
19:40 - Pour les mathématiques.
19:42 Ça nous permet de rechercher
19:44 sur un large
19:46 espace sans frontières
19:48 de culture, d'ailleurs.
19:50 Puisque ça agglutine
19:52 beaucoup de
19:54 connaissances qui étaient
19:56 en anglais, qui sont
19:58 traduites sans doute dans d'autres langues aussi.
20:00 C'est vraiment très intéressant.
20:02 Et par contre, il faut
20:04 apprendre justement à jouer avec ça,
20:06 à comprendre ce que ça apporte de
20:08 créatif, de nouveau,
20:10 de questionnant. Et en même temps,
20:12 déceler ce qui est faux, déceler
20:14 ce qui n'a aucune
20:16 teneur. On est devant de la fiction.
20:18 Alors des gens disent "Il a
20:20 beaucoup d'imagination", mais c'est pas ça l'imagination
20:22 quelque part. Là, ça ressemble
20:24 à du stochastique. C'est l'imagination
20:26 par le hasard,
20:28 et par les fréquences d'apparition des mots.
20:30 Donc on arrive à quelque chose
20:32 qui ne se tient pas beaucoup.
20:34 Après, c'est vrai que
20:36 plus vous posez de questions, plus
20:38 vous affinez finalement le regard que vous aviez.
20:40 - Oui, il faut définir au maximum.
20:42 - Alors quand on sait la taille du buffer,
20:44 c'est-à-dire le nombre de contextes que prend le système,
20:46 on peut être plus habile finalement
20:48 pour arriver à une réponse
20:50 à peu près cohérente. Mais
20:52 il apprend pas. C'est-à-dire que la mémoire
20:54 n'est pas enrichie en fonction de ce
20:56 que vous avez dit. Alors le système, il a été
20:58 construit à partir de données en 2021,
21:00 donc il y a des trous aussi dans la raquette.
21:02 Bon, donc on est devant
21:04 quelque chose de stupéfiant
21:06 et ayant beaucoup de limites.
21:08 Donc il faut apprendre à le manipuler.
21:10 Et je pense que les élèves ont tout à gagner
21:12 à savoir effectivement
21:14 l'utiliser. Parce que sinon, ils vont l'utiliser tout seul,
21:16 ils vont finalement mal l'utiliser.
21:18 - Et être sanctionnés, si jamais
21:20 ils les utilisent. - Et être sanctionnés, parce que
21:22 ça sera du copier-copier, du plagiat. Alors ce qu'il faut
21:24 apprendre, c'est vraiment à comprendre
21:26 et finalement aller chercher justement
21:28 à apprendre ce que c'est d'avoir ce libre-arbitre.
21:30 C'est-à-dire confronter plusieurs
21:32 façons de voir les choses et trouver ce qui
21:34 apparaît le plus vraisemblable
21:36 qui a été cité par un tel ou un tel
21:38 mais qui ne vient pas de la machine.
21:40 Avant, on avait Google. Ils nous donnaient
21:42 un ranking, enfin un choix
21:44 multiple à travers
21:46 des algorithmes qui n'étaient pas justes non plus.
21:48 C'est-à-dire qu'il y avait aussi des abus dans
21:50 la façon d'amener les réponses.
21:52 Mais ils vous disaient pas "Voilà, la réponse c'est ça".
21:54 Maintenant, si on est paresseux,
21:56 on a directement une réponse possible.
21:58 Méfiez-vous
22:00 de la première réponse qui arrive.
22:02 Il faut rester en éveil
22:04 et apprendre à avoir
22:06 un questionnement par rapport aux réponses
22:08 et aux méthodologies de cette machine. - On a Ju Graf dans le
22:10 tchat qui nous dit "Bonsoir, l'intelligence artificielle
22:12 n'a pas pu ouvrir l'onglet de mon navigateur
22:14 web. Attends." Jean-Gabriel,
22:16 une réaction ?
22:18 Ou peut-être une réponse à
22:20 Guillaume FR qui dit "Pour quels usages
22:22 tchat GPT est-il le mieux
22:24 adapté ?" - Oui, je crois
22:26 que c'est la question. Comment
22:28 on va pouvoir utiliser
22:30 ce type de choses ?
22:32 Et bien sûr, il y a
22:34 les utilisations classiques
22:36 dans le domaine de l'éducation.
22:38 C'est ce dont on parlait.
22:40 Bien sûr, la première idée qu'on a, c'est
22:42 de faire rédiger sa
22:44 dissertation ou
22:46 de répondre à la place.
22:48 Mais à mon sens, c'est le plus mauvais
22:50 des usages que l'on puisse en faire. Parce que
22:52 d'abord, le texte est assez
22:54 plat. C'est-à-dire que même s'il nous
22:56 surprend, même si en tant qu'enseignant
22:58 on se dit "Ah bah tiens, c'est meilleur
23:00 que", j'ose pas le dire, "que ce qu'écrivent
23:02 un certain nombre de nos élèves."
23:04 Mais c'est meilleur parce que, syntaxiquement,
23:06 c'est à peu près correct. Mais en même temps,
23:08 le sens est bien sûr
23:10 très, très pauvre.
23:12 Et surtout, bien sûr, ce sont des lieux
23:14 communs. Et de ce point de vue-là, je crois que
23:16 ce que l'on peut apprendre avec
23:18 Chats-GPT, c'est quelles sont
23:20 les banalités, quelles sont les idées
23:22 toutes faites, quelles sont les sottises qu'il y a.
23:24 Et donc, pour un bon élève, c'est
23:26 extrêmement utile. Parce qu'il peut
23:28 se démarquer de ça. Et si jamais
23:30 il a une idée en tête et qu'il voit qu'elle est là-dessus,
23:32 il doit se questionner, se dire "Est-ce que c'est une
23:34 bonne idée ou une mauvaise idée ?" Donc je pense que
23:36 c'est un outil qui pourrait être extrêmement
23:38 précieux pour repérer
23:40 les lieux communs.
23:42 Et à partir de ça, pour s'en démarquer,
23:44 pour essayer d'être plus original,
23:46 pour se demander, parmi les lieux
23:48 communs, quel est le type
23:50 de vraisemblance ou d'invraisemblance
23:52 qui est derrière ce
23:54 lieu commun. Donc ça, c'est
23:56 une bonne utilisation, bien sûr,
23:58 de Chats-GPT. Il y en a
24:00 d'autres, bien sûr, dans d'autres
24:02 secteurs. Il y en a qui sont tout à fait
24:04 légitimes, comme celle que je viens d'évoquer.
24:06 D'autres qui sont moins. On sait, par exemple,
24:08 que Chats-GPT, ou plus
24:10 exactement, GPT, l'ancêtre de Chats-GPT,
24:12 est utilisé pour tromper.
24:14 Par exemple, vous savez
24:16 qu'il y a beaucoup d'articles scientifiques
24:18 qui ont été écrits avec
24:20 un modèle de langage. Il y a
24:22 d'ailleurs eu un
24:24 rapport écrit par le COPPE,
24:26 Committee on Publication Ethics, qui
24:28 s'inquiétait de cette
24:30 dérive. Alors ce sont des officines,
24:32 en particulier en Asie,
24:34 qui, parce que les
24:36 chercheurs ont besoin d'avoir des facteurs d'impact
24:38 extrêmement importants, de publier beaucoup.
24:40 Et donc, ces officines, on leur dit, "Voilà, compte un peu d'argent.
24:42 On vous écrit un article
24:44 avec les références et vous pouvez le soumettre."
24:46 Alors là, c'est extrêmement embêtant
24:48 parce que ça veut dire que ces revues vont être
24:50 encombrées d'articles.
24:52 Certains, alors d'abord, les
24:54 relecteurs auront un travail
24:56 extrêmement important. Et puis, d'autre part,
24:58 c'est fondé sur rien. Et puis, ça peut être très malhonnête
25:00 parce que c'est du plagiat d'idées.
25:02 Alors, quand on avait du plagiat vrai,
25:04 on pouvait le détecter parce qu'on a des techniques qui peuvent
25:06 le faire. Mais le plagiat d'idées, c'est beaucoup plus difficile.
25:08 Il suffit que quelqu'un ait une petite idée
25:10 qu'il ait vue dans un article, hop, il la reprend.
25:12 Il a genre un article qui est complètement différent.
25:14 - On va réagir les expériences, tu vois.
25:16 - Ah, c'est pas évident.
25:18 Si, ils ont repris des expériences qui existaient.
25:20 Enfin, moi, c'est ce que j'ai compris.
25:22 - On va revenir sur cette question de comment détecter
25:24 aussi la provenance de
25:26 l'information. Mais Laurence, peut-être d'autres
25:28 bons usages ? - Il y a d'autres usages.
25:30 Mais juste pour aller dans cette direction,
25:32 c'est à la fois extrêmement pertinent. En même temps,
25:34 on risque de perdre notre orthographe.
25:36 - On peut perdre des choses.
25:38 - On peut pas nous rédiger en mémoire d'orthographe.
25:40 Peut-être meilleur que beaucoup d'entre nous.
25:42 - Ils se basent où d'ailleurs ? C'est quoi la source ?
25:44 - C'est la concurrence
25:46 de termes.
25:48 - La syntaxe, c'est pas le dictionnaire.
25:50 - C'est pas le dictionnaire.
25:52 - C'est l'enchaînement.
25:54 - C'est pas tant
25:56 que ça fasse perdre l'orthographe, parce que le fait
25:58 de lire des textes avec une borne en orthographe,
26:00 ça n'est pas mauvais.
26:02 - Mais par parage, je ne réfléchis plus.
26:04 - Mais c'est surtout que ça va faire perdre
26:06 la capacité à rédiger, de façon plus générale.
26:08 - Je perds la capacité à vérifier
26:10 si la syntaxe est correcte moi-même.
26:12 - Ça c'est ennuyeux. - Non, autre chose.
26:14 Moi je pense toujours à
26:16 la grande limitation qu'on avait
26:18 avant d'avoir des générateurs comme ceux-là.
26:20 C'est-à-dire qu'on n'intégrait pas
26:22 de contexte sémantique assez large
26:24 dans beaucoup de tâches.
26:26 On était obligés d'écrire beaucoup
26:28 de règles, ou d'avoir
26:30 beaucoup de données.
26:32 Et là, on a d'un seul coup des modèles
26:34 qui ont encapsulé
26:36 de la sémantique.
26:38 Donc on peut l'utiliser avec un robot qui vous parle, par exemple.
26:40 Si je veux assister quelqu'un,
26:42 ce robot peut aider, parce que là
26:44 il connaît plus que juste
26:46 un petit spectre sémantique
26:48 qui est lié à l'aide aux personnes âgées,
26:50 aux enfants,
26:52 pour aider à
26:54 faire ses devoirs,
26:56 ou des choses comme ça.
26:58 Donc il y a une grande...
27:00 à mon avis, de nombreuses applications
27:02 qui vont être très bénéfiques autour.
27:04 Donc il ne faut pas avoir peur.
27:06 C'est-à-dire que moi j'ai entendu
27:08 des phrases dites par Elon Musk, par exemple,
27:10 qui étaient "ChatGPT fait peur,
27:12 nous ne sommes pas loin d'une IA
27:14 qui serait dangereuse
27:16 et qui se rapproche de l'être humain".
27:18 Bon, bah non ! Absolument pas.
27:20 - Oui, il y a toute une rhétorique autour de...
27:22 - Et donc ce marketing là, émotionnel,
27:24 autour des capacités de ChatGPT,
27:26 je pense que c'est une très
27:28 très mauvaise façon
27:30 d'avancer dans la science,
27:32 parce que c'est de l'esbrouf,
27:34 c'est pour faire vendre des systèmes,
27:36 et le rapport à la vérité,
27:38 qui est celui qu'on essaie de pousser, nous, chercheurs,
27:40 c'est de dire "Bon, il y a d'énormes capacités,
27:42 on va pouvoir faire des choses vraiment intéressantes
27:44 pour des problèmes de vulnérabilité,
27:46 pour des problèmes de perte de sens
27:48 dans le grand âge, on va perdre ces mots,
27:50 on va perdre le sens des phrases, et si on a des objets
27:52 comme ça qui peuvent nous aider, nous stimuler,
27:54 c'est très bien. Il faut, ceci dit,
27:56 normaliser, il faut trouver les cadres.
27:58 - Il parle un peu à notre place.
28:00 - Vous êtes optimiste, mais c'est vrai,
28:02 je suis très optimiste. - Je ne suis pas aussi optimiste que ça.
28:04 Mais là où, effectivement,
28:06 ce que dit Elon Musk
28:08 n'a aucun sens, c'est que, lui,
28:10 il a une théorie derrière, c'est que
28:12 l'intelligence artificielle, en se développant,
28:14 risque de conduire à ce qu'il appelle un risque existentiel,
28:16 pour l'humanité.
28:18 Or, ça, ça n'a rien à voir.
28:20 Il enchaîne des mots, de façon
28:22 à peu près plausible.
28:24 - Sans conscience et sans intention.
28:26 - Sans conscience et sans intention.
28:28 Donc ça ne veut pas dire qu'un jour, on n'arrivera pas à rajouter
28:30 ensuite une conscience et une intention.
28:32 - Après ça, il faut le savoir, mais il y a peut-être
28:34 des gens qui ne se rendent pas
28:36 compte aussi de cette différence-là. Est-ce que vous comprenez
28:38 peut-être
28:40 la crainte
28:42 des gens, quand on sait
28:44 aussi, notamment, que
28:46 qui a inventé cette technologie,
28:48 à qui appartient
28:50 Chad J. Petey, à Elon Musk,
28:52 voilà, il y a quand même... - C'est plus à Elon Musk,
28:54 non, non, c'est pas à Elon Musk. - Ah, il ne fait pas partie ?
28:56 - Non, non, mais c'est lui qui était le fondateur
28:58 de l'opinion.