• l’année dernière
ChatGPT, nouvel agent conversationnel en ligne fait la Une des médias depuis plusieurs semaines. Entre maîtrise presque parfaite des langues humaines, raisonnements logiques mais aussi incohérences et fake news : faut-il craindre les intelligences artificielles ? C'est le sujet du Talk franceinfo. Tous les soirs à partir de 18 heures, Manon Mella et ses invités débattent avec les internautes de la chaîne Twitch de franceinfo.

Category

🗞
News
Transcription
00:00 (Musique)
00:02 (Musique)
00:04 (Musique)
00:06 (Musique)
00:08 (Musique)
00:10 (Musique)
00:12 (Musique)
00:14 (Musique)
00:16 (Musique)
00:18 (Musique)
00:20 (Musique)
00:30 (Musique)
00:42 (Musique)
00:44 (Musique)
00:54 (Musique)
01:04 (Musique)
01:06 (Musique)
01:16 (Musique)
01:26 (Musique)
01:28 (Musique)
01:38 (Musique)
01:48 (Musique)
01:50 (Musique)
02:00 (Musique)
02:10 (Musique)
02:12 (Musique)
02:22 (Musique)
02:32 (Musique)
02:34 (Musique)
02:44 (Musique)
02:54 (Musique)
02:56 (Musique)
03:06 (Musique)
03:16 (Musique)
03:18 (Musique)
03:28 (Musique)
03:38 (Musique)
03:40 (Musique)
03:42 (Musique)
03:44 (Musique)
03:46 (Musique)
03:48 (Musique)
03:50 (Musique)
03:52 (Musique)
03:54 (Musique)
03:56 (Musique)
03:58 (Musique)
04:00 Bonsoir tout le monde, bienvenue dans le talk de France Info.
04:02 Ravi de vous retrouver en ce lundi.
04:04 On est ensemble pendant une heure
04:06 sur Twitch et en podcast.
04:08 Comment s'est passé votre week-end ?
04:10 Racontez-moi un peu, est-ce que vous allez bien ?
04:12 Libre audio, hello,
04:14 je rédige une synthèse en ce moment sur l'utilisation
04:16 de l'intelligence artificielle en formation.
04:18 Ce live tombe bien, parfait.
04:20 Libre audio, n'hésitez pas alors à poser vos questions
04:22 aux invités qui sont avec nous
04:24 pendant toute l'heure.
04:26 Ce soir, on va terminer
04:28 un tout petit peu plus tôt d'ailleurs que d'habitude
04:30 puisqu'à 19h,
04:32 il y a d'ailleurs déjà une personne dans le chat
04:34 qui me l'a fait remarquer.
04:36 Il y a nos collègues de France Télévisions
04:38 qui vont commencer un stream à 19h pile
04:40 sur cette même chaîne,
04:42 donc sur la chaîne Twitch de France Info
04:44 avec Samuel Etienne et la journaliste Christelle Méral
04:46 qui recevront le porte-parole du gouvernement,
04:48 Olivier Véran.
04:50 Voilà, à 19h pile.
04:52 Moi, je rendrai l'antenne,
04:54 comme on dit à la radio et à la télévision,
04:56 à 18h55.
04:58 Comme ça, ça leur laissera le temps
05:00 de démarrer le leur.
05:02 Voilà,
05:04 "Rédiger ta synthèse par une..."
05:06 Ah oui, Citrouille qui dit "Il faut faire
05:08 rédiger ta synthèse par une intelligence artificielle".
05:10 C'est le sujet justement
05:12 ce soir dans le talk.
05:14 Aujourd'hui, on s'intéresse à l'intelligence artificielle
05:16 et en particulier à
05:18 ChatGPT, puisqu'on en parle
05:20 quand même beaucoup en ce moment. C'est pas la première fois
05:22 d'ailleurs que l'IA suscite
05:24 de l'intérêt, mais c'est vrai que ChatGPT
05:26 a fait quand même pas mal de bruit, probablement
05:28 parce que cette intelligence artificielle
05:30 est accessible à tous
05:32 et gratuite depuis quelques mois.
05:34 Voilà, on lui pose des questions par écrit
05:36 et le robot produit des réponses dans un
05:38 flot de paroles assez naturel d'ailleurs.
05:40 Il y a même nos collègues de France Inter
05:42 qui ont... Sonia De Villers
05:44 qui a carrément fait une interview
05:46 qui a interviewé ChatGPT.
05:48 Voilà, ChatGPT qui peut même
05:50 rédiger des poèmes ou des chansons.
05:52 Est-ce que vous vous êtes déjà servi
05:54 de ce robot conversationnel,
05:56 le chat ? Racontez-nous
05:58 un petit peu ce que vous en avez
06:00 pensé. Dites-nous si
06:02 ça suscite de l'inquiétude
06:04 ou pas du tout.
06:06 N'hésitez pas, racontez-nous ça
06:08 maintenant et puis après je reviendrai vers vous.
06:10 ChatGPT qui fascine
06:12 en tout cas et qui parfois inquiète aussi
06:14 tout comme l'intelligence
06:16 artificielle de manière générale
06:18 et depuis longtemps. Science Po a déjà pris la décision
06:20 d'ailleurs d'interdire ChatGPT
06:22 pour éviter la triche. Est-ce que
06:24 vous avez vu ça ? Les élèves qui s'y risqueraient
06:26 pourraient même être renvoyés.
06:28 Alors est-ce que ChatGPT marque un véritable
06:30 tournant ou est-ce qu'il s'inscrit dans la
06:32 continuité d'une histoire globale
06:34 de l'intelligence artificielle
06:36 qui est entamée déjà depuis de
06:38 nombreuses années ? Faut-il vraiment
06:40 avoir peur de l'intelligence artificielle ?
06:42 Comment vivre avec sans se laisser dépasser
06:44 par la technologie ?
06:46 L'intelligence artificielle va transformer
06:48 nos sociétés mais jusqu'où ?
06:50 Pour nous aider à comprendre tout ça,
06:52 nos invités, Laurence De Villers, bienvenue.
06:54 - Bonjour, merci. - Bonsoir.
06:56 Vous êtes professeure en
06:58 intelligence artificielle à l'université
07:00 Paris-Sorbonne, membre du comité
07:02 national pilote d'éthique du numérique, également,
07:04 autrice de la tribune
07:06 "ChatGPT, saluer l'avancée technologique
07:08 mais comprendre les limites de
07:10 ce type de système", publié
07:12 dans le journal Le Monde, votre
07:14 dernier livre "Les robots
07:16 émotionnels, santé, surveillance, sexualité
07:18 et l'éthique dans tout ça". Voilà,
07:20 il est là le livre. Vous pouvez le montrer
07:22 aux éditions de l'Observatoire.
07:24 Bienvenue. Jean-Gabriel
07:26 Ganasia, bonsoir.
07:28 - Bonsoir. - On prononce bien Ganasia ? - Oui, tout à fait.
07:30 - Informaticien, philosophe,
07:32 professeur à la faculté
07:34 des sciences de la Sorbonne et président
07:36 du comité d'éthique du CNRS,
07:38 auteur de "Intelligence
07:40 artificielle vers une domination programmée",
07:42 aux éditions de Cavalier Bleu,
07:44 et j'ai noté aussi "Servitude virtuelle",
07:46 aux éditions du Seuil. Bienvenue
07:48 à vous. Avant qu'on attaque
07:50 le débat, je vais vous montrer une petite
07:52 image, le
07:54 chat, peut-être que vous l'avez vu.
07:56 Alors nous, ce soir, on a un vrai chat.
07:58 Ce n'est pas "Chat GPT" dans le chat, ce sont des vrais
08:00 "gens", entre guillemets, qui sont derrière
08:02 leur ordinateur. Je vous montre
08:04 cette image et puis après, peut-être
08:06 une petite réaction.
08:08 [Musique]
08:10 [Musique]
08:13 [Musique]
08:16 [Musique]
08:19 [Musique]
08:21 [Musique]
08:48 Donc on voit, est-ce que
08:50 vous avez bien vu, bien entendu, l'extrait
08:52 dans le chat ? On voit donc une conductrice
08:54 qui est en train de dormir profondément
08:56 au volant de sa nouvelle
08:58 Tesla, visiblement. Donc la voiture
09:00 qui continue de rouler sur une autoroute
09:02 bien chargée. Donc ça suscite
09:04 vraiment la
09:06 curiosité, voire
09:08 presque la colère
09:10 d'une autre conductrice qui la filme.
09:12 Pourquoi ? Comment est-ce qu'on
09:14 explique ce genre de réaction ? Pourquoi ça suscite
09:16 ce genre de réaction de voir une voiture
09:18 rouler un peu toute seule ?
09:20 - Ah oui. - Laurence ?
09:22 - En fait, d'abord on n'est pas du tout
09:24 habituée à ça et puis les
09:26 voitures ne sont pas toutes autonomes. Donc c'est
09:28 compliqué en ce moment d'imaginer
09:30 une circulation avec des voitures autonomes et des
09:32 moins autonomes. Parce que
09:34 la voiture
09:36 ne va pas pouvoir anticiper tout ce
09:38 que font les humains dans leur voiture.
09:40 Alors que si c'était une voiture autonome, ça serait
09:42 plus facile. Et puis l'autre chose,
09:44 c'est que la personne est plus vigilante.
09:46 Elle ne pourra pas reprendre
09:48 le contrôle s'il arrive quoi que ce soit.
09:50 Et donc c'est ça qui fait très très peur.
09:52 Et pour l'instant,
09:54 il est important
09:56 de comprendre qu'on a besoin de s'adapter
09:58 à ces systèmes et
10:00 être vigilants sur
10:02 leur façon de les amener
10:04 dans la société. Parce qu'on va le voir
10:06 pour la médecine, on va le voir pour Chad Gepetit
10:08 dont on va parler, je pense, dans cette
10:10 émission. Si on n'est pas
10:12 suffisamment alerté,
10:14 si on ne comprend pas bien les limites de ces
10:16 systèmes, on peut s'endormir devant,
10:18 faire confiance, croire que c'est la vérité
10:20 et souvent se tromper.
10:22 Parce que la machine se trompe. Nous nous
10:24 trompons, on fait des erreurs.
10:26 Nous, humains, on perçoit l'environnement
10:28 mais on est capable de ne pas percevoir tout.
10:30 Et la machine a une autre perception qui n'est pas
10:32 du tout humaine. Et même si elle parle,
10:34 c'est une machine parlante. C'est
10:36 un système automatique qui n'a aucune
10:38 conscience, aucune pensée et qui
10:40 est capable de vous dire à la fois quelque chose de très bien
10:42 ou de très faux. Donc dans la voiture,
10:44 elle a une perception de l'environnement
10:46 et elle peut aussi se tromper.
10:48 Il est essentiel de
10:50 rester vigilant encore au volant
10:52 devant ces machines quand on
10:54 roule dans une Tesla aujourd'hui.
10:56 - Jean-Gabriel, une réaction à ces images
10:58 qu'on vient de voir, cette femme endormie au volant
11:00 de sa Tesla et puis l'autre conductrice qui est
11:02 vraiment à basse route. - C'est assez
11:04 traumatisant, effectivement, parce que
11:06 les Teslas ne sont pas faites pour cela.
11:08 - C'est pas le but. - Voilà, c'est pas le but.
11:10 On doit avoir les mains sur le volant
11:12 et rester absolument vigilant.
11:14 Ce sont des assistances à la conduite
11:16 mais pas une conduite
11:18 d'automatique ou autonome.
11:20 La question de l'autonomie est un tout petit peu délicate
11:22 et on ne discutera pas ici.
11:24 C'est de l'autonomie au sens
11:26 technologique. Mais
11:28 elles ne sont pas autonomes. Elles peuvent
11:30 éviter, effectivement,
11:32 les carambolages.
11:34 Elles sont faites pour respecter
11:36 les distances.
11:38 Il y a un régulateur de vitesse
11:40 mais de là à
11:42 avoir un véritable automatisme,
11:44 nous en sommes très loin et on recommande
11:46 de ne pas le faire. Et c'est bien sûr le danger
11:48 de ces automatismes, c'est que ça conduit
11:50 à des formes de perte de vigilance.
11:52 Et tous les spécialistes de facteurs humains
11:54 savent qu'effectivement,
11:56 il faut être très prudent. Vous voyez, par exemple,
11:58 on le sait sur les accidents
12:00 d'avion, ils sont souvent
12:02 dus à ce que les pilotes
12:04 à un moment donné
12:06 sont un peu déconnectés.
12:08 Donc la difficulté, c'est ce qu'on appelle les changements
12:10 de mode. C'est au moment où il faut se réadapter
12:12 à la situation
12:14 en cours. Et là,
12:16 bien sûr, c'est beaucoup plus problématique parce que dans
12:18 le cas des pilotes d'avion, bon,
12:20 ils sont quand même entraînés. On a
12:22 étudié de façon
12:24 rétrospective les accidents auxquels ça a pu conduire
12:26 mais là, tout le monde peut être dans sa voiture
12:28 et être un peu
12:30 assoupi. - Mais d'ailleurs,
12:32 Tesla a réagi en disant
12:34 "Attention, le système de pilotage
12:36 automatique peut assister les conducteurs
12:38 mais ne rend pas le véhicule autonome".
12:40 - Le véhicule devrait savoir
12:42 que le conducteur dort.
12:44 Il devrait avoir un moyen de le révéler
12:46 par un bic ou quelque chose. - Oui, mais je pense
12:48 qu'elle avait les mains sur
12:50 le volant parce que normalement, il faut avoir
12:52 les mains sur le volant. - On le voit un petit peu,
12:54 on le voit sur l'image. - Il n'y a pas d'activité
12:56 sur les mains, donc ça veut dire qu'il pourrait quand même
12:58 descendre. - Il faudrait descendre.
13:00 - Le rythme cardiaque ou quelque chose comme ça.
13:02 - Pour l'instant, il n'y a pas
13:04 cette boucle. - C'est ça,
13:06 le vrai sujet, c'est l'interaction
13:08 humain-machine. On fait des
13:10 machines qui ont certaines capacités, mais si on n'est
13:12 pas capable d'interagir correctement ou de
13:14 comprendre les capacités de la machine, on
13:16 va aller trop loin, on va trop
13:18 s'en méfier et ne pas utiliser. - Détecter
13:20 que le conducteur
13:22 dort, c'est bien pour les Tesla
13:24 mais c'est vrai pour les autres voitures aussi.
13:26 - On est d'accord.
13:28 Alors, Libre Audio,
13:30 je vois
13:32 ta question, je vais la poser,
13:34 je pose d'abord la mienne et ensuite
13:36 je pose la tienne. Est-ce que vous pouvez nous expliquer
13:38 ce que c'est
13:40 ChatGPT ?
13:42 Et ce que ça permet de faire ? Laurence ?
13:44 - ChatGPT, c'est une machine parlante,
13:46 c'est un système automatique capable
13:48 de répondre à un début
13:50 de phrase, qui n'est pas forcément
13:52 une question, ça ne répond pas aux questions
13:54 telles qu'on l'entend, nous,
13:56 entre humains. C'est-à-dire qu'il n'y a pas
13:58 de raisonnement, de pensée derrière tout cela,
14:00 il y a un gros modèle de langage
14:02 qui a agglutiné des milliards de données
14:04 qui viennent d'Internet,
14:06 deux sites en anglais, deux sites dans d'autres langues
14:08 qui sont traduits, tout ça est ramené
14:10 à une espèce de puzzle
14:12 qui ne correspond même pas à des mots,
14:14 il y a des entités
14:16 qui sont en dessous du mot,
14:18 c'est des suites de caractères, et en fait ça
14:20 apprie tout le contexte de la phrase.
14:22 L'idée, c'est que vous avez une phrase,
14:24 j'enleve un mot, et la machine apprend à
14:26 dire le mot en regardant tout le contexte
14:28 autour, tous les mots qui peuvent arriver autour.
14:30 Et donc avec des systèmes comme ça,
14:32 on est capable de créer
14:34 un contexte sémantique parce qu'il est
14:36 inclus, si vous voulez, dans la succession des mots qu'on utilise.
14:38 Et puis on a l'impression de parler
14:40 dans une conversation, et ce n'est pas une conversation,
14:42 parce que le système a une certaine
14:44 mémoire de ce que vous dites,
14:46 et donc il ne s'adapte pas vraiment à nous,
14:48 il prend juste en compte les différentes
14:50 phrases que vous avez prononcées, avec un buffer
14:52 d'ailleurs, enfin, un buffer,
14:54 une mémoire assez courte finalement,
14:56 donc il doit y avoir une sélection
14:58 particulière, on ne connaît pas tout,
15:00 tout n'est pas complètement transparent. Ce qu'il faut comprendre, c'est que
15:02 ces systèmes dont on a peur, qui sont
15:04 des systèmes dits automatiques, ils ont été faits
15:06 par beaucoup d'humains, qui ont choisi les données,
15:08 qui optimisent le système,
15:10 qui choisissent des algorithmes,
15:12 derrière, on a demandé aussi à des humains
15:14 de juger les réponses que faisait le système,
15:16 il y a des humains qui ont censuré,
15:18 qui ont enlevé certains sujets parce que
15:20 ce n'était pas politiquement correct, mais
15:22 on ne s'est pas encore vraiment posé les bonnes questions,
15:24 c'est-à-dire, on n'a pas réalisé
15:26 qu'il faut faire attention au biais,
15:28 peut-être qu'ils ne parlent
15:30 pas autant, ou de la même façon
15:32 de toutes les religions, peut-être qu'ils ne parlent pas
15:34 de la même façon des hominidés, enfin je ne sais pas, il y a un certain
15:36 nombre de sujets qu'il faut vérifier,
15:38 et puis cette machine, comme elle ne pense pas,
15:40 qu'elle ne réfléchit pas, qu'elle n'a pas d'histoire,
15:42 elle est hors sol, hors corps,
15:44 et hors espace,
15:46 quelque part, 3D, le nôtre,
15:48 c'est une machine qui parle
15:50 avec une parole totalement inhumaine,
15:52 et je dis pas centré sur un individu ni une culture,
15:54 c'est un mélange de cultures, tout ce qu'elle connaît,
15:56 et puis elle n'a pas d'idée de temporalité,
15:58 donc elle va se tromper dans les dates,
16:00 d'ailleurs elle ne s'est pas tellement dénombrée,
16:02 on pourrait améliorer encore ce système,
16:04 mais ce qui est très intéressant, et la vraie rupture,
16:06 c'est qu'on puisse jouer avec.
16:08 Alors c'est paradoxal parce qu'on est cobayes,
16:10 et on est en train d'optimiser le système pour eux,
16:12 - Oui, on contribue aussi nous-mêmes à améliorer
16:14 la technologie. - Et en même temps, je dirais que
16:16 c'est vraiment un système qui montre
16:18 les failles, et qu'il faut absolument
16:20 comprendre ses limites, et c'est l'occasion
16:22 là, d'aller plus loin que j'eusse joué avec.
16:24 C'est-à-dire qu'il ne faut pas se
16:26 retrouver dans cette situation, vraiment, d'être extérieur,
16:28 je pense qu'il faut de plus en plus
16:30 qu'on apprenne ce qu'est les vraies limites
16:32 de ces systèmes.
16:34 - On va revenir sur les limites,
16:36 les questions d'éthique notamment,
16:38 et aussi qui sont les humains
16:40 derrière cette technologie.
16:42 Jean-Gabriel peut-être sur
16:44 Laurence qui disait
16:46 "Ce n'est pas une conversation"
16:48 - Non, pas du tout.
16:50 - Et Chad Jibidi ne répond pas.
16:52 - Je crois qu'il y a deux points.
16:54 Le premier, c'est au plan
16:56 technique, comme l'a dit Laurence,
16:58 ce sont des gros modèles de langage qui sont
17:00 entraînés sur d'immenses corpus
17:02 avec des réseaux de neurones formels,
17:04 ce qu'on appelle de l'apprentissage profond,
17:06 et ce sont
17:08 des machines énormes. Il y a des centaines
17:10 de milliards de paramètres. - 175
17:12 milliards, je l'ai noté. - Voilà, c'est ça.
17:14 - Et ça coûte extrêmement cher en énergie.
17:16 Et puis il y a ensuite un autre
17:18 type d'apprentissage, c'est ce qu'on appelle le
17:20 apprentissage par renforcement, ce qui fait que ça va donner
17:22 le mot le plus plausible.
17:24 Alors, comment on pourrait caractériser
17:26 ça de façon intuitive ?
17:28 Et bien ce sont des perroquets.
17:30 C'est-à-dire qu'ils répètent ce qu'on leur a dit.
17:32 Comme un perroquet, ils ne comprennent
17:34 pas, mais ils répètent.
17:36 Et il y a un terme qui a été
17:38 introduit par une américaine
17:40 qui travaillait chez Google et qui critiquait justement
17:42 l'emploi qui était fait de ces gros modèles
17:44 de langage. Elle appelait ça des perroquets
17:46 stochastiques. Alors, qu'est-ce que ça veut dire "stochastique" ?
17:48 Ça veut dire que ça utilise l'aléatoire.
17:50 Et donc, effectivement, ce sont
17:52 des machines qui répètent ce qu'il
17:54 est de bon ton de dire et
17:56 qui le font, effectivement, avec une
17:58 certaine mémoire sur la distance.
18:00 Et ce qui est étonnant, ce qui nous a tous surpris,
18:02 c'est que le résultat
18:04 se tient à peu près. C'est-à-dire que les phrases
18:06 sont assez bien construites,
18:08 que le vocabulaire est assez large
18:10 et qu'il y a un enchaînement entre les phrases.
18:12 - C'est assez fluide, oui, en plus.
18:14 - Ils disent ce qu'il convient
18:16 de dire. En revanche,
18:18 effectivement, il n'y a aucun sens.
18:20 - Oui, il y a des erreurs.
18:22 - Oui, bien sûr. Je veux dire, ils disent...
18:24 - Ou des gros raccourcis. - Ils disent ce qu'il convient de dire
18:26 en ce sens où il n'y a pas de sens.
18:28 Simplement, ils enchaînent les mots
18:30 d'une façon qui est assez plausible.
18:32 Et quand on ne fait pas attention,
18:34 on peut se faire avoir.
18:36 Bien sûr, ensuite, dès qu'on confronte ce qui est dit
18:38 à la réalité, on se rend compte
18:40 d'énormes erreurs. Parce qu'il n'y a pas
18:42 de confrontation, il n'y a pas de recherche dans des bases
18:44 de données, il n'y a pas
18:46 d'essais de détection d'incohérences,
18:48 etc. - Pas encore, oui.
18:50 - Oui, mais ça, ça va arriver.
18:52 - Ça va certainement arriver. Mais en tout cas,
18:54 pour l'instant, ce sont
18:56 des machines qui font
18:58 énormément d'erreurs.
19:00 - Je ne sais plus jusqu'à quel
19:02 point il n'y a pas ça. Parce que dans Lambda,
19:04 par exemple, de Google, qui est la même machine,
19:06 qui est un perroquet savant, il y avait
19:08 ce type de vérification.
19:10 - Là, visiblement, il n'y en a pas. Parce qu'il y a tellement
19:12 de bêtises dans ce qu'il dit.
19:14 C'est étonnant.
19:16 - Samouraï of Anarchie, dans le chat,
19:18 qui dit "Pour moi, ChatGPT n'est qu'une étape
19:20 dans le développement des
19:22 intelligences artificielles et je trouve ça hyper
19:24 intéressant". Et je vous prends
19:26 la question de Libre Audio, qui vous
19:28 demande "Quels usages du ChatGPT
19:30 pouvons-nous imaginer
19:32 pour le secteur de la formation, pour les
19:34 professeurs, les élèves ? Merci".
19:36 - On peut imaginer pour beaucoup de choses.
19:38 - On a plein d'idées, je crois.
19:40 - Pour les mathématiques.
19:42 Ça nous permet de rechercher
19:44 sur un large
19:46 espace sans frontières
19:48 de culture, d'ailleurs.
19:50 Puisque ça agglutine
19:52 beaucoup de
19:54 connaissances qui étaient
19:56 en anglais, qui sont
19:58 traduites sans doute dans d'autres langues aussi.
20:00 C'est vraiment très intéressant.
20:02 Et par contre, il faut
20:04 apprendre justement à jouer avec ça,
20:06 à comprendre ce que ça apporte de
20:08 créatif, de nouveau,
20:10 de questionnant. Et en même temps,
20:12 déceler ce qui est faux, déceler
20:14 ce qui n'a aucune
20:16 teneur. On est devant de la fiction.
20:18 Alors des gens disent "Il a
20:20 beaucoup d'imagination", mais c'est pas ça l'imagination
20:22 quelque part. Là, ça ressemble
20:24 à du stochastique. C'est l'imagination
20:26 par le hasard,
20:28 et par les fréquences d'apparition des mots.
20:30 Donc on arrive à quelque chose
20:32 qui ne se tient pas beaucoup.
20:34 Après, c'est vrai que
20:36 plus vous posez de questions, plus
20:38 vous affinez finalement le regard que vous aviez.
20:40 - Oui, il faut définir au maximum.
20:42 - Alors quand on sait la taille du buffer,
20:44 c'est-à-dire le nombre de contextes que prend le système,
20:46 on peut être plus habile finalement
20:48 pour arriver à une réponse
20:50 à peu près cohérente. Mais
20:52 il apprend pas. C'est-à-dire que la mémoire
20:54 n'est pas enrichie en fonction de ce
20:56 que vous avez dit. Alors le système, il a été
20:58 construit à partir de données en 2021,
21:00 donc il y a des trous aussi dans la raquette.
21:02 Bon, donc on est devant
21:04 quelque chose de stupéfiant
21:06 et ayant beaucoup de limites.
21:08 Donc il faut apprendre à le manipuler.
21:10 Et je pense que les élèves ont tout à gagner
21:12 à savoir effectivement
21:14 l'utiliser. Parce que sinon, ils vont l'utiliser tout seul,
21:16 ils vont finalement mal l'utiliser.
21:18 - Et être sanctionnés, si jamais
21:20 ils les utilisent. - Et être sanctionnés, parce que
21:22 ça sera du copier-copier, du plagiat. Alors ce qu'il faut
21:24 apprendre, c'est vraiment à comprendre
21:26 et finalement aller chercher justement
21:28 à apprendre ce que c'est d'avoir ce libre-arbitre.
21:30 C'est-à-dire confronter plusieurs
21:32 façons de voir les choses et trouver ce qui
21:34 apparaît le plus vraisemblable
21:36 qui a été cité par un tel ou un tel
21:38 mais qui ne vient pas de la machine.
21:40 Avant, on avait Google. Ils nous donnaient
21:42 un ranking, enfin un choix
21:44 multiple à travers
21:46 des algorithmes qui n'étaient pas justes non plus.
21:48 C'est-à-dire qu'il y avait aussi des abus dans
21:50 la façon d'amener les réponses.
21:52 Mais ils vous disaient pas "Voilà, la réponse c'est ça".
21:54 Maintenant, si on est paresseux,
21:56 on a directement une réponse possible.
21:58 Méfiez-vous
22:00 de la première réponse qui arrive.
22:02 Il faut rester en éveil
22:04 et apprendre à avoir
22:06 un questionnement par rapport aux réponses
22:08 et aux méthodologies de cette machine. - On a Ju Graf dans le
22:10 tchat qui nous dit "Bonsoir, l'intelligence artificielle
22:12 n'a pas pu ouvrir l'onglet de mon navigateur
22:14 web. Attends." Jean-Gabriel,
22:16 une réaction ?
22:18 Ou peut-être une réponse à
22:20 Guillaume FR qui dit "Pour quels usages
22:22 tchat GPT est-il le mieux
22:24 adapté ?" - Oui, je crois
22:26 que c'est la question. Comment
22:28 on va pouvoir utiliser
22:30 ce type de choses ?
22:32 Et bien sûr, il y a
22:34 les utilisations classiques
22:36 dans le domaine de l'éducation.
22:38 C'est ce dont on parlait.
22:40 Bien sûr, la première idée qu'on a, c'est
22:42 de faire rédiger sa
22:44 dissertation ou
22:46 de répondre à la place.
22:48 Mais à mon sens, c'est le plus mauvais
22:50 des usages que l'on puisse en faire. Parce que
22:52 d'abord, le texte est assez
22:54 plat. C'est-à-dire que même s'il nous
22:56 surprend, même si en tant qu'enseignant
22:58 on se dit "Ah bah tiens, c'est meilleur
23:00 que", j'ose pas le dire, "que ce qu'écrivent
23:02 un certain nombre de nos élèves."
23:04 Mais c'est meilleur parce que, syntaxiquement,
23:06 c'est à peu près correct. Mais en même temps,
23:08 le sens est bien sûr
23:10 très, très pauvre.
23:12 Et surtout, bien sûr, ce sont des lieux
23:14 communs. Et de ce point de vue-là, je crois que
23:16 ce que l'on peut apprendre avec
23:18 Chats-GPT, c'est quelles sont
23:20 les banalités, quelles sont les idées
23:22 toutes faites, quelles sont les sottises qu'il y a.
23:24 Et donc, pour un bon élève, c'est
23:26 extrêmement utile. Parce qu'il peut
23:28 se démarquer de ça. Et si jamais
23:30 il a une idée en tête et qu'il voit qu'elle est là-dessus,
23:32 il doit se questionner, se dire "Est-ce que c'est une
23:34 bonne idée ou une mauvaise idée ?" Donc je pense que
23:36 c'est un outil qui pourrait être extrêmement
23:38 précieux pour repérer
23:40 les lieux communs.
23:42 Et à partir de ça, pour s'en démarquer,
23:44 pour essayer d'être plus original,
23:46 pour se demander, parmi les lieux
23:48 communs, quel est le type
23:50 de vraisemblance ou d'invraisemblance
23:52 qui est derrière ce
23:54 lieu commun. Donc ça, c'est
23:56 une bonne utilisation, bien sûr,
23:58 de Chats-GPT. Il y en a
24:00 d'autres, bien sûr, dans d'autres
24:02 secteurs. Il y en a qui sont tout à fait
24:04 légitimes, comme celle que je viens d'évoquer.
24:06 D'autres qui sont moins. On sait, par exemple,
24:08 que Chats-GPT, ou plus
24:10 exactement, GPT, l'ancêtre de Chats-GPT,
24:12 est utilisé pour tromper.
24:14 Par exemple, vous savez
24:16 qu'il y a beaucoup d'articles scientifiques
24:18 qui ont été écrits avec
24:20 un modèle de langage. Il y a
24:22 d'ailleurs eu un
24:24 rapport écrit par le COPPE,
24:26 Committee on Publication Ethics, qui
24:28 s'inquiétait de cette
24:30 dérive. Alors ce sont des officines,
24:32 en particulier en Asie,
24:34 qui, parce que les
24:36 chercheurs ont besoin d'avoir des facteurs d'impact
24:38 extrêmement importants, de publier beaucoup.
24:40 Et donc, ces officines, on leur dit, "Voilà, compte un peu d'argent.
24:42 On vous écrit un article
24:44 avec les références et vous pouvez le soumettre."
24:46 Alors là, c'est extrêmement embêtant
24:48 parce que ça veut dire que ces revues vont être
24:50 encombrées d'articles.
24:52 Certains, alors d'abord, les
24:54 relecteurs auront un travail
24:56 extrêmement important. Et puis, d'autre part,
24:58 c'est fondé sur rien. Et puis, ça peut être très malhonnête
25:00 parce que c'est du plagiat d'idées.
25:02 Alors, quand on avait du plagiat vrai,
25:04 on pouvait le détecter parce qu'on a des techniques qui peuvent
25:06 le faire. Mais le plagiat d'idées, c'est beaucoup plus difficile.
25:08 Il suffit que quelqu'un ait une petite idée
25:10 qu'il ait vue dans un article, hop, il la reprend.
25:12 Il a genre un article qui est complètement différent.
25:14 - On va réagir les expériences, tu vois.
25:16 - Ah, c'est pas évident.
25:18 Si, ils ont repris des expériences qui existaient.
25:20 Enfin, moi, c'est ce que j'ai compris.
25:22 - On va revenir sur cette question de comment détecter
25:24 aussi la provenance de
25:26 l'information. Mais Laurence, peut-être d'autres
25:28 bons usages ? - Il y a d'autres usages.
25:30 Mais juste pour aller dans cette direction,
25:32 c'est à la fois extrêmement pertinent. En même temps,
25:34 on risque de perdre notre orthographe.
25:36 - On peut perdre des choses.
25:38 - On peut pas nous rédiger en mémoire d'orthographe.
25:40 Peut-être meilleur que beaucoup d'entre nous.
25:42 - Ils se basent où d'ailleurs ? C'est quoi la source ?
25:44 - C'est la concurrence
25:46 de termes.
25:48 - La syntaxe, c'est pas le dictionnaire.
25:50 - C'est pas le dictionnaire.
25:52 - C'est l'enchaînement.
25:54 - C'est pas tant
25:56 que ça fasse perdre l'orthographe, parce que le fait
25:58 de lire des textes avec une borne en orthographe,
26:00 ça n'est pas mauvais.
26:02 - Mais par parage, je ne réfléchis plus.
26:04 - Mais c'est surtout que ça va faire perdre
26:06 la capacité à rédiger, de façon plus générale.
26:08 - Je perds la capacité à vérifier
26:10 si la syntaxe est correcte moi-même.
26:12 - Ça c'est ennuyeux. - Non, autre chose.
26:14 Moi je pense toujours à
26:16 la grande limitation qu'on avait
26:18 avant d'avoir des générateurs comme ceux-là.
26:20 C'est-à-dire qu'on n'intégrait pas
26:22 de contexte sémantique assez large
26:24 dans beaucoup de tâches.
26:26 On était obligés d'écrire beaucoup
26:28 de règles, ou d'avoir
26:30 beaucoup de données.
26:32 Et là, on a d'un seul coup des modèles
26:34 qui ont encapsulé
26:36 de la sémantique.
26:38 Donc on peut l'utiliser avec un robot qui vous parle, par exemple.
26:40 Si je veux assister quelqu'un,
26:42 ce robot peut aider, parce que là
26:44 il connaît plus que juste
26:46 un petit spectre sémantique
26:48 qui est lié à l'aide aux personnes âgées,
26:50 aux enfants,
26:52 pour aider à
26:54 faire ses devoirs,
26:56 ou des choses comme ça.
26:58 Donc il y a une grande...
27:00 à mon avis, de nombreuses applications
27:02 qui vont être très bénéfiques autour.
27:04 Donc il ne faut pas avoir peur.
27:06 C'est-à-dire que moi j'ai entendu
27:08 des phrases dites par Elon Musk, par exemple,
27:10 qui étaient "ChatGPT fait peur,
27:12 nous ne sommes pas loin d'une IA
27:14 qui serait dangereuse
27:16 et qui se rapproche de l'être humain".
27:18 Bon, bah non ! Absolument pas.
27:20 - Oui, il y a toute une rhétorique autour de...
27:22 - Et donc ce marketing là, émotionnel,
27:24 autour des capacités de ChatGPT,
27:26 je pense que c'est une très
27:28 très mauvaise façon
27:30 d'avancer dans la science,
27:32 parce que c'est de l'esbrouf,
27:34 c'est pour faire vendre des systèmes,
27:36 et le rapport à la vérité,
27:38 qui est celui qu'on essaie de pousser, nous, chercheurs,
27:40 c'est de dire "Bon, il y a d'énormes capacités,
27:42 on va pouvoir faire des choses vraiment intéressantes
27:44 pour des problèmes de vulnérabilité,
27:46 pour des problèmes de perte de sens
27:48 dans le grand âge, on va perdre ces mots,
27:50 on va perdre le sens des phrases, et si on a des objets
27:52 comme ça qui peuvent nous aider, nous stimuler,
27:54 c'est très bien. Il faut, ceci dit,
27:56 normaliser, il faut trouver les cadres.
27:58 - Il parle un peu à notre place.
28:00 - Vous êtes optimiste, mais c'est vrai,
28:02 je suis très optimiste. - Je ne suis pas aussi optimiste que ça.
28:04 Mais là où, effectivement,
28:06 ce que dit Elon Musk
28:08 n'a aucun sens, c'est que, lui,
28:10 il a une théorie derrière, c'est que
28:12 l'intelligence artificielle, en se développant,
28:14 risque de conduire à ce qu'il appelle un risque existentiel,
28:16 pour l'humanité.
28:18 Or, ça, ça n'a rien à voir.
28:20 Il enchaîne des mots, de façon
28:22 à peu près plausible.
28:24 - Sans conscience et sans intention.
28:26 - Sans conscience et sans intention.
28:28 Donc ça ne veut pas dire qu'un jour, on n'arrivera pas à rajouter
28:30 ensuite une conscience et une intention.
28:32 - Après ça, il faut le savoir, mais il y a peut-être
28:34 des gens qui ne se rendent pas
28:36 compte aussi de cette différence-là. Est-ce que vous comprenez
28:38 peut-être
28:40 la crainte
28:42 des gens, quand on sait
28:44 aussi, notamment, que
28:46 qui a inventé cette technologie,
28:48 à qui appartient
28:50 Chad J. Petey, à Elon Musk,
28:52 voilà, il y a quand même... - C'est plus à Elon Musk,
28:54 non, non, c'est pas à Elon Musk. - Ah, il ne fait pas partie ?
28:56 - Non, non, mais c'est lui qui était le fondateur
28:58 de l'opinion.

Recommandations