Marine Le Pen qui adresse ses vœux en langue russe... On pourrait y croire, mais cette vidéo se révèle fausse ! Les deepfakes piègent les internautes, c'est même devenu une arme électorale...
Category
🤖
TechnologieTranscription
00:00 Fake news sur les réseaux sociaux, on en parle souvent avec vous Samira El Ghadir, merci de nous avoir rejoint.
00:04 Aujourd'hui vous allez nous montrer ces deepfakes, ces montages, ces trucages de plus en plus utilisés
00:10 par les politiques d'ailleurs pour discréditer leur adversaire. En ce moment il y en a partout,
00:14 pas étonnant, on attend des élections d'ailleurs dans le monde entier.
00:16 Oui à commencer par les européennes pour ce qui nous concerne, il nous reste encore 5 mois mais le temps est donné.
00:21 Vous allez le voir, je ne sais pas si vous avez vu passer cette vidéo des vœux de Marine Le Pen
00:26 ou plutôt le remake des vœux de Marine Le Pen pour ceux qui n'ont pas vu.
00:30 Je vous propose une rediffusion, regardez surtout, écoutez.
00:53 Donc il y a quoi surprendre et ce qui est surprenant aussi c'est l'auteur de cette vidéo,
00:57 ce n'est pas n'importe quel internaute, il s'agit de Loïc Signor, c'est un député de la majorité,
01:01 c'est même le porte-parole de Renaissance, je l'ai eu au téléphone hier pour comprendre sa démarche,
01:06 savoir pourquoi il fait ça. Alors il y a deux choses, déjà il a bien précisé effectivement qu'il s'agissait de l'IA,
01:11 il a bien dit que c'était un fake, ça c'est vrai, j'ai regardé, et surtout il assume complètement
01:15 ce qu'il appelle un coup de communication politique, pour lui c'est provocateur et surtout il utilise l'image,
01:19 il le dit, qui permet de se projeter, de montrer une réalité, celle des liens entre Marine Le Pen et Vladimir Poutine.
01:26 De quoi il parle Loïc Signor ? Il parle d'un article du Washington Post qui a été publié la veille des voeux
01:31 de Marine Le Pen et qui revient justement sur les liens entre le Rassemblement National et Moscou,
01:37 par exemple on le sait, déjà on le savait, que le parti de Marine Le Pen avait emprunté de l'argent aux Russes,
01:41 le Post précise qu'il s'agit d'un prêt de 9,4 millions d'euros en 2014, vous le voyez,
01:48 provenant directement d'une banque russe. L'article en fait, il s'appuie sur des documents du Kremlin
01:52 obtenus par un service de sécurité européen, selon eux les Russes veulent propulser des politiciens pro-Moscou
02:00 au pouvoir et c'est là-dessus que Loïc Signor s'appuie pour faire sa deepfake.
02:03 Est-ce que pour autant, ça justifie sa méthode, est-ce que pour autant utiliser une fake news,
02:08 alors qu'Emmanuel Macron lui-même a fait de la lutte contre la désinformation une priorité nationale ?
02:14 En tout cas c'est étonnant, ça en a étonné plus d'un sur les réseaux sociaux, dans la presse aussi,
02:18 il y a eu plusieurs articles, il comprend, Loïc Signor, que ça puisse choquer, je vais poser la question,
02:23 mais il n'a pas enlevé sa vidéo pour autant et il ne compte pas le faire, pour lui le vrai risque c'est l'arrivée
02:29 de Marine Le Pen au pouvoir, quels que soient les moyens, il veut lutter contre ça.
02:33 J'ai montré cette vidéo de Marine Le Pen et d'autres deepfake politiques à un chercheur du CNRS,
02:38 il est spécialiste de ces questions de l'IA depuis des années, il s'appelle Bastien Masse,
02:42 et pour lui finalement la diffusion de ces vidéos, l'objectif ce n'est pas tant de mentir,
02:47 mais de semer la confusion dans notre esprit, je vous propose de l'écouter, Bastien Masse du CNRS.
02:52 Ce n'est pas l'objectif de faire passer une idée à travers une image ou une vidéo modifiée,
02:58 puisqu'on sait qu'elle va être remise en cause à un moment donné,
03:01 mais c'est uniquement dans cet objectif de déstabilisation,
03:05 et qui crée des avantages pour certains modes de pensée aussi,
03:11 parce qu'on crée du doute, on renforce les oppositions entre les citoyens, les médias,
03:16 la politique, même la science, on crée des crises de confiance dans les relais.
03:22 Et oui c'est ça, ça provoque beaucoup de réactions sur ce plateau, on va y revenir.
03:28 On parle des précurseurs, on parle des américains, ils ne sont jamais loin les américains.
03:33 Ils ne sont jamais loin les américains.
03:34 2018, nous entrons dans l'ère où on peut faire dire n'importe quoi à n'importe qui,
03:38 et cette phrase n'est pas de moi, elle est de Barack Obama, le premier piégé par les deepfakes.
03:42 Rappelez-vous, cette vidéo, il est censé insulter Donald Trump.
03:45 Allez, je vous propose une petite rediffusion.
03:48 Nous entrons dans une époque où nos ennemis peuvent faire
03:51 dire n'importe quoi à n'importe qui, même s'ils ne disaient jamais ces choses.
03:57 Par exemple, ils pourraient me dire des choses comme,
04:01 simplement, "Président Trump est un total et complet déconne".
04:06 Vous voyez, je ne dirais jamais ces choses,
04:10 au moins pas en adresse publique, mais quelqu'un d'autre le ferait.
04:14 - Donc c'était déjà assez réaliste.
04:18 - Oui, mais ça fait beaucoup de progrès depuis.
04:19 - Ça fait beaucoup de progrès depuis, et ça n'arrête pas.
04:21 Ces mots avaient été mis dans la bouche de Barack Obama par le site américain BuzzFeed.
04:25 Leur but, ils l'avaient dit clairement, c'était de montrer le potentiel de nuisance
04:29 des deepfakes en politique, le moins qu'on puisse dire.
04:31 C'est qu'ils avaient vu juste.
04:32 Et c'est un autre député de la majorité qui, pour moi, résume le mieux,
04:35 finalement, cet enjeu des deepfakes en politique.
04:38 Regardez, il s'appelle Eric Bottorell.
04:39 Dans une interview à Politico, il s'inquiète de ce monde compliqué à appréhender.
04:43 Il dit que l'image, finalement, ce n'est plus la valeur refuge.
04:45 Avant, on disait, voilà, je ne crois que ce que je vois.
04:47 Finalement, maintenant, même ce qu'on voit ne suffit plus à servir de repère.
04:51 - Il est d'autant plus important, Samir Haque, cette année,
04:54 on attend des élections un peu partout dans le monde.
04:56 Et dans certains pays, l'accès forcément à l'information est limité.
04:58 Donc c'est difficile de vérifier.
05:00 - Bien sûr, bien sûr.
05:02 Regardez cet article du Point.
05:03 Il le rappelle, on attend 77 élections dans le monde cette année.
05:06 Ça veut dire que la moitié de la population mondiale va voter à Taïwan le 13 janvier.
05:11 Vous en avez parlé, on connaît l'enjeu avec la Chine qui est derrière.
05:15 On va en reparler.
05:16 Les élections russes, évidemment, en mars.
05:18 Les États-Unis, on en a parlé aussi en novembre.
05:20 Et avant ça, il y a les élections européennes, le Sénégal.
05:22 Bref, tout le monde va voter cette année, quasiment ou presque.
05:24 La propagande aussi, elle est partout.
05:26 À Taïwan, par exemple, l'homme que vous voyez là est le candidat démocrate.
05:31 Il s'appelle Lai Ching-Teh.
05:32 Il a été victime de plusieurs deepfakes, notamment sur TikTok.
05:36 La plateforme qui est indirectement, même directement, quasiment...
05:40 Directement, très directement.
05:42 ... par les autorités chinoises.
05:44 En Nouvelle-Zélande aussi, on a vu des fausses affiches qui ont été générées par intelligence artificielle
05:48 pour faire peur, pour montrer que la sécurité n'est pas là.
05:52 Il faut l'avouer, ça marche.
05:53 Donc ça, ça a été publié par le parti national néo-zélandais.
05:57 Écoutez le député de ce parti.
05:58 Il assume lui aussi complètement d'utiliser ces nouvelles technologies.
06:02 Soyons très clairs.
06:04 Soit vous sortez et vous achetez une image d'un acteur jouant un faux rôle, qui est une option,
06:08 ou vous pouvez créer une image d'intelligence artificielle.
06:11 Il n'y a pas de différence dans ces deux cas.
06:13 Ah, mais il y a une différence.
06:14 En quoi sont-ils différents ?
06:15 Vous essayez de convaincre les gens que vous êtes dignes de confiance et que ces gens existent.
06:19 Bastien Mas, l'intérêt de l'image, elle est évidente.
06:23 C'est efficace en fait.
06:25 C'est plus efficace que de détourner un chiffre ou de détourner un mot.
06:28 Écoutez, Bastien Mas, je pense qu'il résume mieux que moi.
06:30 Oui, l'image, elle est plus...
06:33 Voilà, l'impact est plus important parce qu'elle est plus simple.
06:36 Et ça, c'est des choses qu'on a pu observer du point de vue de la recherche.
06:39 On sait qu'on a plus tendance à retenir des informations simples, même erronées,
06:44 parce que justement, elles répondent à ce besoin-là d'une explication facile à obtenir.
06:50 C'est mieux à aller à travers de ces deepfakes.
06:53 On les connaît, on va en parler.
06:54 Mais est-ce qu'il est arrivé parfois que les votes aient changé à cause justement de ces manipulations ?
07:00 Il y a un exemple qui est intéressant.
07:02 Là, je vous emmène en Slovaquie.
07:03 Il y a eu un message vocal.
07:05 Donc les deepfakes, ce n'est pas que de la deepfake image.
07:07 C'est ce qu'on va voir tout à l'heure.
07:09 Il y a aussi des deepfakes vocaux.
07:10 Et ce deepfake vocal, là, vous le voyez, c'est un candidat à l'élection législative en Slovaquie.
07:15 Deux jours avant l'élection, on entend la voix de ce candidat.
07:18 Elle a été trafiquée.
07:19 C'était une voix synthétique.
07:20 On l'entend dire à une journaliste comment il va trafiquer le vote.
07:23 Ce qui est intéressant, c'est que c'est l'argument qui a justement été utilisé
07:26 par son opposant qui l'accusait de vouloir trafiquer les votes.
07:29 Les Slovaks se sont mis à douter.
07:31 Des médias sérieux, là-bas aussi, se sont mis à douter et à écrire est-ce que finalement,
07:35 c'est vrai, pas vrai, etc.
07:36 Résultat, le scrutin était déjà serré.
07:38 Ce candidat a été battu.
07:40 Je ne dis pas que c'est forcément dû à la deepfake, mais en tout cas, ça ne l'a pas aidé.
07:43 Samira, qu'est-ce qu'on se dit que cette profusion de deepfake sur les réseaux sociaux,
07:46 c'est parce qu'aujourd'hui, elle est là parce qu'aujourd'hui, les outils sont plus accessibles ?
07:50 Oui, tout à fait.
07:50 Les outils sont plus accessibles.
07:52 Ce sont vraiment démocratisés.
07:53 Et puis pour des résultats quand même assez bluffants.
07:56 J'en ai discuté ce matin avec quelqu'un qui fabrique ces deepfakes, qui est un professionnel.
08:00 Il s'appelle Frenchfaker.
08:02 C'est lui qui fait toutes les deepfakes pour l'émission 50 loups sur TF1.
08:06 C'est l'un des précurseurs.
08:07 Très bien fait.
08:08 Regardez, là, on est sur Emmanuel Macron, le premier président non-binaire.
08:13 Ça, c'est le titre de cette image.
08:15 Mais lui, il est là pour parodier Frenchfaker.
08:19 Et il le dit d'ailleurs.
08:20 Il parodie l'actualité politique depuis des années.
08:22 Alors, on va l'entendre, mais on ne va pas le voir, Frenchfaker.
08:25 Parce qu'il ne montre pas son visage justement pour pouvoir regarder avec sa liberté de parole.
08:28 Mais écoutez-le, c'est intéressant.
08:30 Moi, quand j'ai commencé en 2019, on était, je pense, une poignée dans le monde à faire des deepfakes.
08:35 Et c'était très difficile d'accès.
08:37 Il n'y avait pas de formation pour faire des deepfakes très faciles, etc.
08:42 Ça prenait des jours.
08:43 Alors que maintenant, avec juste un ordinateur et des connaissances, disons, basiques en informatique,
08:52 on peut arriver avec des deepfakes de qualité moyenne,
08:58 que ce soit au niveau de la voix, ça c'est une nouveauté, ou au niveau du visage.
09:03 Ça, ça existe depuis longtemps, mais maintenant, c'est devenu vraiment facile d'accès.
09:07 Pour vous montrer la facilité d'accès, Frenchfaker, il s'est reprêté au jeu pour nous, pour notre émission.
09:14 Vous allez voir l'exercice avant/après.
09:17 Il met un avatar d'un être humain, je ne sais pas si on peut le voir là,
09:20 et qui se transforme en Emmanuel Macron.
09:23 Donc il y a le avant/après.
09:25 Il me précise, Frenchfaker, que ces deepfakes ont été réalisés en 10 secondes
09:28 et que ça ne demande vraiment aucune compétence en informatique.