• avant-hier
Lundi 20 janvier 2025, SMART TECH reçoit Christophe Liénard (président, Impact AI) , Thomas Huchon (journaliste spécialiste du numérique) , Arnaud Tanguy (Spécialiste du numérique et de la cybersécurité, Président, Cercle de la donnée) et Aude Favre (journaliste, Fake Off / Citizen Facts)

Catégorie

🗞
News
Transcription
00:00Bonjour à tous. Suspecté d'être au service de Pékin menacé d'interdiction en ce moment même aux Etats-Unis,
00:14et bien c'est TikTok aujourd'hui à la une de Smartech et plus largement cette question,
00:18les réseaux sociaux sont-ils devenus un outil de propagande et d'ingérence étrangère ?
00:22On aura donc ce débat sur les nouvelles pratiques employées et les moyens de détection et de protection.
00:28On aura également dans cette émission un focus autour des IA génératives avec là une autre interrogation,
00:33comment se protéger, comment protéger nos données des utilisations malveillantes.
00:38Mais d'abord trois questions sur l'observatoire de l'IA responsable, c'est tout de suite l'interview dans Smartech.
00:49On démarre avec cet observatoire de l'IA responsable en France. Bonjour Christophe Lienard.
00:53Bonjour.
00:54Vous êtes président d'Impact AI qui est un collectif de réflexion et d'action, vous nous dites,
00:58sur les enjeux éthiques et sociétaux de l'intelligence artificielle.
01:01Vous êtes également, je le précise, le directeur d'innovation du groupe Bouygues.
01:05Alors le Think Tank a publié un observatoire de l'IA responsable,
01:10c'est le résultat d'une enquête auprès de 1000 salariés français sur la façon dont ils perçoivent
01:14les déploiements de l'intelligence artificielle responsable dans leur entreprise.
01:18Alors d'abord ma première question c'est qu'est-ce que vous appelez une IA responsable ?
01:22Est-ce que c'est possible une IA responsable avec tout ce qu'on a en tête finalement sur l'impact climat par exemple ?
01:27C'est possible et nécessaire parce qu'on s'aperçoit dans cet observatoire notamment
01:33que 75% des gens qui utilisent l'IA demandent que l'IA soit responsable, éthique.
01:40Donc Impact AI nous intéresse à l'impact de l'intelligence artificielle sur la santé, l'éducation, le travail et l'éthique.
01:46Et on s'aperçoit véritablement qu'il y a une forte demande des salariés
01:51pour que cette IA, pour qu'ils puissent l'utiliser sans crainte dans leur métier et avec leurs clients
01:58soit absolument responsable dans l'utilisation des données.
02:05Alors responsable en quoi, comment ?
02:07Alors responsable à la fois effectivement sur l'aspect énergétique, je pense que vous soutendiez cet élément tout à l'heure.
02:14Donc on a beaucoup travaillé sur Green AI et AI for Green.
02:18Donc finalement l'impact en termes de consommation d'énergie par exemple de ces IA
02:25et des progrès qui sont faits avec les petits modèles, avec des composants moins consommateurs,
02:30avec le Edge de l'IA qui est embarqué finalement dans les dispositifs.
02:36Donc ça c'est un élément qui vient demain réduire considérablement la consommation d'énergie.
02:41Donc ça c'est déjà un premier point.
02:44Et ensuite l'IA qui permet également de consommer moins
02:48et donc d'apporter finalement cette fois-ci une contribution positive à cet angle d'IA responsable.
02:56Alors il y a énormément d'enseignements dans cet observatoire.
03:00Moi j'ai retenu notamment ce chiffre de 63% des personnes que vous avez interrogées
03:05qui déclarent ignorer toutes les démarches mises en oeuvre pour se mettre en conformité en termes d'IA responsable.
03:10Alors je pense que j'en fais partie. Comment on fait ?
03:13Alors exactement ça c'était une grosse surprise de cet observatoire.
03:17Et on a même un autre chiffre, 9% des salariés ont la connaissance de leur charte éthique dans leur entreprise concernant l'IA.
03:26Donc ça c'est un élément sur lequel il va falloir véritablement agir.
03:30L'éducation, la formation, la transparence également des entreprises de manière à pouvoir communiquer.
03:36Donc c'était dans cet observatoire un élément, effectivement vous l'avez remarqué, extrêmement important.
03:41Mais comment on fait très concrètement de l'IA responsable ?
03:44Il y a un mode d'emploi, il y a des règles sur lesquelles on s'est tous entendus.
03:49On a notamment comme membre d'Impact AI une startup composée d'avocats
03:54qui vient vérifier que les IA qui sont utilisées et souvent développées ou co-développées au sein d'une entreprise
04:03répondent à un certain nombre de critères qui sont les critères de l'IA Act d'ailleurs.
04:08Puisque l'Union Européenne s'est dotée d'un dispositif de contrôle donc l'IA Act est d'ailleurs plébiscité par les salariés qui répondent à cette enquête.
04:19D'accord. Alors lors d'un de vos événements, vous organisez aussi des événements,
04:24il y a Gilles Babinet qui a professé trois raisons de croire à un monde harmonieux à l'ère de l'IA.
04:31Quelles sont les conditions justement pour que ce déploiement de l'IA nous fasse vivre dans un monde harmonieux avec elle ?
04:36Alors effectivement on a organisé en décembre notre première masterclass sur l'IA responsable et on avait trois invités de marque.
04:42On avait effectivement Gilles Babinet, président du comité numérique français.
04:47On avait également quelqu'un dans la gouvernance parce que l'IA responsable et gouvernance ça va un peu ensemble.
04:52Donc on avait Francesca Rossi qui est une américaine en charge de la gouvernance chez IBM.
04:56Et puis on avait un troisième intervenant qui était Serge Tisseron.
05:02Serge Tisseron vous l'avez beaucoup entendu lorsqu'on parlait de la relation des écrans avec les enfants.
05:07Absolument.
05:08Et donc Serge psychiatre et académicien a également développé tout ce que l'on peut et doit mettre en place sur la relation entre l'IA et les enfants et donc l'éducation.
05:19Donc on avait cet ensemble là qui était extrêmement pertinent d'ailleurs qui se retrouve aujourd'hui sur le réseau.
05:25Vous pourriez partager peut-être quelques conseils très rapidement ou un conseil ?
05:29Développer une IA responsable chez soi, en entreprise ?
05:32Développer une IA responsable est surtout un élément qu'a mentionné Serge Tisseron qui était sur la communauté.
05:40C'est-à-dire que le fait que lorsque l'on travaille dans une communauté même pour les jeunes,
05:47communauté de gaming, etc., on crée finalement un vrai réseau d'entraide et on s'ouvre vers l'extérieur.
05:57Donc cette partie-là est également importante pour l'IA.
06:00Donc en fait vous remettez la place de l'humain au milieu de l'écosystème IA.
06:04Merci beaucoup Christophe Liena.
06:06Je rappelle que vous êtes le président d'Impact AI.
06:08Merci encore.
06:09C'est l'heure de notre débat.
06:10On va parler des ingérences étrangères à travers les réseaux sociaux.
06:18Alors que l'avenir de TikTok se joue en ce moment même aux Etats-Unis,
06:21on débat dans Smartech de ces menaces d'influence voire d'ingérences étrangères
06:26que peuvent représenter les réseaux sociaux avec deux confrères, deux confrères très engagés.
06:31Aude Favre qui est à distance avec nous.
06:33Bonjour Aude.
06:34Bonjour.
06:35Aude Favre, active contre la désinformation au sein de Fake Off et Citizen Facts.
06:42Et puis avec vous sur ce débat, Aude Thomas-Huchon, auteur notamment de Anti-Fake News.
06:48Bonjour Thomas.
06:48Bonjour.
06:49Anti-Fake News co-écrit avec Jean-Bernard Schmitt, publié aux éditions First.
06:52Et vous êtes un spécialiste des théories complotistes.
06:56Alors j'ai une première question puisqu'on y va, on va mettre les pieds dans le plat.
06:59Est-ce que ce réseau TikTok, vous diriez que c'est vraiment aujourd'hui une arme de propagande,
07:04d'espionnage, de manipulation des opinions comme a pu le dire et l'écrire d'ailleurs
07:11dans Le Monde Isabelle Feng, une juriste chercheuse, dans une tribune ?
07:15Est-ce que vous êtes de cet avis-là aussi catégorique ?
07:18Je crois que c'est un peu le cas de tous les réseaux sociaux.
07:21Tous les réseaux sociaux sont des outils d'influence de l'opinion puisqu'ils diffusent de l'information
07:25et que les algorithmes dont nous ne savons rien modifient un peu cette diffusion d'information.
07:30Ce sont des outils de surveillance puisqu'ils surveillent leurs clients pour savoir comment les cibler avec des publicités.
07:37Et on sait que tous les réseaux sociaux ont, à un moment ou à un autre dans leur histoire récente,
07:42été utilisés par une puissance étrangère pour essayer d'influencer le jeu électoral.
07:47Donc ça a été le cas de Facebook pendant la campagne de 2016 aux Etats-Unis,
07:51ça a été le cas de Twitter pendant la campagne française en 2017,
07:54ça a été le cas d'Instagram plus récemment sur des choses qui étaient plutôt de l'ordre de la criminalité
08:00avec l'affaire Doppelganger et c'est le cas de TikTok.
08:03TikTok a une particularité, c'est qu'il est utilisé afin de faire de l'ingérence et il est accusé étant un réseau chinois
08:10de faire aussi de l'ingérence pro-chinoise en choisissant un peu ce qu'il met en avant sur sa plateforme.
08:16Vous faites référence par exemple à Cambridge Analytica,
08:18ce n'était pas une opération pilotée par les Etats-Unis jusqu'à preuve du contraire ?
08:24Non, la vraie difficulté à laquelle on est confronté c'est qu'on a beaucoup de mal à trouver les responsables,
08:32en tout cas à les connecter jusqu'au bout de ces affaires.
08:35Ce sont des affaires numériques, ce sont des affaires qui se passent un peu dans le domaine du secret,
08:40il y a un petit côté effectivement, ce n'est pas James Bond mais c'est quand même plus proche de la DGSE et du Bureau des Légendes par certains moments.
08:47Et donc par définition, on a du mal à le savoir, c'est un peu comme la lutte anti-Doppelganger.
08:52Et du mal à le prouver.
08:52Oui, c'est-à-dire que pour savoir qu'il y a eu une opération d'ingérence étrangère,
08:56il faut souvent avoir subi les effets de cette ingérence, comme autour de France avec ceux qui prenaient des choses un peu bizarres dans leur petit-déjeuner.
09:04Aude, vous diriez que TikTok est plus dangereux que les autres, plus suspect en matière de propagande et d'ingérence politique ?
09:13Je ne suis pas une grande spécialiste, je pense que Thomas a vraiment très bien expliqué tout ça.
09:18Moi ce qui m'inquiète beaucoup, comme je fais énormément d'éducation aux médias,
09:23et d'ailleurs comme Thomas, on va énormément dans les classes.
09:26Ce qui m'inquiète beaucoup, c'est vraiment le non-recul total, le non-questionnement.
09:32Si on ne vient pas, vraiment, il y a un non-questionnement total des élèves sur ces questions.
09:40Aucune prise de recul.
09:41Et certains, moi, me confient qu'ils en font 4 heures, 5 heures.
09:47C'est quand même le réseau le plus addictif.
09:49Personnellement, moi, je n'ai jamais vu ça.
09:52Et c'est vrai que moi, ce qui m'inquiète beaucoup, c'est vraiment, je trouve, une certaine forme de désert de la connaissance sur la puissance de ces outils
10:03chez les jeunes générations, qui ne sont pas les plus ablamées là-dessus, mais c'est celles que j'observe le plus.
10:11Donc voilà, tout ça est très inquiétant, ce qui s'est passé, mais je crois qu'on va en parler...
10:16En plus d'un milliard d'utilisateurs dans le monde, c'est la puissance d'écho que ça peut donner aussi.
10:20C'est la puissance d'écho, et comme le dit très bien Aude, TikTok est le réseau favori des plus jeunes.
10:26On a à peu près 40% des utilisateurs de TikTok, et le réseau favori des plus jeunes, il y a à peu près 40% de ce milliard...
10:33On parlera de Twitter après.
10:35Oui, on parlera de Twitter X, mais vous parlez de ce milliard, il y a 40% de ce milliard, donc à peu près 400 millions des utilisateurs de TikTok qui ont moins de 17 ans.
10:42Donc ce sont des personnes très jeunes qui vont sur TikTok expérimenter bien souvent leur premier rapport avec l'information,
10:50l'information c'est aussi ce qui nous construit dans nos opinions, et donc c'est leur premier rapport à la citoyenneté, aux questions politiques et sociales.
10:59Et le vrai problème, c'est pas tant qu'il y ait de la désinformation, c'est que ces réseaux cherchant en permanence à capter notre attention jouent sur nos émotions.
11:09Et d'une certaine manière, ils nous empêchent un peu de réfléchir.
11:11Est-ce que TikTok est fait pour nous rendre idiots, comme on a pu l'entendre ?
11:16En comparant la manière dont le réseau est fait en Chine et dans le reste du monde, on voit que les jeunes n'ont pas accès à la même chose.
11:27Les mineurs sur TikTok en Chine voient des contenus à vertu pédagogique et sont limités à 40 minutes par jour.
11:34Vous entendiez ce que vous disait Aude à l'instant, on a, et moi j'en croise aussi dans les collèges et dans les lycées, des gamins qui sont à plusieurs heures de connexion par jour.
11:43Sur des contenus qui ne sont pas du tout ni triés, ni vérifiés, ni choisis pour leur vertu pédagogique potentielle.
11:49Donc on est quand même face à une énorme opération sur laquelle il va falloir qu'on protège nos gamins.
11:54Parce qu'on les laisse, on les abandonne un peu là.
11:58On les protège contre quoi ? Parce qu'on entend, donc je posais la question Aude, vous vouliez réagir là-dessus aussi sur est-ce que finalement ces réseaux sociaux sont là pour rendre idiots des générations de jeunes occidentaux ?
12:11Ou est-ce qu'elles sont là pour miner des démocraties comme on l'a entendu aussi ?
12:16Quelles sont les intentions sous-jacentes ? Parce que finalement on leur prête tous les mots, mais on trouve de tout sur ces plateformes.
12:23Après moi je ne suis pas dans la tête de Biden.
12:26Donc je pense qu'en fait tout ça est multi, enfin ce qui est génial avec les réseaux sociaux pour ces gens-là c'est que tu peux remplir plein d'objectifs.
12:36Avoir de véhiculer une forme de propagande de différentes manières, à la fois de faire de l'argent, tout ça est combiné, associé à des millions d'utilisateurs potentiels.
12:49Donc c'est quand même des forces de frappe qui sont complètement ébrissantes.
12:53Mais est-ce que vous avez constaté des choses très concrètes quand vous allez par exemple dans les collèges et tout ça ?
12:56Est-ce que vous vous dites tiens là on les a retrouvés face à certains contenus qui sont à notre sens problématiques ?
13:03Alors là il y a deux jours, on a juste tapé Marchez Lune, vous pouvez tous le faire là devant chez vous, Marchez Lune sur TikTok.
13:15En tout cas pour les trois quarts des élèves, la deuxième vidéo mais qui est aussi visible que la première en haut,
13:22elle était une vidéo qui expliquait qu'on n'a jamais marché sur la Lune par exemple.
13:26Donc c'est-à-dire qu'en fait on est parti de cette idée que peut-être on allait être amené assez rapidement à ça.
13:33Mais non, le truc est venu direct.
13:34C'est-à-dire qu'il n'y a même pas eu la petite expérience où je pensais qu'elle allait durer quelques minutes, en fait le truc vient direct.
13:40Donc ça voilà c'est un exemple hyper concret si vous voulez.
13:44Et il y a aussi un truc très pervers mais qui n'est pas propre à TikTok,
13:48c'est que les jeunes, ce que je vois beaucoup en fait, moi très souvent me disent mais madame c'est certifié.
13:54C'est certifié là, le compte il est certifié.
13:57Et ce qui fait à la base sourire, parce que tu imagines qu'il y a un contrôle en fait de fact-checking
14:04et seuls les très bons producteurs d'informations obtiennent la certification.
14:10D'ailleurs je ne sais plus comment elle s'obtient précisément, il doit être question d'argent.
14:13Mais voilà il y a aussi des outils comme ça qui participent en fait à cette grande noyade générale des jeunes dans ce réseau.
14:22Alors justement c'est intéressant sur les comptes certifiés parce que sur Twitter la pratique a été modifiée.
14:31Jusqu'ici il fallait être un média officiel, un influenceur renommé, une personnalité qui aurait eu sa page sur Wikipédia.
14:38En tout cas c'est la plateforme qui vérifiait un certain nombre d'éléments afin de vous certifier.
14:42Aujourd'hui à l'ère d'Elon Musk ce n'est plus le cas, effectivement c'est une question d'argent.
14:47Il faut payer pour avoir un compte validé et pouvoir avoir sa parole qui se répand plus facilement et remonter dans les résultats.
14:55Alors on peut se dire ça pose un vrai problème puisque finalement certifier quoi, qu'est-ce que ça veut dire, ça ne veut plus rien dire.
15:00On entend aussi derrière ça le discours d'Elon Musk qui nous dit ben voilà moi quand je suis arrivé, quelle était la situation ?
15:06On avait un réseau social, donc c'est les Twitter Files, on avait un réseau social qui était manipulé par les démocrates.
15:12On en a marre du wokisme ambiant sur ces réseaux sociaux. Aujourd'hui on veut donner de l'air à d'autres discours.
15:18Je ne suis pas certain qu'il faut croire Elon Musk quand il nous dit ça.
15:21Déjà parce qu'Elon Musk est habitué depuis plusieurs années à diffuser des fausses informations.
15:27Lui-même diffuse énormément de fake news. Et cette histoire des Twitter Files, je sais qu'il y a une espèce de hype un peu en ce moment
15:34qui est poussée par un journaliste français d'ailleurs aussi.
15:37Ben en réalité ces éléments sont extrêmement faibles.
15:42Mais ça veut dire qu'on en a parlé quand même parce qu'on n'en avait pas parlé à l'époque.
15:45Si il y avait ce que certains veulent voir dans ces Twitter Files, on en aurait parlé.
15:51On en a parlé à l'époque ? Non mais ce qui ressort au-delà de la polémique, on ne va pas rentrer dans cette polémique.
15:57C'est l'idée qu'en fait on essaierait de cacher un certain nombre de choses.
16:00Et que les audio-démocrates, les journalistes qui leur sont alliés seraient là pour empêcher la machine Twitter de tourner en...
16:05Vous allez vous emmerder, j'aurais pas dû prononcer le nom.
16:07Mais il y a quelque chose qui ne va pas du tout dans cette histoire.
16:10Vous parliez d'inversement des valeurs.
16:12Là on est complètement là-dedans.
16:14Juste pour ne pas rentrer dans la polémique inutilement parce que du coup personne n'est d'accord avec ça.
16:19Non je suis d'accord avec vous là-dessus.
16:21Mais il y a un moment où il y a des faits.
16:23Thomas j'ai une question.
16:26Sur le fait que sur les réseaux sociaux on avait le sentiment effectivement qu'il y avait une parole plus lissée, plus contrôlée, d'accord.
16:36Et qu'aujourd'hui sur Twitter on trouve à peu près l'opposé.
16:40Ça on ne peut pas nier qu'aujourd'hui certaines personnes s'en réjouissent.
16:43Alors bien entendu, non mais bien entendu parce qu'en fait la question qui se pose...
16:48En fait ma question c'est à partir de quand on décide que là on est dans le registre du dérapage, que ça va trop loin, on est dans une autre forme finalement de manipulation ?
16:57En réalité c'est assez simple. Il suffit de... Il y a les faits et il y a les opinions.
17:03Et en réalité ce que ne supportent pas M.Musk et tous ceux qui défendent cette nouvelle vision de la liberté d'expression sur les réseaux sociaux,
17:10c'est qu'en fait ils veulent faire vivre au même niveau des faits et des opinions.
17:15Ce qu'ils ne supportent pas, c'est pas les opinions des autres, c'est le fait que leurs opinions qui sont mensongères et fausses soient au même niveau que les faits.
17:23Et en réalité c'est pas seulement une question politique, c'est en réalité une question de civilisation.
17:29On est en train de basculer dans un monde dans lequel il n'y aurait plus de faits.
17:332 et 2 ne fait plus 4. Pourquoi ? Et bien parce que quelqu'un a décidé que 2 et 2 ça ferait 5.
17:39Et ce quelqu'un c'est la personne la plus riche de la planète, qui possède le réseau social le plus influent de la planète,
17:44et qui l'a décidé de faire élire des gens qui pensent comme lui, et qui en plus sont sur une espèce de terrible recul de nos valeurs citoyennes, sociales, voilà,
17:54et qui permet les attaques ad nominem, qui permet tout ça. Donc je crois qu'il ne faut pas se tromper.
17:59La liberté d'expression c'est fondamental. C'est absolument fondamental.
18:03Et il n'y a pas un seul journaliste, y compris les fact-checkers, qui vous diront le contraire.
18:07Mais ce qui se joue, c'est pas la question de la liberté d'expression, il y a une espèce de terrible instrumentalisation de cette question-là.
18:14A des fins de retournement de l'opinion, avec des fake news, et je crois qu'il va falloir qu'à un moment on se réveille, y compris que les gens qui...
18:22Alors on a le sentiment justement qu'en Europe, on est réveillé sur ces sujets, puisqu'on a passé des réglementations.
18:29Aujourd'hui quand Mark Zuckerberg fait une déclaration en annonçant qu'il va stopper le fact-checking, il précise quand même que c'est uniquement aux Etats-Unis.
18:37Dans un premier temps.
18:39Et à peu près immédiatement, on a quand même une réaction du côté de la France, en tout cas avec la secrétaire d'Etat aux numériques qui nous dit
18:45« Nous ça passera pas, il va falloir respecter certaines règles ».
18:49Mais est-ce qu'on est suffisamment armé ? Alors là je m'adresse à vous deux, qui travaillez dans ce domaine du fact-checking justement, de la lutte contre la désinformation.
18:58Qu'est-ce qu'on a comme arme ? Est-ce que vous vous sentez aujourd'hui suffisamment équipé finalement ?
19:04Face à ces puissances, parce que ce sont des énormes puissances ces réseaux sociaux.
19:08En tant que fact-checker ?
19:10Oui.
19:12Vous avez qu'à faire.
19:14Bien sûr. En tant que professionnelle de la lutte contre la désinformation, oui.
19:18Non, surtout qu'il y a des opérations, je n'ai plus le nom en tête par exemple, qui consistent maintenant à noyer aussi les fact-checkers en produisant de la désinfo.
19:30C'est des ingérences russes qui ont été repérées dans ce sens-là et qui noient les fact-checkers en disant « vérifie ça, vérifie ça, vérifie ça, vérifie ça ».
19:40Et en fait, pendant qu'on se casse à vérifier les choses, il y a d'autres contenus encore plus fous qui circulent, etc.
19:48Enfin tout ça, c'est très dur, c'est très dur de lutter, c'est très dur de lutter.
19:52Enfin je ne peux pas le cacher, là vous me demandez comment je me sens, je ne me sens pas top.
19:58Et sachant qu'en plus, souvent on explique aussi en intervention, toutes ces plateformes, ce n'est pas tes amis.
20:06Ils développent une relation des fois amicale presque.
20:09Ce n'est pas ton ami, c'est quelqu'un qui fait de l'argent sur ton dos, donc de différentes manières.
20:13Et pour ça, il faut que tu absorbes de la pub.
20:16Et donc les contenus qui te sont envoyés sont les contenus qui vont te scotcher le plus à la plateforme,
20:22qui sont souvent des contenus complètement sensationnalistes, fakes, etc.
20:26Et nous les journalistes, comment on ne fait pas ces contenus-là ?
20:30Donc forcément, on est beaucoup moins vu, on rapporte moins d'argent, on fait moins.
20:34Et effectivement, en plus, il y a peu d'intérêt.
20:41En fait, on est dans une société qui a peu d'intérêt à aiguiser l'esprit critique.
20:45Que ce soit au niveau de tous ceux qui sont en puissance économique politique, très peu de personnes ont intérêt à ça.
20:51Et donc très peu de personnes le font, et donc on est très peu armé de fait.
20:55Est-ce qu'aujourd'hui, la seule arme, parce qu'on entend beaucoup parler du mouvement EloquittX pour le 20 janvier,
21:01est-ce que la seule arme finalement la plus efficace, c'est de quitter les réseaux sociaux ?
21:05Mais alors dans ce cas, il faut quitter tous les réseaux sociaux.
21:07Oui, en réalité, si on décide qu'il y en a un qui nous pose problème, et qu'on énumère les raisons,
21:13notre discussion a commencé comme ça.
21:15Est-ce que le problème, c'est TikTok ou les réseaux sociaux ?
21:18En réalité, il y a un peu la même logique à chaque fois.
21:20Et d'ailleurs, on voit bien qu'après X, anciennement Twitter, Meta, la semaine dernière,
21:27Google est en train d'aller sur le même chemin aussi.
21:30Je ne vous parlerai même pas de la modération et du fact-checking sur TikTok,
21:34je pense que tout le monde a à peu près compris que c'était totalement inexistant.
21:37Je crois qu'on a trois solutions.
21:40La première solution, on le sait, avec Aude, et on le sait d'une manière générale, c'est l'éducation.
21:46C'est-à-dire qu'il faut arriver, vu qu'il n'y aura plus de vérification sur les plateformes,
21:50vu que tout, ou presque, va pouvoir circuler,
21:53il va falloir que les citoyens soient capables de faire la différence, de trier le bon grain de l'ivraie.
21:58La seule manière, c'est de leur apprendre.
22:00Les plus jeunes à l'école, les plus âgés, il ne faut pas les oublier.
22:03Il ne faut pas oublier Tonton Antivax et Tata Conspy.
22:06Il va falloir faire aussi de la formation professionnelle.
22:09Je crois que c'est quelque chose que, sur votre antenne, un certain nombre de gens aussi ont des discours qui ont déjà été tenus.
22:16La deuxième arme, c'est la régulation.
22:18Vous avez posé la question du DSA, est-ce qu'il va pouvoir rentrer en jeu ?
22:21Qu'est-ce que vont faire les pouvoirs politiques là-dessus ?
22:24Et il y a un troisième élément, qui va être aussi nos propres comportements.
22:27C'est-à-dire qu'à un moment, Aude l'a très bien rappelé,
22:30ces plateformes, elles ont besoin de nous pour gagner de l'argent.
22:33Et donc, nous, on a un peu moins besoin d'elles qu'elles ont besoin de nous.
22:37Et donc, il y a un moment, il faut aussi que ce rapport de force avec les plateformes s'inverse.
22:42Finalement, le pouvoir, il est un petit peu dans nos mains ou entre nos pouces qui swipent,
22:47si on peut aller jusque-là.
22:49Je crois qu'il va falloir qu'on s'interroge aussi, individuellement, en tant que société,
22:53en tant que communauté nationale, de se dire, qu'est-ce qu'on peut faire ?
22:58Qu'est-ce qu'on doit faire ? Et à quel moment c'est trop ?
23:01Moi, j'ai ma petite idée sur la question.
23:04Mais il y a un moment, il va falloir que chacun se fasse un peu son propre jugement là-dessus.
23:08Et pour ça, ça va être très important de ne pas uniquement consulter des infos sur les réseaux sociaux.
23:12Merci beaucoup, Thomas Huchon et Aude Pavre, d'avoir participé à ce débat.
23:17Et puis, bonne continuation, surtout pour vos travaux.
23:20Bon courage !
23:22Allez, à suivre, on va s'intéresser à comment protéger nos données avec les IA Génératives.
23:34On termine cette édition avec Arnaud Tanguay. Bonjour Arnaud.
23:36Bonjour Delphine.
23:37Je rappelle que vous êtes le président du Cercle de la Donnée, expert en cybersécurité.
23:41Aujourd'hui, justement, on va faire un focus sur cette sécurité autour des IA Génératives.
23:45Certains considèrent qu'ils ne peuvent déjà plus se passer de Chajipiti, Claude ou Mistral dans leur quotidien.
23:51Pourtant, l'adoption de ces technologies pose quand même d'importantes questions,
23:56notamment en matière de protection des informations.
23:59Alors, quels sont les principaux risques, Arnaud ?
24:01Alors oui, Delphine, depuis l'adoption massive de ces nouvelles technologies, comme toute technologie,
24:07elle a attiré l'attention de Pirates. Pourquoi ?
24:09Parce qu'on manipule de grands volumes de données, d'une part,
24:12et puis les entreprises, les particuliers ont une tendance à accroître la sensibilité des données qui sont confiées,
24:18voire des données confidentielles, voire même des données intimes.
24:21Alors, on peut catégoriser ces risques en trois grandes familles.
24:25Le premier, c'est le risque de manipulation.
24:27Un peu à l'image d'un chef d'orchestre auquel vous fournissez une partition qui serait erronée,
24:32eh bien, vous aboutiriez à une cacophonie ou quelque chose qui n'était pas attendu.
24:36C'est un peu ce que font les Pirates. Dans le fameux prompt, ils vont saisir des fausses commandes
24:40pour rendre le comportement dangereux de l'IA.
24:43Le deuxième type d'attaque est celle par infection.
24:48C'est-à-dire lors de la phase d'entraînement de l'IA, on va injecter des données qui paraissent saines d'extérieur,
24:55à l'image du cheval de Troie de l'Iliade, et lors de l'exécution de celle-ci,
24:59elles vont avoir un comportement dangereux pour l'IA, voire même, à l'image d'Ulysse sortant du cheval,
25:04créer des portes dérobées.
25:06La troisième famille, certainement la résultante des deux premières, est l'exfiltration des données.
25:12C'est la finalité, c'est ce que les Pirates cherchent à avoir, c'est-à-dire accéder au contenu des données,
25:17données d'entraînement fort volume, données saisies par les collaborateurs ou par les utilisateurs,
25:23et le contenu de l'IA elle-même, parfois pour l'utiliser, contre l'IA à des fins de sécurité.
25:31Bon, ça c'est un peu effrayant.
25:33J'espère que vous allez nous donner quelques conseils pour sécuriser l'usage de ces IA génératives de tout un chacun.
25:40Alors oui, déjà en tant qu'individu, une grande vigilance sur le choix du modèle.
25:45Là, ce matin, je regardais encore l'Apple Store et le Google Play,
25:48il y a une multitude d'applications copiant, des fois, éhontément, le logo de SatGPT ou de Gemini.
25:54Donc, première recommandation, ne sélectionnez que des IA, donc des modèles et des fournisseurs de confiance.
26:01Le deuxième, soyez vigilants sur les données que vous fournissez.
26:05On ne fournit des données de nature confidentielle que s'il en a confiance,
26:09soit d'un point de vue contractuel ou de sécurité, de l'IA à laquelle vous vous adressez.
26:14C'est particulièrement vrai dans des usages un peu mixtes, perso, pro.
26:18Je pense à des catégories de type les médecins, les notaires et un certain nombre de professions
26:22qui peuvent s'exposer à des risques réglementaires ou contractuels vis-à-vis de leurs propres clients.
26:27Et enfin, une vigilance d'usage.
26:29On est habitué aux hallucinations de l'IA qui va générer un texte faux.
26:34Eh bien, des fois, cette cause-là est une cause de sécurité, de manipulation.
26:38Donc, une grande vigilance sur ce que fournit l'IA.
26:40Alors, vigilance, mais comment, très concrètement, les organisations peuvent se protéger,
26:45vérifier finalement qu'elles ont un usage éthique et sécurisé de ces IA ?
26:49Alors, il y a déjà une dimension technique, et là, je ne vais pas l'aborder aujourd'hui.
26:52Il y a des guides très bien qui existent. Je fais un peu la promotion de l'ANSI,
26:55de l'Agence nationale de sécurité des systèmes d'information,
26:59qui a fourni un guide technique extrêmement bien fait
27:03à destination de vos équipes techniques informatiques et sécurité.
27:07Non, je vous propose plutôt une méthodologie.
27:09Une méthodologie en quatre étapes.
27:11Éduquer, anticiper, agir et contrôler.
27:17Éduquer l'ensemble de la population de vos utilisateurs à l'usage, aux bons usages.
27:22Donc, l'usage pour en tirer le meilleur, mais aussi pour l'utiliser de manière sécurisée.
27:26C'est valable aussi pour vos équipes IT et sécurité qui découvrent parfois un nouveau monde.
27:30Deuxième, c'est l'anticipation.
27:32Je parlais de la sélection des fournisseurs.
27:34Ça, c'est clé aussi en entreprise.
27:36Mais lorsque vous développez vous-même vos modèles,
27:39appliquer des mesures techniques, c'est important.
27:42Troisième, c'est agir.
27:43Tout au long du cycle de vie, soyez vigilant.
27:45Les utilisateurs vont vous dire s'il y a des erreurs.
27:49De la même manière, vous mettez en place des mesures de sécurité,
27:52par exemple pour accéder aux données.
27:54Et enfin, c'est contrôler.
27:56On ne peut pas maîtriser quelque chose que l'on ne mesure pas.
27:59Donc, mettez en place des mesures de sécurité.
28:01On a l'habitude de voir des tests d'intrusion faits par des hackers éthiques.
28:06Ça existe maintenant pour l'IA testé.
28:08Donc, aucune fatalité. Il y a des risques.
28:10Mais vous pouvez y aller.
28:12Éduquer, anticiper, agir et contrôler.
28:15Super. Merci pour tous ces outils et ces conseils.
28:18Merci beaucoup, Arnaud Tanguy.
28:19Je rappelle que vous êtes le président du Cercle de la Donnée,
28:22un expert en cybersécurité.
28:24Merci à tous de nous avoir suivis.
28:26C'était Smartech.
28:27Merci d'être très fidèles devant votre téléviseur sur la chaîne Bismarck Forchège.
28:31Et aussi de nous suivre en podcast et sur les réseaux sociaux.
28:34Je vous dis à très bientôt pour de nouvelles histoires sur la tech.

Recommandations