Passer au playerPasser au contenu principalPasser au pied de page
  • avant-hier
Après l’UE, la Chine a décidé de muscler sa régulation de l’IA. L’objectif affiché : freiner la prolifération de contenus trompeurs, dans un contexte où la désinformation devient un enjeu stratégique mondial. Contrôle des algorithmes, identification obligatoire des contenus artificiels, responsabilité des plateformes… le gouvernement veut reprendre la main.

Catégorie

🗞
News
Transcription
00:00On termine cette édition avec Anthony Level, bonjour.
00:08Bonjour Delphine.
00:09Vous êtes expert en réglementation affaires publiques internationales dans le domaine de l'IA, du numérique, de l'information, des médias.
00:15Ancien directeur des affaires publiques d'ailleurs de TF1, je vous avais reçu à cette occasion.
00:19Vous avez évolué dans le milieu du digital, je vous ai reçu aussi quand vous avez commencé à travailler sur le watermarking avec Imatag,
00:25qui est une spin-off d'Inria, et vous avez récemment cofondé l'Abel4AI,
00:30donc une solution européenne pour l'identification des contenus générés ou manipulés par l'IA.
00:36Alors, je voulais qu'on discute ensemble d'une nouvelle réglementation chinoise récente,
00:41dont le nom est « Mesures pour l'identification du contenu synthétique généré par l'IA ».
00:47Quelles sont ces mesures qui sont prises ?
00:50Merci Delphine déjà pour votre invitation.
00:51Et puis donc effectivement, Pékin a frappé fort récemment, le 14 mars dernier,
00:56avec cette loi dans laquelle elle vise à reprendre le contrôle sur les flux d'informations chinois.
01:02Parce que pour pouvoir reprendre le contrôle, il faut savoir quelle est la nature du contenu qu'on regarde,
01:05et c'est impréalable.
01:06Donc elle a décidé de le faire.
01:07Elle a décidé de le faire très rapidement, puisque ce sera en vigueur le 15 septembre prochain.
01:12C'est-à-dire qu'en fait, ce qui est notable, c'est que c'est la première réglementation de ce type
01:15qui va être en exécution dans le monde.
01:18Donc ça va être un gros précédent pour tous les autres pays.
01:19Alors j'ai envie de dire, nous on a quand même de la IAC en Europe.
01:22Oui, mais ces mesures de transparence ne démarquent qu'à l'été 2026.
01:26Sur ce sujet-là.
01:27Donc un petit peu plus tard que la Chine.
01:29Donc l'objectif de Pékin, c'est de promouvoir avant tout une IA de confiance, une IA fiable, une IA saine.
01:36C'est le premier objectif.
01:37L'objectif également du contrôle.
01:39Le deuxième objectif, c'est de protéger sa population contre les deepfakes.
01:42Il y a eu l'année dernière une affaire retentissante où un célèbre acteur chinois a été deepfaké en ligne
01:46pour en fait obtenir des appels de fonds, des appels de contributions et donc du détournement d'argent.
01:51Sur le terrain chinois, il y a eu aussi pas mal de ce qu'on appelle des arnaques au président.
01:55C'est-à-dire des arnaques financières pour détourner de l'argent,
01:57se faisant passer souvent sous forme de visioconférence pour quelqu'un qu'on n'est pas et faire détourner des fonds.
02:02Ce dont a peur la Chine aussi, c'est les dispositifs de manipulation de masse,
02:08comme il peut y avoir avec la géopolitique internationale.
02:10Elle cherche à se prémunir de ça également.
02:13Donc en fait, la Chine a fait preuve quand même de rapidité, d'agilité et d'anticipation
02:17parce que vous savez que selon certains experts, d'ici la fin de l'année,
02:20c'est 80 à 90% du contenu synthétique, du contenu en ligne qui pourrait être de nature synthétique.
02:25Donc elle est plus rapide que les autres sur ce point.
02:27Et est-ce qu'elle a des mesures spécifiques ?
02:30Oui, c'est des mesures absolument spécifiques.
02:32En fait, qui visent à responsabiliser les générateurs, les plateformes et les citoyens chinois.
02:37Il va se passer trois choses lors de la génération d'un contenu.
02:40Le but de cette réglementation, c'est que le contenu soit étiqueté comme synthétique
02:43de sa conception jusqu'à sa distribution la plus lointaine possible.
02:47Donc sur toute sa chaîne, finalement, de vie, il doit être estampillé comme synthétique.
02:50C'est pas simple de déterminer les responsabilités, justement, de chacun ?
02:53Elle l'a faite. C'est-à-dire que je vais vous l'expliquer.
02:56Au niveau du générateur, il a déjà trois responsabilités.
02:58C'est-à-dire que dès la création du contenu, il doit mettre des cartons, pour si c'est de l'image,
03:03ou des invites vocales, si c'est de l'audio, pour dire directement dans le contenu,
03:06dedans, devant, à l'intérieur, derrière et autour, c'est ce que prévoit cette réglementation,
03:11il doit y avoir une mention comme quoi ce contenu est synthétique.
03:13Et cette mention doit suivre le contenu tout au long de sa vie.
03:15Ça, c'est la première chose qu'il doit faire.
03:17La deuxième, c'est que pour chaque contenu...
03:18C'est une mention cachée ou non cachée ?
03:19Non. Pour le moment, je suis sur les mentions qui sont bien visibles par les citoyens chinois.
03:24Les deux autres sont des mentions cachées.
03:26Les métadonnées, c'est-à-dire c'est un fichier texte qui est attaché à chaque contenu synthétique
03:29et qui va dire « je suis synthétique, je viens de tel générateur et j'ai été créé à telle date ».
03:33Et la troisième mesure d'identification technique, c'est du filigrane numérique,
03:36du tatouage numérique, c'est-à-dire cachée, incrustée très en profondeur dans le contenu,
03:41une carte d'identité du contenu qui reprend finalement les métadonnées du contenu,
03:45mais de manière beaucoup plus sécurisée, de manière à pouvoir rester le plus longtemps possible
03:48malgré des manipulations qui peuvent avoir lieu en ligne sur le contenu.
03:52Donc, trois actions au niveau du générateur.
03:54Puis, une fois que le contenu est généré, trois actions côté distributeur.
03:57La première action, c'est le distributeur, donc une plateforme de distribution à un réseau social chinois,
04:01va chercher s'il y a des mesures implicites, c'est-à-dire est-ce qu'il y a des métadonnées attachées à ce contenu
04:05ou est-ce qu'il y a un filigrane attaché à ce contenu.
04:08Et là, elle le répercute tout simplement sur l'utilisateur en réaffichant des mentions explicites
04:11pendant la consommation du citoyen chinois de la plateforme en question.
04:17Si le contenu n'est pas doté de métadonnées ni de filigrane,
04:21alors elle s'attend à ce que le citoyen chinois déclare de lui-même
04:25qu'il a utilisé par exemple un outil qui n'est pas en Chine, un outil de génération,
04:28et qu'il le déclare lors de l'upload du contenu sur la plateforme en question.
04:32Et si toutefois, il n'y a ni l'un ni l'autre, pas de mention explicite,
04:35pas de mention implicite, pas de déclaration de l'utilisateur.
04:37Alors c'est là où c'est très intéressant, c'est que la plateforme doit faire des efforts
04:41pour essayer de détecter si le contenu contient des traces d'artificialité.
04:45Et il faut savoir que tous les générateurs de contenu contiennent des traces de génération,
04:50ce qu'on appelle des artefacts, des anomalies et des traces.
04:53Souvent c'est sous forme de croix parce qu'en fait le processus de débruitage
04:56d'un contenu généré dans sa génération fait que ça laisse quelques traces.
04:59Vous savez, le synthétique cherche à reproduire la réalité
05:02et ce n'est pas simple du tout de reproduire exactement la réalité.
05:04Donc il y a toujours des choses et on peut les détecter, ces traces,
05:07avec des technologies très spécifiques.
05:09Donc il n'y aura pas de score d'artificialité affiché au public dans ce type de cas,
05:13mais il y aura quand même une mention, ce contenu est suspecté d'être généré par l'IA.
05:18Donc on voit qu'ils vont très très loin.
05:19Ils vont très loin.
05:20Bon, merci pour cette inspiration Anthony Levet, je rappelle que vous êtes le cofondateur de Label4AI.
05:26Merci à tous de nous avoir suivis, c'était Smartech,
05:29on se retrouve très vite sur la chaîne BeSmart4Change.
05:34Sous-titrage Société Radio-Canada
05:37Sous-titrage Société Radio-Canada

Recommandations