• avant-hier
Avec Fabrice Epelboin, enseignant Science Po et entrepreneur, Emmanuelle
Hoffman, avocate, personnalité politique

———————————————————————

▶️ Suivez le direct : https://www.dailymotion.com/video/x8jqxru

Retrouvez Le Numérique pour tous avec Vanessa Pérez tous les dimanches à 14h30 sur #SudRadio.
---
Abonnez-vous pour plus de contenus : http://
ow.ly/7FZy50G1rry

———————————————————————

▶️ Suivez le direct : https://www.dailymotion.com/video/x8jqxru

Retrouvez nos podcasts et articles :
https://www.sudradio.fr/

———————————————————————

Nous suivre sur les réseaux sociaux

▪️ Facebook : https://www.facebook.com/SudRadioOfficiel

▪️ Instagram : https://www.instagram.com/sudradioofficiel/

▪️ Twitter : https://twitter.com/SudRadio

▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr

———————————————————————

☀️ Et pour plus de vidéos du Numérique pour tous :
https://www.youtube.com/playlist?list=PLaXVMKmPLMDR4AnvSdAZjJkIhzXsyJ9fd

##LE_NUMERIQUE_POUR_TOUS-2025-03-16##

Catégorie

🗞
News
Transcription
00:00Sud Radio, le numérique pour tous, Vanessa Pérez.
00:04Bonjour et bienvenue dans le numérique pour tous, l'émission dédiée au numérique,
00:07à l'innovation et à la tech responsable.
00:10Aujourd'hui, nous allons vous parler d'un objet qui vous est familier puisqu'il s'agit
00:14de nos smartphones.
00:15Il représente une partie importante de notre vie, avec toutes les applications qui permettent
00:20un peu de nous lire, mais il est peut-être aussi un objet de surveillance.
00:24Mythe ou réalité, c'est ce que nous allons tenter de découvrir avec nos invités.
00:27Le numérique pour tous, spécial smartphone et vie privée, c'est tout de suite et c'est
00:30sur Sud Radio.
00:31Sud Radio, le numérique pour tous, Vanessa Pérez.
00:35Et pour commencer cette émission, j'ai le plaisir d'accueillir notre décodeur, on va
00:39dire, de la technologie, Fabrice Eppelboin.
00:41Fabrice, je rappelle que vous êtes enseignant à Sciences Po, vous êtes également entrepreneur.
00:46Alors, la première question, elle est toute douce, Fabrice, j'aimerais qu'on se la pose.
00:51Entre les propriétaires d'iPhone ou de Samsung, est-ce que déjà, ça nous définit socialement ?
00:56Ça définit la lutte des classes, qui est un structurant social assez imposé en Europe.
01:02Les riches ont des iPhone, les pauvres ont des Android, pour faire simple.
01:04Il y a quelques exceptions, mais finalement, elles sont rares.
01:07Ça définit votre classe sociale.
01:08Alors, on peut le personnaliser, on le sait tous, à son téléphone, que ce soit avec
01:12une sonnerie, que ce soit avec un écran, un économiseur d'écran.
01:15Là aussi, est-ce que c'est une proclamation identitaire ?
01:17Bien sûr, quand vous avez la photo de votre gamin ou de votre bien-aimé sur votre téléphone,
01:23très clairement, vous affichez une partie de votre intimité auprès de tout le monde,
01:28mais en tout cas, des gens qui sont à proximité.
01:30Donc oui, ça fait très clairement partie de la biaise identitaire autour d'un iPhone.
01:33La sonnerie aussi ?
01:34La sonnerie, comme le fond d'écran, comme certains types d'applications qui définissent
01:40vraiment qui on est à travers la personnalisation, de la même façon qu'on peut fine-tuner une
01:45voiture et lui ajouter des ailes rondes, des flammes sur les côtés.
01:48On peut faire exactement la même chose, de façon beaucoup plus simple avec son iPhone,
01:51parce que c'est plus facile de changer.
01:52Alors, on va rentrer un petit peu plus en profondeur dans ce que notre téléphone dit
01:57de nous.
01:58On a tous effectivement des applications, alors je vais peut-être mettre à part les
02:00applications musicales, parce qu'effectivement, on se fait dans le top des applications, mais
02:04on arrive à définir un profil psychologique avec les applications que l'on trouve dans
02:07un téléphone ?
02:08Ah oui, si vous avez Tinder, forcément, ça dit quelque chose de vous, c'est clair.
02:13Si vous avez LinkedIn aussi, ça dit quelque chose de vous.
02:16Et donc forcément, quelqu'un qui n'aura pas LinkedIn, mais qui aura Tinder et Snapchat
02:20par exemple, vous n'allez pas en avoir la même image que quelqu'un qui, par exemple
02:24comme moi, LinkedIn et Twitter, c'est deux usages différents qui présupposent des profils
02:30très différents derrière.
02:31Et là, la catégorisation est claire ou alors ce sont des deux ?
02:34C'est plus complexe.
02:35C'est beaucoup plus complexe.
02:36Alors évidemment, Snapchat, c'est plus un truc pour les jeunes et LinkedIn plus un truc
02:40pour les vieux, mais au-delà de la segmentation par tranche d'âge, il y a des segmentations
02:44qui sont beaucoup plus complexes que juste un statut social, un niveau de revenu ou une
02:49classe d'âge.
02:50Alors on va rentrer encore plus dans la profondeur du téléphone, c'est vrai que quand nos
02:55micros sont ouverts au niveau des différentes applications, donc vous pouvez avoir un micro
02:59ouvert sur Facebook, sur Instagram, là, on va commencer à en savoir encore plus sur
03:03vous et vous pousser de l'information, ce qu'on appelle ces bulles de fil qui correspondent
03:06un petit peu à vos attentes.
03:08Est-ce que là, on passe un seuil ?
03:10Il y a beaucoup de fantasmes sur le micro ouvert.
03:13Facebook n'écoute pas à travers le micro, Facebook recueille une quantité incroyable
03:19d'informations, tout ce qui peut et arrive grâce à de l'intelligence artificielle,
03:22pas la version de l'LGBT, la précédente génération, celle dans laquelle on baigne
03:26depuis 15 ans, à extrapoler énormément de choses sur vous.
03:29Donc à partir d'informations qui vous semblent parfaitement anodines et qui ne vous donnent
03:33pas l'impression d'avoir violé votre vie privée, votre boisson préférée, des goûts
03:38musicaux, des choses vraiment totalement anodines, on peut extrapoler votre orientation sexuelle,
03:43vos choix politiques, vos inquinisons psychologiques, tout un tas de choses qui ensuite vont permettre
03:48de vous manipuler.
03:49Mais j'insiste, c'est à partir d'informations qui n'ont aucun rapport avec tout ça.
03:52Alors, je rebondis sur les choix politiques, effectivement, on ne se rend pas forcément
03:57compte mais tous nos likes et toutes nos émotions par rapport à certaines images, par rapport
04:01à certains mots vont commencer à conditionner un véritable profil.
04:04Ah oui, à partir de tout ça, l'histoire la plus connue c'est Kamjai Etika, c'est
04:11la bidouille sur Facebook qui a aidé Trump à être élu en 2016, et qui à partir encore
04:17de likes totalement anodins sur Facebook, arrivait à extrapoler votre positionnement
04:21politique, votre nature psychologique et façonner de façon automatisée un message qui s'adressait
04:28à votre psychologie et votre positionnement politique uniquement à destination de ceux
04:33qui éventuellement pourraient s'abstenir d'un vote Hillary Clinton ou hésiter sur
04:38un vote Donald Trump.
04:39Et c'est sur ces deux cibles-là qu'on a matraqué des messages de façon à les inciter
04:44à voter Trump si c'était des républicains, mais quand même un peu choqués par la nature
04:47du personnage, ou les inciter à ne pas voter Hillary Clinton si c'était des démocrates
04:53mais pas particulièrement enthousiastes à l'idée de donner leur voix à Hillary Clinton.
04:57Et ça a marché, ça a très bien marché, mais tout ça s'est fait sur la base de profils
05:02établis à partir de likes parfaitement anodins.
05:04Alors on parle des applications, maintenant on va parler de l'appareil lui-même, cet
05:07appareil il nous écoute quand on parle, il est capable, enfin voilà, un tiers est capable
05:12d'entendre toute notre conversation et justement de s'en servir ?
05:14Un tiers oui, avec des logiciels tels que Pegasus, qui est un scandale qui a été
05:20traité par-dessus la jambe, mais qui va probablement revenir sur le devant de la scène tôt ou
05:26tard.
05:27Pourquoi ?
05:28Parce que le story officiel, c'est que les vilains marocains ont espionné le président
05:35de la République ainsi que tout son entourage et une tripotée de législateurs.
05:40Le président actuel.
05:41Le président actuel, oui, et les législateurs actuels, tout ça a été espionné par Pegasus,
05:46un logiciel israélien qui a été offert comme des bonbons à la sortie d'une école
05:51à tous les signataires des accords d'Abraham, c'est-à-dire grosso modo la quasi-totalité
05:56des pays arabes, et qui s'en sont servis pour d'une part exterminer leur opposition
06:00politique, mais également apparemment pour aller espionner Emmanuel Macron et son entourage.
06:05Bon, évidemment c'est un storytelling qui n'a absolument aucun sens.
06:09Le Maroc a démenti, mais ils n'étaient pas vraiment en situation d'expliquer ce
06:12qui s'était réellement passé.
06:13On va finir par expliquer au grand public ce qui s'est réellement passé, c'est le
06:17boulot des journalistes d'investigation qui sont sur le coup en ce moment, mais ça n'a
06:21absolument rien à voir avec ce que ces gentils ONG nous ont gentiment raconté.
06:25Mais ce qui veut dire qu'aujourd'hui, effectivement, tous les politiques et peut-être d'autres
06:28grands capitaines de la société sont susceptibles d'être écoutés ?
06:31Non, non, pas susceptibles.
06:33On est rentré de plein pied dans le nom de Big Brother et depuis des années, des années,
06:36ce n'est pas qu'ils sont susceptibles, ils sont.
06:37Point.
06:38À partir du moment où vous avez des informations qui sont stratégiques pour l'État, ce
06:41qu'est le cas d'une large partie des législateurs, et ce qu'est le cas de quasiment tout le
06:45monde à l'exécutif, mis à part des ministres, je ne sais pas, des trottoirs propres et des...
06:50Je ne suis pas sûr qu'il y en ait encore des ministres à ce point sans grande importance.
06:54Ils sont tous sous écoute, 2, 2, 3, 4, 5, 6 services de sécurité.
06:58À minima, les Chinois, ça les intéresse, les Russes, évidemment, Pegasus a été distribué
07:04vraiment à une vingtaine, trentaine de pays, donc on est quand même la cinquième ou sixième
07:10puissance mondiale.
07:11On intéresse énormément de pays, sans compter que dans ces pays, il y a des anciennes colonies
07:14qui nous envoient un peu souvent à raison et qui ont d'autant plus de raisons de nous
07:19espionner.
07:20Et on n'a même pas abordé le fait que Pegasus, c'était un logiciel parmi au moins une bonne
07:25dizaine qui sont à peu près équivalents, que les Américains évidemment ont leur Pegasus,
07:29que les Américains ont une longue tradition révélée par coup sur coup, Julian Assange
07:34et Edward Snowden, d'espionner tous les politiques français, depuis Chirac, probablement avant.
07:40Donc bien sûr, par nature, la question n'est pas de savoir s'ils sont espionnés, ils sont
07:45espionnés.
07:46Donc quand je vous écoute aujourd'hui, que ce soit les Etats-Unis, la Chine, la Russie,
07:48la France, tout le monde s'écoute.
07:49Bien sûr, bien sûr, évidemment.
07:52Fabrice, j'ai envie de vous demander, avec l'utilisation accrue de l'intelligence artificielle
07:55dans notre téléphone, donc on va lui poser, on sait très bien qu'aujourd'hui l'intelligence
07:59artificielle, on lui pose des questions qui sont presque intimes, pour lui demander des
08:02conseils.
08:03C'est un peu cet I.A.
08:04doudou.
08:05Là aussi, est-ce qu'on n'a pas un risque de voir toutes ces informations un jour réapparaître
08:10pour dresser un profil psychologique ou alors s'en servir à la pression ?
08:14C'est fait depuis belle lurette, des profils psychologiques, les réseaux sociaux, particulièrement
08:19META qui est sans doute le plus avancé là-dedans, vu qu'ils ont commencé des recherches fondamentales
08:23très sérieuses avec des gens de très haut niveau, à partir de grosso modo 2010-2011.
08:29Donc étant donné qu'ils ont un laboratoire avec des cobayes de 2 milliards de cobayes,
08:34ils ont de quoi faire.
08:35C'est fait, c'est enterriné, il y a sans doute, et on en a eu quelques révélations
08:41à travers quelques fuites, des recherches qui d'un point de vue purement sociologique
08:44sont fascinantes, mais ils en ont publié une, je crois, en 2012, qui montrait grosso
08:51modo à quel point ils étaient capables de manipuler les émotions de leurs utilisateurs
08:55en filtrant les émotions négatives ou positives dans les flux de tout un chacun, en faisant
09:00des groupes d'échantillonnages, et ça, ça fait rêver n'importe quel sociologue,
09:03de 2 millions d'utilisateurs.
09:04Donc ils avaient des échantillonnages de 2 millions d'utilisateurs, là où les sociologues,
09:08quand ils font de la quantie, ont du mal à atteindre le millier.
09:12Et effectivement, ils montraient des choses absolument fascinantes, ils l'ont montré
09:15dans un premier temps, de façon parfaitement naïve, en publiant des recherches universitaires,
09:20académiques, et ça a fait un tel scandale que par la suite, ils ont juste, ils se sont
09:24tués, ils ont gardé ça pour eux.
09:25Une application fondamentale est celle qui utilise nos données de santé, que ce soit
09:30le comptage du nombre de pas, et demain, l'analyse de l'attention, l'analyse de tout un taux
09:35d'autres facteurs, tout ça c'est dans notre téléphone, et parfois même à notre insu,
09:40est-ce que là, on est dans la surveillance totale ? C'est-à-dire que demain, un assureur,
09:44en connaissant toutes ces données, pourra ne pas vous assurer ? Est-ce que le RGPD
09:49nous protège vraiment ?
09:50Je n'avrais de dire ça face à un député du bloc majoritaire, mais la Macronie a déjà
09:54affilé à Microsoft toutes les données de santé des Français, donc on a déjà vendu
10:00aux Américains, enfin vendu, on ne sait pas très bien quel est le canal retour, mais
10:04disons qu'on a généreusement offert aux Américains de Microsoft, avant de s'apercevoir
10:08qu'il y avait un problème de souveraineté, qu'on a affilé toutes nos données de santé,
10:13la santé de demain, c'est une santé prédictive basée sur l'analyse des données de santé
10:18et l'anticipation de leur évolution, pour ça il faut des données ultra qualitatives
10:22pour faire l'apprentissage de ces fameuses intelligences artificielles, les seuls au
10:27monde à avoir des données suffisamment qualitatives, suffisamment centralisées, suffisamment normalisées,
10:31suffisamment riches en métadonnées pour alimenter ces intelligences artificielles,
10:36ça a été la caisse d'assurance maladie, les données de santé de la caisse d'assurance
10:39maladie ont été empruntées, dérobées, je ne sais pas, par le ministère de la santé,
10:46ça a donné votre dossier santé personnalisé, je ne suis pas sûr du terme, mais c'est
10:50grosso modo ça, qu'on a donné à Microsoft pour alimenter l'intelligence artificielle,
10:54donc la santé de demain, on l'achètera aux Américains.
10:56Ce que vous voulez dire Fabrice, c'est que le RGPD et l'acnyl ne sont plus des parades
11:00à protéger nos données ?
11:01On n'est pas dans un état d'oubli, il y a trop d'exceptions, le RGPD et l'acnyl, c'est
11:06bien gentil un cadre législatif, mais typiquement on vient de passer à l'occasion des Jeux
11:11Olympiques, un vague cadre expérimental sur la vidéosurveillance algorithmique, la réalité
11:15c'est que Bernard Cazeneuve en 2015 a donné le top départ pour l'installation un peu
11:19partout en France de la vidéosurveillance algorithmique, et qu'aujourd'hui il y en
11:22a pendant plus de 200 villes, et pas des moindres, la Seine-Saint-Denis est machinement équipée,
11:28et donc tout ça c'est fait à l'insu du plein gré du législateur, donc c'est bien
11:32gentil les lois, mais encore faut-il être dans un état de droit.
11:35Merci Fabrice, je rappelle que vous êtes enseignant à Sciences Po et entrepreneur.
11:39Restez avec nous, on marque une courte pause avant de découvrir comment justement le législateur
11:45essaie d'agir pour protéger notre vie privée.
11:48Le numérique pour tous spécial smartphone et vie privée, ça continue dans quelques
11:51instants et c'est sur Sud Radio.
11:57Il faut continuer cette émission spéciale smartphone et vie privée, nous avons le plaisir
12:01d'accueillir Maître Emmanuel Hoffmann.
12:03Bonjour Emmanuel, alors vous êtes avocate et désormais député de la 4ème circonscription
12:08de Paris.
12:09Emmanuel, quand on voit toutes les possibilités d'intrusion au sein de notre smartphone, c'est
12:14assez troublant, est-ce qu'on peut craindre d'être sur écoute si on a des choses à
12:19cacher ?
12:20La crainte est toujours légitime, mais moi j'essaye d'éviter la peur de la peur.
12:24Nous sommes, contrairement à ce que certains pensent, en France dans un état de droit,
12:28en Europe aussi.
12:29En tant que juriste et législateur, aujourd'hui, heureusement que je le pense, c'est-à-dire
12:36que nous avons un cadre législatif, on a évoqué tout à l'heure le RGPD, qui est
12:43quand même un règlement, un règlement qui pour partie a été repris par les Américains,
12:48donc on a quand même une arme législative qui est aussi une arme de compétitivité.
12:54Moi je suis là pour rassurer, peut-être que je rêve un peu, mais si on ne rêve pas
13:01d'un état de droit et d'un état protecteur, d'abord on n'est pas juriste et on n'est
13:06pas législateur.
13:07Donc par rapport à ce qu'évoquait Fabrice tout à l'heure, cette intrusion et cette
13:09écoute dans le téléphone, le droit peut s'opposer justement et protéger la personne
13:15qui surécoute ?
13:16Absolument.
13:17Pour la mise sur écoute, il y a un cadre en France, il faut une enquête de police,
13:22il faut un magistrat.
13:23On a un cadre avec des magistrats qui autorisent des mises sur écoute, donc si la mise sur
13:28écoute est faite sans l'autorisation, après il y a la mise sur écoute et l'usage de
13:33la mise sur écoute.
13:34C'est l'objectif.
13:35Alors justement Emmanuel, aujourd'hui vous savez que dans les visioconférences, on a
13:39la possibilité d'activer le mode compte-rendu ou d'enregistrer une conversation.
13:43Imaginons que l'on annonce dans une visioconférence l'annonce d'un crime, de manière confidentielle,
13:49est-ce que cet enregistrement peut être une preuve qui est opposable ?
13:54En matière pénale, la preuve est libre.
13:56Effectivement, si on a capté une information disant que vous allez faire un attentat, on
14:02pourra l'utiliser dans une enquête de police.
14:05Mais ça c'est sur le terrain pénal.
14:07Si on revient plutôt à la réunion professionnelle entre chefs d'entreprise et que vous devez
14:15accepter l'enregistrement, c'est-à-dire qu'on ne peut pas enregistrer une réunion
14:20sans vous avoir demandé l'autorisation.
14:21Le problème c'est que souvent les citoyens, les acteurs acceptent parce qu'ils n'ont
14:29pas envie de lire les conditions générales qui objectivement sont faites par des juristes
14:33de manière un peu complexe.
14:35Mais il y a quand même un acte positif d'accepter d'être enregistré.
14:39Après, si on utilise sans que vous ayez accepté cet enregistrement, ça n'a pas
14:47de valeur devant les tribunaux, à l'exception de la preuve libre en matière pénale.
14:51Emmanuelle, on parlait d'intelligence artificielle avec Fabrice, qui permet d'analyser nos
14:55habitudes, nos messages, est-ce qu'on est une fois encore protégé en ce qui concerne
15:01notre identité numérique ?
15:02Est-ce que c'est du domaine du RGPD, de la CNIL ou est-ce que vous êtes en train
15:05de créer justement des jurisprudences pour nous protéger dans l'avenir parce que le
15:09cadre n'est pas assez enterriné ?
15:12Est-ce que le cadre suffisant, je ne sais pas, le cadre existe.
15:15Et effectivement, on a ce cadre législatif, ce RGPD qui fait que la vie privée est protégée
15:22en France.
15:23Elle est protégée, alors vous avez évidemment des attaques, on l'a dit tout à l'heure,
15:29on va vous prendre des données pour les utiliser beaucoup de manière commerciale.
15:33Il faut être honnête, ce n'est pas toujours pour des crimes ou des délits, mais de manière
15:37commerciale.
15:38Quand c'est gratuit, vous êtes le produit.
15:39C'est ce qu'on a l'habitude de dire.
15:40Voilà.
15:41C'est un peu ça.
15:42Mais il y a une question de proportionnalité en fait.
15:44Jusqu'où on peut aller ? Et il faut arrêter de penser que le citoyen est un acteur passif.
15:50Quand vous acceptez des cookies, c'est vrai qu'on le fait automatiquement sur un téléphone,
15:55vous l'acceptez.
15:57Vous avez un acte positif.
15:58Dans votre téléphone, vous avez un certain nombre, je ne suis pas assez technicienne,
16:02mais d'options, je le donne, pour éviter qu'on puisse vous tracer.
16:07D'accord, mais quand vous n'êtes pas un digital natif et que vous avez un téléphone
16:10ou une application, vous n'allez pas spontanément aller bloquer cette approche.
16:15Oui, mais là on en revient à l'éducation.
16:18Éducation, répression, moi c'est un mot d'ordre en tant que juriste, c'est qu'il
16:23faut essayer d'éduquer sur la proportionnalité qu'il y a entre l'écoute et l'utilisation
16:35qu'il y a.
16:36Or on a ce cadre, je le dis, moi je suis pour la souveraineté numérique, je suis
16:41pour un cadre législatif, donc oui, oui, bien sûr qu'il faut.
16:44Mais vous n'avez pas le sentiment aujourd'hui que l'innovation va tellement plus vite
16:47que la régulation, que à la vitesse à laquelle va cette inondation des intelligences artificielles
16:52qu'en fait on n'est a fortiori pas aussi bien protégé que si on avait pris le problème
16:59un petit peu plus en amont ?
17:00Il y a un effet retard, il y a toujours un effet retard, le temps législatif est long,
17:05le temps d'une procédure judiciaire est long, mais je disais souvent et avant même
17:12l'IA, c'est que pourquoi est-ce qu'on aurait plus de droits dans le monde virtuel
17:16que dans le monde réel ? Donc si on n'a pas encore les outils législatifs, faisons
17:21avec les outils qu'on a, et les magistrats, contrairement à ce que certains pensent,
17:27sont très enclins à condamner dans ce domaine.
17:32Donc si on arrive avec nous en tant que juristes, avec des outils et en expliquant la situation,
17:37on peut avoir des décisions de justice.
17:38Si on n'aura pas assez, c'est vrai que c'est un coup, c'est aller devant un tribunal,
17:44aller voir un avocat.
17:45Certains ne franchissent pas ce pas, mais je crois qu'il faut le faire.
17:49J'entends Emmanuel, mais on sait tous que la justice est un peu embolisée, les plaintes
17:52sur Pharaus sont de plus en plus nombreuses.
17:54Est-ce que vous allez avoir le temps de traiter des plaintes ? Est-ce que quelqu'un veut
17:57mettre 2 ou 3 000 euros justement pour se protéger parce qu'il a été abusé avec
18:00une écoute à son insu ?
18:01Déjà, il faut essayer de se protéger et de faire attention effectivement à ces outils
18:06et ensuite, il ne faut pas hésiter, oui, il ne faut pas hésiter, aller saisir les tribunaux,
18:12à sensibiliser et à sensibiliser les jeunes.
18:17J'en reviens à la question de l'éducation, avant la répression, il y a l'éducation.
18:21Ce n'est pas normal d'être écouté.
18:23Ce n'est pas normal qu'on puisse utiliser vos données.
18:26Si on ne leur explique pas ça, je dis souvent comme exemple, mais les anciens ne se souviennent
18:33pas du début Napster, Napster il y a quelques années.
18:39On va rappeler peut-être une génération qui n'était pas Napster.
18:41Il y a une génération Napster que les moins de 20 ans ne peuvent pas connaître.
18:45C'est le fait qu'au début d'Internet, la musique était, j'allais dire de libre accès
18:52et on s'est dit, c'est ça la liberté.
18:54La liberté s'arrête, c'est la démocratie, au droit de chacun.
19:00Donc la liberté s'arrête au droit d'auteur avec Napster et c'est pour ça qu'on a eu
19:04quand même des législations, Adopi, ça a pris beaucoup de temps, mais aujourd'hui
19:07les choses sont un peu plus cadrées.
19:09La liberté c'est de protéger votre vie personnelle, vos données personnelles.
19:14C'est ça le RGPD, c'est de dire la liberté s'arrête à vos droits.
19:18Et moi je me bats pour ça.
19:22Je ne pense pas que la majorité des Français ait envie qu'on leur prenne leur image,
19:27qu'on leur prenne leurs échanges qu'ils ont eus de manière personnelle ou professionnelle.
19:31On est complètement d'accord, la majorité des Français n'en a pas envie.
19:33La majorité des Français ne lit pas forcément les conditions générales d'utilisation
19:37quand elle place une nouvelle application sur son téléphone, mais là vous parlez d'éducation,
19:41ça demande du temps, ça demande une éducation à l'éducation, ça demande une posture.
19:45Et aujourd'hui on est dans cette culture de l'urgence et on n'a pas forcément la possibilité
19:49justement de cocher toutes les cases pour se protéger.
19:51Donc effectivement on s'en remet soit à l'État, soit aux plateformes en les accusant.
19:57Mais derrière ce que vous dites, vous dites que l'on est seul responsable de ces actes.
20:01Non, on n'est pas seul responsable, on l'est aussi.
20:03Je ne suis pas pour l'irresponsabilité du citoyen, mais bien sûr que le législateur
20:10et l'État est responsable justement de défendre les citoyens.
20:15Ça paraît une évidence, mais c'est une réalité.
20:18Donc lorsque la loi est insuffisante, il faut d'ailleurs faire un bilan,
20:22souvent c'est ce qu'on fait à l'Assemblée Nationale,
20:24de faire un bilan, une étude d'impact d'une loi pour savoir s'il faut l'adapter,
20:28la faire évoluer ou si finalement elle est suffisante.
20:30Je ne suis pas pour la démultiplication des lois.
20:32C'est un sujet sur lequel vous réfléchissez aujourd'hui ?
20:34Absolument.
20:35Sur l'intelligence artificielle et toute cette information qu'on lui donne,
20:37il y a des choses qui sont en cours à l'Assemblée ?
20:38Absolument.
20:39On a, comme vous le savez, il y a quelques semaines,
20:42le sommet organisé par le chef de l'État sur l'intelligence artificielle dans l'action.
20:46Ce qui est intéressant d'ailleurs, c'était le titre de ce sommet.
20:49Et on a à l'Assemblée Nationale organisé sur des thématiques,
20:53notamment la question de l'inclusivité de l'intelligence artificielle
20:57avec les femmes qui ne sont pas assez dans ce domaine.
21:03Donc ce sont des sujets absolument sur lesquels on travaille.
21:06J'ai d'ailleurs une mission sur l'intelligence artificielle
21:09qu'on vient de me donner à l'Assemblée Nationale.
21:11Donc bien sûr, bien sûr.
21:13Et c'est justement en faisant un constat d'une réalité de terrain
21:17qu'on va voir si on a besoin ou pas.
21:19On n'est pas obligé de démultipliquer les lois si on n'en a pas besoin.
21:22Fabrice, vous voyez au chez de la tête sur la protection du citoyen.
21:26Madame, vous faites partie d'un grand politique
21:29qui a légalisé la surveillance de masse en 2017.
21:33Quand même, on ne peut pas tenir le discours que vous tenez
21:37tout en ayant légalisé la surveillance de masse
21:39qui a commencé à être déployée avec Nicolas Sarkozy à partir de 2007.
21:43Mais Fabrice, vous voyez que toute l'unité technologique a son pendant.
21:46Donc peut-être que l'intention était de faire l'épargne.
21:48Non, non, je veux dire qu'on a a priori, avec les réseaux sociaux,
21:52la prolifération de l'information, la facilité d'accès à l'information,
21:55on y arrive à un moment où on ne peut pas se foutre de la gueule du monde à ce point.
21:58Ce n'est pas possible.
22:00Vous avez légalisé la surveillance de masse.
22:02Et vous êtes en train de nous expliquer que non, on a le droit à la vie privée.
22:05Vous êtes en train de nous expliquer qu'il faut qu'on éduque les jeunes.
22:10Vous faites partie de la Macronie qui s'est baffrée dans Signal,
22:14dans Telegram malheureusement, en imaginant une protection
22:19complètement fantasmée sans y comprendre quoi que ce soit
22:22et qui a donné à Pavel Durov la totalité des petits secrets de la Macronie,
22:27notamment dans les préparations de campagne.
22:29Pour s'apercevoir des années plus tard, alors que l'Annecy a dû les avertir immédiatement,
22:33que non, rien n'était chiffré et que tout ça reposait sur des serveurs
22:37qui étaient aux Émirats arabes unis.
22:39Maintenant, on commence à s'en apercevoir en Russie.
22:41Excusez-moi.
22:43Je peux poser un droit de réponse à madame la députée et à l'avocate que vous êtes.
22:46Moi, je vais vous dire, je ne vais pas aller dans la polémique
22:49et la qualification du Macron.
22:51Ce n'est pas la polémique, c'est des faits.
22:53Non, non, je vais répondre.
22:56À l'Assemblée nationale, je veux dire, le fait de faire un constat-réaction.
23:01C'est-à-dire que si des choses, effectivement, ne sont pas dans le cadre
23:05et je réponds en tant que juriste, ne sont pas dans le cadre,
23:09il faut effectivement revenir dessus.
23:11Mais je ne pense pas qu'on puisse caricaturer ce que...
23:15Mais ce n'est pas une caricature.
23:17Ça l'est un petit peu.
23:19On a des normes.
23:21On ne peut pas nier l'État de droit.
23:23Je suis très cocorico.
23:27Je ne suis pas en une France.
23:29Moi, je pense qu'on est dans une France de résistance.
23:33Mais s'il y a des choses qui ne vont pas, il faut essayer de les canaliser.
23:37Il faut les dire.
23:39Je suis entièrement d'accord.
23:41Je suis ravie qu'on soit dans cette émission qui s'appelle « Parlons vrai ».
23:43Il faut se dire les choses.
23:45S'il y a des choses qui ne vont pas, il faut les réaménager.
23:47C'est pour ça que la notion de bilan et d'analyse de ce qui se passe
23:51fait qu'à l'Assemblée, si on a besoin d'une loi ou pas, on la fera.
23:55Et on n'a pas plus de droit dans le monde virtuel qu'on a dans le monde réel.
23:59Et ça, je le maintiendrai.
24:01Et je me battrai, que ce soit en tant que juriste, que ce soit à l'Assemblée nationale,
24:05pour cet État de droit.
24:07Merci beaucoup Emmanuelle Hoffmann.
24:09Je rappelle que vous êtes avocate et députée de la 4e circonscription de Paris.
24:11Le numérique pour tous, c'est fini pour aujourd'hui.
24:13Je rappelle que vous pouvez retrouver toutes nos émissions en podcast
24:17sur l'application Sud Radio et sur vos réseaux sociaux préférés.
24:19Il est temps pour moi de vous souhaiter une excellente fin de week-end
24:21et de vous dire à la semaine prochaine.

Recommandations