• l’année dernière
Jeudi 1 juin 2023, SMART TECH reçoit Yann Lechelle (Entrepreneur de la Tech et PDG, Sens Digital) , Léo Briand (Cofondateur et président, Vittascience) et Henri d’Agrain (délégué général, Cigref)

Category

🗞
News
Transcription
00:00 (Générique)
00:06 -Les débatteurs de Smartech s'appellent Yann Lechel,
00:09 entrepreneur de la tech, PDG de Sens Digital,
00:11 votre société de conseil et d'investissement.
00:14 Léo Brian, cofondateur et président de Vitascience,
00:17 une plateforme dont on a parlé ici même en interview,
00:21 plateforme éducative pensée pour apprendre le code à l'école
00:25 et qui propose des outils innovants d'enseignement.
00:28 Henri Dagrin, délégué général du SIGREF.
00:30 Vous représentez un réseau des directions informatiques
00:34 des grandes entreprises et administrations publiques françaises,
00:37 tous ceux impliqués dans cette transformation numérique.
00:41 Restez avec nous en plateau Fabien Dombard,
00:43 directeur expérience client de Sequoia.
00:45 Vous représentez aussi Sequoia en Allemagne.
00:48 On commence avec cette première actualité.
00:51 Recherche développeur Cobol,
00:52 désespérément, ce sont les banques et les assurances
00:55 qui se trouvent en pénurie de main-d'oeuvre,
00:58 de talent, mais de talent sur un langage de programmation
01:01 sexagénaire que l'on n'apprend plus vraiment
01:04 sur les bancs de l'école.
01:05 Ma première question,
01:07 qui maîtrise le Cobol autour de la table ?
01:09 -ChatGPT.
01:10 -ChatGPT, c'est une bonne réponse.
01:13 -Parce que ce langage est connu,
01:15 il est scripté, scriptable,
01:17 il y a suffisamment de corpus
01:19 pour que l'on puisse régler ce problème.
01:22 Je ne suis pas inquiet.
01:23 -Après, quand on entre dans le secteur
01:25 de la banque et de l'assurance,
01:27 je ne suis pas sûre qu'ils accueillent la réponse
01:30 comme ça, bras ouverts.
01:31 -Un peu plus compliqué que ça.
01:33 -Surtout que les problèmes de sécurité
01:36 qui sont introduits quand du code est généré,
01:38 on ne peut pas les voir si on ne connaît pas le langage.
01:41 Quand on voit que potentiellement,
01:43 les risques associés sont énormes,
01:45 s'il y a une virgule qui manque dans le code,
01:48 potentiellement, on ne peut plus faire des dévirements bancaires.
01:52 -Les risques économiques sont énormes.
01:54 -Comment on n'a pas vu venir ça ?
01:56 -On le voit venir.
01:57 J'entends parler du manque de code.
01:59 -On n'a pas l'air, on arrive au pied du mur
02:02 et on n'a pas de solution.
02:03 -Souvenez-vous du bug de l'an 2000.
02:06 C'était déjà la même histoire.
02:08 -On est allés chercher, il y a 23 ans,
02:10 des covalistes dans tous les sens
02:12 pour leur faire changer les deux digits
02:14 pour passer sur quatre digits pour la date.
02:17 C'est...
02:18 -Ca a fonctionné ? On n'a pas eu de bug de l'an 2000 ?
02:22 -En fait, ça a très bien fonctionné.
02:24 Il n'y a pas eu de crise.
02:25 -Je ne sais pas si c'est grâce à eux.
02:27 -Il y a eu un travail de fond qui a été fait.
02:30 Je m'en souviens très bien.
02:32 J'ai été impliqué à l'époque.
02:34 Il y a eu un travail de fond, ce qui ne fait pas de problème.
02:37 Il n'y a pas eu de crise.
02:39 Des covalistes, ça fait très longtemps
02:41 qu'on en cherche et qu'on veut en former.
02:43 C'est vrai que ça n'attire pas beaucoup.
02:46 Ce n'est pas extrêmement fun d'aller travailler
02:49 sur le code des banques
02:50 et des assurances.
02:52 Aujourd'hui, ça attire peu,
02:53 mais les jeunes ou les moins jeunes
02:56 qui se mettent au cobol,
02:58 ils trouvent du boulot.
02:59 Mais alors ?
03:00 -Il y a des formations qui sont proposées
03:03 pour l'emploi.
03:04 C'est assez malin, ça.
03:06 -En bon start-upeur, je dirais que là où il y a des problèmes,
03:09 il y a des opportunités.
03:11 Il y a des fintechs qui travaillent sur ce problème
03:14 de transition des ordinateurs centraux,
03:17 dont ces mainframes, sur des bases plus modernes.
03:20 -De manière plus sérieuse,
03:22 je pense que les modèles linguistiques
03:24 vont permettre d'aider les humains
03:26 à monter rapidement en compétence,
03:29 produire du code, le vérifier,
03:31 parce que c'est un sujet critique,
03:33 dans une banque, par exemple.
03:35 Il y aura toujours un human in the loop,
03:37 mais ces technologies vont nous aider, justement,
03:41 à pallier à ces langages,
03:42 voire langues, nordiques.
03:44 -C'est un nouvel outil sur lequel on peut s'appuyer.
03:48 A l'école, vous ne permettez pas aux jeunes
03:50 de découvrir le cobol ?
03:52 -Le ministère de l'Education nationale en France
03:54 a fait un choix assez fort, c'est de dire que c'est piton.
03:58 Certains regrettent cette décision,
04:00 parce que c'est un peu unilatéral et que ça s'applique à tout le monde,
04:04 mais ça a la vertu d'unifier les enseignements.
04:07 Avant, c'était le Far West,
04:09 certains faisaient du C, d'autres du piton.
04:12 Personne faisait du cobol, mais...
04:14 Certains enseignants anciens banquiers,
04:17 je ne sais pas s'il y en a beaucoup, font ça.
04:19 Aujourd'hui, le cobol n'est pas enseigné à l'école.
04:22 Mais toutefois, on peut dire que la logique de programmation,
04:26 les Anglais disent "computational thinking",
04:29 c'est pas très joli en français,
04:30 c'est quelque chose qui est assez transvers.
04:33 -On acquiert une démarche
04:35 qui nous permet d'être à l'aise avec n'importe quel langage ?
04:38 -Dans tous les langages de programmation,
04:41 on a les mêmes notions de boucle, conditions, variables, fonction.
04:45 Une fois qu'on maîtrise ces notions-là,
04:47 elles sont communes à tous les langages,
04:50 même si la syntaxe n'est pas la même.
04:52 C'est comme quand on apprend à parler une certaine langue,
04:56 il y a des concepts d'adverbes, de mots, de phrases,
04:59 qui sont communs à toutes les langues.
05:01 -C'est pas si simple d'être bilingue.
05:03 -Sur ce sujet, toutes les grandes organisations
05:06 qui utilisent aujourd'hui des mainframes et du cobol
05:09 sont quand même aujourd'hui engagées,
05:12 et depuis des années,
05:13 dans des démarches de transition progressive.
05:16 -C'est la question que j'avais posée.
05:18 -Elles sont toutes intégrées dans des démarches
05:21 de transition vers le cloud, à travers...
05:24 Mais ça nécessite des processus
05:28 avec des organisations extrêmement rigoureuses.
05:32 -On parle de dizaines de millions d'euros
05:35 pour migrer d'un système à un autre.
05:37 -Ce sont des démarches qui vont prendre des années,
05:40 qui coûtent très cher,
05:42 et il faut en même temps une des équipes
05:44 qui soit capable d'assurer la maintenance
05:46 et l'évolution des lignes de code.
05:48 Il y en a 800 milliards qui tournent aujourd'hui
05:51 dans le monde de lignes de code cobol.
05:53 Il faut assurer leur fonctionnement,
05:56 leur évolution, leur correction, leur adaptation
05:59 lorsqu'il y a des législations ou des conditions qui changent.
06:02 Et puis, il faut en même temps faire migrer
06:05 vers, par exemple, la containerisation,
06:07 Kubernetes sur le cloud.
06:09 -Cette migration est en cours ?
06:11 -Ca a commencé il y a des années.
06:12 Mais ça nécessite des organisations rigoureuses
06:15 où on a des équipes qui font du Java,
06:18 Kubernetes dans le cloud,
06:19 et des équipes qui font du cobol,
06:21 qui se parlent, qui sont capables de travailler ensemble,
06:25 qui connaissent très bien les process qui sont gérés,
06:28 et on fait ça petit bout par petit bout.
06:31 Et ça va prendre encore des années,
06:33 tout en faisant à chaque fois des vérifications
06:36 extrêmement rigoureuses du fonctionnement.
06:39 Donc, pour un assureur, pour un Etat qui utilise du cobol,
06:42 vous ne pouvez pas vous permettre de voir votre truc qui tombe.
06:45 Sinon, les conséquences pour les clients,
06:48 pour l'entreprise, mais également...
06:50 -Pour l'économie en général.
06:51 -Pour les clients, pour eux-mêmes.
06:53 Ca peut avoir des conséquences importantes.
06:56 -On passe à notre autre actualité outre-Atlantique.
06:59 C'est Nora Link qui a reçu,
07:01 Nora Link, entreprise d'Elon Musk,
07:03 le feu vert des autorités sanitaires des Etats-Unis.
07:06 La FDI est pour tester ses implants cérébraux sur des humains.
07:09 Vous vous dites génial ou au secours ?
07:12 -Evolution de l'interface homme-machine.
07:14 Donc là, on parle de l'interface uniquement.
07:17 Les craintes sont évidemment que cette interface
07:19 soit connectée à cette IA,
07:21 qui est un autre sujet dont on peut parler,
07:24 mais globalement, ces interfaces homme-machine
07:26 existent depuis un certain nombre de décennies.
07:29 Sur le squelette, on peut y attacher des modèles
07:32 qui sont des modèles de la vie.
07:34 Sur le squelette, on peut y attacher des moteurs.
07:37 On peut maintenant connecter le cerveau,
07:39 en tout cas, certaines parties du cerveau,
07:42 à des interfaces qui vont stimuler
07:44 certaines activités neuronales.
07:46 Je me souviens, la console de jeu Atari, en 1980,
07:49 avait déjà un petit bandeau où on pouvait piloter une raquette.
07:52 Ca ne marchait pas très bien.
07:54 Mais on est dans l'évolution lente de ces sujets.
07:57 Le danger, il me semble,
07:59 il est plutôt du côté du logiciel
08:00 que l'on adjoindrait à ces interfaces
08:03 parce qu'évidemment, là, on ne maîtrise pas du tout
08:06 ce que l'on va pouvoir faire.
08:08 -Et puis, l'idée de Neuralink, c'est de sortir du champ médical,
08:11 enfin, de commencer par le champ médical,
08:15 de fournir cette solution aux malades
08:18 de...
08:19 neurologiques, mais ensuite, à terme,
08:21 de banaliser ces systèmes pour pouvoir nous connecter
08:24 directement à la puissance des ordinateurs.
08:27 Là, on entre dans le fantasme. -Je sais pas.
08:30 -Je n'y crois pas trop à la notion
08:32 d'avoir une chirurgie pour mettre une puce dedans.
08:35 Je pense que le non-invasif va plutôt
08:38 prendre le dessus des capteurs qui viendraient se connecter.
08:41 Je pense, par exemple, à Naoix, une start-up française
08:44 qui fait des oreillettes avec une petite puce intégrée
08:47 pour mesurer l'activité du cerveau.
08:49 La qualité du signal est moins bonne que si on a accès au cerveau,
08:53 mais ça évite la chirurgie.
08:55 C'est ce genre d'innovation qu'on va voir se répandre.
08:58 -Bon, après, on a déjà des personnes
09:01 qui ont accepté de se faire poser des implants.
09:04 -Il y a un exemple récent d'une équipe franco-suisse,
09:08 notamment avec le CEA Leti à Grenoble,
09:12 avec un hôpital suisse,
09:14 qui ont réalisé une expérience tout à fait remarquable
09:18 sur le plan, d'abord, de l'éthique médicale,
09:21 tout ça bien encadré.
09:22 On a connecté, donc, une partie du cerveau
09:26 d'un malade qui était handicapé,
09:30 qui ne pouvait plus utiliser ses jambes,
09:32 à sa moelle épinière pour lui permettre de remarcher,
09:35 et tout ça étant piloté
09:38 par une interface informatique.
09:41 Et donc, ça existe déjà.
09:43 -Ce n'était pas de la simulation pour les malades de Parkinson.
09:47 En intracrânia, on faisait aussi, je pense.
09:50 -Donc, en Europe, il y a les annonces,
09:52 il y a la mousse médiatique, et il y a ce qui se fait.
09:55 En Europe, je ne pense pas qu'on soit en retard sur le sujet,
09:58 mais on est là pour des traitements éthiques.
10:01 -On n'en est pas encore à parler de la cybersécurité
10:04 de ces sondes, donc, du cerveau.
10:06 -Cecuia va-t-il se mettre sur le coup ?
10:08 -Le fireball du cerveau, bon, on n'en est pas là, malheureusement.
10:12 -Il faut lire sur ce sujet "Snow Crash",
10:14 qui est la nouvelle de Neil Stevenson,
10:16 déjà 25 ans, je pense.
10:19 Et cette interface non-machine était plutôt non-invasive,
10:22 avec un laser qui venait balayer la rétine,
10:25 mais on parlait aussi de hacking,
10:27 de hacker le cerveau, à l'époque.
10:29 -Toute la question, c'est ce que vous dites,
10:32 Yann, c'est qu'est-ce qu'on va mettre comme logiciel derrière ?
10:36 Comment on va nourrir notre intelligence ?
10:38 Comment on va marier l'intelligence humaine
10:41 avec l'intelligence artificielle ?
10:42 -On le fait déjà, et nous avons déjà tout ça.
10:45 Aujourd'hui, ce sera évolutif.
10:47 Le smartphone, dans notre poche, n'est pas dans notre cerveau,
10:50 mais c'est l'interface non-machine, par le biais du tactile et de l'oeil,
10:55 donc ce qui m'intéresse, c'est l'évolution intermédiaire
10:58 au niveau de la réalité augmentée.
11:00 Voyons voir ce qu'Apple va sortir la semaine prochaine
11:03 sur ses fameuses lunettes promises.
11:06 Voilà, c'est l'étape intermédiaire,
11:09 et qui sera peut-être plus satisfaisante
11:11 et plus facile à adopter pour le grand public.
11:13 -Vous êtes assez serein sur ce projet.
11:16 On passe à la 3e actu,
11:17 sensibilisation contre le cyberharcèlement.
11:20 C'est le ministre Jean-Noël Barraud qui, sur France Info, a dit
11:24 qu'à partir de cette rentrée,
11:26 tous les élèves suivront un module de sensibilisation
11:29 pour les éduquer aux risques et aux bonnes attitudes
11:32 à adopter en ligne en cas de harcèlement.
11:35 J'ai l'impression que c'était déjà le cas.
11:37 -Il y avait de la sensibilisation,
11:39 mais pas un vrai passeport à passer avec une compétence...
11:42 L'analogie, c'est celle de la sécurité routière,
11:45 qui faisait beaucoup de morts historiquement,
11:48 et qui en fait toujours, de moins en moins, heureusement.
11:51 Il y a eu la SSR, l'attestation de sécurité routière.
11:54 -Dès l'élève reau collège, en 5e et en 3e.
11:57 -Ca a changé quelque chose ?
11:58 -Je n'ai pas les statistiques, mais à mon sens,
12:01 ça a la vertu de sensibiliser les jeunes dès le collège.
12:04 Il y a une attestation en primaire.
12:06 Sur le harcèlement, je pense qu'il va aller dans cette direction.
12:10 On a plusieurs attestations au cours de la scolarité
12:13 pour valider que les élèves sont tous sensibilisés.
12:16 -Ca ne vous semble pas superflu ?
12:18 -Ca ne résoudra pas le problème.
12:20 C'est profond, le cyberharcèlement, à l'école.
12:23 C'est un problème comme la sécurité routière
12:25 qui va continuer à exister, mais on peut le réduire.
12:28 -On a commencé par l'hygiène cyber, il y a quelques années.
12:31 On a partagé le mot de passe aussi,
12:34 donc sensibiliser les jeunes
12:35 pour éviter ce genre de pratiques dangereuses.
12:38 C'est simplement, en fait, aussi la prolongation de cet effort,
12:44 je pense, et la sensibilisation.
12:46 -Le sujet du harcèlement, c'est un sujet d'hygiène informatique.
12:51 -De comportement, mais aussi... -Education, un peu.
12:54 -Il y a un problème sociétal, mais pas réglé par un passeport
12:57 contre le cyberharcèlement.
12:59 C'est un problème plus profond de la société.
13:02 Mais sur comment réagir,
13:03 comment faire face en cas de cyberharcèlement,
13:06 c'est apprendre, en fait,
13:08 à se servir des outils numériques, des réseaux sociaux.
13:12 -Il me semble que c'est important
13:14 que la société s'organise pour éduquer les jeunes
13:17 parce que les parents ne peuvent pas suivre.
13:20 Ils se font dans le panneau et donnent à leurs enfants
13:23 des tablettes bien trop tôt, sans garde-fou,
13:25 les smartphones, les tablettes, etc.
13:28 Il me semble une bonne idée que le gouvernement s'organise
13:31 via l'éducation nationale, mais ça pourrait être
13:34 d'autres mécanismes pour faire que tout le monde montre
13:37 son compétence parce que la technologie va trop vite.
13:41 C'est impossible pour chaque parent de savoir comment créer
13:44 des garde-fous. -Et pas forcément les codes.
13:47 C'est pour ça que nous demandons, et nous l'avons écrit
13:50 à la Première ministre, avec d'autres organisations
13:53 comme Numéum, comme la Société informatique de France,
13:56 nous avons écrit en mois de décembre
13:59 à la Première ministre pour lui dire que ça suffit,
14:02 il faut que l'éducation nationale prenne le projet à la racine
14:05 et que l'on déploie, depuis le primaire
14:08 jusqu'à la fin du parcours scolaire,
14:11 ce qu'on appelle les humanités numériques.
14:13 C'est-à-dire qu'on est dans une société
14:16 où c'est indispensable d'avoir une formation
14:18 sur tout le parcours scolaire,
14:20 qui soit cohérente avec les âges, mais qui soit cohérente
14:24 dans le temps et dans le parcours.
14:26 -Qu'est-ce qu'on met derrière ces humanités numériques ?
14:29 -Tout ce qui permettra demain à des futurs citoyens,
14:34 à des futurs professionnels, d'être des citoyens,
14:38 des professionnels éclairés dans leurs usages du numérique
14:42 et dans leur vie numérique,
14:44 plus que dans ce cas-là de plus intime.
14:47 Ce qu'il faut bien voir, c'est qu'aujourd'hui,
14:50 il y a comme une forme de pensée magique.
14:52 On n'explique pas aux gamins ce qui se passe derrière la souris,
14:56 ce qui se passe derrière l'écran,
14:58 et comprendre les mécanismes intrinsèques.
15:00 On peut le faire de manière simple.
15:03 Le numérique doit faire partie, aujourd'hui,
15:05 de la formation de ce que j'appellerais
15:08 l'honnête homme du 21e siècle,
15:10 comme on parlait des humanités de l'honnête homme du 18e siècle.
15:14 C'est indispensable.
15:15 Ce n'est pas fait, ou c'est fait de manière trop parcellaire
15:18 et incohérente.
15:19 On rajoute un module ici, un module là.
15:22 Alors qu'il faudrait qu'il y ait une logique d'éducation,
15:26 éducation nationale,
15:28 à ces sujets d'humanité numérique,
15:30 sur tout le parcours scolaire.
15:32 -Qui pourrait fournir cette éducation ?
15:35 -L'éducation nationale. -Je veux dire comme spécialité.
15:38 Il nous faut des spécialistes du numérique ?
15:41 -Pas du tout.
15:42 Les enseignants doivent être formés
15:46 dès qu'ils sont recrutés à cette matière.
15:49 Ca ne va pas être simple, ça ne va pas se faire du jour au lendemain.
15:53 Si on ne le commence jamais, on n'y arrivera jamais.
15:56 Pourtant, aujourd'hui, quel que soit votre niveau de formation,
16:00 quel que soit le cursus universitaire
16:02 que vous avez suivi,
16:03 vous êtes en mesure d'expliquer de manière simple,
16:07 avec des modules.
16:08 On a des associations.
16:10 -Ils n'en ont pas jusque-là, les enseignants,
16:12 quand on leur parle du numérique ?
16:14 -C'est difficile. Il y a des exemples.
16:16 Il y a aussi les premiers secours,
16:18 où on a réussi à faire des formations dans le temps scolaire
16:22 pour former les jeunes.
16:23 Comment réagir s'il y a un arrêt cardiaque ?
16:26 -On fait appel à des intervenants extérieurs.
16:29 -Les enseignants sont impliqués dans le process.
16:31 On ne prend pas les élèves, on les sort de l'établissement
16:35 pour les faire une formation en dehors du temps scolaire.
16:38 -C'est pas un programme où on claque des doigts
16:41 et ça va se faire demain.
16:42 Il faut mettre ça en place,
16:44 peut-être sur 10 ans ou sur 15 ans,
16:46 mais il faut commencer à un moment
16:48 et le faire dans la durée,
16:50 avec une politique publique ferme, ambitieuse,
16:53 mais qui ait un objectif clair.
16:55 Et ça, ça va prendre du temps.
16:57 -Vous avez eu une réponse ?
16:58 -Pour l'instant, on a eu une réponse assez partielle,
17:02 qui n'est pas, pour l'instant, satisfaisante.
17:04 On ne va pas lâcher l'affaire.
17:06 Mais ça fait des années qu'on le demande
17:09 avec des organisations comme Numéum.
17:11 -Partielle, c'est-à-dire ?
17:13 -C'est-à-dire qu'on a écrit...
17:15 Je ne vais pas dévoiler des annonces
17:17 qui devraient être faites,
17:18 encore que Jean-Noël Barraud l'a annoncée.
17:21 Nous avons demandé à ce qu'il y ait
17:23 un dispositif particulier d'accompagnement
17:26 pour 10 000 jeunes étudiantes
17:29 dans les filières technologiques et numériques
17:34 qui soit accompagné de manière...
17:36 Pour renforcer le nombre de femmes
17:39 qui diplômaient sur des parcours longs,
17:42 de type 5 ans, master, école d'ingénieur.
17:45 Et ça, il y a eu une annonce de la Première ministre
17:48 le 3 mars dernier,
17:50 qui reprenait cette proposition de 10 000 étudiantes
17:53 dans les filières et métiers du numérique.
17:56 Jean-Noël Barraud nous a annoncé vendredi dernier
17:59 que c'était confirmé,
18:01 que ce dispositif allait être mis en oeuvre.
18:04 Et maintenant, nous tentons de voir
18:06 comment on peut opérationnaliser un tel dispositif,
18:09 10 000 par an,
18:10 pour un dispositif en régime régulier
18:12 de 50 000 étudiantes
18:15 dans les filières et métiers technologiques, numériques,
18:18 accompagnés vers ces professions.
18:20 -Bravo. -C'est important.
18:22 -J'ai un exemple à mentionner pour rendre ça un peu concret.
18:25 Un levier d'action qu'on peut actionner,
18:27 c'est les témoins du harcèlement.
18:29 La victime, c'est difficile d'en parler,
18:32 la personne qui commet le harcèlement ne va pas en parler.
18:35 Les témoins, on peut leur expliquer,
18:37 au cours d'une simple formation, comment réagir.
18:40 Certains ne savent pas comment réagir.
18:42 Est-ce que je l'en parle à mes parents ?
18:44 J'ai peur d'en parler ? Je vais passer pour une balance ?
18:47 On peut simplement donner les réflexes à avoir.
18:50 Et ça, ça peut déjà avoir un effet.
18:53 Donc ça, c'est pas très long.
18:55 Ça peut se faire sur une demi-journée de formation.
18:58 Je pense que c'est ce genre de mesures qu'on peut déjà faire.
19:01 C'est un peu pansement, mais ça aide un peu, je pense.
19:04 Le problème est plus profond que ça.
19:06 -Allez, dernière actualité,
19:08 c'est l'Europe, qui travaille sa réglementation
19:12 autour du déploiement des intelligences artificielles.
19:15 Et là, en France, on se pose la question,
19:19 est-ce que le Parlement européen ne va pas trop loin
19:22 sur la réglementation ?
19:23 C'est Jean-Noël Barraud qui parle.
19:25 Évidemment, il faut encadrer l'IA, mais il nous dit, à ce stade,
19:28 la position du Parlement est excessive.
19:31 Avez-vous été surpris par cette prise de position
19:34 de notre ministre des Numériques en France ?
19:36 -Non. Non.
19:37 Non, c'est une bonne position.
19:39 La réglementation, je pense qu'Henri pourra élaborer là-dessus,
19:43 la réglementation, aujourd'hui,
19:45 essaie de contrôler un phénomène
19:48 qui, lui-même, n'est pas du tout défini.
19:50 Or, nous avons besoin de cette recherche fondamentale
19:53 sur l'intelligence artificielle.
19:55 Mon point, il me semble, c'est l'application de l'IA
19:59 dans les plateformes qui distribuent massivement cette IA.
20:03 Donc, de manière très simple, il suffit de réguler
20:07 la manière dont la technologie est distribuée
20:09 et peut avoir un impact sur les humains,
20:12 notamment lorsque la déception est organisée de manière massive.
20:16 Je parle bien des plateformes comme Twitter,
20:18 comme Meta, Facebook,
20:20 qui sont des vecteurs de distribution massif.
20:23 -Et qui sont déjà sous le coup de réglementation,
20:25 le DSA, le DMA. -Tout à fait.
20:27 Il faut, évidemment, utiliser le cadre réglementaire
20:30 qui est déjà en place, le mettre en oeuvre,
20:33 l'appliquer de manière radicale.
20:35 Ensuite, l'IA, c'est un sujet de recherche.
20:38 Je pense que Henri a d'autres arguments sur ce point.
20:41 -Mais des arguments courts,
20:43 parce qu'on arrive à la fin. -De manière très courte,
20:46 1, Jean-Noël Barraud connaît très bien ces sujets.
20:49 Je pèle votre attention sur le fait que son directeur de cabinet,
20:52 Renaud Vedel, était, il y a encore moins d'un an,
20:55 le coordinateur national pour l'intelligence artificielle
20:59 à l'IA. Deuxièmement, nous pensons qu'en l'Etat,
21:02 il y a trop de débats et trop d'imprécisions
21:05 et trop d'imperfections dans ce texte,
21:07 et qu'il vaut mieux pas de texte que ce texte.
21:10 C'est plutôt personnel, mais enfin...
21:13 -Pour moi, c'est tranché, à ma vie.
21:15 -Je rencontre beaucoup... Non, mais...
21:17 Et par ailleurs, nous pensons qu'il ne faut pas
21:20 une régulation arde avec un texte
21:23 qui aille très profondément définir
21:26 tous les sujets de l'IA,
21:28 car il n'embrassera pas la réalité de ce que sera
21:31 dans 5 ou 10 ans l'IA.
21:32 -Mais Guillaume Avrin, qui a pris la relève de Vedel,
21:36 disait la même chose.
21:37 On doit pouvoir avancer sur ces sujets d'IA,
21:40 aujourd'hui, en France et en Europe,
21:42 et expérimenter. Merci beaucoup.
21:44 Merci beaucoup. Merci à tous les quatre.
21:46 Yann Lechel, de Science Digital.
21:48 Léo Briand, de Vita Science. Henri Dagrin, du SIGREF.
21:52 Il nous partagera sa proposition.
21:54 Et Fabien Dombard, de Secoya.io.
21:58 On se retrouve après la pause.