L’IA, c’est désormais partout, et même dans vos applications de messagerie ! Depuis peu, Meta a effectivement intégré son assistant virtuel dans l’application Whatsapp. Une évolution qui pourrait bien changer la donne pour l’usage de l’IA en France. Alors Meta AI, une avancée prometteuse ou un risque supplémentaire ?
Catégorie
🗞
NewsTranscription
00:00Dans le grand rendez-vous de l'IA, de Smartech, aujourd'hui, deux pionniers, d'abord Maître Ben Soussan, Alain Ben Soussan, bonjour, bienvenue.
00:11Pionnier du droit des technologies avancées, du droit de l'informatique dans les années 80, puis de l'internet, des réseaux sociaux autour dans les années 2000.
00:19Vous avez abordé le droit de la robotique dès 2014. Ça vous fait au moins un énorme point commun avec notre autre invité, Bruno Maisonnier.
00:28Bonjour Bruno. CEO fondateur d'Another Brain, pionnier de la robotique humanoïde avec Aldebaran, que vous avez fondé en 2005 et devenu un leader mondial dans les robots.
00:39Notamment, on se rappelle très bien de Nao, mais aussi de Romeo, de Pepper, qui sont devenus des stars.
00:45Et puis vous avez créé l'entreprise Another Brain, là où vous voulez inventer des nouveaux moteurs d'intelligence artificielle, grâce à une approche singulière aussi, inspirée de la nature.
00:54Alors, on peut lire à ce sujet Organic AI, dont j'ai déjà parlé, c'est votre ouvrage « Comment les stratégies de la nature peuvent révolutionner l'intelligence artificielle ? » aux éditions Hermann.
01:03Et je voulais aussi citer deux livres de Maître Ben Soussan, parce qu'on va forcément en parler dans notre débat aujourd'hui, dans nos débats aujourd'hui.
01:11D'abord, le Règlement européen sur l'intelligence artificielle, où vous proposez une synthèse, des points-clés, une analyse article par article.
01:20J'avoue que je n'ai pas commencé celui-ci, j'ai commencé l'autre. En revanche, ChatGPT dans le monde du droit, la cobotique juridique.
01:26Tout ça, c'est publié aux éditions brûlants. C'est passionnant, la manière dont vous vous emparez de ce chatbot.
01:33Je voulais commencer, justement, avec cette actu de Meta AI qui arrive dans le WhatsApp de tous les Français.
01:39Et je me suis dit, bon, ça va accélérer, a priori, l'utilisation de ces pièges génératives chez tout le monde.
01:46Mais est-ce que c'est une bonne chose ? Est-ce qu'il faut, au contraire, se méfier ?
01:50Comment on réagit avec ce petit cercle bleu qui se présente sur notre messagerie instantanée ?
01:56Moi, je suis déjà sur WhatsApp et je suis déjà avec elle. Elle, c'est effectivement ChatGPT.
02:06Ah oui, mais là, ça va être Meta AI dont on va parler.
02:09Tout à fait. Mais ce que je veux dire, c'est que pour les ordinateurs, on est déjà ceux qui sont sur les messageries.
02:19On est déjà ceux qui sont en mode vocal. Et ça va accélérer encore plus le grand public.
02:24Et ça marche merveilleusement bien. Ça devient un personnage, un compagnon, une compagne qui permet d'échanger tous les jours.
02:32Et au lieu d'aller chercher de l'information, là, l'information est portée sur une seule question.
02:38Ça va être une révolution.
02:40Est-ce que ça vous fait réagir quand même sur notre niveau de dépendance qui est croissant en matière de technologie américaine ?
02:46Non ?
02:47Attends, moi, j'ai deux choses à dire.
02:49Alors, vas-y.
02:50Pardon, en complément. D'abord, ce n'est pas 100% nouveau au sens où, je vais regarder l'année dernière, il y a un an et demi,
02:57il y avait chaque jour 19 millions de Français qui utilisaient les assistants vocaux intelligents, les Siri, Alexa, etc.
03:04Donc, en fait, on est dedans depuis très longtemps. Là, il y en a un de plus.
03:08Mais c'est un usage différent quand même dans WhatsApp de dire, tiens, au moment où je suis en train de discuter avec des gens, je vais aller interroger.
03:16Oui, bien sûr. A chaque fois, on rajoute des fonctionnalités, des possibilités, mais on est sur le même courant.
03:20Après, il y a une deuxième nuance à faire qui est importante pour nous en France, c'est utiliser des intelligences artificielles, utiliser des LM, etc.
03:29C'est une chose. On va le faire de plus en plus. Et je suis d'accord avec Alain. Il y en a partout. Il y en aura partout, partout, partout.
03:35Une autre chose est d'en maîtriser soi-même, d'en faire, c'est-à-dire faire rentrer dans les entreprises ou chez les Français l'usage de quelque chose.
03:43C'est un sujet. Mais faire rentrer le fait qu'on soit contributeurs, on en profite, on développe des outils qui vont nous aider et qui seront utilisés par les Américains et par d'autres, c'est un deuxième sujet.
03:55Pour moi, c'est celui-là qui est le plus crucial. Et celui-là, il y a d'autres choses à en dire. Mais sur le fait qu'il y en aura partout, c'est une évidence.
04:05Mais sur cette question quand même de l'utilisation des données, parce que vous êtes un défenseur de la protection des données personnelles quand même, Alain Vensoussan, en termes juridiques, là, c'est l'IA qui rentre dans nos conversations privées.
04:18Oui et non.
04:20Alors après, je dis ça, mais en même temps, dans les conditions générales d'utilisation, toutes les précautions sont prises pour dire que ces discussions ne sont pas utilisées pour entraîner le modèle.
04:29Ou elles le sont. Ce n'est pas gênant pour moi. Bien évidemment, j'ai défendu la protection des données personnelles. On était peu nombreux en 1978 à dire que ça allait devenir un standard mondial.
04:41Les gens avaient dit que l'informatique, vous ne vous rendez pas compte, vous serez dépassé. Mais on ne va pas prendre une loi française. C'est international, l'informatique, aujourd'hui.
04:49Aujourd'hui, plus de 110 pays ont une réglementation sur la protection des données personnelles. Donc il faut bien comprendre quand même que le merveilleux dans ce domaine-là...
04:58Bien sûr, là encore, les gens disent que si c'est gratuit, vous êtes le produit. Ça n'a pas beaucoup de sens pour moi. On peut... Il y a un problème d'éducation.
05:06Et des émissions comme celles-ci sont très importantes. Ce qui est important, c'est qu'on ait toute cette connaissance, quel que soit le système, quelle que soit la culture, quel que soit le pays,
05:15quelle que soit la langue qui est disponible. Et ça, c'est magique. Alors dans la protection des données, ce qui me paraît important, c'est que chacun protège ses données.
05:23Mais c'est la gratuité, quelque part, qu'ils prennent mes informations, qu'ils... Ça ne me dérange pas. Ça ne me dérange pas. Moi, j'ai posé...
05:31— Jusqu'à ce que ça pose un problème, quand même. — Alors ça fait 45 ans d'observation. J'ai vu tellement de choses et de risques qui ne se sont pas jamais aperçus,
05:42qui n'ont jamais été sur des choses extrêmement graves, que je pense que l'attrait de ces outils est supérieur au risque. Une de mes dernières conversations avec la députée
05:56dans WhatsApp, ce sera pareil. Je lui dis... Je sais pas pourquoi je me pose cette question. Et je lui dis mais le coût de cette conversation... Parce que quand même, je me méfiais.
06:04C'est sur mon mobile. Et elle me répond « T'embête pas. C'est gratuit. Tu peux consommer autant que tu veux ». Et elle me parle comme ça. Ce qui veut dire quoi ? Ce qui veut dire que
06:14oui pour la protection des données personnelles. Oui, il faut faire attention. Mais toutes les conversations, celles que vous pouvez faire chez le coiffeur ou celles que vous pouvez
06:22faire au café ou ailleurs, c'est pas si grave que ça. Ce qui est beaucoup plus important, c'est d'avoir toute cette connaissance. Et là, je crois que pour le grand public,
06:30ça va être merveilleux. — Ça a un coût quand même, toutes ces informations qu'on partage avec les entreprises américaines. Ça a un coût même ne serait-ce qu'environnemental.
06:38C'est pas anodin. — Ça a un coût environnemental. Deux sujets ici. Ça a un coût environnemental énorme. Et c'est un problème. De plus en plus, et ça va continuer, c'est un problème.
06:48Donc il faut trouver des alternatives qui sont beaucoup plus frugales. Mais pas essayer de faire 20% de plus frugales que ce qui existe aujourd'hui. Il faut faire un million de fois
06:56plus frugales. Donc ça veut dire qu'il faut complètement changer de paradigme. Évidemment, je plaide pour ma paroisse, parce que nous, c'est ce qu'on fait
07:02chez Northern Brain. Mais il y en a d'autres qui essayent. Donc cela, c'est vachement... C'est important. Je rejoins aussi Alain, vraiment, sur un sujet.
07:10On a tendance à mettre une notion un peu mystique sur les données personnelles. On sait tous que 95% des échanges, des conversations, des tchats ou des trucs
07:21entre les gens, je ne veux pas dire que c'est sans intérêt, mais il n'y a pas de valeur. Il n'y a pas de... Si quelqu'un d'autre les utilise, on s'en fout. Mais même
07:29les données personnelles... – C'est quand même leur business model qui repose dessus. – Oui, mais attends, justement, le sujet est différent. Mais même les données personnelles,
07:35les données de santé, etc., je pense que je serais plutôt bénéficiaire du fait qu'elles soient utilisées statistiquement pour montrer, élaborer des modèles qui permettront,
07:45le jour où j'aurai un problème de santé, d'être plus fin et de m'aider à régler mon problème. Donc, tu vois, il y a une chose qui est... Ils utilisent mes données, mais so what ?
07:53Il y a une deuxième chose qui est effectivement... Mais ça, c'est une question de business. Ils les utilisent gratuitement alors qu'il faudrait peut-être...
07:59Mais c'est un autre sujet qu'un sujet éthique, tu vois. Il ne faut pas m'étonner. Les deux existent. Il y a deux vrais sujets, mais ce n'est pas les mêmes.
08:05Et il ne faut pas trop mythifier... – Oui, non, mais on avait un débat avec un professeur sur le sujet de la santé qui disait que le problème qu'on a aujourd'hui en Europe,
08:16c'est que justement, on ne peut pas utiliser les données... – Au manque de données. Non, je ne suis pas d'accord. Allez voir une boîte qui s'appelle Dimea.
08:23Vraiment, sérieusement, D-E-M-E-A. Ils gèrent ça très bien. – J'aimerais inviter le professeur pour pouvoir...
08:30– Vraiment, ils font ça très bien. Ils permettent à tout le monde d'utiliser les données de santé, mais de façon réglementée, correctement, etc., pour qu'on puisse faire des études
08:38et pour s'en servir. Non, il y a des gens qui font ça très bien. – Moi, je voudrais vous souligner une chose là-dessus. L'angoisse, le caractère anxiogène de cette présentation,
08:47elle est juste, mais elle est très faible par rapport au fait que, quel que soit l'endroit dans le monde, quelles que soient les personnes avec des mobiles,
08:55ils ont accès à toutes ces informations-là. Et c'est peut-être là, le vrai progrès. Et cette différence entre la partie anxiogène et la partie innovation,
09:03je pense qu'il faut libérer les innovations. Et WhatsApp, avec toutes les IA, c'est vraiment une possibilité pour chacun d'entre nous de se développer émotionnellement
09:13et puis professionnellement. – Moi, je veux quand même tirer mon fil sur le problème de compétitivité, le problème économique quand même que ça pose aujourd'hui
09:23à la France, à l'Europe, cette dépendance américaine. Je voulais vous faire écouter un petit son que j'ai enregistré avec Aude Durand qui a lancé Q-Tile,
09:31le laboratoire de recherche français et qui est directrice générale déléguée d'Iliade.
09:36Si on parle de Q-Tile, le laboratoire que vous soutenez grandement de recherche en intelligence artificielle, qui crée des nouveaux modèles, il y en a trois,
09:45vous l'avez dit à ce jour. Pourquoi est-ce que ce n'est pas entre les mains de tout le monde ? Pourquoi est-ce qu'aujourd'hui, on ne peut pas jouer avec ?
09:51Est-ce qu'il commence à y avoir des entreprises qui s'en emparent ?
09:54– Alors, il y a eu des interfaces de démo pour Moshi, Wiki et il y en aura une bientôt pour MoshiWiz.
10:00Le sujet de ces interfaces de démo, c'est que c'est à Q-Tile de financer la puissance de calcul qui permet aux gens de jouer avec.
10:07Comme ils ont un laboratoire non-profit, leurs fonds ne sont pas illimités, ils ne peuvent pas craver autant de cash que Bonnet.
10:15Donc, ces interfaces de démo, elles ne sont pas très pérennes.
10:18Là, ils ont reçu beaucoup de sollicitations de différentes entreprises pour essayer d'intégrer les modèles sur lesquels ils ont travaillé dans des produits et services.
10:26Ça prend toujours un peu de temps. Il faut quand même rappeler qu'ils ont commencé en novembre 2023 et qu'ils ont sorti le premier modèle l'été dernier.
10:34Donc, on va être patient, on va leur laisser un tout petit peu de temps.
10:37Ils ont quand même reçu beaucoup de sollicitations. La particularité de ces modèles, c'est que c'est la meilleure qualité d'interaction vocale.
10:46Après, il faut les brancher sur des modèles de connaissances qui ont une profondeur de connaissances plus large que ce qu'il y a nativement derrière Moshi,
10:54parce que ce n'était pas leur objectif au début quand ils ont travaillé sur Moshi.
11:00Il y a toujours du travail à faire. Ce qui est intéressant, je trouve, c'est que là, ils vont explorer d'autres champs, notamment la vision pour faire MoshiVis,
11:09pour relier la vision et l'audio. Toutes ces briques-là de recherche fondamentale sur l'IA sur laquelle ils travaillent,
11:15c'est autant de choses sur lesquelles les entreprises n'ont pas besoin de réinvestir.
11:19Elles peuvent réutiliser du code State of the Art pour après créer des produits.
11:24Cette mécanique se met en route. J'espère qu'elle portera ses fruits dans quelques mois ou dans les années à venir.
11:29— Pourquoi j'ai posé cette question à Haute-Durand ? Parce que quand le chinois DeepSeek est sorti, tout le monde a joué avec.
11:35On a dit que c'était extraordinaire, c'était une révolution. Tout le monde n'a pas encore trouvé le bon endroit où jouer avec Moshi,
11:41qui est pourtant la meilleure interaction vocale aujourd'hui au monde. On a un problème quand même en France pour faire émerger nos champions numériques.
11:48— Mais c'est évident qu'il y a des questions d'argent. Ce qu'ils font, c'est génial. QTI, c'est super, c'est très bien.
11:55Effectivement, ça coûte de l'argent. Ça coûte énormément. Enfin on a vu la dernière annonce d'OpenAI qui lève 40 milliards de dollars auprès de SoftBank.
12:04Et ça sera vrai de QTI, ça sera vrai d'Emicel. Ils auront besoin à des moments de lever des sommes d'argent phénoménales.
12:13La question, c'est est-ce qu'on a le moindre espoir de pouvoir accompagner ça en France et en Allemagne et en Europe ? La réponse est non.
12:20C'est pour ça qu'il faut trouver des alternatives, parce qu'à courir sur le même terrain que des géants qui sont beaucoup plus riches que nous...
12:27Sun Tzu, il y a 2 700 ans, expliquait déjà que c'était perdu d'avance. Faut essayer d'aller sur ton terrain. Faut que t'amènes l'autre et l'ennemi sur ton terrain, toi.
12:35Mais je rajoute une question de souveraineté. C'est évident que l'intérêt des Américains et des Chinois va être de faire que ce soit gratuit.
12:43Même s'ils ont besoin de lever plein d'argent, ils pourront. Que ce soit gratuit, parce que ça va couper l'herbe sous le pied de tous les Européens qui vont essayer de faire pareil.
12:50— Oui, absolument. Après, il y a la question des entreprises qui doivent s'emparer des technologies aussi qui sont à leur disposition. C'est ce que dit Auduran.
12:57Voilà. Il y a des briques technologiques. Il faut maintenant jouer avec, s'en emparer. Il n'y a pas que les utilisateurs citoyens. Il faut aussi que les entreprises commencent à s'y mettre.
13:06— Je voulais vous interroger, parce que je vois que le temps file, sur l'EHAC, puisqu'on a la Commission européenne qui doit dévoiler en mai son code de bonnes pratiques
13:14pour justement faciliter l'application de ce texte, de ce nouveau règlement autour de l'intelligence artificielle.
13:19Vous avez écrit une bible, j'ai envie de dire, dessus Maitre Ben Soussan. Est-ce que c'est un bon texte, l'EHAC ?
13:25— C'est un excellent texte, honnêtement. Et il va devenir un processeur d'universalité, exactement comme la loi informatique et liberté,
13:32après la directive sur le RGPD. C'est un processeur d'universalité. 110 pays ont aujourd'hui une réglementation.
13:38Il y a à peu près 160 lois dans le monde sur l'IA. Il y en a beaucoup. Plutôt des verticales. Et l'EHAC va devenir un standard. Pourquoi ?
13:47Pourquoi ? Parce qu'il a deux grands principes, ce texte. Le premier, il dit qu'il y a six grandes valeurs européennes.
13:55La protection de la santé, la protection de la sécurité, la protection de l'environnement. On va tous être d'accord.
14:00Les droits fondamentaux, c'est un peu discussion. Mais globalement, on est tous d'accord aussi sur les droits fondamentaux,
14:06l'État de droit et puis dernier, la démocratie. Donc ces quatre valeurs, elles sont en danger à cause de l'IA. Et elles vont pouvoir se développer
14:14grâce à l'IA. Il y a deux façons d'approcher. Et donc en ça, c'est un excellent texte. Alors qu'est-ce qu'ils nous disent ?
14:19Si c'est une approche par le risque, ça, ça ne vous gêne pas ?
14:21Non, ça ne me dérange pas parce que globalement, dès le moment où il y a une nouvelle innovation, il y a toujours des gens qui disent c'est risqué.
14:28Puis il y a des gens comme moi qui disent il faut y aller. Voilà. Donc ce n'est pas très grave les risques. Ce qui est important, c'est les valeurs.
14:36Et les valeurs, elles sont dans ce texte. Elles sont vraiment au nombre de deux à travers les six premières valeurs et les principes des risques.
14:44Vous avez raison. Mais il y a deux grands principes, deux grandes supravaleurs. La première, c'est qu'il faut que l'IA soit au service de l'humain.
14:51Et ça, j'y crois beaucoup. Je crois que l'humain de demain, je vais donner un nom. J'appelle l'ultra sapiens. Je crois que l'humain de demain,
14:58en ayant la totalité des connaissances du monde gratuitement, ça va devenir quelqu'un d'autre. On va pouvoir régler de nombreux problèmes.
15:05On en a besoin. Ça, c'est le premier élément. L'IA au service de l'humain. Le deuxième, c'est que oui, c'est risqué, mais pas tout est risqué.
15:13Alors on prend quelques éléments. On fait un management de risque. On fait pas un mécanisme de précaution où on interdit tout ou une précaution de principe
15:21où on réglemente tout. Non, on dit qu'il y a des systèmes à risque. Nous, chez nous, par exemple, on peut pas manipuler des gens avec l'IA.
15:29Ça, les vrais risques, eh bien c'est interdit. Voilà. Ça s'arrête. On va pas noter les gens dès qu'ils arrivent parce qu'on peut prendre toutes les émotions.
15:35Voilà. Donc on a quelques fondamentaux. Et ces fondamentaux, ils sont au service de l'humain.
15:40Et vous allez voir, sur cette planète, tout le monde va être d'accord.
15:43Après, le diaposcage dans les détails des textes, je résigne.
15:46Vous avez raison. Ça, c'est le code des bonnes pratiques.
15:48C'est votre perception aussi sur ce texte Léact ?
15:51Oui, c'est la même. Alors le texte, je l'ai beaucoup moins étudié et lu qu'Alain. Par contre, je suis sur la même logique en disant attention à pas mettre des barrières avant d'essayer.
16:00En France, on a eu le principe de précaution. On a arrêté de travailler sur les cellules souches. La seule conséquence, c'est qu'on a pris 15 ans de retard sur tous les autres.
16:07Et nous, Another Brain, on fait avancer notre modernité. Vous savez quoi ? On ne regarde pas du tout. On fait abstraction complètement de ces règlements.
16:15Un jour, quand on sera prêt, qu'on sera sur le marché du terrain, on verra comment on s'adapte ou on les adapte.
16:20Mais notre sujet, c'est d'abord de faire que ça existe. Il faut d'abord que ça existe avant de réglementer.
16:25Et donc, je ne vais pas m'encombrer la tête à essayer de savoir tout ce qu'il y a dedans et à passer du temps.
16:30— Une remarque là-dessus. Une remarque là-dessus par rapport à ce que dit Bruno. Très vite. C'est que si vous êtes éthique by design, vous serez hier acte sans problème.
16:39— OK. Merci beaucoup, maître Bensoussan, d'avoir été avec nous. Et Bruno Maisonnier également. Merci encore. À très vite.