Passer au playerPasser au contenu principalPasser au pied de page
  • avant-hier
Mardi 6 mai 2025, retrouvez Jérôme Malzac (directeur de l'innovation et expert en IA générative, Micropole), Jean-Paul Smets (PDG, Rapid.Space), Cathy Glerbaux (directrice de recherche, CNRS) et Laurent Daudet (Directeur Général Délégué, LightOn) dans SMART TECH, une émission présentée par Delphine Sabattier.

Catégorie

🗞
News
Transcription
00:00Générique
00:00Bonjour à tous, lunettes connectées, dopées à l'intelligence artificielle.
00:13Première limite de ces IA génératives, future promesse, ce sera nos sujets aujourd'hui avec le grand rendez-vous sur l'IA dans Smartech.
00:21On aura aussi dans cette édition un rendez-vous avec le monde du libre, du logiciel libre, on va regarder ce que va changer l'IA pour les développeurs.
00:28Mais d'abord, trois questions sur la pollution observée depuis le ciel, c'est tout de suite trois questions dans Smartech.
00:39Mon invitée est chercheuse en sciences de l'atmosphère et du climat, elle étudie l'impact de l'homme sur la planète à partir d'observations obtenues par satellite.
00:48Elle dirige une équipe de recherche à Sorbonne Université à Paris, elle est aussi professeure à l'université libre de Bruxelles,
00:55l'auteur de plusieurs publications scientifiques, de nombreuses publications scientifiques, je devrais dire même, médaille d'argent du CNRS en 2022.
01:04Bonjour Cathy Glerbeau.
01:05Bonjour.
01:06Alors on va s'intéresser ensemble à la qualité de l'air.
01:09Qu'est-ce qu'on désigne exactement sous le terme pollution et quelle importance revêt la mesure de la pollution de l'air en particulier ?
01:16Donc la qualité de l'air, c'est le taux de concentration de polluants dans l'air qu'on respire et donc le type de polluants va dépendre de la saison essentiellement.
01:27Donc en hiver, ça va être plutôt, en tout cas en France, du NO2 et des particules et en été, ça va être plutôt l'ozone.
01:34Donc deux grands types de polluants, c'est ça, que vous observez en permanence ?
01:38Donc nous, on surveille ça par satellite partout dans le monde, par rien qu'en France.
01:42Et donc on va essayer de comprendre comment ces polluants se déplacent, où est-ce qu'ils sont émis et comment ils sont transportés par les vents.
01:49Mais alors qu'est-ce qu'on voit de plus intéressant, j'ai envie de dire, depuis les satellites, depuis l'espace ?
01:55Justement, depuis l'espace, on essaye de comprendre, quand on observe des pollutions à certains endroits, on essaye de comprendre d'où elles viennent.
02:02Parce qu'on a plusieurs passages de satellites par jour et donc on peut voir typiquement la pollution qui vient de Chine, comment elle est transportée au-dessus de l'océan,
02:10comment elle atteint les côtes des Etats-Unis, par exemple, ou bien on peut voir comment cette pollution varie dans le temps,
02:16si elle augmente ou si elle diminue autour de certaines régions du globe.
02:20Et ce que vous observez, ce sont quoi ? Vous voyez par exemple des incendies, vous voyez le trafic automobile ou simplement les polluants qui circulent ?
02:31On voit plein de choses. On voit plein de gaz à la fois. Donc les incendies, c'est ce qui émet le plus de pollution.
02:37Donc là, on suit une trentaine de gaz qu'on voit se déplacer plus ou moins longtemps selon leur durée de vie dans l'atmosphère.
02:46Typiquement, des incendies du Canada, par exemple, comme il y a eu il y a deux étés,
02:50ils peuvent se propager jusqu'au-dessus de l'université où je travaille à Paris.
02:56On a détecté des détecteurs sur le toit de l'université et on a vu des concentrations élevées en monoxyde de carbone,
03:02qui est un des bons traceurs de feu, qui venait des feux au Canada.
03:06Donc si on n'avait pas les images satellites, on n'aurait pas compris pourquoi on avait des concentrations élevées en monoxyde de carbone,
03:11mais ça vient des fumées qui sont transportées au-dessus de l'océan.
03:14C'est intéressant. Donc ça fait une vraie différence par rapport à l'observation depuis la Terre.
03:19Est-ce que vous observez aussi une pollution très inégale autour de la planète dans le monde ?
03:26Oui, c'est ça qui est le plus frappant. On a des cartes tous les jours, on a des cartes de différents polluants qu'on trouve partout dans le monde
03:33et on peut justement surveiller quels sont les pays qui émettent le plus de pollution.
03:37Et je dirais qu'il y a une quinzaine d'années, quand le premier satellite qui embarque notre instrument, qui mesure tout ça, a été lancé,
03:47le plus flagrant, c'était la Chine. Et là, c'est en train de passer plutôt sur l'Inde.
03:52La Chine, on voit que les polluants, c'est toujours très élevé, mais ça commence à baisser.
03:57Et en Inde, ça ne baisse pas du tout. On s'aperçoit que les cartes étaient toutes rouges,
04:02j'avais des concentrations élevées en Inde, pardon, en Chine, il y a quelques années.
04:08Et maintenant, c'est plutôt au-dessus de l'Inde qu'on voit ça.
04:10Et de manière globale, vous diriez que l'air était vraiment plus pur il y a 10 ans, 20 ans ?
04:17Non, non, c'est le contraire, en fait. Je pose souvent cette question quand je fais des conférences au grand public
04:21et tout le monde croit que la pollution augmente. Et ça dépend où on regarde sur la planète.
04:25Et typiquement, en Europe et en France en particulier, l'air était plus pollué il y a 10 ans que maintenant.
04:31Et donc là, c'est quelque chose qui s'améliore. Et je trouve que les médias en parlent assez peu.
04:35Donc c'est bien que vous me donnez l'occasion d'en parler parce qu'avec tous les efforts qu'on a fait
04:40au niveau notamment sur les moteurs des voitures, sur l'isolement des maisons, etc.,
04:45il y a moins de polluants qu'avant. Par contre, on en parle beaucoup parce que toute pollution est mauvaise pour la santé.
04:53Et on connaît de mieux en mieux les impacts sur la santé.
04:55Donc on en parle beaucoup parce qu'on connaît de mieux en mieux ce qui se passe.
04:59Merci beaucoup pour ce signal positif. Merci Cathy Glerbault d'avoir été avec nous.
05:04Je rappelle que vous êtes la directrice de recherche au CNRS
05:07et que vous observez cette qualité de l'air et la pollution depuis l'espace grâce aux satellites.
05:11Merci encore.
05:12Dans notre grand rendez-vous sur l'intelligence artificielle aujourd'hui, Laurent Daudet est avec nous. Bonjour.
05:21Bonjour.
05:21Vous êtes directeur général cofondateur de l'ITON, première société européenne cotée spécialisée dans l'IA générative.
05:28Et avec vous, Jérôme Malzac, directeur de l'innovation, expert en IA générative chez Micropole. Bonjour.
05:33Bonjour à la fin.
05:34Micropole, je rappelle, un cabinet de conseil spécialisé dans la transformation digitale des entreprises.
05:38Alors, je voulais vous faire réagir en particulier à deux choses. D'abord, ces lunettes connectées qui ne sont pas là depuis hier,
05:45qui sont là depuis longtemps, mais qui nous promettent maintenant monts et merveilles grâce à l'intelligence artificielle.
05:50On a notamment un nouveau modèle en préparation du côté de méta. On a des nouvelles fonctionnalités qui arrivent grâce à l'IA.
05:58Est-ce que vous vous dites, qui leur application de l'intelligence artificielle, pourquoi pas, ça peut être dans les lunettes ?
06:05Alors, je pense très clairement qu'on va aller au-delà du gadget que peuvent représenter les méta-ré-ban qui sont sortis maintenant il y a quelque temps et dont la V2 arrive,
06:16qui, bon, servent des caméras cachées à Laurent Baffi ou autre, ou à filmer ses vacances.
06:20Mais je pense qu'on est déjà, d'ores et déjà, au-delà de ces simples applications.
06:24Je pense notamment à des applications comme chez Silor Luxottica où ça sert d'aide auditive pour remplacer des dispositifs un petit peu plus voyants pour les personnes qui entendent mal.
06:36Vous avez également des applications sur les personnes malvoyantes pour les aider à les guider dans des endroits un petit peu complexes.
06:44Les lunettes filment l'environnement et le décrivent à la personne malvoyante pour lui permettre de se guider en sécurité.
06:51Ça, c'est des vraies applications qui existent aujourd'hui. Et demain, avec de l'intelligence artificielle embarquée, plus, au-delà de l'intelligence artificielle, des écrans,
06:59on va vraiment avoir des dispositifs personnalisés qui, peut-être, comme le fantasme nous laisse présager Mark Zuckerberg chez Meta, remplacera notre smartphone.
07:09Chez Google, ils sont un peu plus réservés. Ça va être plutôt une extension du mobile, un peu comme notre montre connectée.
07:15Mais vous avez déjà des acteurs qui projettent des informations. Google avait essayé de le faire en 2011.
07:21Ça n'avait pas marché parce que la technologie n'était pas là.
07:24Il a vite retiré son... C'est dommage parce que moi, j'aimais beaucoup les Google Glass et le concept, justement, de ces visites guidées dans les musées qui passaient directement par les lunettes.
07:34Mais le grand public n'y a pas trouvé son compte. C'était cher.
07:37Mais parce que la technologie n'était pas là à l'époque. C'était il y a 12 ans, quand même.
07:41Donc, l'IA, à l'époque, n'était pas ce qu'elle était. Et donc, du coup, le device ne fonctionne pas.
07:47Alors, Jérôme, vous vous dites, justement, que ça va permettre aux lunettes de ne plus être un gadget, cette IA.
07:53Et moi, je me disais l'inverse. Je me disais, mais est-ce que l'IA, ce n'est pas le gadget ?
07:57Aujourd'hui, on nous promet que quand on va mettre de l'IA, ça va être extraordinaire.
08:01C'est effectivement possible qu'on soit encore à une phase où c'est simplement des early adopters qui vont utiliser ce type de device.
08:10Moi, j'ai tendance à penser que tant qu'on n'aura pas des vrais LLM embarqués sur ces devices-là, ça va rester relativement limité le type de fonctionnalité qu'on peut avoir.
08:22Parce que, expliquez-nous, justement, qu'est-ce qu'on aura véritablement comme accès ? On aura accès à quelle technologie d'intelligence artificielle dans ces dispositifs de lunettes ?
08:32Actuellement, dans les modèles qui sont en train de sortir, il y a de la technologie, par exemple, pour faire de la traduction instantanée de discours.
08:41Mais ça passe très souvent par une connexion à votre téléphone. Votre téléphone va se connecter au cloud. Le cloud va donner la réponse et ça va revenir.
08:51Donc, ça induit des délais. Il faut être dans des bonnes conditions de captation, etc.
08:55Le futur, c'est que tout soit embarqué dans les lunettes, qu'on ait la capacité de calcul, et faire tourner des gros LLM qui soient capables de faire vraiment l'extension,
09:06l'assistant dont vous avez envie, qui vous fasse de la planification de votre journée, qui vous aide à...
09:11Ça, c'est pas de l'ASF, d'imaginer des grands modèles de langage embarqués dans des dispositifs aussi légers ?
09:16C'est pas pour aujourd'hui, mais c'est pour demain. C'est pour demain. Dans 2-3 ans, peut-être, on aura...
09:21Oui, oui, ça viendra.
09:22La miniaturisation avance. Et de toute façon, quand vous regardez, il n'y a pas que Meta qui avance sur le sujet.
09:30Google relance. C'est passé un petit peu inaperçu. Il y a eu un TED Talk il n'y a pas longtemps aux Etats-Unis
09:35où Google a annoncé une nouvelle version de leur Google Glass. Les numéros 2. Ils les sortent.
09:39Vous avez Samsung qui travaille avec Google pour une paire de lunettes connectées.
09:43Apple et leur projet N50. Ils y vont, ils n'y vont pas. Après beaucoup de tergiversations, ils semblent y aller.
09:49Donc, ils vont sortir leurs propres lunettes connectées.
09:51Vous avez X-Riol et Voozix aussi qui travaillent depuis très longtemps sur des lunettes connectées avec, encore une fois, projection de l'écran.
09:58Donc, pour aller faire aussi de la réalité augmentée et de la réalité mixte.
10:02Et au-delà, moi, je pense, des LLM on-edge, enfin, embarqués sur ce type de dispositif,
10:07vous avez d'autres modèles que des modèles de langage. Par exemple, des modèles de reconnaissance d'objets.
10:12Ils se font fort utile sur ce type de dispositif.
10:15C'est ce que j'allais dire parce qu'effectivement, il y a la traduction, vous l'avez citée, mais tout ce qui est vision par IA est en train de se développer.
10:21Avec des industries dont les employés ont besoin de leurs mains libres, notamment dans de l'audit ou dans de l'inspection.
10:29Ils ont des outils à la main et pourtant, il faut qu'ils fassent leur rapport ou qu'ils aient accès à des informations.
10:33Ils ne peuvent pas le faire avec leur smartphone en plus des outils.
10:35Donc, le fait d'avoir un dispositif entièrement handless, sans les mains, avec qui ils vont pouvoir communiquer,
10:41avec qui ils vont pouvoir reconnaître des objets, des choses, c'est des sujets sur lesquels on travaille déjà.
10:46Et ça qui peut intéresser, pas uniquement justement le grand public, mais tout le domaine industriel, le domaine de la formation en entreprise.
10:53Jusqu'à maintenant, on n'avait pas de dispositif. On avait des HoloLens de chez Microsoft.
10:58Dispositif assez gros, lourd, la durabilité de la batterie qui laisse à désirer.
11:02Alors, il va falloir faire beaucoup de progrès pour embarquer tout ça sur des petites lunettes.
11:07Mais c'est un vrai bon technologique, je pense, qui intéressera fortement ces industries.
11:11Mais ce que vous signalez, cette question d'autonomie des devices, ça reste encore un facteur limitant actuellement.
11:18Les lunettes actuellement de méta ont une autonomie de 4 heures et on ne peut pas les porter toute la journée.
11:22Donc, tant que ce problème-là n'est pas résolu, on n'arrivera pas, je pense, à une adoption vraiment par le grand public.
11:28On restera dans des applications de niche, celles qu'on a citées qui sont très intéressantes, sûrement d'autres.
11:31Enfin, mais ça, c'est un vrai enjeu.
11:34Autre vrai enjeu, la question des données personnelles.
11:37Parce qu'effectivement, ces lunettes captent tout l'environnement.
11:41Et en particulier en Europe, ça risque de coincer.
11:44Oui, alors j'ai moi-même pu tester les méta-ray-ban.
11:48Alors, je trouve que la qualité au niveau du son quand on lance la musique, elle est exceptionnelle.
11:52Je m'interroge sur la faculté, justement, de la vision par IA, la capacité à filmer des scènes.
11:59Ça va se confronter au RGPD très très vite, tout ça.
12:03Oui, tout à fait.
12:04En même temps, est-ce qu'on ne le fait pas déjà avec notre smartphone ?
12:06Vous êtes en vacances, vous filmez votre lieu de vacances.
12:08Mais on le voit.
12:09Vous trouvez donc des images d'autres personnes.
12:10On le voit que je filme quand même, aujourd'hui.
12:12Alors qu'avec des lunettes, il y a une petite lumière.
12:16Et qui permet de voir que ça enregistre.
12:18Je ne sais pas si c'est...
12:19Alors, il y a un vrai sujet de confidentialité, de données privées, ça c'est certain.
12:23Est-ce qu'il est beaucoup plus risqué que ce qu'on a déjà avec les technologies de type smartphone ?
12:29Je ne suis pas sûr.
12:30Puis moi, il y a un dernier point quand même qui me convainc dans le fait que ce seront des devices de demain.
12:36Cette année, au CES, encore une fois, j'ai été au CES cette année.
12:40Et c'était impressionnant de voir le nombre de constructeurs industriels qui travaillent sur des sujets de lunettes connectées.
12:48Il y en avait des dizaines cette année.
12:49En fait, je pense que tout le monde cherche le futur du smartphone.
12:53Oui, c'est ça.
12:54Et quand on voit qu'il y a des investissements à ce point-là, on se dit qu'il y a forcément un marché derrière.
12:58Et qu'ils ne le font pas de façon innocente.
13:00Et quand on travaille sur les grands modèles d'IA, justement, on travaille sur leur portabilité.
13:07Parce qu'on voit aujourd'hui, on a des annonces de grands modèles qui tournent sur des PC portables.
13:12Et vous nous dites, oui, arriver dans des lunettes, ça peut être très rapide.
13:15Ce qui est clair, c'est que cette IA générative, ça repose carrément toute la question des interactions machine.
13:21Et le device, ça fait partie de l'interaction machine.
13:24Est-ce que, effectivement, ça sera par les lunettes ?
13:26Ou est-ce que ça sera par la voix ?
13:28Ou est-ce que ça sera par des hybrides ?
13:29C'est clair qu'on aura cette IA qui va venir de plus en plus d'objets.
13:38Et l'IA générative est là pour repenser toutes les interactions avec les machines.
13:41Alors, le deuxième sujet qu'on aborde ensemble, c'est les nouvelles promesses, justement, de ces IA génératives.
13:47Mais aussi de leurs limites.
13:48On a les premiers indicateurs qui nous disent, par exemple, que pilote chez Microsoft, ça ne marche pas aussi bien qu'on pensait.
13:54C'est-à-dire que c'est mis à disposition d'énormément de personnes, mais en termes d'utilisateurs, pour l'instant, visiblement, ça ne correspond pas exactement aux attentes.
14:04Comment est-ce que vous expliquez ça ?
14:06Je pense qu'on nous a beaucoup promis avec l'IA générative et que les acteurs comme Microsoft et les autres GAFAM nous ont un peu fait fantasmer les usages qu'on pouvait en tirer.
14:18Copilot, effectivement, quand on le déploie, et moi, je l'utilise au quotidien.
14:23Ce qu'on aimerait en faire, et ce qu'on peut en faire à date, c'est assez différent.
14:28On est plutôt limité et frustré parfois dans l'utilisation parce que ce n'est pas encore pile-poil adapté aux besoins de tout un chacun.
14:35Et c'est des besoins qui sont parfois très personnels.
14:37Moi, l'usage que j'en fais, ce sera différent d'une autre personne qui travaille sur un projet chez Micropole.
14:42Un autre élément assez important, c'est que c'est une technologie qui évolue.
14:46En quelques mois, je crois qu'en une année, Microsoft a sorti un petit peu plus de 300 nouvelles fonctionnalités sur Copilot.
14:53C'est énorme.
14:54Justement, parmi ces 300, il doit bien y en avoir une ou deux qui vont nous servir.
14:58Alors oui, mais pas en continu.
15:00En fait, ce que vous n'aviez pas il y a un mois dans Copilot, vous l'avez peut-être aujourd'hui.
15:04Donc déjà, ça veut dire qu'il faut systématiquement revérifier est-ce que la fonctionnalité y est ou pas.
15:08Et ensuite, je vous dis, l'usage est tellement personnel que des personnes vont pouvoir l'utiliser dans 20-30% des cas peut-être 10 fois dans la journée.
15:20Et puis d'autres, comme moi, vont l'utiliser peut-être sur un seul cas d'usage, de la recherche documentaire.
15:25Et on n'ira pas plus loin parce que le besoin dans les autres outils de Microsoft n'est pas encore complètement intégré.
15:30Il y a la question du coût aussi quand même, non ?
15:32Il y a la question du coût, mais je pense que ça, c'est secondaire.
15:35À mon avis, il y a vraiment une question d'éducation, de faire en sorte que ça devienne naturel dans toute son interaction avec les machines.
15:44Et il y a sûrement quelque chose de générationnel, mais de la même manière qu'il y a les digitales natives.
15:48Maintenant, on va arriver à une génération de GPT natives, des gens qui sont nés avec l'IA générative
15:53et qui considèrent ça totalement naturel d'utiliser ces outils pour toutes les tâches du quotidien,
15:58donc inclus les tâches de bureautique et d'intégration.
16:02Et c'est là où les copilots feront tout leur sens d'intégration avec la bureautique.
16:09On est encore à une phase, nous, à Nightown, quand on travaille avec nos clients,
16:12où il faut encore beaucoup les accompagner sur la définition des use case
16:15pour définir quels sont les workflows qu'on va pouvoir automatiser,
16:20sur lesquels on va avoir des gains de productivité mesurables
16:22et sur lesquels on va pouvoir déployer à l'échelle également.
16:25Est-ce qu'il y a vraiment des gains de productivité, du gain de temps aujourd'hui mesurable avec l'utilisation de l'IA génératif ?
16:32Parce que ça, c'est aussi une petite musique qu'on entend.
16:35Finalement, ça coûte de l'argent, c'est pas forcément hyper productif, on gagne pas forcément tant de temps que ça.
16:42Si. Enfin, tout va dépendre des métiers, bien évidemment, encore une fois.
16:45On travaille avec certains clients pour qui on a déjà mis en place de l'IA générative.
16:51Et sur certains verticaux, dans certains métiers, sur certains processus dans les RAH, dans le juridique,
16:57vous avez des vrais gains de temps.
16:58C'est des personnes qui gagnent 20-30% de leur journée à faire autre chose
17:04parce qu'une partie de ces tâches-là ont été automatisées par de l'IA ou de l'IA générative.
17:09Donc il y a aujourd'hui des vrais gains de temps.
17:11Là où je rejoins Laurent, c'est qu'on ne fait pas tout avec de l'IA ou de l'IA générative.
17:16Et qu'il faut vraiment travailler en amont le besoin des métiers sur quelles sont les difficultés aujourd'hui
17:23et en quoi des outils d'IA ou d'IA générative peuvent venir résoudre ces sujets-là.
17:28Et non pas se dire c'est le Graal qui va nous faire gagner 50% comme on l'a beaucoup lu et beaucoup entendu pendant un an.
17:35Quand c'est sorti en 2023, on n'entendait que ça.
17:37Ah, ça va vous faire gagner. On va remplacer tous les développeurs. Les développeurs vont aller 50% plus vite.
17:42Ce n'est pas vrai. On gagne du temps mais pas sur tout.
17:45Et c'est vraiment avec les métiers, ceux qui sont dans le quotidien des process,
17:50qu'il faut réussir à analyser l'usage qu'ils vont avoir de l'IA générative.
17:55En tout cas sur les développeurs, là il y a un gain de temps qui est absolument immédiat.
17:59Les ingénieurs dans mon entreprise à l'iPhone disent qu'ils gagnent entre 20 et 30% de temps
18:04simplement à utiliser de l'IA générative, ce qui est absolument énorme.
18:09Et demain avec le déploiement d'agents, ça sera encore plus marqué que ça.
18:16On va parler d'ailleurs après pour ceux qui continuent à rester avec nous.
18:20On parlera justement de coder avec l'IA juste après.
18:22Moi j'ai été bluffée par la nouvelle application qui a été mise en ligne par Google, Notebook LM,
18:28qui permet de compiler énormément de données, de retrouver les sources,
18:32parce que ça c'est quelque chose d'important quand on utilise des IA génératives.
18:35On aime bien quand même savoir à quoi on peut se référer.
18:37Et de créer des podcasts en fait, de faire des retranscriptions du résumé de manière audio
18:44avec deux personnages, c'est hyper réaliste, ça se fait en 5 minutes à peine.
18:48Là c'est un peu vertigineux, j'ai envie de dire, moi j'y crois aux promesses de l'IA générative.
18:56Ça peut transformer véritablement profondément des usages, des métiers.
19:01Mais pour autant, est-ce que vous pensez, je vais être provocateur,
19:03mais est-ce que vous pensez que ça remplacera le métier de journaliste ?
19:06Non, parce que les podcasts, c'est pas que ça.
19:09C'est pas que de l'information, de l'enquête et de la pédagogie.
19:13Exactement, c'est un vrai bond technologique.
19:15Ça permet d'aller plus vite peut-être sur la mise à disposition sous forme de podcast de l'information.
19:20Pour autant, ça ne remplacera pas un métier.
19:22Le métier sera toujours là, aidé, guidé par un nouvel outil qui est généré.
19:25En revanche, d'intégrer une partie justement de cette technologie dans son podcast nativement,
19:31ça permet de réfléchir à d'autres façons de faire en fait.
19:33Ça ouvre le champ des possibles.
19:35Tout à fait, s'IA est faite uniquement pour refaire de façon automatisée
19:39ce que vous faites avec vos processus humains, finalement c'est assez limité.
19:43Et maintenant, il faut penser un cran au-delà, de se dire, on a cette technologie absolument extraordinaire,
19:49quelle nouvelle façon de travailler ça va me donner ?
19:52Et là, ça ouvre l'univers des possibles.
19:56On voit ce qui est possible maintenant, ce qui sera possible demain.
20:00Et là, notamment avec les agents intelligents, il va y avoir des possibilités qui sont assez vertigineuses.
20:09Mais justement, comment on fait pour penser ce demain ?
20:11En fait, c'est tout l'enjeu de trouver les killers applications.
20:13C'est de se dire, je suis capable d'inventer quelque chose, un usage que je faisais avant d'une certaine façon,
20:19et qui sera totalement différent demain.
20:21Comment est-ce qu'on accompagne les entreprises là-dedans ?
20:25Parce que j'imagine qu'elles pensent substitution au départ.
20:29Alors au départ, c'est, oui, moi les premières questions que j'avais de la part des clients,
20:34c'était combien on va remplacer deux personnes dans mon entreprise grâce à l'IA.
20:38Ça ne se passe pas comme ça, en fait.
20:40Comme on le disait, c'est plutôt quels vont être les sujets qui vont pouvoir être accélérés par l'IA.
20:46Et aujourd'hui, on n'a pas trouvé de killer app.
20:48Enfin, il y a des killer app d'IA générative, mais on n'a pas trouvé le cas d'usage
20:51où l'IA générative devient incontournable.
20:56Par contre, il existe tout plein d'un tas de tâches sur lesquelles l'IA générative a un sens.
21:01Et notamment avec les agents, où on va pouvoir maintenant, on peut exécuter les actions.
21:06Ce n'est pas simplement une chaîne de pensée où on vient générer du texte ou des images à la chaîne.
21:10C'est vraiment, on réfléchit, enfin l'IA générative réfléchit, lance une action dans d'autres outils,
21:17vient passer la main à un autre agent.
21:18Et ça, l'IA agentique est un vrai sujet.
21:21Et ça se travaille vraiment avec le besoin métier.
21:25Encore une fois, j'insiste sur le sujet parce que c'est vraiment la façon dont on doit aborder ce type de sujet.
21:29Et un autre élément, je pense que ce ne sera pas copilot de Microsoft qui va tout révolutionner.
21:33quand on pense à un paradigme de chez Leighton, de Laurent.
21:37C'est grâce à des petites solutions comme ça, alors déjà d'une part souveraine, française,
21:42et dont la protection de la donnée est quand même un petit peu plus,
21:44on se sent plus à l'aise avec ce type de solution qu'avec les grands GAFAM.
21:48Et qui sont suffisamment plus flexibles justement pour pouvoir créer tout un tas de multi-agents
21:52qui vont répondre non pas globalement à un sujet, à un métier,
21:59mais tout un tas de petites tâches dans un métier.
22:01Oui, oui.
22:02Un mot, Laurent.
22:04Oui, probablement.
22:05On ne va pas moins travailler, on ne va pas avoir moins de personnes qui travaillent.
22:10On va juste s'attaquer à des problèmes plus complexes.
22:12Et on aura des outils qui nous permettront d'être plus créatifs et plus efficaces.
22:16Mais c'est probablement ce qui va arriver.
22:19Merci beaucoup Laurent Daudet, directeur général, cofondateur de Leighton,
22:22d'avoir été avec nous.
22:23Et Jérôme Malzac, directeur de l'innovation, expert en IA générative de Micropole.
22:26Merci à vous.
22:27Encore.
22:33On termine cette édition avec Le Monde du Libre et Jean-Paul Smets, le PDG de Rapid Space.
22:38Bonjour Jean-Paul.
22:38Bonjour.
22:39Aujourd'hui, ton sujet, c'est ce que l'IA va changer pour les développeurs de logiciels libres.
22:43Oui, en fait, le 29 avril, c'est la sortie de Coin3 par Alibaba,
22:48qui est en fait une IA de grande taille, apparemment aussi performante que le modèle O3 de ChatGPT.
22:57Et je me suis dit à cette occasion, est-ce que c'est capable, une IA, de coder ou de faire le travail d'un développeur ?
23:02Et je suis allé regarder un peu les performances telles qu'elles sont évaluées sur divers sites.
23:07Apparemment, Coin3 est le numéro 2 en termes de capacité à coder.
23:10Donc, je me suis dit, on va essayer de faire des expériences pour voir si ça marche vraiment.
23:15Et comment est-ce que tu as procédé pour ces expériences ?
23:17Alors, j'ai d'abord procédé en me disant, est-ce qu'on peut prendre une IA pour générer une documentation
23:22qui va permettre à un développeur pas trop au courant d'un logiciel mal documenté de comprendre comment il marche ?
23:26Oui.
23:26Donc, j'ai pris un logiciel pas trop documenté, SlapOS, logiciel de cloud, un développeur pas trop expérimenté, M. X, un développeur très expérimenté, M. Y.
23:37Donc, j'ai pris le logiciel, je l'ai fait rentrer dans une IA, alors ça s'appelle DeepWiki, c'est un site en ligne.
23:43Ça a généré une documentation absolument magnifique.
23:46Jamais j'aurais pu faire ça auparavant.
23:49Et puis, j'ai demandé à M. A de me dire s'il comprenait mieux comment fonctionnait le logiciel libre.
23:53Il m'a dit c'est génial, j'ai enfin compris.
23:56C'est M. X, je crois, au début, mais c'est pas grave.
23:59Mais comme souvent, en fait, les IA racontent beaucoup de bêtises, et seuls les experts se rendent compte qu'elles racontent des bêtises,
24:05j'ai demandé à M. Y de lire la documentation et de me dire c'est bien, il y a des fautes, il n'y a pas de fautes, qu'est-ce que t'en penses ?
24:10Il m'a dit tout est juste, c'est incroyable, il n'y a pratiquement aucune erreur.
24:14Bon, 50% des réponses sont tellement vagues que quand tu connais le logiciel, tu comprends que la réponse est exacte,
24:20mais si tu ne le connaissais pas, ça serait tellement vague que tu ne saurais pas ce que ça veut dire.
24:24Mais comme le reste des 50% est extrêmement précis, il y a au moins 50% de la documentation sans aucune intervention humaine
24:30qui est générée de façon ultra utile.
24:32L'autre limite qu'on a vue, c'est qu'en fait, quand il y a une abstraction, une espèce de grande architecture au-dessus du code,
24:39l'IA ne la voit pas.
24:39Est-ce que tu as testé les capacités des IA pour vraiment coder, programmer ?
24:45Alors on a aussi fait ça, on s'est rendu compte que pour coder des interfaces utilisateurs, ça marche dans 70% des cas.
24:52Pour coder en fait des logiques de back-end ou de grosses applications, ça marche moins bien, 30%,
24:56mais ce qui est plus extraordinaire, c'est que ça te trouve les bugs.
24:59Donc on avait un cas justement avec M. X qui devait résoudre un problème de mise à niveau de la librairie StatModel de 0.11 à 0.13,
25:08a demandé à la ChatGPT d'analyser, lui dire, pourquoi est-ce que quand je change StatModel, ça me fait un bug sur une autre librairie qui s'appelle Arima ?
25:16Donc ChatGPT a répondu, en fait, l'API d'appel de StatModel a changé, donc tu as deux solutions,
25:23soit tu reviens dans la version précédente, soit tu corriges le code pour satisfaire la nouvelle API, et tout ça automatiquement.
25:29Est-ce que tu as aussi mesuré l'impact que peut avoir l'IA sur le développement de logiciels libres ?
25:36Donc là, c'est facile, il y aura de l'IA dans tous les jeux de logiciels libres,
25:40de la même façon qu'il y a des moteurs de recherche plein texte dans toutes les bases de données.
25:45Donc le jour où en fait on a eu Google pour chercher sur Internet, rapidement c'est devenu une habitude,
25:50et donc dans les logiciels d'entreprise ailleurs, dans son mail, n'importe où, on veut avoir l'équivalent d'un Google Search,
25:55on tape deux, trois mots et ça trouve les choses.
25:57Aujourd'hui, ce qu'on va avoir, c'est de l'IA partout, donc par exemple,
25:59ce qui va arriver dans les logiciels d'entreprise, c'est qu'au lieu de faire plein de rapports à la main
26:05pour couvrir tous les cas possibles, les meilleures ventes, les meilleurs clients, les meilleurs employés,
26:09tout ce qu'on peut imaginer, il y aura juste une IA.
26:12Donc on a également testé, qui génère le code SQL de requêtage de la base de données,
26:16donc on lui demande quelle était l'évolution des ventes pour tel groupe de clients,
26:21puis hop, ça répond, ça génère la requête SQL, ça fait un joli rapport, un dessin.
26:25Là encore, ce qu'on voit, c'est comme pour la documentation,
26:28ce qui avant nécessitait des armées de développeurs, par exemple sous-traités en Inde,
26:31on met une IA à la place et une petite entreprise avec quasiment aucun moyen
26:35gère une doc magnifique et génère des milliers de rapports, comme une grande.
26:40On dirait une baguette magique là, attention.
26:42Est-ce qu'il y a un risque quand même pour le modèle du libre ?
26:45Alors le premier qui a vraiment vu ça, c'est Alexandre Zappolsky, avec Linto,
26:49qui en 2017 était un agent qui essayait de comprendre ce qu'on disait vocalement,
26:54qui essayait de faire des résumés, donc c'était vraiment pas mal.
26:58Et il a présenté ça à la Vézegas, ensuite il a créé avec d'autres la communauté OpenLLM,
27:03et aujourd'hui en fait il a fait Lucie, qui est avec Olmo, l'un des seuls modèles vraiment libres d'IA.
27:09Ok, Queen 3 dont tu nous as parlé au début, c'est pas libre ?
27:12Alors c'est plus un freeware, mais en fait on a le droit de le copier,
27:14on peut l'améliorer à la remarge en l'étendant,
27:17mais on n'a pas ni le code source, ni les données qui ont servi à l'entraîner.
27:20Donc c'est un peu du Libre Canada Dry, aujourd'hui on a deux mots,
27:23il y a Open Wait pour les choses comme Queen 3, c'est-à-dire qu'on partage le résultat, les poids,
27:28et Fully Open comme Olmo.
27:30D'accord, donc il n'y a pas beaucoup finalement de vrais IA libres aujourd'hui ?
27:33Il n'y a qu'Olmo et Lucie aujourd'hui.
27:35Qui ont encore leur preuve à faire, parce que Lucie, on se rappelle de la polémique.
27:37Oui, mais Olmo c'est plus avancé, mais même si ça a ses preuves à faire,
27:41c'était fait avec quelques millions, les autres c'est des centaines de millions ou des milliards,
27:44et ce qu'il faut voir c'est qu'avoir des IA libres, ça va être essentiel pour tout le logiciel libre,
27:48exactement comme avoir des compilateurs libres,
27:50de la même façon qu'on ne peut pas imaginer faire du logiciel libre avec un compilateur propriétaire,
27:55on ne pourra pas imaginer faire du code libre avec des IA qui ne soient pas libres,
27:59donc il faut soutenir les projets d'IA libres.
28:02Merci beaucoup, c'était Jean-Paul Smet dans Le Monde du Libre et dans Smart Tech
28:06que vous regardez sur la chaîne Be Smart for Change.
28:07Merci à tous et à très bientôt pour de nouvelles histoires sur la tech.