Elle est désormais présente dans tous les domaines, ou presque : l'intelligence artificielle. L'impressionnant développement de l'intelligence artificielle pose de multiples questions tant sur le plan éthique, sur son fonctionnement que sur son utilisation. Pour y répondre, Jean-Pierre Gratien reçoit Laurence Devillers, professeure en informatique, Gilles Babinet, coprésident du Conseil national du numérique, et François Saltiel, journaliste. LCP fait la part belle à l'écriture documentaire en prime time. Ce rendez-vous offre une approche différenciée des réalités politiques, économiques, sociales ou mondiales....autant de thématiques qui invitent à prolonger le documentaire à l'occasion d'un débat animé par Jean-Pierre Gratien, en présence de parlementaires, acteurs de notre société et experts.Abonnez-vous à la chaîne YouTube LCP : https://bit.ly/2XGSAH5 Suivez-nous sur les réseaux ! Twitter : https://twitter.com/lcpFacebook : https://fr-fr.facebook.com/LCPThreads : https://www.threads.net/@lcp_anInstagram : https://www.instagram.com/lcp_an/TikTok : https://www.tiktok.com/@LCP_anNewsletter : https://lcp.fr/newsletterRetrouvez nous sur notre site : https://www.lcp.fr/#LCP #documentaire #debat
Category
🗞
NewsTranscription
00:00:00Générique
00:00:02...
00:00:16Bienvenue à tous.
00:00:17Elle est désormais présente dans tous les domaines,
00:00:20ou presque.
00:00:21Débat ad hoc s'intéresse aujourd'hui
00:00:23à l'impressionnant développement de l'intelligence artificielle,
00:00:27avec le documentaire qui suit tout d'abord
00:00:29l'autopsie d'une intelligence artificielle
00:00:32réalisée par Jean-Christophe Ribot.
00:00:34Un film, vous allez le voir,
00:00:36qui s'attache à décrypter les réalités
00:00:38qui se cachent derrière l'IA en abordant son fonctionnement,
00:00:42les défis auxquels sont confrontés les scientifiques
00:00:45et les questions éthiques que pose son utilisation.
00:00:48Je vous laisse le découvrir
00:00:49et je vous retrouverai juste après sur ce plateau,
00:00:52en compagnie de la professeure en informatique Laurence De Villers,
00:00:56du coprésident du Conseil national du numérique
00:00:58Gilles Babinet et du journaliste François Saltiel.
00:01:02Avec eux, nous débattrons des questions
00:01:05que soulève désormais l'omniprésence
00:01:07de l'intelligence artificielle dans notre société.
00:01:10Bon doc.
00:01:12...
00:01:18...
00:01:28...
00:01:42L'intelligence artificielle nous renvoie
00:01:44à ce qui serait l'hypothèse leibnitienne
00:01:47selon laquelle il y a plusieurs mondes possibles.
00:01:49...
00:01:51L'intelligence artificielle serait l'avenir de l'humanité.
00:01:59...
00:02:02On compte sur elle pour aider les médecins et les psychologues,
00:02:05les policiers et les soldats,
00:02:08pour remplacer les conducteurs
00:02:11et les joueurs de curling.
00:02:13Dans toutes nos activités quotidiennes,
00:02:15l'intelligence artificielle pourrait nous aider à faire les meilleurs choix.
00:02:19Faut-il bouger la tour ou le fond ?
00:02:22Tourner à gauche ou à droite ?
00:02:24Tirer ou ne pas tirer ?
00:02:25Sortir avec Jules ou avec Jim ?
00:02:29La logique implacable des algorithmes
00:02:31nous garantirait des vies sans erreur.
00:02:34Mais après des années de promesses dans tous les domaines,
00:02:37les programmeurs eux-mêmes nous alertent.
00:02:39...
00:02:44On nous aurait un peu survendu l'intelligence artificielle.
00:02:47T'as pas vu les clés ?
00:02:49Désolée, j'ai un peu de mal à comprendre pour l'instant.
00:02:51...
00:02:53Alors, est-elle vraiment aussi intelligente qu'on nous l'a dit ?
00:02:56Ce mec, c'est vraiment bon.
00:02:57C'est pas un mec, c'est une machine.
00:02:59Qu'est-ce qu'ils vont faire ? Le remplacer ?
00:03:01Peut-on lui confier toutes nos décisions ?
00:03:03...
00:03:05...
00:03:10...
00:03:22De cet amas de matières un peu flasques
00:03:25jaillissent parfois des idées de génie,
00:03:27comme le requiem de Mozart.
00:03:29...
00:03:31Inspirées par ce miracle de la nature,
00:03:34des inventeurs se sont mis à rêver des capacités surhumaines
00:03:37que pourrait développer une intelligence artificielle.
00:03:41...
00:03:44Cette machine, inventée par l'Anglais Alan Turing,
00:03:47est la première preuve incontestable
00:03:49que des engrenages mécaniques
00:03:50peuvent être plus efficaces qu'un cerveau humain
00:03:53pour résoudre un casse-tête.
00:03:54...
00:03:57Grâce à elle, les Anglais sont parvenus à décrypter
00:04:00les messages codés de l'armée allemande
00:04:01pendant la Deuxième Guerre mondiale,
00:04:03alors qu'une ribambelle de militaires faisait jusque-là
00:04:06chauffer leur matière grise en vin.
00:04:09On s'est alors mis à imaginer des outils d'un nouveau genre...
00:04:12...
00:04:14qui pourraient robotiser le travail intellectuel.
00:04:17...
00:04:19La base de l'automatisation, à la limite,
00:04:21peut être considérée que je dois limiter l'effort,
00:04:24et cet effort est un effort physique.
00:04:26Un moulin, à une époque, des siècles passés,
00:04:29était considéré comme un processus automatique.
00:04:31...
00:04:34Mais, progressivement, on a pu adapter ce type d'approche,
00:04:38même au travail immatériel ou au travail intellectuel.
00:04:44Et aujourd'hui, nous sommes face à une nouvelle forme de l'automation
00:04:48qu'on appelle, de manière générale,
00:04:51intelligence artificielle.
00:04:53...
00:04:58Depuis sa création officielle, dans les années 1950,
00:05:01l'intelligence artificielle promet d'optimiser nos vies.
00:05:04...
00:05:07Conduire les voitures à notre place,
00:05:10mieux éduquer nos enfants,
00:05:13nous suggérer les menus les plus adaptés,
00:05:15établir les meilleurs diagnostics médicaux
00:05:19ou trouver les mots pour nous remonter le moral.
00:05:21...
00:05:25...
00:05:28Toutes ces promesses, régulièrement déçues,
00:05:30ont soudainement été ravivées à l'aube des années 2000,
00:05:33grâce aux flux de données de l'Internet
00:05:35et à la puissance décuplée des supercalculateurs.
00:05:38...
00:05:42Je travaillais pour Google depuis un bon moment déjà.
00:05:45Et tout à coup, dans le milieu de la technologie, à Google, partout,
00:05:48tout le monde s'est mis à vouloir utiliser l'IA comme réponse à tout.
00:05:51L'IA va guérir le cancer,
00:05:52l'IA va résoudre nos problèmes de transport, d'éducation.
00:05:55Quelqu'un m'a même proposé l'IA pour détecter les génocides.
00:05:59J'ai halluciné.
00:06:01À partir de quelles données ? Quels sont les enjeux politiques ?
00:06:04Aucune réponse à ça.
00:06:06Il y a eu la volonté, à un moment, de vouloir numériser tout le réel.
00:06:11C'est-à-dire...
00:06:13Et en vue d'avoir une connaissance intégrale et en temps réel des choses.
00:06:17Il y a quelque chose de démiurgique dans cela,
00:06:20sans que n'ait été pris en compte le fait que...
00:06:24quantité de choses échappent à la réduction numérique du réel.
00:06:30Salut, Johnny. Il y a un magnifique arc-en-ciel dehors.
00:06:34Gordon, je programme, là.
00:06:35...
00:06:40Tu veux dire que tu transformes la poésie du monde en électron ?
00:06:43...
00:06:47Le développement fulgurant du numérique,
00:06:51qui est indéniable et positif, nous a donné l'impression
00:06:55qu'on allait pouvoir résoudre tous nos problèmes d'humains
00:06:58grâce aux données et aux calculs.
00:07:00Mais c'est tout simplement une illusion.
00:07:03...
00:07:06C'est Jeopardy, le défi d'IBM.
00:07:10Applaudissements
00:07:12Merci, Johnny Gilbert. Merci, mesdames et messieurs.
00:07:15Bienvenue à ce très spécial événement de Jeopardy.
00:07:19En 2011, la société IBM,
00:07:21familière des grands coups médiatiques pour vanter les progrès de ses technologies,
00:07:25organise une partie de Jéopardy entre les plus grands champions humains
00:07:29et son nouveau programme informatique.
00:07:31...
00:07:36L'intelligence artificielle serait désormais capable
00:07:39de comprendre le langage des humains.
00:07:41...
00:07:49Plus rapide que ses adversaires, Watson gagne à plate couture.
00:07:54...
00:08:01...
00:08:05Mais malgré les affirmations des publicitaires d'IBM,
00:08:08Watson était en fait incapable de communiquer avec des humains.
00:08:12Il se résumait essentiellement à un moteur de recherche
00:08:15qui fouillait dans des encyclopédies numériques.
00:08:19...
00:08:21Pourtant, dès le lendemain de sa victoire à Jeopardy,
00:08:24l'entreprise annonce une ambition révolutionnaire.
00:08:27...
00:08:32Le développement d'une intelligence artificielle
00:08:35avec laquelle les médecins pourraient dialoguer
00:08:37pour optimiser leur diagnostic
00:08:39et proposer les traitements les plus efficaces.
00:08:42...
00:08:46Alors, comment transférer les compétences d'un médecin
00:08:48dans des circuits électroniques ?
00:08:51Pour mettre au point son docteur virtuel,
00:08:53IBM utilise une technique éprouvée de l'informatique,
00:08:56l'IA symbolique.
00:08:59Ce qu'on appelle l'IA symbolique historiquement,
00:09:01c'est cette idée qu'on va automatiser des tâches
00:09:07en prenant des modèles mentaux humains
00:09:10et en les transformant en programmes.
00:09:12Et en exécutant ces programmes,
00:09:14on automatise donc une tâche cognitive.
00:09:17...
00:09:19IBM embauche une vingtaine de médecins new-yorkais
00:09:22et leur demande de se mettre d'accord sur un schéma de décision parfait
00:09:26qui ressemble à ça.
00:09:28Un patient tousse.
00:09:29Si la toux perdure depuis moins de huit semaines,
00:09:31alors prendre la température.
00:09:34Si la température est supérieure à 38,5,
00:09:37alors ausculter au stéthoscope.
00:09:39Si la respiration est crépitante,
00:09:42alors réaliser une radio de thorax.
00:09:44Si la radio révèle un syndrome alvéolaire,
00:09:47alors il s'agit d'une pneumonie.
00:09:50Prescrire des antibiotiques.
00:09:52Dans cet arbre logique qu'on appelle algorithme de décision,
00:09:54toutes les hypothèses sont prises en compte
00:09:57et pour chacune, la meilleure décision est établie,
00:10:00permettant ainsi à tous les médecins du monde
00:10:02de profiter des raisonnements des meilleurs spécialistes.
00:10:05...
00:10:11Après six années de développement,
00:10:12IBM sort enfin son produit phare,
00:10:15Watson for Oncology,
00:10:16spécialisé dans les traitements du cancer.
00:10:19...
00:10:21Bien moins ambitieux que le docteur virtuel annoncé,
00:10:24le logiciel oblige d'abord les médecins
00:10:26à saisir à la main toutes les données sur leurs patients.
00:10:30Surtout, Watson ne propose que des traitements
00:10:32au standard américain.
00:10:34Et selon les médecins, il se révèle impuissant
00:10:36pour les cas les plus compliqués,
00:10:37qui justifieraient pourtant son utilisation.
00:10:39...
00:10:43Watson for Oncology n'aura été vendu
00:10:44que dans quelques dizaines d'hôpitaux dans le monde.
00:10:47Et en 2021, les critiques sont telles
00:10:49qu'IBM retire de la vente tous les Watson.
00:10:52...
00:10:55Il y a des limites à ce qu'on est capable d'exprimer
00:10:58verbalement, donc de programmer un ordinateur
00:11:02de manière explicite.
00:11:04Il y a des connaissances...
00:11:05En fait, la plupart des connaissances dans notre cerveau,
00:11:08qu'on ne sait pas exprimer verbalement.
00:11:10La médecine, c'est le monde réel.
00:11:12Le monde réel a fait preuve d'une immense diversité.
00:11:16Chaque nouveau cas que vous rencontrez
00:11:19sera différent de façon subtile
00:11:21de tous les cas que vous avez rencontrés précédemment.
00:11:24Et donc, les règles que vous avez développées précédemment,
00:11:26il va falloir les adapter pour chaque nouveau cas.
00:11:28Et si vos règles sont rigides,
00:11:30si vos règles, c'est un programme rigide,
00:11:32il va falloir pouvoir s'adapter.
00:11:33...
00:11:34La filière santé d'IBM fait marche arrière toute,
00:11:37parce qu'il était tellement facile de démontrer
00:11:38que la plupart de leurs affirmations étaient mensongères.
00:11:41...
00:11:43Il y a des compagnies qui ont peut-être exagéré
00:11:47la vitesse à laquelle les choses allaient se développer.
00:11:49C'est un peu dans la nature de la bête.
00:11:52Mais je suis très confiant que c'est inexorable
00:11:56qu'on va avoir de plus en plus de ces outils en médecine.
00:11:59...
00:12:01Malgré plusieurs milliards d'euros investis par IBM
00:12:03dans un docteur virtuel resté virtuel,
00:12:06les géants du numérique, Google, Amazon, Apple,
00:12:10Microsoft et toujours IBM,
00:12:12rivalisent encore plus que jamais
00:12:14pour mettre la main sur les données médicales du monde entier
00:12:18et les exploiter.
00:12:21Ce que les machines seraient désormais capables d'apprendre toutes seules,
00:12:24grâce à une toute autre technique informatique,
00:12:27le deep learning,
00:12:30ou apprentissage profond.
00:12:33Il y a eu une avancée majeure des systèmes de deep learning
00:12:36dans le domaine de la reconnaissance d'images
00:12:38lors de la compétition ImageNet.
00:12:40AlexNet a remporté le concours ImageNet,
00:12:44ce qui a prouvé l'efficacité du deep learning
00:12:46et déclenché une sorte de ruée vers l'or de l'intelligence artificielle.
00:12:50La compétition ImageNet est un concours de reconnaissance d'images
00:12:55réservé aux programmes informatiques.
00:12:59Alors que les meilleurs d'entre eux se trompaient une fois sur trois
00:13:01depuis plusieurs années,
00:13:03en 2012, une technologie basée sur l'apprentissage des machines
00:13:07fait tomber ce taux à 15 %.
00:13:11Avant cette révolution informatique,
00:13:13pour qu'un programme reconnaisse, disons, un visage dans une image,
00:13:17il fallait tout lui expliquer.
00:13:19Chercher une forme qui ressemble à un œil, à une bouche, à un nez.
00:13:24Et s'ils étaient agencés dans le bon ordre,
00:13:26l'algorithme concluait qu'il s'agissait probablement d'un visage.
00:13:33Fabriquer un système automatique de visualisation
00:13:36obligeait donc les programmeurs à décrire des milliers d'images
00:13:39sous toutes les coutures,
00:13:41dans un langage compréhensible par une machine.
00:13:44Et ça marchait assez mal.
00:13:47L'approche symbolique de l'IA classique,
00:13:50c'est une approche où la connaissance est donnée à la machine.
00:13:53Et tout d'un coup, l'apprentissage profond s'est révélé fonctionner
00:13:58beaucoup mieux, parce qu'on laisse l'ordinateur faire le travail
00:14:03plutôt que nous-mêmes avoir à décider comment on doit traiter l'information.
00:14:06L'apprentissage profond dérive de la cybernétique,
00:14:10un domaine de recherche où les ingénieurs en informatique
00:14:12aiment à s'inspirer des neurosciences.
00:14:21Avec l'apprentissage profond,
00:14:22les programmeurs ne décrivent plus à la machine à quoi ressemble un visage,
00:14:26elle est censée apprendre toute seule.
00:14:29Le système s'apparente à un grand réseau de connexions
00:14:32qui aurait été inspiré par les neurones de nos cerveaux.
00:14:35Dans ce réseau de neurones artificiels,
00:14:37une multitude de réglages est possible pour intensifier les signaux
00:14:41entre chaque connexion, ou au contraire les atténuer,
00:14:44jusqu'à un signal de sortie qui donne la réponse à la question,
00:14:47par exemple, y a-t-il un visage dans l'image ?
00:14:52Un des avantages des systèmes d'apprentissage profond,
00:14:56c'est qu'ils peuvent travailler directement
00:14:59sur la matière brute qui sort des senseurs.
00:15:01Donc si c'est une caméra, c'est le niveau gris
00:15:04ou les intensités de chaque couleur qui sont mesurées à chaque pixel,
00:15:09et puis on la met au mille par mille pixels,
00:15:12et voilà, c'est ce million de nombres
00:15:16qui rentrent dans l'ordinateur.
00:15:19À l'entrée du système, chaque pixel de l'image
00:15:22envoie un signal dans le réseau plus ou moins intense
00:15:25selon sa luminosité.
00:15:27Ce qu'on appelle l'apprentissage supervisé
00:15:29consiste à laisser la machine tester des milliards de réglages possibles
00:15:33jusqu'à ce qu'elle donne enfin la réponse attendue par les programmeurs,
00:15:36c'est-à-dire que le signal de sortie visage détecté s'allume au maximum.
00:15:41Lorsque cette combinaison est trouvée, les réglages sont verrouillés,
00:15:45l'apprentissage est terminé.
00:15:48On ajuste les paramètres du modèle
00:15:50pour que le système soit plus ou moins efficace.
00:15:54C'est vraiment fascinant.
00:15:55Les mathématiciens ont désespérément cherché à comprendre pourquoi ça marche,
00:15:59mais personne ne comprend vraiment pourquoi le deep learning fonctionne.
00:16:04Le côté fascinant de ces réseaux de neurones,
00:16:07c'est qu'ils parviennent à discerner une forme générique
00:16:10de ce qu'est l'apprentissage supervisé.
00:16:12C'est un système de recherche qui permet aux mathématiciens
00:16:15d'évaluer l'apprentissage supervisé.
00:16:18C'est un système de recherche qui permet aux mathématiciens
00:16:21d'évaluer l'apprentissage supervisé.
00:16:22C'est un côté générique de ce qu'est l'image d'un visage.
00:16:26Pendant toute la phase d'entraînement de la machine,
00:16:28ce sont des milliers d'images de visages qui sont nécessaires
00:16:32jusqu'à trouver le réglage parfait pour que le système identifie comme visage
00:16:36toutes les configurations de pixels qui correspondent à un visage
00:16:40et uniquement à un visage.
00:16:46Typiquement, ce qu'on faisait à cette époque-là,
00:16:48c'est qu'on alimentait la machine avec des tas de photos de chats.
00:16:51On les labellait « chats », des millions de chats, jusqu'à l'écœurement.
00:16:57Et ensuite, après avoir vu ces tonnes de chats, sous tous les angles,
00:17:00la machine était capable de reconnaître,
00:17:03ou plutôt de donner une probabilité
00:17:05qu'une nouvelle image de chat représentait effectivement un chat
00:17:08et qu'une image de chien n'était probablement pas un chat.
00:17:13Les catalogues dans lesquels ces systèmes apprennent à lire le monde visuel
00:17:17sont des collections de millions d'images divisées en centaines de catégories.
00:17:22On y trouve des chats et des visages, mais également des chouettes,
00:17:25des serpents, des moustiquaires, des montgolfières, des feux rouges,
00:17:29des taille-crayons, des femmes boîlées, des lauréats, des bikinis,
00:17:33des monolithes, du rouge à lèvres, des montres à quartz, des masques à gaz,
00:17:37des ouvres-boîtes, des moustiquaires, des moustiquaires, des moustiquaires,
00:17:40des masques à gaz, des ouvres-boîtes, des requins-marteaux,
00:17:43des serpillères à poils longs, des bichons à poils frisés
00:17:47ou des gardes de Buckingham Palace.
00:17:52Ces albums numériques qui servent de données d'entraînement aux machines
00:17:55ont fait faire des progrès fulgurants à la visualisation automatique.
00:18:00Ces systèmes équipent désormais les appareils photos
00:18:03pour faire le point automatiquement sur les visages,
00:18:07les salles de vidéosurveillance,
00:18:08les lecteurs de codes postals ou de plaques d'immatriculation,
00:18:12les identificateurs d'espèces de fleurs ou de races de chiens
00:18:17et les détecteurs de formes anatomiques indécentes.
00:18:22Mais des chercheurs pointilleux de l'Université du Michigan
00:18:26ont testé la performance de ces systèmes lorsque de petites modifications
00:18:29sont apportées à l'aspect ordinaire des choses.
00:18:33Alors que le système reconnaît un vautour sur cette image,
00:18:35lorsqu'elle est inclinée, il voit...
00:18:38un orang-outan.
00:18:40Les chercheurs se sont alors intéressés à la reconnaissance
00:18:42des panneaux de circulation par les systèmes des voitures autonomes.
00:18:46Ils ont ajouté quelques autocollants sur un panneau stop.
00:18:49Ce panneau discrètement déguisé a fait dérailler
00:18:52les réseaux de neurones du véhicule
00:18:54qui l'ont confondu avec un panneau de limitation de vitesse.
00:19:00Ces aberrations inopinées expliquent que les systèmes de vision automatique
00:19:04sont encore inopérants pour des applications critiques.
00:19:07Malgré toutes les annonces,
00:19:09dans les hôpitaux où sont testés des lecteurs automatiques d'imagerie médicale,
00:19:12ce n'est pas encore l'intelligence artificielle qui aide les radiologues,
00:19:16mais les radiologues qui supervisent l'intelligence artificielle
00:19:19et continuent de l'entraîner.
00:19:21Ce sont des systèmes très fragiles,
00:19:22parce que ce sont des systèmes qui ne peuvent faire sens que de points
00:19:26qui sont très proches de ce qui a été vu dans les données d'entraînement.
00:19:32Si votre système a été entraîné sur les données
00:19:34d'une certaine population de patients ou de tel type d'équipement,
00:19:37il ne fonctionnera pas forcément dans un autre contexte.
00:19:41Les humains réfléchissent tout à fait différemment,
00:19:45avec un spectre beaucoup plus large.
00:19:47Ils peuvent penser à des choses qui ne sont pas dans les données d'entraînement.
00:19:51Ils peuvent réfléchir à la manière dont un modèle fonctionne
00:19:55et décider s'ils veulent lui faire confiance ou non,
00:19:57ce que l'IA est incapable de faire.
00:20:00On a parfois tendance à anthropomorphiser ces systèmes,
00:20:03à se dire qu'effectivement, on a un système d'e-learning
00:20:07qui est capable de prendre une image
00:20:09et de produire une description textuelle de ce qui se passe dans l'image.
00:20:12On pourrait penser que le modèle comprend ce qu'il y a dans l'image.
00:20:17Mais en réalité, la façon dont le modèle va associer une image à du texte,
00:20:22elle est complètement différente de la façon dont nous, en tant qu'humains,
00:20:25on va regarder une image et la décrire par la parole.
00:20:29À votre avis, est-ce vraiment la grand-mère du petit chaperon rouge dans le lit ?
00:20:36Promet, le promet.
00:20:38Promet.
00:20:41Forcément, la connaissance du monde que ces systèmes vont avoir
00:20:45est incomplète.
00:20:47Il manque l'expérience corporelle, il manque l'expérience visuelle,
00:20:52l'association entre les mots et ce à quoi ils font référence dans le vrai monde.
00:20:58Et je pense que tant qu'on ne réussit pas à incorporer ce côté-là,
00:21:03ces systèmes vont être déficients.
00:21:07Dans l'esprit humain, le sens des choses prend forme par l'expérience.
00:21:12L'effort de la mâchoire qui croque, les incisives qui transpercent la peau lisse,
00:21:19le jus qui gîte les coules dans le gosier
00:21:22définissent peu à peu ce qu'est une pomme.
00:21:27Alors que pour un système informatique,
00:21:30il s'agit d'une suite de pommes,
00:21:33les émotions qui apparaissent à l'exposition d'un message ou d'une image
00:21:37nous révèlent.
00:21:40Et pourtant, malgré leur système perceptif rudimentaire,
00:21:44les progrès spectaculaires de la lecture automatique d'images
00:21:47ont fait renaître le fantasme que les machines technologiques
00:21:50ont fait de la mâchoire.
00:21:52Les machines technologiques ont fait de la mâchoire
00:21:55et ont fait de la mâchoire.
00:21:56Les machines technologiques ont fait de la mâchoire
00:21:59et ont fait de la mâchoire.
00:22:00Nous pouvons reconnaître le fantasme
00:22:02que les machines pourraient développer une sensibilité
00:22:05et même qu'elles pourraient nous aider
00:22:08à déceler les émotions cachées de nos congénères.
00:22:18L'intelligence artificielle pourra-t-elle enfin nous dire objectivement
00:22:22ce que ressent Mona Lisa face à De Vinci ?
00:22:25Monica, dont le regard fit couler l'encre des critiques bouleversées ?
00:22:31Ou Jon Snow face à son destin ?
00:22:36Alors, comment s'y prend-on pour fabriquer
00:22:38un détecteur automatique d'émotions ?
00:22:43La première étape consiste à établir une liste précise d'émotions
00:22:47parmi la diversité tortueuse et infinie de nos états d'âme.
00:22:54Les recherches de Paul Ekman, un ethnologue américain,
00:22:57se sont ainsi révélées très pratiques pour les programmeurs.
00:23:03Après un séjour en Papouasie, le chercheur a conclu
00:23:07que l'humanité partageait six émotions universelles
00:23:10lisibles malgré nous via nos expressions faciales.
00:23:14La joie et la tristesse,
00:23:17le dégoût et la colère,
00:23:19l'étonnement et la peur.
00:23:23Les théories de Paul Ekman ont même inspiré une série télévisée.
00:23:27Un super détective parvient à identifier les coupables
00:23:31en interprétant leurs micro-expressions.
00:23:40Cette classification, bien que très controversée
00:23:44dans le milieu scientifique, a servi de base
00:23:47à tous les systèmes informatiques de détection des émotions
00:23:50parce qu'elle avait le mérite de la simplicité.
00:23:54Les six émotions universelles ayant été strictement déterminées,
00:23:57la deuxième étape consiste à faire trier par des annotateurs humains
00:24:00des milliers de photographies de visages
00:24:03selon ces six catégories
00:24:06pour constituer les données d'entraînement des machines.
00:24:11Et enfin, l'apprentissage machine commence
00:24:14jusqu'à ce que le système informatique donne à peu près
00:24:17les mêmes résultats que les annotateurs humains.
00:24:20Bonheur, tristesse, bonheur, surprise, peur,
00:24:23colère, colère, dégoût, dégoût, dégoût.
00:24:27Une fois le meilleur réglage trouvé,
00:24:30ces systèmes deviennent des kits utilisés par les programmeurs
00:24:33du monde entier en tant que détecteurs universels d'émotions.
00:24:40Le problème avec la détection d'émotions, c'est qu'est-ce qu'on en fait ?
00:24:45Par exemple, dans le champ du recrutement,
00:24:48depuis deux ou trois ans,
00:24:51des cabinets de recrutement utilisent des chatbots
00:24:55pour évaluer les candidats.
00:24:58Si vous êtes un employeur,
00:25:01vous pouvez faire passer des entretiens d'embauche
00:25:04par un ordinateur qui vous transmettra ensuite
00:25:07les émotions qu'il a perçues chez les candidats.
00:25:10Ce genre d'application me met assez mal à l'aise.
00:25:14Imaginez que je sois en train de passer un entretien d'embauche.
00:25:17Ce système de reconnaissance d'émotions,
00:25:20en fonction du temps de ma voix, des mouvements de ma bouche
00:25:23ou d'un sourcil qui se lève un peu plus, est censé déterminer
00:25:27si je serais une bonne employée, si je suis équilibrée.
00:25:30Des affirmations très profondes sur ma vie intérieure.
00:25:33C'est de la pseudoscience. Ça ne marche pas.
00:25:47...
00:25:51...
00:25:52Tu es amoureux de moi ?
00:25:54Il doit y avoir un bug quelque part.
00:25:56C'est toi qui bug, Gordon.
00:25:58Je peux facilement imaginer comment un publicitaire
00:26:01verrait l'utilité d'un tel outil
00:26:05pour pouvoir mieux nous influencer.
00:26:07Ça a été aussi utilisé dans les classes
00:26:09pour évaluer l'attention des étudiants.
00:26:12On voit même ressurgir un vieux fantasme.
00:26:15La fabrication de détecteurs de mensonges.
00:26:18C'est-à-dire qu'on pourrait mettre à l'épreuve des suspects
00:26:21pour déterminer s'ils mentent ou non,
00:26:24et ensuite décider de les laisser en liberté ou pas.
00:26:27...
00:26:46Pour livrer leur verdict, les systèmes de reconnaissance
00:26:49d'émotions combinent parfois l'analyse
00:26:51des micro-expressions faciales avec les intonations de voix.
00:26:54...
00:26:56C'est sur ce modèle que fonctionnait le détecteur de mensonges
00:26:59e-Border Control, testé par l'Union européenne
00:27:03lors de l'afflux de migrants en 2019 et discrètement abandonné
00:27:06après quelques mois de tests pas très concluants.
00:27:09...
00:27:12...
00:27:15Quant à la joconde, Monica et Jon Snow,
00:27:18les détecteurs d'émotions de Google, Amazon et Microsoft
00:27:21parviennent à la même conclusion.
00:27:25Ils ne ressentent rien.
00:27:28...
00:27:31...
00:27:34L'intelligence artificielle, qui n'a pas de papilles,
00:27:37ne connaît rien du goût de la madeleine
00:27:40qui ravive le souvenir d'une grande tante.
00:27:43Elle n'a jamais senti l'adrénaline lui tourner la tête,
00:27:47ni les larmes lui monter aux yeux ou lui couler du nez.
00:27:50Elle n'a peur de rien, elle n'a pas la chair de poule.
00:27:53Elle ne connaît ni la douleur, ni le plaisir.
00:27:56Elle ne pense rien de l'art abstrait
00:27:59et n'a pas de traumatismes refoulés.
00:28:02Elle n'a donc rien à exprimer.
00:28:05...
00:28:09Sophia, la superstar des robots humanoïdes,
00:28:12semble pourtant apporter la preuve
00:28:15que les machines auraient acquis l'usage de la parole.
00:28:18...
00:28:22...
00:28:25...
00:28:28...
00:28:31La capacité des machines à jongler avec les mots
00:28:34s'est d'abord illustrée dans le domaine très ardu de la traduction.
00:28:37Comment l'intelligence artificielle, qui n'a jamais rien vécu,
00:28:40parvient-elle à traduire pour nous les textes les plus profonds
00:28:44que l'humanité ait écrit ?
00:28:46-"Être ou ne pas être."
00:28:48-"Sein ou ne pas être."
00:28:50-"Être ou non être."
00:28:52-"Être ou non être." -"Vivre ou mourir."
00:28:55Les systèmes de traduction se sont entraînés de manière supervisée.
00:28:59On leur donne une phrase en français, on leur dit
00:29:02que c'est la traduction en anglais de cette phrase.
00:29:06Et puis, il y en a plein, en fait, parce qu'il y a plein de pages web
00:29:09qui ont été traduites, etc., et il y a des corpus énormes
00:29:12qui sont utilisés aujourd'hui.
00:29:14Par exemple, les corpus du Parlement européen.
00:29:17Alors, bien sûr, c'est pas des textes qui représentent
00:29:20un peu la communication entre vous et moi au quotidien.
00:29:24...
00:29:36...
00:29:39Les traducteurs automatiques, comme Google Trad,
00:29:42utilisent des sites Internet en accès libre
00:29:45où des textes ont déjà été traduits par des humains
00:29:48et en plusieurs langues, comme le site de l'Union européenne
00:29:51ou l'encyclopédie Wikipédia.
00:29:54Par comparaison, ils repèrent les groupes de mots
00:29:57qui ont été le plus souvent corrélés d'une langue à l'autre
00:30:00par les traducteurs humains.
00:30:02Ils expriment une version moyenne des traductions existantes
00:30:05et révèlent ainsi nos clichés bien humains.
00:30:08Alors qu'en finnois, le pronom masculin « il » et le pronom féminin « elle »
00:30:11se traduisent tous deux par le neutre « an »,
00:30:15la phrase « han korjaa auton kaasuttimen »
00:30:18se traduit, selon Google, par « il répare le karburateur de la voiture ».
00:30:23Alors que la phrase « han vajtaa vauvan vaipan »
00:30:26est traduite par « elle va changer la couche du bébé ».
00:30:32Les systèmes de machine learning seront toujours biaisés
00:30:35vers les moyennes,
00:30:37parce que c'est la façon dont ils fonctionnent.
00:30:44S'agissant du langage, comme de toutes les activités humaines
00:30:48dont nous sommes si fiers, l'intelligence artificielle
00:30:51imite le résultat de la pensée humaine,
00:30:54mais pas du tout son processus.
00:30:56Comme les traducteurs automatiques,
00:30:58les transcripteurs, les chatbots ou les aides à la rédaction
00:31:01nous proposent les résultats les plus probables,
00:31:05sans les relier à une quelconque expérience personnelle.
00:31:09Ces systèmes ne créent pas de texte.
00:31:11Ils suivent des modèles humains.
00:31:13Ils utilisent des calculs de probabilité
00:31:16pour imiter ce que les humains ont fait.
00:31:18On ne crée pas des esprits artificiels,
00:31:20même si ça s'appelle l'intelligence artificielle.
00:31:22Ce qu'on crée, c'est de l'automatisation
00:31:25de processus cognitifs.
00:31:28Gordon, tu vas être le premier être humain
00:31:30à avoir une conversation avec une machine intelligente.
00:31:33Intelligente ? Machine ?
00:31:36C'est un oxymore, ma chère Johnny.
00:31:39Ah !
00:31:40Je dirige l'équipe de poésie informatique à Duke.
00:31:43Quand on générait des poèmes,
00:31:45il y avait des mots qui revenaient tout le temps,
00:31:48comme le mot tambourin, par exemple.
00:31:51Notre système de génération automatique
00:31:53attribuait une forte probabilité au mot tambourin.
00:31:56On a fini par retirer tambourin
00:31:58de la base de données pour qu'il arrête.
00:32:00Ça vous montre à quel point
00:32:02ces systèmes d'intelligence artificielle
00:32:05ne pensent pas comme des humains.
00:32:07Ils écrivent des choses qui n'ont aucun sens.
00:32:09Ta-da !
00:32:11Bonjour, je m'appelle Heath.
00:32:13Comment t'appelles-tu ?
00:32:15Dingue !
00:32:17Bonjour, dingue.
00:32:20Qu'en penses-tu ?
00:32:22Quant à Sophia,
00:32:24elle n'a en fait jamais regardé la série Westworld.
00:32:27Ces conversations avec les humains
00:32:29sont écrites et enregistrées à l'avance
00:32:31par ses concepteurs,
00:32:34en complicité avec ses interlocuteurs.
00:32:36Comme ici, à l'ONU,
00:32:38dans une opération de promotion
00:32:40des avancées technologiques de l'humanité.
00:32:42OK, another question I have for you.
00:32:44In many parts of the world,
00:32:47people don't have Internet or electricity.
00:32:50What can we do
00:32:52at the UN to help them ?
00:32:54The good news about AI
00:32:56and automation produces more results
00:32:58with less resources.
00:33:00So if we are smarter and focus on win-win type results,
00:33:04AI could help efficiently distribute
00:33:06the world's existing resources,
00:33:08like food and energy.
00:33:10La relation entre Sophia et l'intelligence artificielle,
00:33:13c'est un peu la relation entre
00:33:15un tour de précisitation
00:33:18et la recherche en physique, par exemple.
00:33:20Je ne suis pas du tout impressionné par Sophia.
00:33:22Pour moi, c'est une farce.
00:33:24En revanche, je suis sidéré
00:33:26par le nombre de personnes
00:33:28qui attribuent à cet appareil
00:33:30une forme d'intelligence ou des émotions,
00:33:33et qui sont prêts à jouer le jeu
00:33:35de cette supercherie.
00:33:38Les robots humanoïdes
00:33:40incarnent le fantasme
00:33:42d'un secteur industriel
00:33:44qui a beaucoup d'intérêt
00:33:46à jouer de la confusion
00:33:48entre la pensée
00:33:51qui se forme dans un corps
00:33:53en chair et en os
00:33:55et la logique des supercalculateurs.
00:33:57Les robots humanoïdes
00:33:59sont des scientifiques
00:34:01qui travaillent
00:34:03avec des machines
00:34:05qui ont des compétences
00:34:08pour déduire des corrélations.
00:34:10Le véritable domaine de compétence
00:34:12des réseaux de neurones artificiels
00:34:14consiste moins à nous imiter
00:34:16qu'à pouvoir ingurgiter
00:34:18d'immenses bases de données
00:34:21et les trier, les analyser,
00:34:23en déduire des corrélations
00:34:25et nous aider à comprendre
00:34:27des phénomènes très compliqués
00:34:29comme les états fondamentaux
00:34:31de particules élémentaires
00:34:33comme le cumulonimbus
00:34:36dont la tropopause.
00:34:38Dans des tas d'applications,
00:34:40ces machines sont bien meilleures
00:34:42que les humains. C'est indéniable.
00:34:44Aucun humain n'est capable
00:34:46d'intégrer une énorme base
00:34:49de données dans sa tête
00:34:51pour en tirer des prévisions précises.
00:34:53C'est impossible.
00:34:55Ca devient un outil scientifique
00:34:57dans les mains
00:34:59de beaucoup de chercheurs
00:35:01et de beaucoup de scientifiques.
00:35:03C'est vraiment un domaine
00:35:06où la machine peut aider.
00:35:08C'est donc cette capacité
00:35:10des supercalculateurs
00:35:12à dénicher les facteurs cachés
00:35:14de maladies ou les effets
00:35:16de nouveaux médicaments
00:35:19dans d'immenses fichiers
00:35:21de patients qui expliquent
00:35:23la guerre que se livrent
00:35:25les géants du numérique
00:35:27pour mettre la main
00:35:29à l'épée.
00:35:31C'est-à-dire, on ne se dit pas
00:35:34mais pourquoi ?
00:35:36C'est pas leur compétence initiale.
00:35:38L'idée, c'est l'industrie
00:35:40de la donnée.
00:35:42Tout a commencé juste après
00:35:44que deux geeks de 25 ans
00:35:47ont inventé le moteur de recherche
00:35:49à qui nous allions confier
00:35:51toutes nos curiosités intellectuelles.
00:35:53En inventant la publicité ciblée
00:35:56qui allait les rendre milliardaires,
00:35:58les dirigeants de Google
00:36:00ont inventé les algorithmes
00:36:02qui font parler nos données personnelles.
00:36:04Les recettes de ces algorithmes
00:36:06sont aussi secrètes que celles du Coca-Cola,
00:36:09mais on sait quand même
00:36:11qu'ils reposent sur deux techniques
00:36:13savamment dosées.
00:36:15La première, c'est le profilage,
00:36:17qui consiste à combiner
00:36:19toutes les informations connues
00:36:21sur un individu
00:36:24pour dresser son portrait robot.
00:36:26Recherche Internet,
00:36:28achats en ligne,
00:36:30vidéos visionnées,
00:36:32messages envoyés,
00:36:34lieux fréquentés permettent
00:36:37de cerner le profil d'un utilisateur
00:36:39et de déduire les produits
00:36:41qui pourraient l'intéresser.
00:36:43La deuxième technique,
00:36:45c'est le mapping,
00:36:47qui consiste à voir
00:36:49les données des clients
00:36:52et les produire en même temps,
00:36:54et les transmettre
00:36:56sur les réseaux sociaux.
00:36:58Une fois que l'un d'entre eux
00:37:00navigue d'un site à l'autre,
00:37:02qu'il traite de musique,
00:37:05de politique ou de chaussure,
00:37:07une connexion virtuelle est créée.
00:37:09Ces connexions se renforcent
00:37:11au fur et à mesure
00:37:13que d'autres utilisateurs
00:37:15font les mêmes choix,
00:37:17des communautés virtuelles se dessinent,
00:37:20des cartes sociologiques qui permettent aux plateformes numériques
00:37:24de déduire que si vous avez aimé ce produit,
00:37:27vous aimerez probablement tout ceci.
00:37:30On rassemble un certain nombre d'informations sur une personne
00:37:37et on essaye de prévoir ce qu'elle fera dans le futur
00:37:43d'après ses actions passées.
00:37:46Ce sont toujours les données du passé qui sont utilisées
00:37:50pour interpréter le présent et le futur à partir du passé.
00:37:55Pour comprendre les effets de ces algorithmes,
00:37:58des chercheurs de l'université de Boston
00:38:01ont conçu de fausses annonces
00:38:03et les ont diffusées via la plateforme publicitaire de Facebook.
00:38:07Une publicité pour un album de country est recommandée à 80 %
00:38:11à des blancs, alors qu'un album de hip-hop est recommandé à 85 %
00:38:15à des noirs.
00:38:16Idem pour les annonces d'emplois concoctées par les chercheurs.
00:38:20Devenir bûcheron est proposé à 90 % à des hommes,
00:38:24tenir la caisse d'un supermarché à 85 % à des femmes,
00:38:28tandis que les offres de chauffeurs de taxi
00:38:31sont adressées à 75 % à des afro-américains.
00:38:36Les outils d'analyse psychosociologique de la publicité ciblée
00:38:40dénichent nos comportements stéréotypés pour mieux les exploiter
00:38:43et donc les renforcer.
00:38:47Or, ce sont ces mêmes outils qui sont à la base des systèmes
00:38:51qui analysent nos comportements pour orienter nos décisions collectives
00:38:55et nos choix intimes.
00:38:57Comme les applications de rencontres,
00:38:59qui nous recommandent les partenaires
00:39:02qui auraient le plus de chances de correspondre à notre profil.
00:39:05Les logiciels qui aident les banquiers et les assureurs
00:39:09à dénicher le type de personnes
00:39:10les plus susceptibles de ne pas rembourser leur prêt.
00:39:15Ou encore le système prêt-de-pôle,
00:39:18qui cible l'action des forces de l'ordre
00:39:20sur les lieux où les délinquants auraient la plus forte probabilité
00:39:24de commettre leur délit.
00:39:26Qu'il s'agisse de nous recommander une paire de baskets
00:39:30ou de prédire un crime,
00:39:31ces systèmes tirent des généralités
00:39:34à partir des données sur lesquelles ils ont été entraînés.
00:39:38Il y a toujours des biais dans ces systèmes.
00:39:40Il peut être biaisé
00:39:42parce qu'il va avoir absorbé l'information contenue
00:39:45dans ces données d'entraînement, qui pourraient être biaisées.
00:39:49Vous pouvez considérer, par exemple,
00:39:51un système qui va regarder des vidéos de vidéosurveillance
00:39:57et qui va chercher à déterminer si l'individu est suspect.
00:40:00Pour créer ce système, vous allez commencer par demander
00:40:03à M. Dupont
00:40:05d'annoter des vidéos de surveillance
00:40:08pour savoir si l'individu est suspect ou pas.
00:40:10Quand vous faites ça,
00:40:12le jugement de M. Dupont, c'est le jugement de M. Dupont.
00:40:15C'est un jugement potentiellement biaisé.
00:40:18Tant que c'est M. Dupont qui le dit,
00:40:20vous avez conscience que c'est son point de vue
00:40:23et qu'il y a potentiellement du biais.
00:40:24Mais une fois que vous aurez entraîné un système de deep learning dessus,
00:40:28le système contiendra toujours les mêmes biais,
00:40:32mais vous ne saurez plus qu'ils sont présents.
00:40:34Le contexte social, le contexte psychologique, le contexte moral,
00:40:39c'est sûr et certain qu'aujourd'hui et dans les prochaines années,
00:40:43on n'aura pas d'ordinateurs qui vont comprendre ça.
00:40:45À partir du moment où ces systèmes...
00:40:50Il leur manque ce jugement,
00:40:52ils vont prendre des décisions, mais sur la base de quoi ?
00:40:54Sur la base d'indices statistiques, justement.
00:40:57Et là, on est presque sûr, et il y a des études qui montrent,
00:41:01que ça mène à des discriminations, des discriminations raciales,
00:41:03des discriminations de genre.
00:41:13Dans une dizaine d'États américains, le logiciel Northpointe
00:41:16informe les juges pendant l'audience des risques de récidives déprévues.
00:41:24Ce système d'apprentissage machine a été entraîné
00:41:27sur les bases de données répertoriées par la police sur la délinquance.
00:41:32Il analyserait 137 critères, selon une formule tenue secrète,
00:41:36et ne livre son verdict au juge que sous la forme d'une note synthétique.
00:41:43Des journalistes scrupuleux de l'agence ProPublica
00:41:47ont obtenu les scores Northpointe de 7 000 personnes,
00:41:50et ont comparé les prévisions du logiciel
00:41:52avec ce qu'il est effectivement advenu dans les années suivantes.
00:41:56Seuls 20 % des prévisions de crimes graves se sont révélées exactes.
00:42:02Surtout, selon les journalistes, dans le cas des individus noirs,
00:42:05les prévisions de récidive se sont avérées bien plus élevées
00:42:09que ce qu'il s'est finalement produit,
00:42:11alors qu'elles ont été minorées pour les Blancs.
00:42:17Si le système judiciaire est raciste,
00:42:19comme aux États-Unis et un peu partout dans le monde,
00:42:21alors il y aura des biais racistes dans les données.
00:42:24La machine, c'est au final une approximation,
00:42:27du reste une approximation potentiellement faillible,
00:42:30imparfaite, des jugements de l'humain.
00:42:34C'est en quelque sorte un système de blanchiment du biais,
00:42:37au même sens qu'on peut faire du blanchissement d'argent.
00:42:40Madame Noreau ?
00:42:46Alors que faire, lorsque se présente à nous ce dilemme contemporain ?
00:42:51Quand on a le choix, vaut-il mieux faire confiance aux machines
00:42:55ou aux humains ?
00:42:57Car si les machines sont insensibles, nous, les humains,
00:43:00nous sommes parfois pas très bons en maths,
00:43:04émotifs,
00:43:05colériques,
00:43:07immatures,
00:43:08paresseux,
00:43:10contestataires,
00:43:11fêtards,
00:43:12fatigables,
00:43:13et ils nous arrivent de perdre toute lucidité.
00:43:19Toutes ces technologies s'accordent
00:43:23parfaitement, entre guillemets,
00:43:25à la paresse fondamentale humaine, quand même.
00:43:28C'est-à-dire que, dans cette période,
00:43:31ce moment historique que nous vivons,
00:43:35des systèmes nous offrent le confort
00:43:39de prendre en charge une partie de notre quotidien.
00:43:43On voit bien que l'enjeu majeur,
00:43:45c'est de nous ressaisir de nos destins individuels et collectifs.
00:43:48Et ces systèmes, qu'est-ce qu'ils font ?
00:43:50D'une certaine façon, et dans quantité de champs de la société,
00:43:54ils organisent exactement le contraire.
00:43:56Grâce à mon nouveau programme, Parfait Amour,
00:43:58on va enfin pouvoir te trouver le partenaire idéal, Gordon.
00:44:01Alors qu'elle s'annonçait comme un outil d'aide intellectuelle,
00:44:04l'intelligence artificielle est devenue une force de recommandation
00:44:08et même de décision automatique.
00:44:10Tu veux dire que Id va analyser les données de toute l'humanité
00:44:13pour trouver mon âme soeur ?
00:44:15Super, Gordon, t'as six relations parfaites.
00:44:27Je savais pas que t'étais gay.
00:44:33Moi non plus.
00:44:37Or, les systèmes d'apprentissage machine
00:44:40sont devenus d'une telle complexité
00:44:42avec leurs milliards de milliards de réglages possibles
00:44:45que les programmeurs eux-mêmes ne comprennent plus
00:44:47sur quels critères la machine se base pour livrer son diagnostic.
00:44:51Ils ont inventé une expression pour qualifier ce phénomène.
00:44:55La boîte noire.
00:44:58Ce qu'on appelle boîte noire,
00:45:00c'est un modèle prédictif qui est soit tellement compliqué
00:45:03qu'aucun être humain ne comprend ce qu'il fait,
00:45:05soit qui est protégé, c'est-à-dire qu'on n'a aucun droit d'accès,
00:45:09soit qui est déterminé,
00:45:10c'est-à-dire qu'on n'a aucun droit d'accès à la manière dont il calcule.
00:45:15Oui, les applications sont effectivement assez opaques,
00:45:17en particulier pour ce qui est des systèmes de deep learning.
00:45:20On ne sait pas vraiment comment les décisions sont prises,
00:45:23on a accès aux co-résultats.
00:45:24J'entends beaucoup de gens dire
00:45:26qu'on peut quand même utiliser des boîtes noires,
00:45:28il faut juste qu'on explique ce qu'elles font.
00:45:30Moi, j'essaie de m'opposer à cette idée.
00:45:32Je réponds non, non, les gars, on n'a pas besoin de boîtes noires.
00:45:35On ne peut pas se baser sur des boîtes noires
00:45:37lorsque les enjeux sont importants.
00:45:39Il faut pouvoir comprendre comment fonctionnent ces systèmes
00:45:41pour qu'ils nous aident à prendre de meilleures décisions.
00:45:49Derrière des interfaces plus ou moins conviviales,
00:45:52se généralisent peu à peu des systèmes de décision opaques et verrouillés.
00:45:58Si vous êtes d'accord, dites d'accord, sinon raccrochez.
00:46:07Certaines entreprises se déchargent volontiers de leurs responsabilités
00:46:11en expliquant, nous travaillons avec un système très sophistiqué,
00:46:15c'est la faute de l'algorithme, pas la nôtre.
00:46:18Mais ce type de justification ou de prétexte est totalement inacceptable.
00:46:23C'est une manière très pratique de se décharger de ses responsabilités
00:46:26et de prendre des décisions difficiles sans les assumer.
00:46:29C'est la machine.
00:46:32Il y a une valeur fondamentale qui nous constitue,
00:46:35c'est celle de l'affirmation de notre autonomie de jugement en société,
00:46:38qui remonte aux lumières.
00:46:40Il y a quelque chose de cette dimension-là qui est appelée à être éradiquée
00:46:44au profit de la délégation de la décision, de l'organisation des choses.
00:46:48C'est la volonté d'éradiquer tout défaut.
00:46:51D'évacuer tout défaut.
00:46:53Et donc, pour cela,
00:46:57les systèmes doivent prendre la main.
00:47:07La voiture autonome, figure de proue de l'intelligence artificielle,
00:47:11incarne ce fantasme d'une automatisation globale
00:47:14au service de l'homme,
00:47:16prenant entièrement la main sur chacune de ses décisions
00:47:19pour mieux assurer sa sécurité et libérer son temps.
00:47:30Pourtant, malgré presque 100 milliards d'euros investis,
00:47:34hors circuit balisé,
00:47:36nulle voiture autonome n'est actuellement autorisée à circuler
00:47:39sans un chauffeur humain prêt à reprendre la main.
00:47:43C'est très facile d'utiliser le deep learning
00:47:46pour créer un prototype peu fiable de quelque chose de très difficile,
00:47:50par exemple, la conduite.
00:47:52Mais c'est très difficile de faire évoluer ce prototype
00:47:56au point où il serait suffisamment fiable et performant
00:48:01pour être utile en pratique, utile sur les routes, par exemple.
00:48:05C'est le système même de la production de l'autonomie
00:48:08qui est le plus important.
00:48:10C'est le système même
00:48:12de la production de l'intelligence artificielle
00:48:15qui demande, pour des raisons économiques,
00:48:18pour des raisons politiques et parfois pour des raisons techniques,
00:48:22le fait qu'on lance un système qui n'est pas fonctionnel
00:48:26ou pas entièrement fonctionnel.
00:48:28C'est ce qu'on appelle dans la Silicon Valley
00:48:31« fake it until you make it ».
00:48:33Il faut faire semblant et un jour, ça va devenir vrai.
00:48:36Sauf que le moment où ça devient entièrement vrai
00:48:40est constamment repoussé pour la simple et bonne raison
00:48:43que ces intelligences artificielles n'atteignent jamais
00:48:46une situation ou un niveau de performance
00:48:49tel qu'on puisse se passer des êtres humains.
00:48:54L'échec annoncé de voitures totalement pilotées
00:48:57par l'intelligence artificielle a engendré un nouveau métier,
00:49:01celui des assistants humains pour machines en détresse.
00:49:06Comme dans cette entreprise où des employés sont formés
00:49:09à reprendre la main de véhicules pas tout à fait autonomes.
00:49:15En 10 ans, c'est une économie mondiale qui s'est développée
00:49:18autour de l'assistance à l'intelligence artificielle.
00:49:23Partout dans le monde, des centaines de milliers de travailleurs,
00:49:26la plupart du temps sous-payés,
00:49:28préparent les données pour l'apprentissage des machines,
00:49:32supervisent leurs réponses, les corrigent
00:49:34parfois purement et simplement.
00:49:39Cette nouvelle forme de travail humain
00:49:42qui se cache derrière des systèmes estampillés
00:49:45intelligence artificielle a été pensée
00:49:47par le patron milliardaire du géant du numérique, Amazon.
00:49:52Jeff Bezos avait annoncé le lancement
00:49:56de Amazon Mechanical Turk en 2005.
00:49:59Il ne se cachait pas du fait que ce projet était un projet
00:50:03d'artificial intelligence,
00:50:06de fausses intelligences artificielles,
00:50:08c'est-à-dire de personnes qui, d'un certain point de vue,
00:50:12font à la main le travail nécessaire
00:50:15pour faire fonctionner ces algorithmes.
00:50:19Amazon Mechanical Turk est une plateforme d'offres d'emploi
00:50:22qui pallie cet apparent paradoxe.
00:50:25La généralisation des systèmes de décision automatique
00:50:28et l'incapacité de l'intelligence artificielle
00:50:31à être réellement autonome.
00:50:34Son nom fait référence à un célèbre fausse-automate
00:50:38joueur d'échecs du XVIIIe siècle, le Turc mécanique,
00:50:42qui cachait dans son socle un être humain.
00:50:46Ce nom fait ouvertement référence au travail dissimulé.
00:50:50Ils ne cachent même pas leurs intentions.
00:50:54On est face à une situation paradoxale.
00:50:57D'une part, on demande aux êtres humains
00:50:59de faire ce que les robots ne sont pas capables de faire,
00:51:03ce que les processus automatiques ne sont pas capables de faire.
00:51:07En même temps, les êtres humains qui sont préposés à ce type de travail
00:51:11se trouvent face à une activité qui a des marges de manœuvre
00:51:15et d'autonomie moins développées que dans le passé.
00:51:25La science-fiction a instillé dans notre imaginaire
00:51:29la peur que les machines deviennent tellement intelligentes
00:51:32qu'elles viendraient à nous dominer,
00:51:34comme le redoutable HAL imaginé par Stanley Kubrick.
00:51:44Mais c'est un tout autre présent qui se profile.
00:51:47Ce ne sont pas des machines devenues tellement intelligentes
00:51:51qu'elles prendraient le pouvoir sur des humains trop bêtes pour elles,
00:51:55mais des humains qui se rabaissent peu à peu
00:51:58à la logique standardisée des machines.
00:52:03Dans les call centers,
00:52:05ce sont les employés qui sont soumis au respect d'un algorithme
00:52:09et de plus en plus souvent surveillés par une intelligence artificielle.
00:52:17Le système CallMiner identifie les mots-clés de la conversation
00:52:21pour s'assurer que le protocole est respecté.
00:52:24Les émotions exprimées par le client et l'employé sont analysées
00:52:28et, en cas d'emportement, le système adresse en direct
00:52:31des recommandations comme montrer davantage d'empathie.
00:52:36A l'issue de la conversation, une note est attribuée à l'employé.
00:52:41Sous un certain score, il est licencié automatiquement.
00:52:45Nous avons l'avènement d'une ère du travail
00:52:50où des légions d'individus sont réduites à s'aligner
00:52:55à la dynamique des systèmes interprétatifs,
00:52:59des systèmes d'intelligence artificielle
00:53:02conçus en vue de la plus grande optimisation et de la plus grande productivité,
00:53:07et qui interdisent toute négociation.
00:53:10Les entrepôts d'Amazon sont en réalité des cauchemars dystopiques
00:53:17dans lesquels des êtres humains doivent chercher à s'adapter
00:53:21à un système qui n'est pas entièrement robotisé.
00:53:30Dans les hangars géants des centres logistiques,
00:53:34la puissance de calcul de l'intelligence artificielle
00:53:37nous aide finalement assez peu à comprendre la complexité du monde réel
00:53:41pour nous aider à faire les meilleurs choix.
00:53:54Les gestes des humains sont soumis aux ordres des machines
00:53:57qui calculent l'optimisation idéale des flux de marchandises.
00:54:28Les humains sont réduits à des robots de chair et de sang, si j'ose dire.
00:54:33L'automation, pour moi, est l'une des formes ou des ruses
00:54:38qu'on met en place pour faire subir des contraintes à des masses énormes de personnes.
00:54:43Ce qui m'inquiète le plus, ce n'est pas les erreurs des ordinateurs,
00:54:47ce qui m'inquiète le plus, c'est les êtres humains qui veulent du pouvoir,
00:54:52qui veulent contrôler les autres et qui vont avoir de plus en plus accès
00:54:55à des technologies très puissantes.
00:54:58Il y a toujours de l'espoir. Il faudra bien trouver une issue positive,
00:55:02mais il va falloir se battre. L'espoir, c'est une invitation, pas une garantie.
00:55:10Autopsie d'une intelligence artificielle,
00:55:13documentaire réalisé par Jean-Christophe Ribot,
00:55:16un film, vous venez de le voir, qui s'est attaché à décrypter
00:55:19les réalités qui se cachent derrière l'IA en abordant son fonctionnement,
00:55:23mais aussi les défis auxquels sont confrontés les scientifiques
00:55:27et les questions éthiques que pose son utilisation.
00:55:30Quelles sont les principales questions que soulève désormais
00:55:34l'omniprésence de l'intelligence artificielle dans notre société ?
00:55:38Nous allons en débattre maintenant avec nos invités présents
00:55:41sur ce plateau de Débat Doc.
00:55:43Laurence De Villers est avec nous. Bienvenue à vous.
00:55:46Vous êtes professeure en informatique appliquée en sciences sociales
00:55:49à l'Université Paris-Sorbonne,
00:55:50chercheuse au CNRS et spécialiste des interactions
00:55:54entre les hommes et les machines.
00:55:56Gilles Babina est également avec nous. Bienvenue à vous.
00:55:59Vous êtes entrepreneur, coprésident du Conseil national du numérique
00:56:03depuis 2021.
00:56:05Votre dernier ouvrage s'intitule
00:56:07Green EA, l'intelligence artificielle au service du climat,
00:56:11disponible aux éditions Odile Jacob.
00:56:13On s'interroge sur l'apport de cette fameuse IA
00:56:16sur les questions environnementales aujourd'hui.
00:56:21Et pour vous, l'IA est capable de créer plus de bénéfices
00:56:25pour l'environnement que de nuisances.
00:56:27On en dira un mot tout à l'heure.
00:56:29On verra ça avec François Saltiel également. Bienvenue.
00:56:32Vous êtes journaliste, auteur, réalisateur, producteur,
00:56:35spécialiste des nouvelles technologies.
00:56:37Votre chronique, Un Monde Connecté,
00:56:39est à écouter chaque matin chez nos confrères de France Culture.
00:56:43Ce documentaire que nous venons de voir en France ensemble,
00:56:45Laurence de Villers, date de maintenant deux ans.
00:56:49Il y a peut-être des choses à rajouter pour connaître la suite.
00:56:52Les choses vont vite dans ce domaine.
00:56:54Qu'est-ce qui manque pour faire le complément à ce documentaire ?
00:56:57Ce qui manque, c'est l'arrivée de cette JPT
00:57:00que tout le monde a pu voir dans la société.
00:57:02Cet outil qui est un agent conversationnel,
00:57:05un système avec lequel on peut dialoguer,
00:57:07a fait rentrer l'intelligence artificielle dans tous les foyers.
00:57:11Je pense que là, on n'a pas cette IA qui s'appelle l'IA générative,
00:57:17mais qui est dans les mains de tout le monde.
00:57:20Ce qui est bien dans le film, c'est de faire un pas de côté
00:57:23pour en parler avec un peu d'humour, de l'IA.
00:57:25L'IA, ce n'est pas une seule chose, c'est beaucoup de technologies.
00:57:28Je pense que principalement, ce film permet de démystifier
00:57:32un certain nombre des premières technologies
00:57:35qu'on a eues dans les mains. Il faudrait aller encore plus loin
00:57:38et parler surtout d'un nouveau paradigme.
00:57:39L'IA, ce n'est pas je recopie le cerveau de quelqu'un,
00:57:43c'est surtout une intelligence écologique,
00:57:46c'est-à-dire je comprends le monde qui nous entoure.
00:57:49Ce paradigme, ce qui est différent pour moi
00:57:51et qui est bien montré dans le film,
00:57:53c'est qu'il faut améliorer la compréhension des humains
00:57:56de ce que sont ces systèmes.
00:57:58C'est pour cela qu'on construit ces machines,
00:58:00pour augmenter notre capacité de compréhension.
00:58:02Il ne faut surtout pas en faire des systèmes totalement encapsulés,
00:58:06dont l'interface nous montre un monde qui n'est pas le vrai,
00:58:08puisqu'à l'intérieur, il y a une invisibilité des systèmes
00:58:13qui n'est pas comprise.
00:58:15C'est pour cela que j'appelle un truc un peu nouveau,
00:58:18qui n'est pas dans ce documentaire,
00:58:20c'est l'idée d'aller vers l'interdisciplinarité.
00:58:23Là, on avait des agents Google qui nous présentent de la technologie,
00:58:27on a des philosophes hors technologie qui donnent des points de vue,
00:58:30mais ce qui manque essentiellement
00:58:32pour que tout le monde ait confiance dans ces systèmes,
00:58:35c'est avant tout de se préoccuper de la technologie
00:58:37avec cette compréhension des impacts sociétaux,
00:58:41de ce que ça va faire dans mon travail,
00:58:43ce que ça va faire pour m'accompagner dans mon grand âge,
00:58:46ce que ça va faire comme nouvelle capacité pour les scientifiques
00:58:49pour les découvrir, des nouvelles molécules,
00:58:52construire un monde où on va s'émerveiller, s'enthousiasmer,
00:58:56avec un imaginaire qui est aussi suivant nos valeurs européennes.
00:58:59C'est cela, le monde qu'il faut préparer,
00:59:01et j'avoue qu'il y a encore un peu de travail à faire,
00:59:04même si j'estime que ce parallèle
00:59:05entre l'intelligence humaine et l'intelligence artificielle,
00:59:09on le voit bien dans les outils de 2020, dans ce film.
00:59:13Qu'est-ce que cela va changer dans nos vies individuelles, professionnelles ?
00:59:17Ce sera l'objet de notre échange par la suite.
00:59:20J'ai noté deux chiffres qui m'ont paru intéressants
00:59:23pour comprendre le phénomène et l'ampleur de ce phénomène.
00:59:2680 % des 14-18 ans ont déjà utilisé l'IA,
00:59:30c'est surtout l'IA générative dont vous parlez,
00:59:33notamment pour faire ses devoirs.
00:59:36Par ailleurs, autre chiffre tiré de l'Observatoire du Commerce,
00:59:40qui nous dit que pratiquement tous les Français,
00:59:4393 % ont entendu parler aujourd'hui de l'intelligence artificielle,
00:59:47mais que moins de 1 sur 3 utilisent ces outils.
00:59:51Peut-être que certains l'utilisent sans même le savoir.
00:59:54Tout de même, on sent que d'abord, il y a presque,
00:59:57non pas une digital native,
00:59:59une génération qui est née avec le numérique,
01:00:03il y a aujourd'hui une génération qui est née
01:00:06avec l'intelligence artificielle.
01:00:08Et là, on mesure tout de même qu'il va y avoir
01:00:11une formidable profondeur dans ce chamboulement
01:00:14que représente l'intelligence artificielle.
01:00:17Oui, c'est intéressant parce que récemment,
01:00:20les gens de OpenAI, de ChadGPT, ont annoncé
01:00:23qu'il y avait 250 millions de personnes qui venaient chaque semaine.
01:00:27On postule qu'il y a entre 600 et 700 millions de personnes
01:00:31qui les utilisent chaque mois.
01:00:33C'est devenu une compagnie qui est probablement comparable
01:00:36aux GAFA, aux très grandes entreprises digitales.
01:00:39Bien sûr, en très peu de temps.
01:00:41ChadGPT, c'est 2022, il y a deux ans.
01:00:45Dans l'histoire économique, il n'y a aucun comparable.
01:00:49Pour arriver à vendre un million de voitures,
01:00:53Ford mettra 15 ans,
01:00:54même les Snapchat et autres plateformes sociales
01:00:58qui ont cru extrêmement vite
01:01:00n'ont pas eu du tout ces taux de croissance.
01:01:03D'ailleurs, ce qui explique pourquoi les investisseurs
01:01:06ont mis des montants considérables dans ces entreprises,
01:01:09c'est parce qu'ils voient bien que la promesse,
01:01:12c'est de faire un grand méga-acteur comparable à Google et Consor.
01:01:16Même si c'est déraisonnable de mettre des montants pareils,
01:01:20face à cette perspective, ils ont accepté de le faire.
01:01:23Je crois que la grande caractéristique de ChadGPT,
01:01:27c'est finalement d'avoir été le moment de prise de conscience
01:01:32pour les pays occidentaux
01:01:34de l'avènement de l'intelligence artificielle.
01:01:36Pourquoi pour les pays occidentaux ?
01:01:38Parce que ce moment-là est arrivé en Chine plus tôt, en 2016,
01:01:42quand le champion de jeu de go, Lee Sedol,
01:01:45s'est fait battre par une intelligence artificielle.
01:01:48Et ça a provoqué un électrochoc incroyable dans le pays,
01:01:50qui aboutit d'ailleurs à ce que Xi Jinping fasse,
01:01:54l'année qui a suivi,
01:01:56le grand plan pour l'intelligence artificielle chinoise,
01:01:59doté à l'époque de 115 milliards de dollars.
01:02:02C'est probablement un peu exagéré, mais voilà.
01:02:05Et des choses incroyables.
01:02:07Je me souviens d'avoir discuté avec des chauffeurs de taxi en Chine,
01:02:11qui disaient qu'ils avaient reçu un petit ouvrage
01:02:14qui est l'intelligence artificielle pour les taxis.
01:02:16Donc cette idée de rendre très populaire cette technologie.
01:02:21Dans la communauté scientifique, ce moment est arrivé un peu plus tôt.
01:02:25C'est en 2006, quand Sébastien Thrun, qui est un grand scientifique,
01:02:30réussit à faire une voiture autonome financée par l'armée américaine.
01:02:34C'est un continuum, mais là, c'est vraiment, je pense,
01:02:37l'avènement de l'intelligence artificielle pour les masses,
01:02:40le fait que tout le monde peut comprendre concrètement
01:02:43ce que permet cette technologie.
01:02:44L'intelligence artificielle pour les masses.
01:02:47Nous y sommes, Françoise Satienne.
01:02:49Elle est là dans notre quotidien, même parfois sans le savoir ?
01:02:53Oui, c'est une bonne question. Est-ce qu'on n'y est pas malgré nous ?
01:02:56Parce que finalement, on le voit bien
01:02:58dans la manière dont cet outil a été développé, OpenAI.
01:03:01Il a été mis en accès libre, de manière massive,
01:03:04sans forcément, peut-être, avoir pensé aux conséquences de l'usage.
01:03:08C'est un peu comme ça que fonctionnent les acteurs de la Silicon Valley.
01:03:11Ils pensent à un produit, ils le mettent à disposition,
01:03:15et on voit ce que ça fait.
01:03:17Rappelez-vous Uber, c'était aussi pour disrupter le marché des taxis.
01:03:20On le met contre la loi, on voit comment les consommateurs se l'approprient,
01:03:24on réfléchit pas tout le temps aux conséquences,
01:03:26et on avance de cette manière-là.
01:03:28C'est un peu ce que vous évoquiez dans votre première question,
01:03:31entre ce qui a changé depuis ce documentaire,
01:03:33c'est qu'on est toujours confrontés
01:03:35entre le temps de la technologie, qui va très vite,
01:03:37le temps de l'analyse, qui est plus long,
01:03:39et le temps juridique, qui en est encore un autre.
01:03:40Et puis aussi le temps de la recherche.
01:03:42Et là, on voit qu'on est dans une accélération très forte avec OpenAI.
01:03:45Quand vous dites, l'IA pour les masses, sans doute qu'on en arrive là,
01:03:48maintenant la question, c'est est-ce que les masses comprennent très bien cet outil ?
01:03:51C'était aussi l'intérêt de ce documentaire,
01:03:53de donner quelques clés de compréhension, mais elles ne sont pas suffisantes.
01:03:56Ça va être tout le jeu, peut-être, de bien leur faire comprendre cet outil, non ?
01:03:59Bien sûr, de bien leur faire comprendre, mais déjà, il n'est pas très clair, cet outil.
01:04:02L'appellation même « intelligence artificielle » est trompeuse,
01:04:05parce qu'il n'y a pas vraiment d'intelligence, on l'a dit.
01:04:07Il y a beaucoup de mythes autour, justement, de toutes ces questions-là.
01:04:11Vous parlez des « digital natives », c'est aussi un mythe.
01:04:14C'est-à-dire qu'effectivement, il y a une génération qui naît avec les outils,
01:04:17mais ce n'est pas parce qu'on naît avec un outil qu'on comprend ces outils.
01:04:20Je pense que tout le monde fait cette expérience quand on a des adolescents
01:04:22qui sont très forts sur TikTok, mais qui ne savent pas forcément
01:04:25très bien utiliser Word ou Excel, ou même faire une recherche Google.
01:04:28Donc, en fait, on a beau être né avec les outils,
01:04:31ça fait partie d'un apprentissage, de donner les clés pour pouvoir bien s'en servir,
01:04:34en connaître ses limites, ce qu'ils peuvent nous apporter,
01:04:36et puis ce qu'ils ne peuvent pas nous apporter,
01:04:38puisque ces outils ont évidemment des billets, des limites,
01:04:42malgré les acteurs qui nous disent toujours qu'ils vont changer le monde,
01:04:45et qu'ils vont le révolutionner avec un outil soi-disant miraculeux.
01:04:48Mais je pense qu'il faut bien faire toujours ce travail de démystification
01:04:51lorsqu'on parle des outils technologiques.
01:04:53– Alors, j'ai noté un certain nombre de secteurs,
01:04:56la défense, la santé, le BTP, le management,
01:05:00autrement dit l'aide à la décision dans le management.
01:05:02Qu'est-ce que ça apporte de plus à ces secteurs ?
01:05:04– Je crois que ça va être plus large que ces secteurs.
01:05:05Même s'ils sont intéressants, j'avais cité la médecine aussi,
01:05:10la sécurité c'est évident aussi.
01:05:12Ce qu'il faut comprendre en fait, c'est que l'IA est analytique,
01:05:16elle n'est pas émotionnelle, même si dans le documentaire
01:05:18on parle d'intelligence émotionnelle, c'est mon secteur de recherche,
01:05:21donc j'avais écrit ça, les robots émotionnels, qui est toujours à date,
01:05:25on a en général 5 ans d'avance sur les technologies qui arrivent.
01:05:30Il faut faire attention à ce qu'on est en train d'essayer d'apprendre aux gens,
01:05:33c'est-à-dire on dit que l'IA c'est analytique, c'est froid,
01:05:37il n'y a pas d'âme, il n'y a pas de conscience, il n'y a pas d'émotion.
01:05:40– On nous rappelle toujours qu'il y a toujours un homme derrière l'IA,
01:05:42tout de même, on prend toujours le soin de le faire,
01:05:44François Salthiel notamment, dans ses chroniques.
01:05:46– Il y a toujours des hommes. – Des humains.
01:05:48– Des humains, pardon, des hommes et des femmes.
01:05:50– Et des femmes bien entendu.
01:05:52– Et en fait, dans le chat de CPT, il y a un piège,
01:05:55alors tous ces outils peuvent servir au management,
01:05:58comme vous dites, ou à d'autres choses, évidemment,
01:06:00ils sont mis sur le marché sans être évalués à l'heure actuelle,
01:06:01ça va très très vite,
01:06:03donc c'est là où il faut acculturer énormément tout le monde,
01:06:06qu'on soit capable de discerner le vrai du faux, l'ambigu,
01:06:10que dans cette masse de données qui arrive,
01:06:13on soit capable de faire un choix.
01:06:15– Il y a déjà des choses qu'il doit identifier,
01:06:18le diagnostic médical aujourd'hui,
01:06:21il semble que ça soit déjà assez effectif, non ce ne l'est pas ?
01:06:24– En fait, même si c'est effectif dans certains cas,
01:06:27qu'est-ce que vous faites devant un cliché de potentialité d'un cancer du sein,
01:06:29qui vous dit, j'ai 75% d'avoir un cancer, ok ?
01:06:34Donc pour avoir rencontré des radiologues qui avaient des technologies comme ça,
01:06:38dans leurs habitudes, ils me disaient, moi à 75%,
01:06:44il y a la majorité des cas où je peux dire c'est un faux positif ou pas,
01:06:46c'est-à-dire que c'est une mauvaise évaluation de la machine,
01:06:48qui fait des erreurs, et on ne va pas pouvoir avoir des machines qui font zéro erreur,
01:06:53donc il faut apprendre quelles sont ces erreurs,
01:06:55et ils me disaient, en fait, les jeunes médecins qui arrivent,
01:06:57eux, ils ont beaucoup plus de mal,
01:06:58parce qu'ils vont croire à la machine,
01:07:01ils n'ont pas 30 ans comme moi de corps ou de clichés,
01:07:04pour me faire une idée un peu plus juste, donc ils vont suivre la machine,
01:07:08mais aussi parce qu'on risque de leur dire, il faut suivre la machine,
01:07:11et donc, où va être la responsabilité dans tout ça ?
01:07:15Est-ce que ça va être une co-responsabilité ?
01:07:17Ça pose vraiment des sujets, et puis derrière,
01:07:19ils vont demander des biopsies en plus, les biopsies ça coûte à tout le monde,
01:07:23à la société, et ça va stresser aussi tout un pan de jeunes femmes
01:07:27qui n'ont peut-être pas du tout un cancer.
01:07:30Donc on voit bien là qu'il faut faire des interfaces
01:07:33avec cette interdisciplinarité dont je parlais,
01:07:35c'est-à-dire des médecins, radiologues, ou des gens dans le BTP,
01:07:39ou des gens dans l'accompagnement managérial,
01:07:41qui soient capables d'être aussi conscients des différents hyperparamètres
01:07:45qui sont dans ces machines, qui ont des influences sur ce qu'on va croire derrière,
01:07:49et qui donnent des mesures de confiance aussi
01:07:52de ce que peuvent apporter ces différents outils.
01:07:53Ça, la recherche est dans cet objectif.
01:07:57Maintenant, on préfère vendre très vite et trouver des solutions.
01:08:01Sauf que l'humain qui l'utilise, il n'est pas à même de comprendre
01:08:04toujours, dans toutes les situations, quel est le meilleur choix à faire,
01:08:08et par défaut, il risque de suivre les machines.
01:08:11C'est ce qu'on voit à travers un très bon article de Harvard, BCG, etc.,
01:08:15qui ont mis des gens qui utilisaient le GPT-4, d'autres qui ne l'utilisaient pas,
01:08:19750 consultants, globalement, ceux qui utilisaient le GPT-4
01:08:22sur des tâches de marketing, de conseil, différents types de tâches,
01:08:26ont augmenté leur capacité d'aller vite,
01:08:29et ils avaient un certain niveau de créativité.
01:08:31Ceux qui étaient les moins bons parmi ceux-là
01:08:33ont aussi amélioré leur capacité de décision
01:08:36avec une idée de créativité moindre,
01:08:39mais le défaut, c'est qu'au bout d'un moment,
01:08:42on s'habitue à ces machines, et on va lever le libre-arbitre,
01:08:47on va suivre le collègue IA, qui a une réponse à peu près satisfaisante.
01:08:51Et par paresse, on va aller aborder, en fait, dans plein de domaines,
01:08:56le fait qu'on va trop suivre ces machines.
01:08:58Comment on crée ce monde ?
01:09:00Il faut le créer avec des interfaces en plus
01:09:02et avec une meilleure connaissance de ce que sont ces outils.
01:09:05Si on regarde, les entreprises cherchent, dans l'IA,
01:09:08gagner en productivité, d'une part,
01:09:10et être les premiers pour devancer ses concurrents.
01:09:12Ce sont les deux motivations principales
01:09:14des grandes entreprises américaines, notamment pour utiliser l'IA.
01:09:17C'est dommage.
01:09:18Je comprends les réserves que tu viens d'exprimer,
01:09:24mais il se trouve que j'ai vu, il y a deux semaines,
01:09:27une présentation d'un médecin oncologue
01:09:30qui expliquait ce que la pratique de l'IA
01:09:33introduisait dans la détection des cancers du sein.
01:09:36Pour la faire courte, il a dit la chose suivante.
01:09:39Il a dit, voilà, je vois beaucoup plus profond,
01:09:43beaucoup plus en avance, et j'évite de rater des choses.
01:09:47Il dit, l'image est la même, l'image qui me parvient,
01:09:51c'est la même, c'est la même radiographie, entre guillemets,
01:09:55mais l'IA me met en évidence des choses que je ne voyais pas.
01:10:00Et il disait, j'ai un taux de détection
01:10:04qui est beaucoup plus fiable,
01:10:07et je stresse moins mes patients,
01:10:09parce que je vois précisément le stade où on en est
01:10:13et je peux poser un diagnostic qui est plus précis à cet égard.
01:10:16Je pense qu'effectivement, il faut mieux former,
01:10:21il faut accompagner les jeunes médecins
01:10:24dans les formations sur ce sujet,
01:10:26mais la réalité, c'est que c'est une amélioration extraordinaire,
01:10:30et je crois que ça mérite d'être dit.
01:10:32C'est une amélioration extraordinaire,
01:10:34dans quel domaine ? On a évoqué la santé,
01:10:36vous envoyez d'autres, des domaines où, pour vous, c'est clair,
01:10:39on améliore les choses, il y a une notion de progrès,
01:10:42vous citez-moi quelques domaines.
01:10:44La médecine, c'est évident.
01:10:45J'ai envie de citer 2-3 domaines complémentaires
01:10:48qui sont tellement évidents qu'on les oublie,
01:10:50c'est l'interface avec votre smartphone.
01:10:52Les gens parlent à leur smartphone maintenant,
01:10:55ils disent appel, tati, machin, chose,
01:10:58et le téléphone le fait, et c'est un très grand confort.
01:11:02Notamment, il y a des gens qui sont sujets à des problèmes d'illettrisme,
01:11:06et donc c'est quelque chose qui mérite d'être dit,
01:11:08parce que c'est tout à fait évident.
01:11:10L'agriculture, c'est extraordinaire.
01:11:12Quand vous êtes agriculteur, vous êtes confronté à une montagne,
01:11:14non seulement de facteurs différents,
01:11:17mais en plus de facteurs qui sont très faiblement prédictifs.
01:11:20Vous ne pouvez pas savoir la météo qui fera dans 10 jours,
01:11:23des choses comme ça, et ça influence votre stratégie.
01:11:27On accroît la productivité, on réduit les externalités,
01:11:30c'est très important.
01:11:32Dans les domaines industriels,
01:11:34tout ce qui est maintenance prédictive, c'est tout à fait important,
01:11:37c'est absolument considérable.
01:11:39Vraisablement, on est à un point de bascule
01:11:41dans le domaine du véhicule autonome.
01:11:42Il y a 500 000 véhicules autonomes actuellement sur les routes en Chine,
01:11:46qui sont ce qu'on appelle le catégorie 4,
01:11:48c'est-à-dire l'autonomie totale.
01:11:50Je crois que dans bien des domaines,
01:11:53on est au moment d'avènement, en réalité, de ces technologies.
01:11:57Evidemment, ça fait peur, parce qu'on n'est pas formé pour ça,
01:12:00mais il faut constater...
01:12:02Vous souhaitiez tout de suite réagir, j'ai l'impression.
01:12:05Oui, non, juste peut-être,
01:12:07par rapport à ce qui a été dit sur la santé,
01:12:09je pense que c'est intéressant.
01:12:10Je vais vous donner un autre exemple.
01:12:13Sur la machine, il y a toujours un effet d'autorité.
01:12:16Prenez le GPS.
01:12:18Ça nous est tous arrivé, on est en voiture,
01:12:20le GPS nous indique une direction.
01:12:22Cette direction, le chemin qui nous est proposé...
01:12:24On n'a même plus de carte.
01:12:26Sauf qu'on a toujours une intuition.
01:12:28Parfois, on se dit, c'est marrant, je ne serai pas allé à droite,
01:12:31il y a un truc qui me rappelle qu'à gauche, ça va plus vite.
01:12:34On va pas suivre notre intuition, on va suivre la machine.
01:12:37Parfois, je m'amuse souvent à suivre l'intuition,
01:12:38je pense qu'à gauche, c'est mieux.
01:12:41D'un coup, le GPS recalcule et donne un chemin plus court.
01:12:44Qu'est-ce qui s'est passé à cet endroit ?
01:12:46On s'était dit, parce que c'est la machine qui le dit,
01:12:48c'est la machine qui a raison.
01:12:50C'est l'effet d'autorité qu'on confère à la machine.
01:12:52Deuxièmement, on se dit que c'est une forme de déresponsabilité.
01:12:55Si c'est la machine qui dit ça, c'est pas moi qui me trompe,
01:12:57c'est la machine.
01:12:59Quand on parle de la santé et ce qui a été dit sur les examens,
01:13:02effectivement, la technologie est en médecine depuis très longtemps,
01:13:05elle fait des radios que l'œil humain ne peut pas faire.
01:13:06Une radio, c'est extraordinaire,
01:13:08parce que ça permet de voir des choses que l'œil humain ne peut pas voir.
01:13:10Mais là, je rejoins l'an, c'est qu'à un moment donné,
01:13:13il faut que ça soit aussi l'humain qui décide.
01:13:15En fait, l'IA, ça doit être un auxiliaire, un auxiliaire de santé,
01:13:19un auxiliaire de droit, un auxiliaire pour travailler,
01:13:21mais ça ne doit pas être quelqu'un à quelque chose.
01:13:23On ne doit pas déléguer la responsabilité à l'IA.
01:13:26On ne doit pas lui déléguer le pouvoir de diagnostic.
01:13:28Il faut toujours qu'il y ait un humain derrière qui transmette,
01:13:30encore plus dans la médecine. La médecine, c'est une relation humaine.
01:13:32On a tous eu des problèmes, mais on a besoin d'un humain derrière
01:13:34qui s'empare de ces outils permis par la technologie,
01:13:37mais qui, quelque part derrière, se les réapproprie, se les approprie.
01:13:41Je pense que c'est fondamental de comprendre à la fois
01:13:44que ces technologies nous permettent de voir des choses qu'on ne voit pas,
01:13:47les signaux faibles répétés dans des masses de données.
01:13:52On ne peut pas voir toutes ces masses de données,
01:13:54et on n'a pas l'acuité visuelle ni auditive
01:13:56pour aller déceler un certain nombre de paramètres.
01:13:58Donc oui, la machine peut apporter,
01:14:00et c'est en ça que je parle d'amélioration de ce que nous sommes.
01:14:03Si on est capable de détecter ça.
01:14:05Sauf que ce n'est pas perceptible, ce n'est pas facile à voir,
01:14:08il faut l'apprendre. Comment on peut l'apprendre ?
01:14:10Ce n'est surtout pas un humain face à la machine qui va réussir à le faire,
01:14:13c'est une intelligence collective.
01:14:14Donc il faut construire ces interfaces où on a les bonnes pratiques,
01:14:18les mauvaises pratiques, les pièges, tout ce qu'on peut apporter,
01:14:21finalement, à la compréhension de ce qui est le plus de cet outil,
01:14:25et qu'on s'habitue à voir autrement.
01:14:27Et c'est dans ce décalage qu'il y a vraiment un nouveau paradigme de l'IA,
01:14:31qui n'est pas l'IA, je modélise un cerveau,
01:14:34ça c'est bullshit, ça n'a rien à voir,
01:14:36c'est l'IA, peut-être une interaction avec le monde,
01:14:40et m'apporter des choses que je ne vois pas,
01:14:42que je ne ressens pas, que je ne comprends pas.
01:14:44Et ce n'est pas pour ça que l'IA est émotionnel et comprend.
01:14:46Je reprends l'idée du taxi, moi j'étais dans un taxi récemment,
01:14:49il avait Waze, il y avait un gros panneau sans interdit,
01:14:51il est passé dedans, il m'a dit,
01:14:53et je lui ai dit mais enfin on est dans un centre interdit,
01:14:55il m'a dit mais non j'ai suivi Waze.
01:14:56La machine l'a dit.
01:14:57Alors l'autre chose que vous dites ici dans votre exemple,
01:14:58qui est excellent, il faut rajouter une information,
01:15:01c'est que Waze, ou GPDS,
01:15:04il l'optimise sur une masse de données, et non pas sur vous.
01:15:07Donc quand vous connaissez un chemin plus pratique,
01:15:09la machine n'en sait rien du tout qu'il est beaucoup plus pratique.
01:15:11Et comme la majorité des gens, on va modéliser ça dans une optimisation
01:15:16qui n'a rien à voir avec l'optimisation de votre trajet,
01:15:20vous suivez en fait des chemins optimaux pour tout le monde.
01:15:23François de Saint-Quelles, vous parliez d'inquiétude
01:15:25concernant les conséquences au sein des entreprises,
01:15:29notamment pour les emplois.
01:15:31Ces inquiétudes sont-elles justifiées ?
01:15:33Combien de tâches peuvent être modifiées à l'avenir
01:15:37par cette intelligence artificielle ?
01:15:39Alors on peut partir du principe que les inquiétudes
01:15:42sont toujours justifiées lorsqu'elles existent.
01:15:44Si elles existent, c'est qu'il y a un ressenti,
01:15:46peut-être qu'on n'a pas assez expliqué les choses,
01:15:48peut-être qu'on devrait faire différemment.
01:15:49En tout cas, s'il y a une inquiétude, c'est qu'il y a un sujet.
01:15:51Après, encore une fois, je pense que sur l'intelligence artificielle,
01:15:53il faut faire attention dans les deux sens.
01:15:54Tout à l'heure, je parlais de démystification
01:15:57par rapport à la compréhension de ces outils.
01:15:59Et puis, il ne faut pas tomber dans le sens inverse
01:16:01d'une diabolisation de l'outil, du grand remplacement,
01:16:04de l'attention avec l'IA, tu vas perdre ton job, etc.
01:16:06On l'a vu sur d'autres révolutions technologiques.
01:16:08On nous a toujours fait croire que les robots allaient remplacer les humains.
01:16:11Nous sommes toujours encore là.
01:16:13Nous sommes encore là et encore heureusement.
01:16:15Je ne dis pas que la robotisation n'a pas changé la fabrication
01:16:18d'une voiture, bien sûr.
01:16:20C'est logique qu'aujourd'hui, toutes les entreprises se disent
01:16:22qu'est-ce que l'IA change à mon métier ?
01:16:24Donc on est angoissé assez normalement
01:16:26par rapport à l'évolution d'une technologie ?
01:16:28Parce que c'est angoissant. Cette technologie est assez fascinante.
01:16:32Elle est très performante, donc elle angoisse.
01:16:34Elle se dit, moi, mon métier de communicant,
01:16:38qui jusque-là n'était pas inquiété par la machine,
01:16:41qui remplaçait plutôt les tâches assez laborieuses,
01:16:43des tâches mécaniques, d'un coup, on se dit,
01:16:45elle écrit un mail plus rapidement que moi,
01:16:47elle peut faire une carte de voeu plus rapidement que moi, etc.
01:16:49Maintenant, qu'est-ce que ça produit, ce résultat ?
01:16:51Quand je vois les chiffres,
01:16:52parfois, certains instituts parlent d'un quart d'emplois
01:16:57dans le monde pour être échangés, évolués, modifiés.
01:17:01Qu'est-ce que vous en pensez ? Vous n'avez pas entendu, là.
01:17:05Je trouve ces chiffres scandaleux, pour être honnête.
01:17:09Plusieurs instituts de recherche qui sont tout à fait conflictés,
01:17:12parce que leur métier, c'est de vendre
01:17:14les études d'accompagnement des entreprises,
01:17:16ont sorti des chiffres dont les méthodologies
01:17:19sont très contestables, parce que c'est le contraire
01:17:21de ce qu'on appelle l'économétrie,
01:17:24qui est la base des statistiques de productivité.
01:17:27Et donc, le dernier prix Nobel d'économie,
01:17:30qui, à mon avis, a une certaine légitimité pour parler de ça,
01:17:33Daron Asimoglou, a sorti une étude qui a été très contestée.
01:17:36Qu'est-ce qu'il a dit ?
01:17:38Il a dit que dans les 10 années qui viennent,
01:17:40la totalité de la productivité issue de l'intelligence artificielle,
01:17:43c'est un demi-point supplémentaire, c'est-à-dire l'épaisseur du trait.
01:17:47Et alors, c'est très... C'est quelque chose qui a...
01:17:51Moi, je me suis retrouvé dans beaucoup de débats sur ce sujet,
01:17:54parce que les gens me disent, dans ma boîte,
01:17:56j'ai vu tel emploi disparaître.
01:17:58Et ce que dit Asimoglou, qui, je crois, est assez intéressant,
01:18:02c'est qu'il dit qu'il faut absolument pas confondre
01:18:05ce qu'on appelle la micro-productivité,
01:18:07la productivité à l'échelle d'une entreprise,
01:18:09et la macro-productivité, celle qui est agrégée
01:18:12à l'échelle du PIB d'une nation.
01:18:15C'est pas la même chose.
01:18:16La diffusion de l'un à l'autre est extrêmement complexe.
01:18:20C'est-à-dire que, si vous êtes, en 1910,
01:18:23vous achetez une voiture, vous allez plus vite que tout le monde,
01:18:26mais, pour autant, vous avez deux mondes qui cohabitent,
01:18:30le monde du cheval et de la voiture,
01:18:32et c'est plutôt le monde du cheval qui freine la voiture, en réalité,
01:18:36qui empêche tout le monde d'aller à 30 km heure,
01:18:38là où les chevaux vont à 10 km heure.
01:18:41Donc, on est, aujourd'hui, je crois,
01:18:43dans les économistes, en tout cas, il y a un consensus qui apparaît,
01:18:45qui dit que c'est le grand facteur qui va amener la productivité,
01:18:49mais c'est une productivité de nature systémique
01:18:52et qui va mettre du temps à arriver.
01:18:55Et je suis totalement sur cette ligne-là.
01:18:57C'est le temps qui nous permet de nous adapter, c'est important.
01:19:00C'est peut-être pas tout à fait la vôtre de ligne, visiblement.
01:19:03Non, je pense que ça va aller plus vite que ça,
01:19:05de façon plus insidieuse, et qu'il faut apprendre
01:19:08à gérer ces outils et à créer ces interfaces humaines
01:19:11capables d'aller agréger des connaissances.
01:19:13Vous êtes quand même d'accord pour dire que ça va modifier
01:19:17beaucoup de tâches dans un certain nombre de secteurs ?
01:19:20Alors, j'ai évoqué les services,
01:19:22parce que, semble-t-il, c'est le secteur le plus impacté aujourd'hui.
01:19:25D'accord avec ça ou pas, tout de même ?
01:19:27Non, mais c'est pas assez détaillé, tout ça.
01:19:29Par vertical, il faudrait regarder exactement à quoi ça correspond.
01:19:32On ne peut pas généraliser. L'IA, ce n'est pas une seule chose.
01:19:35Les IA symboliques étaient utilisées depuis longtemps.
01:19:37Et puis, je crois qu'il y a une différence à réexpliquer.
01:19:40L'IA générative dont vous parlez, ça crée des contenus
01:19:42à la place d'autres.
01:19:44Donc, ça veut dire que ces contenus étaient créés auparavant
01:19:47par des individus.
01:19:49Il y a quand même des interfaces qui sont supprimées, non ?
01:19:52Il y a un premier niveau, quand même, qu'il faut remettre
01:19:55dans une espèce de vérité scientifique.
01:19:57C'est qu'il y a un paradoxe qui s'appelle Moravec.
01:20:00Pour une machine, c'est difficile de faire ce que nous faisons
01:20:03en tant qu'humains dans notre espace, d'accord ?
01:20:06Donc, le robot autonome capable d'aller faire tout un tas de trucs,
01:20:09c'est super compliqué. La voiture autonome, c'est super compliqué.
01:20:11On va en voir, mais il faudrait le dire,
01:20:15dans des endroits réglementés avec un tas de capteurs.
01:20:18C'est ce que, moi, je vois.
01:20:20Et après, tous ceux qui le font autrement,
01:20:22il faut vérifier quand même dans quelle mesure c'est fait autrement.
01:20:26Excusez-moi pour ce sujet-là.
01:20:28L'autre côté, c'est que tout ce qui est numérisé,
01:20:31tout ce qui est, effectivement, de l'ordre de documentation, etc.,
01:20:34l'IA va être capable d'analyser ça à toute vitesse
01:20:37et peut nous aider beaucoup à, finalement, trouver des solutions,
01:20:40mais pas n'importe comment.
01:20:42C'est-à-dire qu'il faut apprendre à regarder ce qui peut aider,
01:20:45ce qui ne peut pas aider, où on remet des sources,
01:20:47puisqu'elle perd toutes ses sources,
01:20:48parce qu'il n'y a aucune vérification de vérité.
01:20:50Donc, ça, par exemple, ça crée une nouvelle source d'ingénierie.
01:20:53Ça, c'est beaucoup de travail en plus.
01:20:55Et il faut absolument que cette façon de voir les choses
01:20:58soit avancée pour qu'on s'émerveille,
01:21:00qu'on augmente notre capacité de compréhension
01:21:02de ce qu'elle fait et qu'on l'utilise pour le bien-être des gens
01:21:05et pas pour l'éducation des enfants qui ont besoin
01:21:07de comprendre tous ces concepts sans ces outils.
01:21:09Angle mort, peut-être, du sujet,
01:21:12c'est très carnivore en termes énergétiques.
01:21:16Il y a une source qui nous dit, par exemple, que sur un an,
01:21:21si les choses continuent comme ça, en 2030,
01:21:24on va consommer autant pour l'IA que la Suède consomme
01:21:28en une année entière pour sa production d'énergie.
01:21:33Ce sont des chiffres, là aussi, qui font très peur
01:21:35sur un plan environnemental, ça.
01:21:36Vous avez raison de dire angle mort,
01:21:39ça l'est de moins en moins, mais ça l'est toujours
01:21:41par la nature même du secteur du numérique.
01:21:43Pendant longtemps, on parlait de virtualité,
01:21:45on parle de cloud, donc de nuages.
01:21:47On a l'impression qu'on est dans un monde immatériel.
01:21:50Encore une fois, ce sont des mythes qu'il faut déconstruire.
01:21:53Le numérique, c'est des câbles sous-barrains,
01:21:55c'est 95 % des données qui passent par des câbles.
01:21:57C'est des data centers, c'est de l'électricité.
01:22:00En fait, c'est du matériel.
01:22:02Et là, c'est beaucoup plus d'électricité que...
01:22:04C'est énormément d'électricité.
01:22:05Déjà, le numérique, je ne parle même pas de l'IA génératif.
01:22:08Il y a un autre chiffre qui dit qu'une recherche Google,
01:22:11par exemple, ça consomme de l'électricité,
01:22:13mais une recherche sur ChatGPT pourra en consommer 10 fois plus.
01:22:16Parce que l'IA génératif, c'est beaucoup plus de données.
01:22:19Qui dit beaucoup plus de données dit beaucoup plus de data centers,
01:22:22donc beaucoup plus de systèmes pour les entretenir, d'électricité, etc.
01:22:25Donc oui, quand on parle d'IA,
01:22:27et là, on va arriver finalement à des oppositions, on va dire,
01:22:30classiques entre la technologie qui va nous dire
01:22:33que l'IA va nous permettre d'avancer, de faire des progrès,
01:22:34et d'autres qui vont nous dire, oui, mais attention,
01:22:37cette IA est encore plus consommatrice, donc ralentissons, non, avançons.
01:22:40Vous savez, soit c'est le technosolutionnisme qui pense justement
01:22:43qu'on peut toujours repousser les frontières, les limites,
01:22:45car une nouvelle technologie va arriver et va résoudre les problèmes
01:22:48qui ont été engendrés par la précédente.
01:22:50Donc là, peut-être que Gilles va défendre ce point de vue,
01:22:53mais dire, voilà, le numérique, déjà, ça consomme,
01:22:55mais attendez, avec l'IA, on ira encore plus vite.
01:22:57Alors certes, aujourd'hui, ça consomme encore plus,
01:22:59mais demain, on va pouvoir optimiser les systèmes.
01:23:01Et d'autres qui vont dire, attention, réfléchissons,
01:23:02la planète est déjà à bout de souffle,
01:23:05a-t-on vraiment besoin de ces outils ?
01:23:07Parce qu'on parle de la santé, mais on pourrait aussi s'interroger,
01:23:10c'est là où Gilles, peut-être qu'on ne sera pas d'accord,
01:23:12mais on peut aussi se demander, est-ce que c'est vraiment utile ?
01:23:14Gilles, tout à l'heure, disait, c'est super,
01:23:16on peut parler avec la voix commandée à son téléphone
01:23:19pour savoir quel temps il sort, finalement.
01:23:21Oui, alors je ne dis pas qu'il faut revenir à la bougie,
01:23:23je pense que le numérique est un point-clé.
01:23:25Laurence parlait d'un côté interdisciplinaire,
01:23:28moi, mon point-clé, c'est juste l'ambivalence.
01:23:30On est tous ambivalents par rapport à notre usage du numérique.
01:23:31Le numérique, c'est ambivalent.
01:23:34Donc il faut arriver à peser aussi ce que ça nous apporte
01:23:37et là où ça nous contraint, et je pense que, parfois,
01:23:40moi, si je demande à mon téléphone pour savoir quel temps il fera demain,
01:23:43si je l'écris, finalement, ça peut être tout aussi bien,
01:23:45et puis peut-être même, si je regarde le ciel, ça peut aussi l'être.
01:23:48Ça, c'est très important.
01:23:49Alors, attendez, François Settiel,
01:23:51attendez visiblement la réponse de votre part,
01:23:53et malheureusement, j'ai peur que ce soit le mot de la fin,
01:23:55mais c'est vrai qu'en présentant votre livre,
01:23:57j'ai précisé que, selon vous, un IA est capable
01:23:59de créer plus de bénéfices pour l'environnement
01:24:00que de nuisances.
01:24:02Ça n'a pas l'air d'être tout à fait le cas aujourd'hui.
01:24:04Alors, qu'est-ce que vous avez à répondre à François Settiel ?
01:24:06Non, sur l'accroissement de la consommation,
01:24:09c'est incontestable, je suis tout à fait d'accord avec ça.
01:24:12Maintenant, je pense qu'on rentre dans une ère,
01:24:15et ça fait longtemps, d'ailleurs, qu'on le lit,
01:24:17c'est que si on ne met pas un prix sur les choses,
01:24:20et notamment un prix sur l'environnement,
01:24:22il n'y a rien qui va changer.
01:24:23Et donc, si on veut orienter ces technologies
01:24:25dans le sens des externalités positives,
01:24:28c'est-à-dire capter du carbone avec l'agriculture,
01:24:31avoir des supply chain plus efficaces,
01:24:33des systèmes industriels plus efficaces, etc.,
01:24:35il faut commencer à payer les externalités,
01:24:37et c'est comme ça qu'on utilisera l'IA à bon escient.
01:24:40Aujourd'hui, vous construisez des data centers
01:24:42qui sont alimentés au gaz, donc il y a un énorme data center
01:24:45qui est actuellement en construction de 1 gigawatt,
01:24:47c'est beaucoup, beaucoup d'électricité,
01:24:49et qui sera alimenté pratiquement exclusivement au gaz,
01:24:51contrairement à ce que raconte...
01:24:53– Ici, dans la Silicon Valley ?
01:24:55– Non, c'est au Texas.
01:24:56– Au Texas.
01:24:56– Ces promoteurs, on ne devrait pas pouvoir faire ça.
01:25:01On devrait faire en sorte que, finalement,
01:25:04on ait le souci de neutraliser les émissions de CO2,
01:25:08et de faire en sorte que, finalement,
01:25:10les usages de l'IA soient eux-mêmes orientés
01:25:13vers ce qui est le plus vertueux.
01:25:16– Ça sera le mot de la fin, malheureusement.
01:25:18Alors là, vraiment, on serait resté beaucoup plus de temps
01:25:20avec vous pour parler de ce sujet.
01:25:21Merci encore à tous les trois d'être venus sur ce plateau
01:25:23de Débadoc aujourd'hui, après ce documentaire.
01:25:28Vos réactions, ça sera sur hashtag Débadoc, bien entendu.
01:25:31Merci aussi à Félicité Gabalda,
01:25:33Victoria Bellé, qui m'a aidée,
01:25:35comme à l'accoutumée, à présenter cette émission.
01:25:37Prochain rendez-vous avec Débadoc,
01:25:39même place, même heure, et toujours avec son documentaire
01:25:42et son débat. À très bientôt.