• l’année dernière

Tous les matins après le journal de 8h30, Emmanuelle Ducros dévoile aux auditeurs son “Voyage en absurdie”, du lundi au jeudi.
Retrouvez "Voyage en absurdie" sur : http://www.europe1.fr/emissions/chronique-en-absurdie

Category

🗞
News
Transcription
00:00 *Gaspard Proust, tous les mardis, mercredis et jeudis à 8h34 sur Europe 1*
00:06 Voilà, ça se réécoute toujours avec bonheur.
00:08 Gaspard Proust, que vous retrouvez toutes ses chroniques sur europe1.fr et dans votre
00:11 appli Europe 1.
00:12 Il revient en chair en os, mardi prochain ce bon Gaspard.
00:15 Place à Emmanuel Ducrox du journal L'Opinion.
00:17 Bonjour Emmanuel.
00:18 Bonjour Dimitri, bonjour à tous.
00:20 Alors, petit séisme dans la Silicon Valley, Geoffrey Hinton a démissionné de chez Google.
00:25 Qui est Geoffrey Hinton ?
00:27 Son départ fait beaucoup parler dans le monde des technologies.
00:30 Vous allez nous le présenter.
00:31 Oui, Geoffrey Hinton est un inconnu pour le grand public.
00:34 Il a 70 ans.
00:35 C'est un psychologue cognitif canadien et un chercheur en informatique.
00:38 Sa spécialité, ce sont les réseaux de neurones artificiels.
00:41 Et s'il a été recruté par Google il y a 10 ans, c'était pour mettre au point un
00:44 de ces algorithmes qui permettent à ces réseaux de neurones d'apprendre.
00:48 Pour résumer, c'est un des pionniers de l'intelligence artificielle.
00:52 Ses travaux ont ouvert la voie à ces fulgurantes innovations que sont, par exemple, les robots
00:56 conversationnels chat-GPT.
00:57 C'est en quelque sorte le papa de l'IA qui vient de jeter les pontes.
01:01 Mais pourquoi a-t-il fait ça ?
01:02 Eh bien, Geoffrey Hinton est victime du syndrome de Frankenstein.
01:06 Il a peur du monstre qu'il a créé.
01:09 Il explique que l'intelligence artificielle est entrée dans une course à l'armement
01:12 et que les créations d'images, de textes vont mal tourner.
01:14 Ça va causer des perturbations énormes pour le secteur de l'emploi.
01:17 Nicolas Bouson en parlait ici même ce matin.
01:19 Il redoute que les fausses informations corrompent les élections.
01:23 Et pour Hinton, le risque est que les gens normaux, vous et moi, ne puissent plus distinguer
01:27 le vrai du faux.
01:28 Il parle même d'un risque existentiel qu'une intelligence numérique ferait couvrir à
01:33 l'espèce humaine en devenant plus intelligente qu'elle.
01:36 Et ça, pour lui, ça va arriver plus tôt que prévu.
01:39 Ce repentir de Geoffrey Hinton, c'est bien tardif.
01:42 Il est au soir de sa carrière, ce monsieur.
01:44 Oui, mais au quotidien américain de New York Times, il a avoué qu'une part de lui-même
01:48 regrette l'oeuvre de sa vie.
01:50 C'est terrible.
01:51 Il dit "je me console avec l'excuse habituelle, si je ne l'avais pas fait, quelqu'un d'autre
01:54 l'aurait fait".
01:55 Bon, il quitte Google pour pouvoir parler librement, devenir lanceur d'alerte.
01:59 Il n'est pas le seul, Geoffrey Hinton a s'inquiété de l'intelligence artificielle.
02:03 Et non, en mars dernier, des pointures de la Tech, des scientifiques, des spécialistes
02:07 de l'intelligence artificielle comme Elon Musk, Steve Wozniak, avaient signé une lettre
02:12 ouverte demandant au laboratoire d'interrompre le développement des plus puissants systèmes
02:17 d'intelligence artificielle pendant au moins six mois, alertant sur des risques profonds
02:21 pour la société et pour l'humanité.
02:23 "Faire une pause", disait-il.
02:24 Mais est-ce qu'il faut tout arrêter en matière d'IA, pensez-vous ?
02:27 Eh bien, certainement pas.
02:29 Parce que là où on voit un risque, on peut aussi voir une fantastique opportunité d'accélérer
02:33 la recherche, la compréhension du monde, de faire tourner très vite des modèles utiles
02:38 face par exemple au défi du changement climatique.
02:40 Alors ça ne veut pas dire qu'il ne faut pas réfléchir et ça ne veut pas dire même
02:43 qu'il ne faut pas accélérer sur certains points comme la régulation par la concurrence,
02:48 par les autorités infrarouestes, une terra incognita comme l'IA, eh bien ça s'encadre.
02:54 Et pour ça, figurez-vous qu'on a déjà des bases posées par des intelligences bien
02:59 humaines.
03:00 Celles des auteurs de science-fiction Isaac Asimov et John Campbell.
03:03 On est en 1942.
03:04 - Les lois de la robotique.
03:05 - Et voilà, ces deux visionnaires posent ces trois lois de la robotique auxquelles
03:11 doivent obéir les robots dans leur roman.
03:13 Je vais les énoncer parce que c'est intéressant.
03:15 Un robot ne peut porter atteinte à un humain ni, en restant passif, laisser cet être humain
03:20 exposé aux dangers.
03:21 Ça vous pose une gradation dans les priorités.
03:25 Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres
03:29 entrent en contradiction avec la première loi.
03:32 C'est-à-dire qu'elles mettent par exemple d'autres humains en danger.
03:35 - On ordonne à un robot d'attaquer un humain par exemple.
03:37 - Par exemple, il doit dire non.
03:38 Et un robot doit protéger son existence dans la mesure où cette protection n'entre pas
03:42 en contradiction avec la première ou avec la deuxième loi.
03:45 Vous la voyez cette échelle des responsabilités ?
03:46 - Oui.
03:47 - Eh bien, on a là de quoi poser des règles qui devraient régir la recherche sur l'intelligence
03:50 artificielle.
03:51 Mais ça, ça ne peut être qu'un travail mondial et un travail collectif.
03:55 - Ça, c'est vraiment des questions pour les 20-30 prochaines années.
03:58 Merci beaucoup Emmanuel Ducrot du journal L'Opinion.
04:00 On vous retrouve avec bonheur lundi.