• il y a 6 mois
Transcription
00:00Ces chercheurs en intelligence artificielle s'inquiètent gravement du
00:03développement de l'IA. Le monde aurait 70% de chances de s'éteindre.
00:10Dans une lettre ouverte, un collectif d'employés actuels et anciens d'OpenAI,
00:14Google, DeepMind et Anthropic tire la seule nette d'alarme sur les risques
00:18potentiels autour de l'intelligence artificielle. Daniel Cocotagelo, un ancien
00:22chercheur d'OpenAI, va jusqu'à prédire une probabilité de 70% que l'IA
00:26nuise gravement voire détruise l'humanité. La lettre ouverte dénonce le
00:30manque de transparence et de considération des risques éthiques et
00:33sécuritaires au sein de ces entreprises. Les signataires affirment être réduits
00:37au silence lorsqu'ils soulèvent ses préoccupations et estiment que le public
00:41a le droit d'être informé de la réalité et des dangers.
00:44Daniel Cocotagelo, dans une interview au New York Times, accuse OpenAI d'ignorer
00:48les risques liés à l'intelligence artificielle générale, la GI. Une IA
00:53capable de comprendre ou d'apprendre n'importe quelle tâche intellectuelle de
00:57l'humain. Il dénonce une course effrémée vers le
01:00développement de la GI motivée par la fascination pour ses possibilités
01:03plutôt que par une évaluation rigoureuse de ses conséquences.
01:06Toujours selon Daniel, OpenAI pourrait parvenir à développer une GI dès 2027.
01:11Il estime que cette technologie pourrait non seulement nuire à l'humanité mais
01:15aussi la détruire. Il met en garde contre le manque de prévention dans le
01:19monde face à de tels risques. Cette alerte fait écho à d'autres voies dans la
01:23communauté scientifique qui soulèvent les dangers potentiels de l'IA tels que
01:27la manipulation de l'information, la discrimination algorithmique, la perte de
01:31contrôle des systèmes autonomes et même l'extinction de l'humanité.
01:34Oui, rien que ça. En réponse à ces accusations, OpenAI a assuré prendre en
01:38compte ses préoccupations et adopter une approche scientifique rigoureuse pour
01:42gérer les risques liés à l'IA. Cependant, ces déclarations ne suffisent
01:46pas à dissiper les doutes. La lettre ouverte appelle à une plus grande
01:50transparence et un contrôle plus strict des entreprises développant l'IA.
01:54Elle demande notamment la mise en place de mécanismes permettant aux employés
01:58actuels et anciens de signaler les risques de manière anonyme et sans
02:02crainte de représailles. Il en va de la survie de notre espèce
02:05selon eux. Le Daily Tech, c'est fini. Rendez-vous demain pour la suite.