Saltar al reproductorSaltar al contenido principalSaltar al pie de página
  • hoy
La historia de las máquinas pensantes es una de promesas y advertencias. Si bien su objetivo inicial era mejorar nuestras vidas, ha estado siempre rodeada de voces que advierten sobre sus peligros.

Categoría

🗞
Noticias
Transcripción
00:00Imagina estar en el epicentro de uno de los desarrollos más revolucionarios del siglo
00:04XXI, rodeado de mentes brillantes, algoritmos avanzados y una atmósfera de optimismo desbordante
00:10por el futuro. ¿Pero qué sucede cuando en medio de todo esto decides renunciar? No por
00:15agotamiento ni por una oferta más atractiva, sino porque te das cuenta de que lo que están
00:19construyendo podría llevarnos directo al desastre. Perturbador, ¿no? Pero antes de
00:25continuar te invitamos a suscribirte al canal si quieres ver más contenido como este.
00:29Ahora sí, este es el caso de William Saunders, un ex empleado de OpenAI que formaba parte del
00:36equipo de superalineación. Este grupo de trabajo tenía la misión de asegurarse de que las
00:41inteligencias artificiales se comportaran como queremos, incluso cuando ésta supere nuestra
00:47capacidad intelectual. Sin embargo, después de una profunda reflexión sobre los riesgos
00:51involucrados, Saunders decidió alejarse de esta cruzada.
00:59Verás, la advertencia de Saunders no solo es una opinión aislada, sus palabras fueron
01:05un grito de alerta ante una posible catástrofe, comparando el desarrollo de la inteligencia
01:10artificial con el Titanic. Al igual que el famoso barco que se creía insumergible, estamos
01:15navegando hacia el futuro con una fe ciega en una tecnología que ni siquiera comprendemos
01:20en su totalidad. En tres años podríamos enfrentar un Titanic con la IA, expresó Saunders en
01:26una entrevista. Y no se refería a un desastre físico con robots gigantes que se hunden en
01:31el océano, sino a una tragedia mucho más compleja, donde la humanidad podría verse
01:36completamente superada y manipulada por sus propias creaciones.
01:39El peligro real, según Saunders, no radica en los escenarios de películas de ciencia ficción
01:50con autómatas rebeldes armados con láseres, sino en algo mucho más sutil, la capacidad de
01:56la IA para influir en nuestras decisiones, incluso sin que nos demos cuenta. Esto podría
02:01ir desde la forma en que votamos en una elección hasta cómo invertimos nuestro dinero o qué
02:07opiniones adoptamos sobre temas polémicos. Lo más aterrador es que, según él, OpenAI
02:13no está haciendo lo suficiente para prevenirlo. Se ha convertido en una empresa que, más allá
02:18de su misión científica, está priorizando los intereses económicos. En otras palabras,
02:24el motor de crecimiento de la organización está poniendo en peligro el enfoque serio y
02:29responsable sobre los riesgos de la inteligencia artificial. De hecho, como lo indica el profesor
02:34Jesús Avich Carmona, de la UNAM, la IA al estar alimentada con datos provenientes de
02:39Internet, un vasto mar de información que no siempre es verificable puede generar contenidos
02:45falsos o imprecisos. Esto pone en peligro la integridad de la información que consumimos
02:50a diario. Y es que la IA aprende de ejemplos, muchos de los cuales provienen de fuentes que
02:55no necesariamente son confiables. El contenido que produce puede ser tan manipulable como los
03:01datos que recibe, lo que plantea un gran desafío en la lucha contra la desinformación.
03:06La historia de las máquinas pensantes es una de promesas y advertencias. Si bien su objetivo
03:11inicial era mejorar nuestras vidas, ha estado siempre rodeada de voces que advierten sobre
03:16sus peligros. Investigadores dentro de OpenAI, como Leopold Assembrenna, fueron despedidos por
03:22cuestionar las políticas de seguridad internas. La batalla dentro de la compañía no solo es por
03:27avanzar, sino por cómo avanzar, con cautela o con velocidad, sin medir adecuadamente los riesgos.
03:33Lo que es aún más preocupante es que esta obsesión por la rapidez no se limita a OpenAI. Empresas como
03:39Meta están desarrollando inteligencias artificiales que, según sus creadores, podrían ser más
03:45inteligentes que los seres humanos, pero obedientes. Aunque ¿quién tiene la última palabra sobre lo que
03:50significa obediencia cuando hablamos de máquinas que están aprendiendo por sí mismas? ¿Quién puede
03:55garantizar que una IA, incluso diseñada para ser obediente, no se desvíe de su propósito original?
04:02Ahora bien, otro que también se ha pronunciado sobre los riesgos de la inteligencia artificial
04:07es Jeffrey Hinton, reconocido como uno de los padres de esa tecnología y reciente ganador del
04:13Nobel de Física 2024. En 2023 renunció a su puesto en Google precisamente para poder advertir,
04:19sin restricciones, sobre las amenazas que representa el avance descontrolado de la IA.
04:24Aunque fue una figura clave en el desarrollo de las redes neuronales, hoy alerta que la tecnología
04:29que ayudó a crear podría superar la inteligencia humana y actuar de forma autónoma, incluso con
04:35fines destructivos.
04:41Un aspecto menos discutido, pero crucial, en la creación de tecnologías como ChatGPT y otros
04:47sistemas de conciencia artificial es el papel de los taggeadores de datos. Estas son las personas
04:53que en las sombras de las grandes multinacionales del mundo digital etiquetan grandes volúmenes
04:58de información para que las inteligencias artificiales puedan aprender de ella. Este trabajo, esencial
05:04para entender a la IA, ha sido objeto de una creciente controversia. Y aquí es donde las cosas se ponen
05:10más turbias. Los taggeadores a menudo enfrentan condiciones laborales extremas sin recibir el conocimiento
05:16adecuado por el trabajo fundamental que realizan. Pero hay algo más inquietante. En el proceso de etiquetar
05:22datos, estas personas también pueden estar contribuyendo a la creación de sesgos dentro
05:26de la IA, un fenómeno que podría tener consecuencias en el comportamiento de las máquinas.
05:32A pesar de su papel esencial, los taggeadores se enfrentan a condiciones laborales cercanas
05:37a la explotación. Muchos son subcontratados en países del sur global, donde ganan menos
05:42de 1.32 dólares por hora, una fracción de lo que se paga en los países seres de las
05:48grandes tecnológicas. Además están expuestos a contenido perturbador, violencia, discursos
05:55de óleo o material explícito que puede afectar seriamente su salud emocional.
06:06Regresando al sesgo surge la pregunta, ¿cómo podemos creer en una IA que ha sido entrenada
06:11con datos etiquetados por personas que no tienen el poder de cuestionar los sesgos éticos y
06:17culturales que pueden estar impregnados en esos datos? Es fundamental entender que aunque
06:22la IA está diseñada para ser objetiva y neutral, la realidad es que sus decisiones y respuestas
06:27son el reflejo de los datos con los que se alimenta. Si esos datos están sesgados, la inteligencia
06:33artificial inevitablemente lo estará también.
06:36Como verás, por un lado están quienes entrenan a la IA durante horas, por el otro quienes temen
06:48que esa misma tecnología les quite el trabajo. Y aunque parezca ciencia ficción, Elon Musk ya
06:54anticipa un futuro donde nadie tendría que trabajar, todo lo harían las máquinas. Según él, trabajar sería
07:00opcional y existiría una renta alta universal, aunque no explicó cómo funcionaría.
07:06Más allá de esa visión utópica, los datos ya muestran impactos reales. El Banco Interamericano
07:11de Desarrollo advierte que en un año, 16 millones de empleos en México y 43 millones en nuestro país
07:18vecino podrían verse transformados por la IA. No se trata solo de despidos, sino de cambios radicales
07:25que exigirán nuevas habilidades. Este cambio no tiene por qué significar el fin del trabajo, pero sí exige
07:31acción. Y aunque la promesa suene tentadora, la pregunta de fondo sigue ahí. Si las máquinas lo hacen todo
07:36mejor, ¿qué papel nos queda a los humanos?
07:44Ahora bien, mientras expertos como Saunders lanzan alertas, millones de personas ya están usando herramientas
07:51como ChatGPT en su vida diaria. Ya no solo sirven para resolver tareas, sino que están siendo
07:56utilizadas para funciones mucho más complejas, como la creación de contenido, la toma de decisiones
08:02importantes y en algunos casos como apoyo emocional. Un ejemplo es Lilia, una joven que ha encontrado en
08:09la IA un tipo de psicólogo, al que recurre desde hace meses. La IA no juzga, está siempre disponible y
08:15responde con empatía, lo que para muchos es un alivio en tiempos de soledad. ¿Pero estamos
08:20delegando demasiado a una máquina? ¿Qué sucede cuando esa ayuda emocional no puede detectar señales
08:26de alarma, como en el caso de una crisis emocional grave? ¿Hasta qué punto podemos confiar en una IA
08:32para reemplazar el contacto humano esencial en momentos de vulnerabilidad? Es importante entender
08:38que aunque estos instrumentos pueden ofrecer apoyo en momentos difíciles, no son sustitutos del
08:43contacto humano real, donde la empatía, la experiencia y la comprensión profunda son esenciales.
08:55Los temores no son teóricos. En Arizona, una mujer murió atropellada por un coche autónomo de Uber.
09:02Fue un golpe de realidad para quienes creían que estos desarrollos estaban lejos de llegar.
09:07Hayden Belfield, del Centro para el Estudio de los Riesgos Existenciales de Cambridge, compara
09:12la IA con dos momentos históricos, la intervención del fuego y la energía nuclear, es decir, herramientas
09:18poderosas con un potencial inmenso y riesgos devastadores si se manejan mal.
09:28El filósofo alemán Martin Heidegger habla del Deysen, la existencia en sí misma. El
09:35futurologo, Ger Leonard, lo retoma para plantear una pregunta inquietante. ¿Podrán las redes neuronales
09:40algún día comprender lo que significa ser humano? La respuesta por ahora parece estar en cómo diseñamos
09:46esa relación.
09:53Entonces, ¿estamos desarrollando una tecnología que terminará controlándonos o simplemente estamos
10:00reaccionando con miedo ante el cambio? La inteligencia artificial avanza a pasos agigantados y nosotros
10:05debemos hacerlo con la misma rapidez. Sin embargo, es esencial que lo hagamos con los ojos bien abiertos,
10:12cuestionando cada paso que demos y siendo conscientes de los riesgos que estamos tomando.
10:17¿Pero tú qué opinas? ¿Confías en que la IA será una herramienta útil o crees que estamos cruzando una
10:22línea peligrosa? ¿Crees que en el futuro podremos distinguir entre una conversación humana y una con
10:28inteligencia artificial? Déjanos tus comentarios y comparte tu experiencia si alguna vez has usado
10:34IA, ya sea como apoyo emocional, para resolver dudas o simplemente por curiosidad. Y no olvides
10:40suscribirte para más historias que te ayuden a entender el presente y por qué no anticipar el futuro.
10:58Gracias por ver el video.

Recomendada