La falta de legislación sobre el uso de inteligencia artificial para generar imágenes trucadas plantea preocupaciones sobre la privacidad y los derechos de los menores. Expertos destacan la necesidad urgente de regular estas prácticas, mientras que proyectos legislativos buscan abordar el problema.
Category
🗞
NoticiasTranscripción
00:00Carolei, que es especialista en estos temas, ¿qué hace, Fer?
00:03Bueno, quiero saber tu impresión acerca de este caso, que bueno, es desalentador, ¿no?
00:08Porque dice Hugo Osorbo, que sabe como nadie de esto, no se puede hacer nada,
00:12porque vas a llegar al juzgado y no hay delito para imputar acá,
00:17porque la foto es una foto trucada y ninguna parte del Código Penal ni de ninguna ley
00:22dice que la foto trucada con inteligencia artificial es un delito.
00:26Así que prepárate, Fer, porque el día de mañana nos van a poner una foto a nosotros,
00:30en una situación delictiva, a Carlit...
00:32Ah, ya, ah, bueno.
00:33Yo la tuve, yo tuve una chance de una foto editada, no importa.
00:36¿A qué voy con esto?
00:38Y estaba escuchando atentamente a Hugo.
00:39Me parece que estamos en una situación en la cual hay un vacío,
00:43que ese vacío se va a tener que llenar.
00:45De hecho, la otra vez, en América Noticias de mañana,
00:47entrevistamos a un diputado que está presentando uno de los tantos proyectos
00:51que se están pensando para ver de qué manera se legisla
00:54cuestiones vinculadas a inteligencia artificial.
00:56¿Por qué?
00:57Por lo menos para aclarar qué contenidos son realizados con inteligencia artificial
01:02y cuáles no.
01:03Y vos me dirás, igual, por más que aclaren que el contenido es realizado
01:05con inteligencia artificial, el daño a los menores se le realiza igual.
01:09Y esto es verdad.
01:10Pero en cierta manera, lo que es más grave, me parece,
01:13es que estamos primero hablando de menores,
01:16segundo, de que el que comete el delito también es un menor,
01:18y tercero, de que estamos hablando de algo que no existe,
01:21porque la imagen editada, que realmente lo hace el sistema solo,
01:25de hecho, hoy por la mañana mostramos,
01:26no quisimos mostrar cómo se hacía,
01:29porque justamente uno no quiere hacer apologías,
01:30simplemente quiere contar que esto existe.
01:32Las cosas que existen hay que contar las que existen
01:34para que no nos sorprendamos cuando pasen cosas como estas.
01:37Exactamente.
01:37Bueno, el procedimiento no es ni siquiera muy complicado.
01:41No es complicado, ¿está al alcance de cualquiera, Fer?
01:44Sí, está al alcance de cualquiera, con un celular,
01:47ni siquiera, en algunos casos, ni siquiera tenés que bajarte una aplicación.
01:50Con enviar una fotografía a un bot de Telegram, en este caso,
01:54el trabajo lo hace solo.
01:56Y es más, si lo hace de manera gratuita,
01:58hasta cierta cantidad de fotos y después te empieza a cobrar,
02:01pero es tan sencillo y tan simple,
02:04y la verdad que lo hace con tanta precisión en algunos casos,
02:08que preocupa.
02:10Y preocupa los delitos que empiezan a aparecer,
02:13o en realidad habrá que ponerlos en caja de delitos, ¿no?
02:17Pero bueno, preocupa los inconvenientes a la vida cotidiana
02:20que empieza a generar este tipo de cosas.
02:22Por ejemplo, que chicas se sientan avergonzadas
02:24si no vayan al colegio cuando no cometieron ningún delito,
02:27no hicieron nada malo,
02:29sientan inclusive hasta la vergüenza de enfrentar a la persona
02:32que fue la que realizó estas fotos, estas imágenes, ¿no?
02:34Claro, que es, digo, no hay derecho más preciado,
02:39bien más preciado que el de los menores, que el de las mujeres.
02:42Son temas que están legislados a nivel internacional
02:44y donde hay que ser muy rigurosos.
02:46Hay casos de otros países donde, bueno,
02:49hayan avanzado en la legislación.
02:51Pienso, no sé, en temas, cuestiones políticas,
02:54la fake news en Brasil, que hubo procesos muy duros
02:57contra Bolsonaro y su equipo de comunicación.
03:00Quizás sea un rubro en el que más se utilice, ¿no?
03:03Esto con noticias falsas y imágenes educadas.
03:06Sí, con lo de fake news se avanzó mucho.
03:07Yo creo que se avanzó mucho en su momento
03:09con lo que fue el derecho al olvido.
03:13¿Se acuerdan que en Europa se habló y mucho de derecho al olvido?
03:15Pero ahí estábamos hablando del derecho al olvido,
03:18o que quiten, que en realidad era que desindexen,
03:20o sea, que saquen de esos...
03:22Los buscadores son grandes índices
03:24en los que te indica en qué sitios web está el contenido.
03:28Bueno, con el derecho al olvido lo que se lograba
03:30era que se desindexaran imágenes o sitios
03:33que pudieran perjudicar la imagen de la persona
03:36con procesos que muchas veces eran largos.
03:38En Argentina tenemos varios casos de éxito
03:40de desindexación de imágenes.
03:41Victoria Banucci, ¿no?
03:43Con el tema de la casa de animales.
03:45Belén Rodríguez también en algún momento
03:47fue protagonista de uno de los casos emblemáticos.
03:52El tema es que acá estamos hablando de imágenes
03:54que se generan en segundos,
03:56que no son reales
03:58y que no se distribuyen de la vía tradicional.
04:00El desindexar un sitio es importante
04:04porque la red sigue siendo importante
04:06en cuanto a navegación,
04:07en cuanto a manera en la que uno accede a información.
04:10Pero hoy por hoy,
04:11que tampoco quiero demonizar,
04:13porque son aplicaciones de mensajería,
04:14pero en un grupo de Telegram
04:17o en un grupo o en un canal de distribución de Discord,
04:21por ejemplo, que es la aplicación
04:22que se menciona mucho en las últimas horas.
04:23¿Qué es Discord?
04:24No tengo ni la más pálida idea.
04:27Discord es una...
04:27Y está bien porque está, sobre todo,
04:30más o siendo utilizada por un rango etario
04:33tal vez menor que es muy afín a los videojuegos.
04:36Discord es una aplicación muy buena
04:39de mensajería y de chat por voz.
04:42Entonces, por ejemplo,
04:44nosotros nos bajamos un juego,
04:45jugamos en línea
04:46y en un canal de Discord
04:48abrimos un chat por voz
04:49y podemos estar, mientras estamos jugando,
04:51hablando.
04:53Puede tener que ver con el juego
04:54o querer hablar con grupos de amigos.
04:56Me pasa con mi hijo,
04:56que a veces está con amigos.
04:58Todos charlando y es la plaza de hoy en día.
05:01Fer, le digo...
05:02Sí, dale, dale.
05:03Es la plaza digital.
05:04Es su lugar de clave.
05:05Completamente.
05:06Yo no demonizo ni las aplicaciones,
05:08no soy tremendista con las tecnologías,
05:10este apocalipsis de la tecnología
05:12y la inteligencia artificial
05:13que a lo Terminator
05:14va a eliminar la humanidad.
05:16En absoluto.
05:17Pero ahora lo que te pregunto, Fer,
05:19desde el punto de vista de la tecnología,
05:22¿es imposible descubrir de dónde salió,
05:25quién lo hizo y cómo lo hizo?
05:28No, de hecho, en este caso lo descubrieron.
05:30Se metieron en el Discord de esta persona.
05:32Cuando esta persona empezó a comercializar,
05:34le pidieron un CBU,
05:35CBU con B corta, creo,
05:36porque era de una billetera virtual.
05:39Y cuando vieron quién era el nombre,
05:40pudieron identificar a la persona.
05:42De hecho, llegaron a quién es la persona
05:44que comercializaba las fotos.
05:46Ahora, llegar a la persona
05:48que genera la imagen, eso sí,
05:50eso es más difícil.
05:51Bueno, y los consumidores,
05:52por lo que vos decís también, Fer,
05:54porque, digo, aquel que le hizo
05:56una transferencia...
05:56CBU que tiene que comprar.
05:57¿No?
05:58Eso también es un delito, digo,
05:59si hay mayores de edad,
06:01ahí tenemos a alguien que pueda pagar,
06:03¿no?, por el delito.
06:04Si bien Hugo D. hizo una foto trucada,
06:06no es una foto real, ¿no?
06:10Es decir, quizá eso haga con que...
06:12Estaban consumiendo imágenes...
06:14Sí, dentro de las fotos
06:15había imágenes trucadas
06:17con inteligencia artificial,
06:19medio como el ejemplo que veo
06:20que están mostrando,
06:21por supuesto, lo que se puede mostrar,
06:22pero medio con ese efecto
06:24de que había una persona en match
06:25y de golpe la desnuda,
06:27que es algo de lo que hace
06:28este tipo de aplicaciones,
06:29o un bot que directamente
06:31lo hace automático.
06:33Y también había imágenes
06:34de las menores
06:35que habían sido compartidas
06:37por amigos y que habían sacado
06:38de sus propias redes sociales,
06:39pero tal vez...
06:41Viste que dentro de la plataforma
06:42Instagram hay un apartado
06:43que es mejores amigos, ¿sí?
06:44Son fotos o contenido
06:46que vos querés compartir
06:47solo con cierta cantidad
06:48de personas, que no lo haces
06:49público de manera pasiva.
06:50Bueno, hay gente que entra
06:52en esos grupos de mejores amigos
06:53porque tal vez tiene una amistad
06:54con alguien o porque lo meten
06:56dentro de ese grupo.
06:57Toma esas imágenes y las comparte
06:59de manera pública.
07:00Es muy difícil encontrar
07:03o tratar de encontrarle legalmente
07:05el delito para poder continuar
07:07con la causa en estos casos.
07:09Y sobre todo cuando son menores
07:10los involucrados, menores
07:11los que cometen el delito, ¿no?
07:13Pero sí vamos a tener que,
07:14de alguna manera,
07:16controlar una situación
07:17que genera que 22 chicas
07:19hoy no quieran ir al colegio
07:20porque se sienten avergonzadas.
07:21Imágenes que son virales, ¿no?
07:23Porque se distribuyeron,
07:25se vendieron.
07:27Una vez que entran al mundo
07:28digital, una vez que entran
07:30al mundo digital y que encima
07:32no están identificadas
07:33como contenido hecho
07:35O sea, hoy por hoy,
07:37si una foto de esta chica
07:38la distribuyen con fotos reales
07:40de 50 personas, no vas a distinguir
07:42cuál de las otras 49 son reales
07:45y una es falsa.
07:46Porque la verdad que tiene
07:47una precisión que hace que...
07:49O sea, una vez que están
07:50en el mundo digital,
07:51ya están, de cierta manera.
07:53Están distribuidas de una manera
07:54que es muy difícil de frenar.
07:55Estoy pensando en algo
07:56muy, muy chiquito.
07:59Me toca a mí de cerca.
08:00Imagino a Carlito, a Buffer,
08:01a Hugo Sorbo, que es...
08:03Bueno, uno sube fotos
08:04de sus hijas, ¿no?
08:05No sé, eso fui el sábado
08:07a un recital de Emilia Mernes.
08:08Subo la foto con mis hijas.
08:09Claro, obvio.
08:10Subo distintas fotos de ellas
08:12posando en mi casa.
08:13Me parecen hermosas y capaz
08:15una mano delictiva
08:18las agarra y las convierte
08:20en algo más.
08:20¿Qué hay que hacer?
08:21¿No hay que subir más fotos?
08:23En algún momento se había...
08:25Pasa que uno como padre
08:26está orgulloso de sus hijos,
08:28pero es difícil encontrar
08:30la línea entre lo que es compartir
08:32y lo que es entregar parte
08:33del contenido de la vida privada
08:35de uno, ¿no?
08:36Te entiendo perfectamente.
08:38Me pasa lo mismo con mis hijos
08:39de 16 y mi nena de 13.
08:43En algún momento se recomendaba
08:44no compartir fotos de los chicos
08:48con...
08:49Viste, cuando son más chicos
08:50que por ahí están en la playita
08:52o estaban...
08:53Momentos de intimidad
08:55en los cuales hubiera poca ropa.
08:56Acá ni siquiera importa
08:57si hay poca ropa o no.
08:59Porque con solo tener la imagen...
09:01La cara, claro.
09:02Sí, pueden generar
09:03ese tipo de contenido.
09:04Por eso me parece que en este caso
09:06no caería sobre los padres
09:08que comparten contenido,
09:09sino que iría más allá.
09:10Iría sobre el tipo de distribución
09:12que se da.
09:14¿Qué tipo de mirada había
09:15desde el colegio también?
09:16Porque...
09:18A ver, si el colegio, si bien
09:19no es responsable,
09:20es el ámbito en el que pasó eso, ¿no?
09:22¿No se escuchaba que estábamos
09:23diciendo...
09:23Sí, sí.
09:24...que se pasó en el club?
09:25El club tiene que ser...
09:27Más que nada porque hay gente
09:30que se ocupa
09:31de la parte pedagógica
09:32que va más allá de la enseñanza.
09:34Sabés, Kéfer,
09:35te tienen que llamar a vos,
09:37a los que entienden esto.
09:37Claro, lo que saben.
09:38Y den una clase.
09:40Vos que sos un referente,
09:41sos una imagen pública,
09:42todos te tienen referenciado
09:43con la tecnología.
09:44Bueno, que den un taller
09:46por lo menos para...
09:47Por lo menos hagan de cuenta
09:49que les importa, ¿no?
09:50En el colegio de mis hijos
09:51dan talleres...
09:53O sea, me parece que está bueno eso.
09:54Dan talleres de grooming
09:56y dan talleres también de manejo
09:58de tu perfil social,
09:59de tu identidad social.
10:01Porque no está mal también,
10:02en vez de restringir,
10:04condenar o caer
10:05cuando está la cosa hecha,
10:07ir desde los perfiles
10:09más jóvenes, de los chicos
10:09más jóvenes, contándoles que
10:11mirá que todo lo que subas
10:12a Internet
10:13forma parte de tu historia
10:14digital.
10:15Es parte de tu huella digital.
10:18Dar herramientas, ¿no?
10:20Y no para privar a nadie
10:21de que sea libre de publicar
10:23lo que tenga ganas,
10:24pero sí tal vez de cuidar
10:25su intimidad.
10:26Dar herramientas,
10:26formar justamente para hacer
10:28la tarea de prevención, ¿no?
10:30Para que no suceda.
10:32Te hago la última, Hugo.
10:34¿Qué hacen estos padres
10:37de estas 22 chicas
10:38para que dejen de circular
10:40las fotos en redes,
10:42en Internet?
10:43¿Hay algo que puedan hacer?
10:45Bueno, en principio ya hicieron
10:47las denuncias correspondientes.
10:49Entonces, como dijo Fer recién,
10:51tienen que...
10:52El juego de la Fiscalía,
10:53lo que tiene que hacer,
10:53tiene que ordenar...
10:54El juzgado tiene que ordenar
10:56a la Fiscalía la desindexación
10:58de todo esto.
10:59Pero como dijo Fer,
11:00una vez que vos te metés
11:01en la vida virtual,
11:03esa vida virtual no se borra
11:05nunca más.
11:07¿Sabés por qué?
11:07Porque una vez que una imagen
11:09está en Internet,
11:10no te pertenece más,
11:12le pertenece al mundo virtual.
11:15Entonces vos podés desindexar
11:17una dirección determinada,
11:20que no quiere decir
11:21que esas imágenes después
11:22aparezcan en otra.
11:23Hablaban del caso
11:24de Belén Rodríguez,
11:27macanudo,
11:28cuando fue la causa esta
11:30de Derecho al Olvido.
11:32Desindexaron,
11:33pero eso no impedía
11:35que las imágenes de ella
11:36estén después en otro lugar,
11:37que va a haber que desindexarlo
11:40con posterioridad.
11:41Es inabarcable, mirá.
11:43Sí, ahora me pregunto,
11:44perdón, Carlos,
11:45me preguntas,
11:47¿qué pueden hacer los padres?
11:48Si bien te digo,
11:49que desde mi punto de vista,
11:52una causa penal se va a caer,
11:55eso no quiere decir
11:56que se vaya a caer
11:57por un daño y perjuicio
11:58del fuero civil.
12:00Entonces, pueden demandar
12:02por daños y perjuicios,
12:03y ahí sí,
12:04pero por la distribución
12:05de imágenes no consentidas.
12:07Pero es un daño que le provoca.
12:08Ahí sí, después el juez
12:09tendrá que valorar
12:10cuánto es el daño
12:13que ocasionó
12:14y cómo esto se va a monetizar.
12:16Desde el punto de vista penal,
12:17desde mi punto de vista,
12:18chicos, por eso dije
12:19que iba a resultar antipático,
12:21se cae, desde mi punto de vista
12:22se cae.
12:23Pero en lo civil,
12:24bueno, por lo menos
12:25puede haber una
12:25penalización económica
12:26que no alcanza
12:28para arreglar el daño
12:29producido a estas chicas.
12:30Vos sabés que hay un caso,
12:31hay un caso,
12:32y con esto si querés cierro,
12:34hay un caso
12:35de hace un par de años
12:37en Mar del Plata,
12:39donde hubo una situación
12:42de bullying,
12:43si bien no es este tipo
12:44de delito, que es mucho peor,
12:47de menores de edad
12:49en un colegio.
12:50Entonces, vos presentás
12:52una causa de este tipo
12:53y lo primero que dice
12:54una boba defensor
12:55es que es un menor de edad
12:55sin imputable.
12:56Sí, fantástico.
12:57Pero acá la justicia
12:58trabajó bien.
12:59¿Sabés qué hizo la justicia?
13:01Sin perjuicio de ser
13:02inimputables,
13:02tanto el denunciado
13:04como los...
13:05Víctima y victimario.
13:06Sí, como víctima y victimario,
13:08¿sabés qué hizo el juzgado?
13:09Trabajó muy bien.
13:10Y citó a la familia,
13:12citó al colegio,
13:13mandó a los chicos
13:15y a los padres
13:16a hacer tratamiento psicológico
13:18y cursos de lo que es el bullying.
13:19Sí, está bien, hacerse cargo,
13:21hacerse cargo.
13:21Lo que hablamos siempre
13:22es capacitarse de alguna manera.
13:23Y al colegio también.
13:25Y al colegio también hizo,
13:26es decir, hizo partícipe
13:27al colegio de esto.
13:28Porque el colegio,
13:29como decían ustedes,
13:31el colegio es el ámbito
13:32donde estos chicos pertenecen.
13:34Claro, clarísimo.
13:34La familia y el colegio, ¿no?
13:36Donde todos los chicos se educan,
13:38los que pueden ir al colegio, ¿no?
13:40Pero bueno, nuestro caso es así.
13:41Entonces yo creo que acá el colegio,
13:42acá creo que el juzgado
13:43tiene que sentarse
13:45y decir, fantástico, son menores,
13:47¿habrá delito o no?
13:47No lo sé, lo van a resolver
13:49como consideran
13:50que debe ser.
13:52Pero lo que sí tiene que hacer
13:52es que el colegio
13:53tiene que involucrar al colegio.
13:54Tiene que obligarlos
13:55a hacer cursos de esto.
13:58Tienen que hablar
13:58de la inteligencia artificial,
13:59del daño que la inteligencia
14:01artificial puede ocasionar.
14:03Porque hoy la inteligencia
14:04artificial te ubica
14:05en un lugar determinado
14:06con un arma en la mano.
14:07Completamente.
14:07Por eso hablamos del tema delictual.