• hace 17 horas
Un joven de 18 años del Colegio Preuniversitario Manuel Belgrano en Córdoba es acusado de utilizar inteligencia artificial para superponer los rostros de alumnas menores en videos pornográficos, generando una crisis psicológica entre las víctimas. El caso ha llevado a la presentación de denuncias y podría involucrar a más estudiantes.

Category

🗞
Noticias
Transcripción
00:00Era una escuela en Córdoba y decíamos con las chicas antes de empezar el programa,
00:03la semana pasada otro caso y se van sumando.
00:06Cambia el escenario porque la semana pasada
00:08hablábamos de un chico en San Martín,
00:09menor de 15 años, inimputable,
00:11o sea, puede hacer lo que se le antoje,
00:13que no iba a pasar a terceros,
00:15o no iba a ir preso o no iba a tener ninguna causa.
00:17Pero ahora cambia la historia, Pamela,
00:18porque lo que está pasando es gravísimo.
00:21Acá no hablamos de una foto simulada.
00:23O sea, para que se den una idea,
00:25¿qué es la inteligencia artificial?
00:27Pongo la cara de una persona, utilizo la inteligencia artificial
00:32y puedo hacer que esa persona aparezca en la misma foto,
00:34pero desnuda.
00:36No fue lo que pasó en Córdoba.
00:37Una especie de trucar una foto pornográfica
00:39con la foto de una persona.
00:41Acá el caso de Córdoba es muchísimo más grave
00:44porque lo hizo, pero con videos pornográficos.
00:47O sea, le colocó la cara de alumnas de 14, 15 y 16 años
00:53a videos pornográficos con los nombres reales de las nenas.
00:58¿Qué pasó? Pasaron dos cosas.
01:00Las chicas están muy mal psicológicamente.
01:02Hay una causa en curso con, al menos por ahora, dos denuncias.
01:06El abogado es un abogado muy conocido en Córdoba,
01:07se llama José D'Antona.
01:09Yo hablé ayer con José y me dice que la cosa viene muy grave.
01:12El abogado de las víctimas.
01:13El abogado de las dos víctimas.
01:14Pero hablan de otros 20 casos
01:17que serían o se animarían a denunciar en las próximas horas.
01:21¿Quién es el denunciado?
01:23Un chico de 18 años.
01:24Es el colegio preuniversitario Manuel Belgrano en Córdoba.
01:27¿Qué hizo este chico?
01:29Desde la comodidad de su casa,
01:31utilizó con inteligencia artificial
01:34la cara de no ni siquiera compañeras,
01:37de alumnas de la escuela donde él va
01:40y las puso sobre videos de pornografía.
01:43Esos videos comenzaron a correr en redes sociales
01:46y en distintas páginas conocidas
01:48que tienen que ver con todo ese material pornográfico.
01:51Les puso el nombre real.
01:53¿Y las chicas cómo se dan cuenta de que estaban sus caras ahí?
01:56No sé.
01:57Empezaron a lloverle solicitudes de amistad en Instagram.
01:59Dios.
02:01Porque, claro, estaba el nombre, decía Carlos Salerno el video.
02:03Entonces, empezaron a buscar la foto
02:06y empezaron a lloverle solicitudes de personas de 35 años para arriba.
02:10Las chicas tenían 14 años, 15 años.
02:13Empezaron a hablar con sus papás.
02:15¿Cuándo se enteraron? ¿Cuándo se vieron?
02:18En realidad, lo que primero sospechan
02:20es por qué tantas solicitudes en Instagram.
02:23A partir de ahí, una alumna involucrada,
02:27que estalla en llanto y en crisis,
02:29le dice a la mamá y al papá,
02:31me vi en un video pornográfico.
02:34Está mi cara y está mi nombre.
02:37Claro, imaginate que el papá le dijo,
02:38¿cómo en un video pornográfico? ¿Vos te grabaste?
02:40Yo no me grabé.
02:42Ni siquiera tuve relaciones todavía.
02:44Imaginate el impacto para esa criatura,
02:46porque es una nena de 15 años.
02:48Entonces, a partir de ahí,
02:49toman contacto con José D'Antona, que es el abogado.
02:52José empieza a trabajar sobre la tipificación.
02:56¿Qué es una tipificación?
02:58Un acto, por ejemplo, violento.
02:59Yo te empujo acá en vivo y te golpeo.
03:02Es una causa por lesiones, lesiones graves.
03:04Si te lastimaste, feo.
03:06Acá, como es algo que tiene que ver
03:08con la inteligencia artificial, Pamela.
03:10Es lo que decíamos, cada vez hay más casos.
03:12No hay tipificación.
03:13Claro, no está legislado, cada uno hace lo que quiere.
03:15Exactamente.
03:16Pero esta persona es mayor de edad.
03:18Es mayor de edad.
03:19Y el abogado de las víctimas encuadró con el fiscal.
03:24Le dijo al doctor que las chicas tienen lesiones graves,
03:27psicológicas.
03:28Sí, claro.
03:29Gravísimas.
03:31Además, se da en un contexto de violencia de género.
03:33¿Cómo está tipificado eso?
03:34De tres a diez años de cárcel.
03:36Y el fiscal le dijo al abogado,
03:38¿sabe qué? Está bien encuadrado.
03:41Como esto no está tipificado en ningún lado
03:43y empezó a pasar hace muy poquito,
03:45lo vamos a encuadrar acá.
03:46Así que a este chico ahora le allanaron la casa.
03:49Sus papás estaban, imagínate, compungidos
03:52porque no sabían del accionar de un chico de 18 años
03:54que está por regresarse e ir a la universidad.
03:57Le secuestraron hasta la PlayStation.
03:58Se le llevaron teléfonos, computadoras, PlayStation.
04:01Le sacaron todo.
04:03Ahora van a apelitar y han encontrado pruebas.
04:05Está todo en la justicia.
04:06Bueno, justamente vamos a hablar con Hugo Sorbo.
04:09Él es abogado especialista en Derecho Informático.
04:12Y preguntarle a Hugo qué se hace con todo este material secuestrado.
04:16Hola, Hugo. Muy buenos días y muchas gracias.
04:19¿Qué tal? Buen día. ¿Cómo están?
04:22Estaba escuchando el resumen de Carlos Salerno.
04:25La verdad que es impecable esto, lo que dijo.
04:31Fíjate que el fiscal lo está imputando por lesiones graves,
04:36por violencia de género,
04:37y no por distribución de material de abuso sexual infantil.
04:41Correcto, Hugo.
04:42Sí, es correcto.
04:43Aunque entraría también, sería la sumatoria de todo también.
04:47Y no, porque si vos por ese lado, desde mi punto de vista,
04:50ahí está creado con inteligencia artificial.
04:52Pero si bien las nenas son menores de edad
04:56y si fuesen fotos reales, sí, te diría,
04:59entrarían dentro de la distribución de abuso sexual infantil,
05:03distribución de material de abuso sexual infantil,
05:06como está creado con inteligencia artificial,
05:07no hay legislación que esto lo contemple,
05:10diría que es discutible.
05:13Claro, podría la defensa...
05:15No entraría.
05:17¿Podría la defensa de esta persona decir no si no son ellas?
05:20Son fotos...
05:22Sí, si yo lo miro como abogado defensor,
05:24te digo que iría totalmente a que no es delito
05:28porque está creado con inteligencia artificial.
05:31Pero acá el fiscal estuvo muy bien con la querella
05:35porque lo imputa por lesiones graves
05:37y por violencia de género, con penas también muy elevadas.
05:44¿Puede llegar a prosperar, Hugo?
05:47¿Puede llegar a prosperar?
05:48Yo me imagino la cantidad de fake news y barbaridades
05:51que pueden afectar la vida cotidiana de las personas
05:54y quedan en la nada misma.
05:56Por supuesto que esto es una gravedad extrema.
05:58Te digo, Pamela, que sí puede prosperar,
06:00pero por la calificación del delito.
06:03El fiscal estuvo muy bien en calificarlo de este modo.
06:05¿Violencia de género?
06:06Sí, puede prosperar.
06:07Violencia de género y por lesiones graves.
06:09Claro que habrá que probar, obviamente,
06:11el daño psicológico que esto le ocasiona a las víctimas.
06:16Y vos me preguntás qué se puede encontrar en los dispositivos.
06:19En los dispositivos se puede encontrar todo.
06:21Todo lo que creó inclusive la inteligencia artificial.
06:24La ruta, la ruta del delito,
06:27la prueba de que él fue el que armó el video y lo distribuyó.
06:30¿Eso se puede encontrar en sus aparatos?
06:33Y con eso...
06:34Sí, se puede encontrar.
06:35Vos fijate que acá hay dos cuestiones importantes.
06:38Una que es el allanamiento y el secuestro del equipamiento.
06:42Dos, la confirmación de la dirección de IP
06:45del domicilio de esta persona.
06:48Entonces, ¿por qué lo allanan?
06:49Porque con la dirección de IP,
06:51como te dije en alguna oportunidad,
06:53es un número de documento.
06:55Es un número identificatorio de los dispositivos
06:58y es uno irreproducible, es uno solo.
07:02Entonces, ¿qué pasa?
07:03Allanan el lugar de acuerdo a la dirección de IP.
07:05Le secuestran el teléfono, la computadora o hasta la Play.
07:09Y probablemente,
07:10yo no sé qué es lo que encontraron en los dispositivos,
07:14pero probablemente encuentren el material en el dispositivo.
07:17Y si, además, se encuentra la distribución de este material,
07:20está prácticamente condenado.
07:23Pero de vuelta, por ley.
07:25Y sentar un precedente, ¿no?
07:26Y le van a probar con las primeras.
07:28Pero sentar un precedente,
07:29¿es tan importante sentar un precedente
07:31para que no se siga haciendo así, Julia?
07:33No, eso que decís, Pam, es superinteresante e importante.
07:35Que sienta, de alguna manera, esta carátula,
07:37alguna jurisprudencia para lo que podemos esperar,
07:40para lo que viene.
07:42Una lluvia de causas, porque esto está pasando en todos lados.
07:44Se han hecho mediáticas algunas causas, otras no.
07:46Y segundo, el hecho de que las lesiones sean psicológicas.
07:51¿Va a la pena máxima? ¿Cómo se evalúa?
07:53¿El conjunto de lesiones lo hace más grave
07:55o que ya sea un daño psicológico suficiente?
07:59Bueno, claramente lo va a analizar el juez
08:03qué pena le van a poner en caso que prueben el daño psicológico.
08:07Vos tenés ahí, por el delito este,
08:09estás hablando de una pena de entre tres y diez años.
08:12Tiene que ver si tiene antecedentes o si no tiene antecedentes.
08:15Tiene que ver un montón de factores.
08:18Trabaja la defensa.
08:19Pero faltarían lesiones, ¿no?
08:22No está tipificado esto.
08:24La verdad, lo que está pasando en el país con la tecnología,
08:26lo que decía Juli,
08:28es que la tecnología va diez pasos adelante del código penal.
08:30Porque hoy yo puedo montar la cara de cualquier persona,
08:32poner pornografía y si no tengo un abogado que sea piola,
08:35la verdad es que no pasa nada.
08:36Lo que yo digo es a los padres, a las madres,
08:39que con un teléfono celular,
08:41hoy los chicos de 11 para arriba tienen teléfono.
08:43Y la inteligencia artificial es una aplicación en el celular.
08:46Yo lo que les quiero decir es que hay que monitorear
08:50el teléfono de nuestros hijos e hijas.
08:52Porque no solamente por lo que reciben,
08:54sino por lo que se puede llegar a hacer.
08:56¿Ahora está de moda entre los chicos bajarse una aplicación?
08:59Pero por eso digo, la justicia tiene que legislar
09:02para que esto no se debe hacer.
09:04¿Por qué? Porque vas preso.
09:05¿Por qué un delito? Punto.
09:07¿Sabés qué está dando vuelta ahora y circulando?
09:09Tiene que legislar. El Congreso tiene que legislar.
09:11No está legislado todavía
09:12lo que son los delitos cometidos por inteligencia artificial.
09:14¿Cuánto van a esperar para hacerlo?
09:16Pero si no modifican el código penal con la baja de...
09:19Hay muchos proyectos de ley, ¿eh?
09:21Hay muchos proyectos de ley.
09:23Tenés el proyecto de baja de la edad en imputabilidad también.
09:27Pero duerme todo eso, ¿eh?
09:29Sí.
09:30La verdad que en el Congreso las causas duermen.
09:34Y digo las causas porque les llegan las causas
09:36a lo que está pasando para modificar las leyes y duermen.
09:38Lo que quiero decir que se ha puesto de moda en las escuelas,
09:41bajándole un tono a esto que es tan grave,
09:43es una aplicación que simula dar besos.
09:47¿Qué es esto? Es una aplicación
09:49que vos ponés la cara de alguien, la cara de A y la cara de B,
09:52y te simula un beso, te simula un beso apasionado.
09:57Y está pasando esto en las escuelas
09:59generando grooming y generando bullying.
10:01Quiero decir, lo que está pasando con la inteligencia artificial
10:04es gravísimo.
10:05Pero, Charly, Pame, lo estamos viendo.
10:08Hugo, también lo usan de manera humorística
10:11o como un chiste en las redes.
10:13Hemos visto en los últimos días a Messi, a Cristiano,
10:16tocando la guitarra,
10:18haciendo acciones que son tan reales los videos
10:20que realmente es muy difícil.
10:22Uno entiende que esos justos son truchos,
10:24pero, como decía Pame...
10:25¿Sabés qué pasa? Son reales.
10:28Son reales porque están creados con inteligencia artificial.
10:32Entonces, en el caso de estas chicas,
10:33el otro día, la semana pasada, hubo un caso similar
10:36en un colegio de la provincia de Buenos Aires, de San Martín,
10:39donde el chico tenía 15 años, hizo lo mismo.
10:42Ponía imágenes con la cara real de sus compañeras de colegio
10:46con cuerpos simulando ser material de abuso.
10:51Eso suena infantil.
10:52Y acá me preguntaban también,
10:53me decían, ¿pero es delito?
10:55No, desde mi punto de vista, no, por lo que comentamos.
10:57Pero fíjate que, en ese caso,
10:58el juez no fue por daño psicológico.
11:02O el fiscal no fue con la acusación de daño psicológico.
11:04Vamos a seguir atentos a lo que determine la justicia
11:07y que sea de manera...
11:08Seguimos de cerca.
11:09Y cuanto antes, para que esto sienta un precedente.
11:11Muchas gracias, Hugo, por su tiempo.
11:13Muchas gracias.

Recomendada