EL PROBLEMA DEL AVANCE DE LA INTELIGENCIA ARTIFICIAL: "FALTA LEGISLAR LA INTELIGENCIA ARTIFICIAL"

  • ayer
Debate con Hugo Sorbo y el equipo de Alerta 24/7 por el uso indiscriminado de la inteligencia artificial luego que se conociera que un menor vendía fotos de compañeras de su colegio desnudas con la utilización de esta herramienta.

Seguí en Alerta 24/7

Category

🗞
Noticias
Transcripción
00:00Carlos tiene razón. Los dos tienen razón. Y yo lo que voy a decir va a resultar un poco antipático.
00:08Carlos tiene razón porque dice, acá falta legislación. Acá falta legislación, sin duda.
00:16Y vos tenés razón directo cuando decís, bueno, acá la causa es distribución de material de abuso sexual infantil,
00:25porque se trata de distribución de imágenes de menos de edad. ¿Estamos de acuerdo?
00:28Sí, claro.
00:30¿Y el problema cuál es? A ver.
00:33Claro, lo antipático es que están creadas con inteligencia artificial.
00:37No lo quise decir porque me pareció un tema sensible, pero vos como abogado del diablo,
00:46o como abogado objetivo, lo vas a desarrollar. Porque, ¿qué pasa si son imágenes hechas con inteligencia artificial?
00:54No es delito.
00:55Wow. No puede ser, Hugo. No puede ser.
00:58Sí, puede ser. Y es una discusión que hay y es muy grande desde el momento que empezó la inteligencia artificial a entrar en nuestras vidas.
01:11Porque lo que te dice el Código Penal, que es muy claro, es distribución de imágenes de abuso sexual infantil.
01:17Imágenes reales de abuso sexual infantil.
01:19Ah, ahí está el punto. Pero esperá, por una cuestión semántica vamos a dejar libre a una persona que le caga la vida a 22 pibas en una escuela.
01:31Yo lo hago con inteligencia artificial, te pongo a vos, o a Diego, o a mí, en una situación delictual.
01:41Lo subo, le embromo la vida para siempre a Diego, y no tengo ninguna repercusión en la justicia.
01:49No, ninguna no. A lo mejor podemos ir por distribución de imágenes no permitidas.
01:55Pero de ahí a que sea distribución de imágenes de abuso sexual infantil, o lo que mal llamábamos antes pornografía infantil, de verdad te digo que tienen que legislar.
02:06Y legislar exclusivamente diciendo que las imágenes creadas con inteligencia artificial simulando ser un menor de edad, también sería punible quien las distribuya.
02:21Hoy, como está el artículo 128 del Código Penal, y la distribución del material de abuso sexual infantil,
02:30desde mi punto de vista como abogado, y te digo que es muy discutible porque esto es una discusión que yo tengo en la universidad todo el tiempo con la gente de la fiscalía.
02:39Todo el tiempo. Vos sabés que yo estoy del lado de la defensa. Mi trabajo es del lado de la defensa.
02:45Entonces, como abogado defensor, te digo que la distribución de material que no es real, sino que está creado con inteligencia artificial o imágenes realistas,
02:56las imágenes realistas está totalmente estipulado que no es delito.
03:01Entonces, como abogado defensor, te tengo que decir, yo estoy en un juicio y le pregunto al perito, al perito de la fiscalía.
03:08El perito de la fiscalía le digo, a ver usted señor, ¿usted es perito oficial?
03:14¿Usted extrajo las fotografías del teléfono del señor?
03:21Sí.
03:23¿Las fotografías que extrajo del teléfono del señor, para usted, son fotografías de menores?
03:32Sí. Y acá viene la pregunta, y es, ¿es posible que esas imágenes estén creadas con inteligencia artificial?
03:42Y el perito no tiene más remedio que decirme que sí, que es posible.
03:47¿Y se cae la causa?
03:48Sí señor, desde el punto de vista de la defensa.
03:51El juez está cruzado de brazos y le creaste una duda.
03:54Porque no hay encuadre, no hay encuadre legal.
03:57Tal cual Diego.
03:59Entonces, ¿qué me va a decir el juez? Esto es una travesura, lamentablemente no hay delito.
04:05Yo tengo a mi hija de 15 años, totalmente destruida, llorando, ¿y qué le tengo que decir?
04:11Mi amor, no sé, no lo dejan jugar a la play durante una semana, a tu compañerito.
04:16Y mi hija va a sufrir un trauma durante todo su vida.
04:20¿Vos sabés Diego que yo, hablando como papá, no te puedo hablar de la misma manera?
04:26Como papá pienso lo mismo que vos y lo mismo que Carlos.
04:29Y digo, este tipo está distribuyendo la cara de mi hija, con cuerpo totalmente desnudo,
04:34manteniendo relaciones sexuales, y está todo creado con inteligencia artificial.
04:37Pero yo voy al juez, y el juez no lo puede condenar.
04:40No lo puede condenar porque la ley no lo permite.
04:42Pero Hugo, entonces.
04:44Y encima es menor de edad.
04:46Claro, es inimputable.
04:48Por lo cual, si son menores de edad, son inimputables.
04:50Pero este tiene 17.
04:5217 o 15, habían dicho. Bueno, no importa, está bien.
04:54Bueno, ojo que la diferencia es importante.
04:57Menor punible.
04:59Porque si tiene 15, es inimputable total.
05:01Si tiene 17, tiene una penalidad como menor punible.
05:04Pero escuchame Hugo, te hago esta pregunta.
05:06Porque hemos conocido casos de actrices, actores, manejaban sus imágenes en situaciones pornográficas
05:13y lograron hacer un juicio, primero levantar de las redes, de los buscadores, esas fotos.
05:19Pero después fueron contra las personas que dañaron su imagen.
05:23Entonces acá estamos dentro del marco de un daño de la imagen de las chicas.
05:28Sin duda. Es más, fíjate que lo que hace la fiscalía, y me parece bien,
05:34lo que hace el juez es ordenar el allanamiento.
05:37¿El allanamiento de qué? ¿De qué lugar?
05:39Del lugar de donde se identificaron las direcciones de IP.
05:44De donde salieron esas fotos.
05:46Entonces allanan el lugar, encuentran la computadora o encuentran los teléfonos,
05:50verifican que dentro de estos dispositivos están las imágenes,
05:54se lo llevan, se lo secuestran y lo van a imputar.
05:57Pero el abogado defensor, si sabe lo que está haciendo, se va a matar de risa.
06:01Porque lo primero que dice no es delito.
06:03Entonces, te digo más, es una cuestión doctrinaria muy grande.
06:06Porque si yo estoy parado del lado de la fiscalía, Diego, Carlos,
06:10si estoy parado del lado de la fiscalía, claramente le voy a imputar el 128 del Código Penal.
06:15Es decir, la distribución de abuso sexual infantil.
06:17Pero el abogado que tengo en la defensa te va a decir lo que te dije ya hace un ratito.
06:20Entonces vos me decís, ¿qué hacemos con los chicos? ¿Qué hacemos con el colegio?
06:24Tengo dos patas para incorporar.
06:27Una tiene que ver con lo moral.
06:30¿Y dónde se dirime lo moral para mí? En el colegio.
06:34Que se lavó las manos. Se lavó las manos.
06:39Le dijo a los padres y a las madres de esas chicas, humilladas,
06:44varias de ellas que no querían volver al colegio porque, claro,
06:48eran observadas por sus propios compañeros, lo que te podés imaginar en tu casa.
06:52Humilladas, no pudieron volver al colegio.
06:54Y el colegio que les dijo, es una cuestión privada.
06:58No nos podemos meter.
07:00Eso es lo que hacen los colegios, Diego.
07:02Los colegios, ¿sabés lo que hacen?
07:05Se lavan las manos porque es más fácil.
07:08Es más fácil lavarse las manos que tomar el toro por las astas.
07:11Porque lo que tiene que hacer el colegio ante esta situación,
07:14salgamos de lo legal, vamos a lo educativo, vamos a lo moral.
07:18Lo que tiene que hacer el colegio, lo mínimo que tiene que hacer primero es suspenderlo.
07:21Lo primero que tiene que hacer es suspenderlo. ¿Por qué?
07:23Porque está utilizando las imágenes de sus compañeras del colegio.
07:28Sí, porque no son compañeras del club.
07:29Entonces el colegio tiene que tener, sin importar donde sea,
07:33porque acá claramente son todas compañeras del colegio, no son las compañeras del club.
07:36Qué ejemplo para los pibes, ¿no?
07:38Del club o las compañeras de otro lado.
07:40Son las compañeras del colegio.
07:42No, pero lo que quiero decir, Hugo, es que si hubiesen sido compañeras del club,
07:44es el club el que se tiene que hacer responsable.
07:46Si eran compañeras del Instituto de Inglés, el Instituto de Inglés se tiene que hacer responsable.
07:50Pero querés que te diga, el colegio hace la más fácil, se lava las manos.
07:53Qué lección, ¿no? Para los chicos.
07:55Digo, qué lección le dieron.
07:56Muchachos, acá no pasa nada, ¿eh?
07:58Trucan las fotos, no pasa nada.
08:00Conozco casos de niñas que a lo mejor tienen un certificado de discapacidad
08:06y en el colegio está sufriendo bullying.
08:08Y al colegio se lava la mano y no dice nada.
08:10Y lo primero que hace, culpabilizan o responsabilizan al que está sufriendo bullying.
08:14Huguito, ahora le vamos a dar la bienvenida a Fer Carolei también.
08:18Quería decir algo respecto a que uno, viste, es...
08:22Digo, por algo elegimos Carlitos, Hugo.
08:25Yo, bueno, estudio Derecho.
08:27Hugo es abogado, también participa de programas periodísticos.
08:31Vos, Carlitos, un tipo de vocación.
08:33Uno es justiciero de alma.
08:35Alguien tiene que pagar.
08:37Y le daba vueltas en mi cabeza.
08:39Bueno, y todos se la van a llevar de arriba acá.
08:41Y hay un dato que es clave, que hay consumidores.
08:44Hay consumidores menores de edad que compraron esas imágenes trucadas.
08:49Pero también HDPs, como lo decimos acá, casi con todas las letras.
08:55Digo, por el horario no lo vamos a decir completo.
08:58Pero hay HDPs adultos que compraron esas imágenes.
09:03El consumo de estas imágenes es delito, Huguito, ¿no?
09:07Bueno, te vuelvo a decir lo mismo de antes.
09:10Hoy, por la ley 27.436, la tenencia, la simple tenencia de material de abuso sexual infantil es delito.
09:18Antes no lo era.
09:20Antes vos podías tenerlo y no era delito.
09:22Se modificó la ley del 128 por esta ley que te dije, la 27.436, y la simple tenencia es delito.
09:29Caso hermanos Quisca, no emisiones.
09:31Que hace rato que no hablamos y nos vamos a meter esta semana en ese tema también.
09:35Pero ahí, pero el de Quisca, tenías imágenes reales de menores.
09:39Y distribución también.
09:41Y distribución también.
09:43Ahora sí la tenencia, Carlitos, en el caso de Quisca es delito.
09:47Pero acá te vuelvo a preguntar.
09:49Acá vuelvo a preguntar y vuelvo a traer al debate.
09:52Y yo te aseguro que este es un debate legislativo.
09:54Sí, sin duda.
09:56Diego, este es un debate legislativo.
09:58Este es el debate que se tiene que hacer en el Congreso.
10:00De hecho, déjame hacer una aclaración porque fue dato de Vanina.
10:03Hubo un proyecto de un legislador, ahora no recuerdo el nombre, Cordobés.
10:07Veamos de contactarlo también porque el proyecto quedó cajoneado.
10:10Se discute cada pavada en la Argentina en el Congreso.
10:14Y hubo un proyecto que tenía que ver con justamente unir aquellos que dañaran la imagen de un tercero.
10:23Este caso es gravísimo porque hablamos de menores, de imágenes que simulan pornografía.
10:29Bueno, en fin.
10:31Pero cualquier tipo de imagen trucada, lo que decías vos, Carlitos.
10:33Te ponen una imagen, no sé, con una mujer cualquiera simulando que vos estás con esa mujer para extorsionarte.
10:39Bueno, eso es un delito.
10:41Hubo un proyecto cajoneado, ¿no?
10:42Un proyecto cajoneado, no caminó para ningún lado.
10:45Hay muchos proyectos, te digo que hay muchos proyectos.
10:48¿Pero por qué hay tantos proyectos y todavía no hay definición?
10:51Porque la inteligencia artificial apareció de la nada en poco tiempo.
10:57Y vos sabés que la ley siempre va detrás de las cuestiones que ocurren en la sociedad.
11:03Claro, Huguito, dejame ser de la última que le vamos a saludar a Fer Carolei.
11:06Pero te quería preguntar.
11:08¿Y el tema de lucrar, de vender estas imágenes, no es un agravante para este caso?
11:13Bueno, estás lucrando con imágenes.
11:18Vos podés vender cualquier tipo de imagen.
11:21Y acá estás vendiendo imágenes prohibidas.
11:25Y pongo el signo de interrogación.
11:27Ah, bueno, seguís poniéndolas.
11:29Lo que sí te digo es que estás distribuyendo imágenes.
11:34Vamos al rostro nada más y saquemos la parte de abajo.
11:37Estás distribuyendo imágenes sin consentimiento.
11:39Sí, pero es un delito más que menor ese.
11:42Le arruinaron la vida a 22 pibas, como mínimo.
11:46Y estamos hablando de distribución de imágenes sin mi consentimiento.
11:51Coincido con vos, Carlos.

Recomendada