Escándalo en Villa Ballester: Uso de IA para crear videos falsos de compañeras de escuela
Un joven de 15 años del Instituto Agustiniano es acusado de manipular fotos de sus compañeras con inteligencia artificial para crear y vender videos pornográficos falsos. El caso, que involucra a menores entre 13 y 17 años, ha generado preocupación sobre el uso indebido de tecnología y plantea desafíos legales debido a la edad del responsable. Seis familias han presentado denuncias, mientras la comunidad escolar enfrenta el dilema sobre cómo manejar la situación sin recurrir a la expulsión.
Category
🗞
NoticiasTranscripción
00:00La situación nos lleva ahora a Villa Ballester, porque ahí hay, ¿cómo decirlo?, un escándalo de nuevo estilo.
00:08Porque esto que en otra época hubiera sido apenas una broma pesada, hoy por hoy se convierte en un problema real.
00:14¿De qué estoy hablando?
00:15Un alumno empezó a bajar fotos de sus compañeritas, y a esas fotos las empezó a aplicar inteligencia artificial
00:24y las convirtió en video porno, y además lo vendía Mercedes Mora, contame detalles.
00:30Es 100% un delito esto que cometió un joven de 15 años.
00:34Claro, tan solo 15 años, Rolando, entonces también para la justicia es un poco difícil saber cómo tratar el tema.
00:40Estamos hablando de todos compañeros del mismo colegio, estamos en el Instituto Agustiniano.
00:45Se conocen hace muchísimos años, la mayoría de ellos arrancan 5, 6 años y siguen toda la primaria
00:51y terminan el secundario en el mismo instituto.
00:54Claro, este chico tomaba esas fotografías, incluso algunas, Rolando, ni siquiera llegaba a editarlas,
01:00las vendía así tal cual, las robaba de las redes sociales de sus compañeras.
01:04Compañeras que tienen entre 13 y 17 años, a través de una plataforma las ponía en venta,
01:10se descubrió en un allanamiento que tenía por lo menos 8.000 clientes.
01:14Este chico que estaba no solamente generando dinero, pero claro, una mini empresa,
01:20un chico de 15 años donde generaba dinero, pero que realmente cometía un delito,
01:24exponía a sus compañeras a una desnudez que incluso en general no eran ciertas,
01:29porque eran todas creadas por inteligencia artificial.
01:32Seis de las familias ya radicaron denuncia oficial, se está trabajando en el tema.
01:37Claro, el problema es qué hace la escuela, qué hace la escuela con ese pibe.
01:41¿Qué hace con el chico?
01:43Bueno, justamente en estos tiempos también donde no lo podés expulsar
01:48y tal vez lo tenés que cambiar solo de turno, pero tiene que convivir con otras alumnas
01:52que también pueden pasar por lo mismo, ya nadie le tiene confianza.
01:56Las chicas incluso quisieron dejar de venir a la escuela.
01:59Abrís una puerta también para que los padres y los alumnos,
02:02si no tomás una medida, tomen venganza.
02:04Sí, te acordás que la otra vez vino un invitado que nos contaba que hay que legislar
02:07y que era importante legislar el tema de inteligencia artificial.
02:09Qué complejo es este caso, ¿no?
02:11Un menor es el responsable de lo que está haciendo, manipula fotos con inteligencia artificial
02:17Para simplificar la cuestión, no es difícil lo que hizo.
02:20No vamos a mostrarte cómo se hace porque no vamos a hacer apología de un delito
02:24que es justamente transformar una imagen y convertirla en algo llamado fake.
02:28¿Qué es una fake?
02:29Es una foto falsa, puede ser foto o video.
02:32También había mencionado chancevideo porque hay aplicaciones que te generan
02:35a partir de un video porno, poniendo la cara de una persona,
02:38un video porno de esa persona con un realismo altísimo.
02:43Lo que antes se hacía con el coso para retocar imágenes.
02:47Con photoshop, antes la ponías en photoshop.
02:50Ahora es tan simple como, lamentablemente, en plataformas como la que estamos viendo ahí,
02:55poner directamente la foto, elegir qué tipo de cuerpo, qué tipo de busto,
02:59qué tipo de acción se quiere y rápidamente se genera el desnudo de esa imagen.
03:03Para aclarar cuestiones, se mencionó mucho Discord.
03:07¿Qué es Discord?
03:08Discord es una aplicación de mensajería.
03:10Discord es una aplicación que se utiliza mucho en videojuegos
03:13porque te permite el chat con vos, con otra gente que esté conectada.
03:17Discord es el medio, no es el culpable de que se difunda algo de este tipo.
03:21Es como enojarse con Google Drive porque subiste las fotos a Google Drive.
03:25Es una plataforma que se utiliza para chatear y para intercambiar mucha información
03:30entre los miles de canales de difusión, uno, dos, tres miles en realidad también,
03:34pero tiene este tipo de contenido.
03:36Ahora, esos contenidos generados por inteligencia artificial,
03:39¿pueden ser considerados pornografía infantil?
03:41Bueno, es un tema que hay que legislar porque además, ¿te acordás que el diputado
03:44que había venido, lo que nos marcaba era que las imágenes tenían que claramente
03:48identificarse como inteligencia artificial para que no pasaran como reales?
03:52Ahora, si estuviesen identificadas con inteligencia artificial, también estaría mal.
03:56Claro.
03:57Y también...
03:58No, porque la vergüenza, lo que sí me parece, a ver Mercedes, que dicen por ahí,
04:02es claramente un caso de grooming, de asedio sobre las chicas.
04:06Pasa que es menor el que lo hace.
04:08Exactamente, exactamente.
04:10Tiene que ver con el ascoso, tiene que ver con la exhibición de su desnudez.
04:14Algunas estaban modificadas, otras directamente no.
04:17Tal vez eran fotos de las chicas en vacaciones, entonces las sacaban directamente
04:21de sus redes sociales porque estaban en bikini.
04:24Esto trasciende porque hay miles de usuarios que compraban,
04:27pero imagínate la cantidad de casos que debe haber en cualquier escuela secundaria
04:32de esto que lo hacen como una picardía.
04:34Este cumpleaños mirá lo que les regalamos, un video haciendo palosadas.
04:37Empezó gratuito, de hecho, en el disco de la plataforma.
04:40Mirá, acá empezó como un rumor.
04:42Bien, bien.
04:44Empezó como un rumor entre los chicos.
04:46Empezaron a contarlo a las familias y después finalmente se utilizó a uno
04:49de los alumnos que logra hacer contacto con este joven que, insisto,
04:53tiene tan solo 15 años.
04:55Y de esa manera empezaron a tener una conversación,
04:58le saca el CBU para hacerle el pago por el material que quería comprar
05:02y ahí terminan con un nombre de un banco, ya directamente nombre y apellido,
05:07y identificaron rápidamente al chico que era del mismo colegio,
05:10para sorpresa de todos ellos.
05:12Pero lo que pasa es que al no haber ninguna sanción,
05:14esto habilita a que algún padre algún día se lo cruce al nene
05:17y tome venganza por mano propia, se le salte la térmica,
05:20a que las chicas mismas le hagan algo al pibe.
05:24Él mismo puede ser pasible de bullying por esto.
05:28Y pienso que si no es revictimizar a las víctimas también,
05:31que tengan que cruzarse con la persona que editó sus fotos,
05:34que tengan que verlo todos los días.
05:36O sea, ahí el colegio tiene que cumplir un rol fundamental
05:38en la decisión que va a tomar, si lo sanciona o no.
05:42Sí, no solamente el colegio, sino la justicia,
05:44porque hay una denuncia que es real.
05:46La justicia tiene que ver de qué manera se trata a este chico
05:49porque realmente es menor.
05:51Entonces ver cómo se trata justamente a la justicia.
05:55No nos ilusionemos.
05:56La justicia no logra meter preso a un pibe chorro
06:00o un pibe que mató a otra persona en un asalto.
06:03¿Qué van a hacer con esto?
06:05Ni deben entender de qué se trata.
06:07Ni van a entender de qué se trata.
06:09No cabe en los manuales.
06:11Ahora es para analizar más ampliamente,
06:14pero son imágenes que son falsas.
06:16Ni siquiera son las chicas.
06:18Sin embargo, generan en las chicas la vergüenza.
06:20Es la identidad de ellas, porque es su cara.
06:22Hay de las dos.
06:23O sea, están usando la identidad sin consentimiento de las chicas.
06:26Mechi, lo que entiendo cuando decís hay de las dos
06:28es que hay dentro, por ejemplo, de Instagram
06:30una categoría que se llama Mejores Amigos,
06:32que es un lugar que solo pueden ver determinadas personas
06:35a las que agregás a Mejores Amigos.
06:37¿Qué es lo que hacían en este caso?
06:39Personas que estaban, ¿no, Mechi?
06:40Personas que estaban dentro de ese Mejores Amigos.
06:42Lo filtraban.
06:43Capturaban esa foto, que de hecho no estaba pensada
06:45para un público global,
06:47sino justamente para Mejores Amigos
06:49y la compartían también en esa red.
06:51Claro.
06:54Y la pregunta también, perdón, Mechi, es...
06:56¿Qué juntaba todo ese material?
06:57Había ocho mil personas comprando este material.
06:59Es un montón de personas también.
07:01Claro, lucraba con las imágenes.
07:02Y el tema también es la familia.
07:03Digo, cuando empezaron a ver que el chico tenía mucha plata,
07:06porque eso entiendo que le era muy redituable.
07:09Entonces, digamos, ese ingreso, ¿de dónde venía?
07:11¿No preguntaban los padres de dónde venía ese ingreso?
07:15Si es que eran conscientes de lo que estaba pasando,
07:17si hay un control, si es una billetera virtual,
07:20si ellos tienen como acceso a ese lugar también.
07:23Bueno, la verdad es que fue una sorpresa enorme
07:26para toda la comunidad educativa.
07:27Nosotros en unos minutos vamos a conversar con una familia
07:30que es una de las familias denunciantes,
07:32porque de las 22 chicas, solo seis familias denunciaron.
07:35Claro, este es un caso extremo,
07:37porque además se combina con el uso de inteligencia artificial,
07:40más el que lo vendía, más que el pibe era menor,
07:44pero ¿cuántos casos debe haber en colegios secundarios
07:47que está pasando esto?
07:48Manipulación de imágenes para hacerse una broma,
07:50para hacer una ridiculización.
07:52Y el otro problema de nuevo cuño que hay
07:55es el de la ludopatía infantil.
07:57Cualquier padre que tiene un pibe en el secundario
08:01tiene que estar atento a estas dos cosas.
08:02Con un agravante rol, lo que además es complejo
08:04para los docentes, para los gabinetes psicológicos y demás,
08:07porque hoy los pibes van mucho más por delante
08:10que los adultos que tienen que manejar esta situación
08:13en el manejo de la tecnología.
08:15Entonces vuelve todo un desafío en ese sentido.
08:17Y además también, ¿qué decisión adoptar con respecto a este chico?
08:20Porque en general podemos tener cierto consenso
08:23de que no hay que expulsarlo del ámbito escolar.
08:25Ahora, para las chicas también,
08:27y me pongo en el lugar de los padres y de esas familias
08:29que las tenés llorando en tu casa,
08:31yo no quiero que mi hija vuelva al encuentro
08:33de quien le hizo tamaña atropelía.
08:35Y por otro lado, también para él es complicado,
08:37porque ya varias veces lo quisieron agredir y golpear
08:41algunos de los compañeros que adoptaron alguna reacción más violenta.
08:44Y lo grave es que, al estar en el mundo digital,
08:47toda esa imagen, por más falsa que sea,
08:49se multiplica al infinito.
08:51Ya está circulando.
08:53Eso es lo grave del mundo digital.
08:55Por más que sean imágenes falsas,
08:57¿en qué mundo vivimos en el que una imagen falsa
08:59igual nos genera vergüenza?
09:01Pobres chicas, las que son las víctimas de esta situación,
09:04que una imagen generada de manera falsa
09:06igual les genera vergüenza, por más que no sean imágenes falsas.
09:09Claro, porque la viralizan en el círculo
09:11donde está la mirada de sus amigos.
09:13Sí.
09:14Mechie, fíjate si podés conseguir...
09:16Claro, y aparte, ¿quién sabe que es falso?
09:18Exacto.
09:19¿El que está cerca tuyo?
09:20Ah, además, el resto creen que es real
09:22y sos vos en medio de una película como
09:24que no tenías ni idea que existía.
09:26Esa es la clave.
09:27¿Quién sabe que es falso?
09:28Como se rompió la línea entre lo verdadero y lo falso,
09:31para esa persona, esa persona está expuesta
09:33con imágenes de nudes propias.