• hace 2 meses
El auge de la inteligencia artificial (IA) ha intensificado los desafíos relacionados con la violencia digital contra las mujeres. En esta charla con la activista Olimpia Coral, impulsora de la Ley Olimpia en México, la IA y tecnologías emergentes como los robots sexuales están configurando nuevas formas de abuso y explotación contra los cuerpos de las mujeres.

Category

🗞
Noticias
Transcripción
00:00Entonces, el problema no es como tal el sexo y el robot, el problema no es el sexo ni el problema es el robot, el problema es la programación con la tendencia pornificadora de los cuerpos que señala hoy la existencia de la digisexualidad.
00:15Ese es el problema y ese es el debate y eso es lo que pongo en la mesa con este texto de investigación en el cual pues sí es preocupante,
00:24porque si vemos la tendencia de los datos, de las violencias hacia las mujeres, a las minorías y hacia además otras incidencias, podemos entender entonces que es ahí donde más se afecta, es ahí donde más se va a llevar esta tecnología.
00:38Tu voz, la mía y la de todes, aquí empieza el Podcast de Eva.
00:44Bienvenidas, bienvenidos y bienvenides al Podcast de Eva, yo soy Scarlett Lindero, editora de La Cadera de Eva y hoy me acompaña Olimpia Coral Melo, activista, fundadora de la ley, impulsora de la ley Olimpia que lleva su nombre.
00:57Pero bueno, antes de dar la palabra, quiero que se imaginen un escenario, imagínense que hay un robot que tiene su misma identidad, su voz, su cabello, pero que lo utilizan para que se transforme en un robot sexual y le aumenten pechos, le aumenten una serie de cosas para el objeto, pues bueno, para que se vea como un objeto sexual.
01:18Este escenario ya lo pensó Olimpia y bueno, aquí nos trae sus conclusiones. Bienvenida Olimpia.
01:23Sí, bueno, pues muy contenta de estar aquí en este video podcast de La Cadera de Eva. Pues hace, lo platicaba, ¿no? Que ya llevaba yo un año investigando hasta que dio a luz ya el texto de Sexo con Robots, ¿no?
01:40Que así a simple título es muy llamativo y es muy, además, como que espeluznante, como bien dices, como ciencia ficción, como de una realidad que no existe cuando sí existe, ¿no?
01:56Hoy con tomar una computadora, hoy con tomar un acceso a internet, hoy con poder navegar, puedes encontrar una empresa que se llama Sex Doll, por ejemplo, y poder comprar un robot sexual a imagen y semejanza de la fotografía que tú envíes, incluso puedes agarrar la fotografía de cualquier persona y decir yo quiero un robot así.
02:15El costo está entre ocho mil y diez mil dólares más o menos. También puedes remasterizar y aumentar los ojos, la cara, la boca, dotado con inteligencia artificial incluso para que tenga la misma voz, los mismos movimientos, ¿no?
02:32Así simplemente la información parece, ah, qué padre, puedo tener una idea antropomorfizada de mí mismo, qué padre, ¿no? O sea, todo mundo desde las épocas milenarias han querido siempre antropomorfizar pues todo lo que signifique objeto, ¿no? Para hacerlo humano, humanoide.
02:55Pero es que dotado con las circunstancias misóginas, patriarcales, de una industria de pornificación de los cuerpos, de una industria de comercialización de los cuerpos y de la comercialización del placer sexual, termina siendo aparatoso y termina siendo violento, termina siendo automatizado porque, oh sorpresa, no se están comercializando la mayoría de los robots para compañía, para personas, no sé,
03:25adultas mayores, por ejemplo, para compañía, no se están vendiendo robots como robotina para hacer el quehacer del trabajo, se están haciendo humanoides digitalizados con todos los estereotipos y canones de belleza que marca la cultura porno que tiene que ver con senos de este tamaño, con nalgas de este tamaño, blancos además, con todos los canones y estereotipos de belleza que nos han marcado un eurocentrismo
03:54de lo que debería significar un hombre sexy, una mujer sexy para lo que otra vez es un comercio que se confunde entre el sexo y la pornografía, ¿no? Y que termina automatizándose y dotándose con inteligencia artificial y dotándose con herramientas digitalizadas.
04:13No se facilita a raíz de eso, ¿no? Sino que se crea. Y entonces también se están creando, por ejemplo, en esa misma empresa puedes comprar baby pussies de bebés de meses de edad, sin vello, los puedes elegir, ¿no? Y quien tiene, quien defiende este lobby señalan que con eso se van a acabar la pedofilia, por ejemplo, ¿no? Hasta hacen marchas de que la pedofilia es una orientación sexual.
04:41Y entonces señalan, ¿no? Que con eso se va a acabar la pedofilia, ya no van a violar niños, ya van a tener su robot sexual para poderlo penetrar y además automatizarlo y además programarlo como quieran.
04:55Entonces el problema no es como tal el sexo y el robot, el problema no es el sexo ni el problema es el robot, el problema es la programación con la tendencia pornificadora de los cuerpos que señala hoy la existencia de la digisexualidad.
05:09Ese es el problema y ese es el debate y eso es lo que pongo en la mesa con este texto de investigación en el cual pues sí es preocupante porque si vemos la tendencia de los datos, de las violencias hacia las mujeres, a las minorías y hacia además otras disidencias, podemos entender entonces que es ahí donde más se afecta, es ahí donde más se va a llevar esta tecnología.
05:33Entonces estamos hablando que en lugar de ir en crecimiento con los avances tecnológicos, otra vez si hay una herramienta de sofisticación, lo que tomamos es la agarramos, la tomamos, la transformamos y termina siendo un mecanismo otra vez para automatizar lo que ya conocemos como violencia de género.
05:54Y que yo insisto y que estamos además en contra de llamarle facilitada por las tecnologías porque este argumento además de que está fuera de la ley porque se llama violencia digital, este argumento le quita la responsabilidad a las empresas.
06:08No está facilitada, está arraigada, perpetuada, es una extensión de la violencia sistémica que ya vivimos que hoy encontró un nuevo medio comisivo a través de los espacios digitalizados.
06:19Dijiste una palabra clave, Olimpia, violencia digital. Para quienes no conozcan a Olimpia, ella es impulsora precisamente de la ley que lleva su nombre, la ley que identifica, reconoce y castiga la violencia digital en México.
06:33Y bueno, pues justo ahora con el auge de la inteligencia artificial se vienen como nuevos retos de la violencia digital contra los cuerpos de las mujeres.
06:42Y justo quería preguntarte, ¿consideras que ahora con el auge como de estas nuevas formas de sexualización de nuestros cuerpos, de violencia digital, la ley Olimpia deba agregar nuevos modos de violencia, se deba como modificar para los nuevos retos que vienen?
07:01Bueno, hay que primero poner en la mesa que es la ley Olimpia. Para quienes no sepan, la ley Olimpia jurídicamente es un conjunto de reformas que reconoce a la violencia digital dentro de la ley de acceso a las mujeres una vía libre de violencia,
07:14entendida la violencia digital como aquellos actos agravados, perpetuados a través de las nuevas tecnologías de la información y la comunicación que dañan la intimidad, que dañan la seguridad,
07:24que dañan los derechos humanos de las personas que vivimos a través de estos espacios digitalizados.
07:32El hecho de que no tengas Twitter o que no tengas Facebook no significa que no puedas ser tu víctima de violencia digital.
07:38No existen diferentes tipos de violencia digital, no solo la sexual, o sea que puede ser desde la intervención de tus comunicaciones hasta el robo de tu identidad.
07:45Antes de la ley Olimpia, cuando hablábamos en México y América Latina de violencia digital o de ciberviolencia, todo estaba enfocado al ramo mercantil, al ramo bancario, al ramo económico, robo de identidad, robo de tarjeta de dientes, fraudes interbancarios,
08:01y que no entonces estaba atravesado esta transversalidad de lo cual significa los derechos humanos de las personas que habitamos también esos espacios y además de las mujeres que somos la media del mundo.
08:10Entonces, ante esos escenarios había ya diferentes disposiciones legales que robo de identidad pues es robo de identidad con el medio comisivo digital.
08:19No, extorsión es extorsión con el medio comisivo digital.
08:23Pero había, además de que no existía una denominación de violencia digital que ahora ya existe dentro de la ley, existía una laguna, un lexicon jurídicum sobre la difusión, producción,
08:33ojo que no es lo mismo difundir o producir comercialización de contenidos íntimos, imágenes de contenidos íntimos sexuales sin el consentimiento de las personas.
08:45Esto que significa lo que conocemos en el argot social como Pax, Nudes, que se difunden dentro de lo que nosotras también llamamos,
08:53y invitamos y convocamos que así se les llame, mercados de explotación sexual digital que ascienden hasta 2 millones de estos en América Latina,
09:02que van desde grupos cerrados de amigos, principalmente hombres desgraciadamente, en donde se intercambian esos contenidos íntimos.
09:11Y que era algo muy normal, pues ya se dejó grabar, yo lo comparto.
09:14Pero fue en un ámbito de intimidad, fue en un ámbito de sexualidad digital o digisexualidad, que si bien hay que cuestionar todos los términos de los consentimientos que nos da hoy,
09:27se dice que hay dos tipos de consentimientos, pero que hay que cuestionarlo, desgraciadamente no podemos responsabilizar a la víctima de esas circunstancias.
09:37Entonces creamos el delito de violación a la intimidad sexual, que es el artículo 199 en el Código Penal Federal, 199 OCTIS,
09:47en donde señala una punibilidad, una penalidad a quien difunda, a quien distribuya, a quien produzca, ojo, contenidos reales o alterados de una persona sin su consentimiento.
10:01¿Qué significa esto? Que si tú tienes en tu teléfono celular una fotografía de alguien que no te dio la autorización para que la tengas con contenido sexual,
10:11pero tú no eres el origen, pero a ti te llegó, tú eres parte de la cadena de acoso, tú eres parte de la producción de estos contenidos que se viralizan y que tienen repercusiones muy grandes para las personas.
10:22Y me gustaría ser muy inclusiva y decir para las personas, pero no es cierto, para las mujeres y para las niñas principalmente,
10:31donde nuestros cuerpos han sido el objeto de comercio dentro de esta mal llamada cultura porno.
10:39¿Por qué es importante definir la Ley Olimpia? Porque en el ámbito jurídico es este conjunto de reformas,
10:45pero en el ámbito social también es una causa, es una lucha de diferentes mujeres que nos hemos organizado justamente para interrugar y para cuestionar no solamente los ámbitos jurídicos,
10:55sino otros ámbitos en donde tiene que ver el uso de las tecnologías, pero que además tiene que ver también el uso de estas herramientas de las mujeres para las relaciones tecnológicas en las que vivimos.
11:08Imagínate que solo el 3% de las mujeres en el mundo estamos relacionadas con la investigación de inteligencias artificiales.
11:15Hay un sesgo grande, no hay una paridad en la participación de la creación de estas tecnologías.
11:26Y esto habla entonces desgraciadamente de las deficiencias que tenemos para poder dominar estas tecnologías.
11:33Entonces me parece importante que hablemos de la Ley Olimpia no solo como ese conjunto de reformas, sino también como un movimiento político no electoral,
11:42pero sí un movimiento político que aspira a que las niñas y las mujeres estemos seguras también en Internet y todos los espacios digitales, ojo, conocidos y por conocer.
11:51Entonces, contestando a la pregunta si la Ley Olimpia tiene qué, hay que recordar entonces que con base a esto,
11:57nosotras ya habíamos presentado en el año 2013, 12 si no mal recuerdo, habíamos documentado ya el caso de algo que hoy se podría manifestar como inteligencia artificial.
12:11En Puebla tomaron la fotografía de una chica, la manipularon para abrirle y cerrarle la boca y meterle un pene a la boca para hacer como un estereotipo de videojuego.
12:24¿Era ella? Sí. ¿Era su identidad de ella? Sí. ¿Su identidad digitalizada? Sí. Por lo tanto entonces no era ella, es la pregunta.
12:33Pero la afectación fue para ella directamente, con su nombre, con su identidad, con su persona, con su derecho impersonal, entonces le afectó directamente a ella.
12:45Y cuando nos decían y cuando empezamos con esto es que es virtual, no es real, entonces dejamos el hashtag, lo virtual es real, existe y daña, ¿no?
12:53Y no se facilita, no es como, ay, aquí está y llegó un libro y entonces a raíz de la escritura se facilitó los comentarios misóginos, no.
13:02El problema es de raíz, ya existe de raíz una condición sistematizada de objetivación, de discriminación y de violencia hacia las mujeres, la cual llamamos misoginia,
13:15dentro de los ámbitos sociales que se ha aumentado, por así decirlo, que es un medio cognitivo más cualquier otra herramienta, desde la creación de la imprenta, la cámara, hasta hoy la inteligencia artificial.
13:27Entonces me parece importante señalarlo porque entonces así podemos ir entendiendo cómo ha ido evolucionando esto y cómo hemos desgraciadamente a la llegada de cualquier tecnología,
13:38no sé qué palabra utilizar, la hemos como transformado, jodido, para terminar haciendo abuso de los cuerpos de las mujeres.
13:46Ahí está la invención de la cámara, no mal recuerdo, 1800 y tantos.
13:53Lo primero que se viralizó con el uso de la cámara, a pesar de que sí las documentaciones, fueron estas postales francesas que se distribuían dentro de los smookers,
14:03en donde sólo iban hombres a intercambiarse clandestinamente estas imágenes de mujeres semidesnudas y que se comercializaban,
14:11y que además con este falso discurso de empoderamiento les decía, hay mujeres guapas, sexys, aceptadas socialmente, ya que tu rol sólo era de mamá y de buena esposa,
14:21ahora libérate, vamos, empodérate, tu cuerpo es tu decisión.
14:25Y entonces terminaban siendo aceptadas otra vez con un rol de beneficio falocentrista.
14:32Me parece todas estas reflexiones importantes porque hoy se reducen a la inteligencia artificial, a la programación de esta inteligencia artificial,
14:41a la programación de un algoritmo que tiene sesgos importantes y que esos sesgos terminan desgraciadamente dañando la vida de las personas.
14:51Sí, lo preguntaba porque por ejemplo en Estados Unidos ya hay como algunas iniciativas que justamente están pensando en regular los robots sexuales precisamente para proteger un poco,
15:02pues justo la intimidad de las personas y ahí en ese sentido quiero preguntarte cuál es el escenario que están planteando ya otros países
15:11y que se podría ir poco a poco integrando en México ante este futuro que ya está pues muy cercano.
15:16Bueno, recordemos el caso del Instituto Politécnico Nacional de Diego N. en el que este alumno fotografiaba alumnas,
15:25las manipulaba con inteligencia artificial y después almacenaba, vendía, comercializaba, intercambiaba estas imágenes.
15:32Este alumno hoy está viviendo su proceso jurídico dentro de la cárcel por el peligro que representa, hubo ocho denuncias al respecto.
15:42Hemos tenido por supuesto que todo tipo de nuevas investigaciones, de nuevos procesos, de nuevas interrogantes y además de nuevos retos sobre la ley olimpia,
15:51pero desde ahí ya aplica la ley olimpia. ¿Por qué? Porque estamos hablando de contenidos reales o alterados de imágenes.
15:59Entonces con esto digamos que ya nos habíamos adelantado a. También le pusimos una definición,
16:04mientras que ahorita en Estados Unidos por ejemplo se están debatiendo entre si le llamamos de revenge porn, porno venganza o cómo le vamos a llamar.
16:13Oye, pero es que ya existen dos países en América Latina que le llaman violencia digital,
16:19que no fue como que un grupo de señoritinos se sentaron a decidir sobre la querella de las mujeres en 1400,
16:26o no fue que un grupo de diputados se sentaron a decidir a ver si votaron o no las mujeres,
16:30fueron las propias víctimas quienes hicimos, quienes redactamos, quienes cada verbo rector de estas leyes se hicieron
16:38desde la perspectiva de las vivencias reales que nos atravesaron y que por eso tiene esa fuerza me parece las legislaciones
16:45que son un hito para diferentes países y que se han ido dando en diferentes países y que a pesar de que copiamos
16:53o de que tenemos los sistemas democráticos de otros países, los sistemas federales, las constituciones,
16:58cuando México crea una ley modelo en la materia, que al menos claro que no es la varita mágica ni la panacea en la ley olimpe,
17:07pero claro que es una ley modelo que ha creado hasta instituciones como la unidad especializada en delitos contra la intimidad sexual,
17:13que podemos ya hablar ahora qué está sirviendo, qué no está sirviendo, y no está siendo este modelo para otros países.
17:20Hoy actualmente en Estados Unidos se está discutiendo la ley CHILF que tiene que ver solo con menores de edad,
17:25con la punibilidad, la difusión de imágenes de pornografía infantil con menores de edad,
17:31o se está abriendo los debates para que entonces prácticamente las leyes en un país capitalista que todo lo vende,
17:38incluidos nuestros cuerpos, se genere lo siguiente, si te pagan por el contenido no hay violencia,
17:45si te pagan por el contenido no hay violencia no hay delito, si no te pagan ya hay delito.
17:50¿Cuál es la perspectiva y la reflexión de este tipo de análisis jurídicos que se están dando en un país que toma decisiones como Estados Unidos?
17:59Pues entonces que estamos provocando que en cinco o diez años la única oferta de autonomía económica que tengamos las mujeres y las disidencias
18:08sea la explotación de nuestros cuerpos, no es el cuestionamiento si te dedicas a OnlyFans o no,
18:13si está bien, si es moralmente aceptable o no, no, eso va más allá,
18:17es la oferta que pone el mercado sobre nosotras, no que seas la mejor, la directora de cadera de Evo de la ciudad rota,
18:26no que seas la principal empresaria de reforma, no que seas la doctora remasterizada,
18:33no, sino que te acuerdes que lo único que significa tu cuerpo en las épocas milenarias que era para parir
18:39y hoy para dar placer sexual falocéntrico, porque también eso hay que decirlo,
18:43no se habla del clítoris ni se habla de las relaciones entre mujeres,
18:48tu placer sexual falocéntrico que tiene un precio y un poder, y ese precio y poder no lo controlas tú,
18:54lo controla un sistema que te está diciendo que no te preocupes, que vamos, adelante,
18:59si no, si te pagan, ya te pagaron, si de todas maneras nos violan, si de todas maneras nos joden,
19:04si de todas maneras nos difunden, pues mejor que te paguen,
19:07no me extraña este tipo de decisiones jurídicas en Estados Unidos cuando,
19:12vaya, es un país que tiene su historia completamente capitalista,
19:17pero ¿cómo va a afectar estas decisiones estadounidenses hacia alrededor de América Latina
19:21con mujeres migrantes que tienen que pasar en las inmediaciones de México y América Central
19:27con la filtración, no solamente con la obligación de tener relaciones sexuales y ser violadas,
19:32sino además con las extorsiones que viven para que esas filtraciones no se den de manera pública
19:39en los espacios, hoy, las mujeres migrantes?
19:42¿Qué va a pasar con las mujeres indígenas o el mal llamado etnoporno
19:46que señala a estas mujeres o las objetiviza de esta manera?
19:50¿Qué va a pasar con las mujeres que tienen condiciones paupérrimas?
19:54¿Qué va a pasar con las otras minorías? ¿Qué va a pasar con las disidencias
19:58que no les ha dejado el mercado otra oferta más que la explotación de su cuerpo
20:03y que ha colapsado todo eso como si fuera un derecho otra vez
20:08y no llevarnos a la raíz del problema que es la opresión sistemática y comercial de nuestra sexualidad?
20:14Entonces, me parece importante porque ahí vienen estas tendencias
20:19que mientras México ya le llama violencia digital y dejamos llamar porno a venganza,
20:22mientras que Argentina hoy en día está creando campañas masivas
20:28para la prevención de la violencia digital a pesar de los apesares con el presidente de Argentina,
20:33¿no? Lo logramos y cómo es posible que apenas se esté discutiendo
20:38simplemente la ley de inteligencia artificial que está lanzando la Unión Europea
20:43no tiene consideraciones sobre la violencia sexual digital que se puede crear a través de inteligencia artificial
20:48porque otra vez las leyes, como los organismos, como las instituciones
20:53están hechas sin una visión, la nuestra, la de nosotras.
20:58Entonces, creo que es importante pues seguir alzando la voz.
21:01Y ya hablamos del gobierno, ¿no? Pero justo al principio decías
21:05¿quiénes son los principales responsables? Digo, no solo los consumidores, evidentemente,
21:09sino las empresas, ¿no? ¿Qué consideraciones éticas deberían tener,
21:14empezar a tener estas empresas que están detrás del desarrollo de, como bien mencionas también
21:18el algoritmo patriarcal, pero ¿qué límites o qué regulaciones también deberían contemplar
21:24el uso de estas, uso y creación de estas nuevas tecnologías?
21:28Mira, primero creo que se tiene que hablar de la programación de los algoritmos, ¿no?
21:35¿Cómo programamos? Se sintetiza la información, se genera, es programación que además
21:41no puede concebir el humano, por eso es que hubo seis mil personas
21:45despedidas de diferentes empresas porque pues ya ocupó este espacio
21:51la programación de inteligencia artificial, ¿no? Que no hay que satanizarlo,
21:56que el problema no es la inteligencia artificial, quienes estén viendo este podcast,
21:59¡Ay, sí es cierto, que mi hijo no va a la inteligencia artificial!
22:01No, no, no, tenemos que dominar sus tecnologías, pero crear nosotros
22:04nuestro propio código, ese es el tema, crear el código.
22:07Pero esa es la respuesta más utópica, destruyamos todo y queremos el código.
22:11Claro que queremos, claro que nos encantaría, claro que nos gustaría,
22:13a pesar de que hay un, otra vez vuelvo al sesgo, a pesar de que es un sesgo importante
22:18sobre el desarrollo de esto hacia las mujeres y hacia las niñas,
22:22pero partiendo de esto traigo yo, he escrito un dato con el cual
22:26quería responder esa pregunta. Fíjate, hay 65 millones de comentarios
22:30al día en Twitter, ¿no? A la llegada de Elon Musk las cuentas con contenidos
22:34misóginos crecieron un 69% en promedio y las cuentas abusivas,
22:39estas cuentas abusivas ganan entre 22.000 y 29.000 seguidores
22:44a partir de la llegada de Elon Musk. ¿Cómo genera entonces Elon Musk
22:48un escenario misógino? ¿Cómo entonces la llegada de Elon Musk es igual
22:52a la llegada de cuentas misóginas? Sí, porque hay una tendencia,
22:57porque las inteligencias artificiales y las programaciones son programaciones
23:01para la generación de resultados que nos puedan ayudar a facilitar
23:05ciertas tareas, pero si esa facilitación de resultados que tiene un proceso
23:10de integración, de reprocidad, de generación de reproducción y de generación
23:17de todos estos estudios que se hacen tanto aritméticos, tanto numéricos,
23:22tanto algebraicos para poder generar un resultado, tienen una programación
23:27de alguien con ya un sesgo, no solamente entonces esa programación termina
23:31siendo clasista, homofóbica, violenta, sino también termina haciéndose a uso
23:37y a semejanza de los creadores. Entonces, ante este escenario,
23:42lo que significa esta tendencia es una toma de decisiones, y en esta toma
23:46de decisiones, tomando en cuenta que X es el espacio por autonomacia,
23:50con violencias ya periodistas, activistas, defensores de derechos humanos,
23:54las tendencias terminan siendo un impacto que genera directamente
23:58la toma de decisiones de muchas personas. Entonces, entre los 2.000 millones
24:05de usuarios que tiene, por ejemplo, Meta, entre esos 2.000 millones de usuarios,
24:09una de las condiciones que tenemos es que, cuáles son las regulaciones que tienen
24:14hoy las empresas de inteligencia artificial, o las empresas de desarrollo
24:19como ChatGPT, o las empresas de servidores de buscadores como Google,
24:23como Yahoo, por poner algunos ejemplos, cuáles son las regulaciones que tienen.
24:29Por ejemplo, en Estados Unidos existe una ley de servicios digitales,
24:32que tiene medidas específicas para el tratamiento del contenido ilegal,
24:37pero otra vez, del contenido ilegal. Si no se genera que este contenido
24:43sea legal o ilegal con parte del Estado, se pueden lavar las manos muy fácilmente
24:47y decir, pues no es un contenido legal porque lo que no está prohibido está permitido.
24:53Entonces, me parece que ante la inteligencia artificial se tenga que dividir así.
24:57La inteligencia artificial tenga que tener condiciones reglamentarias para saber
25:03si estás en primera instancia hablando con una inteligencia artificial
25:07o estás hablando con un humano, para empezar.
25:10Que tenga una dimensión de la realidad y de lo artificial, de lo real y de lo artificial,
25:15para que tú mismo tengas consecuencia de ello, para que tú mismo sepas
25:19qué está pasando, con qué estás hablando.
25:22Porque muy desatinadamente también las inteligencias artificiales,
25:26ante los juicios que se tienen sobre las necesidades psicológicas que se han dado,
25:34como la salud mental, por ejemplo, te dicen, no te preocupes,
25:37si te sientes solo, no vayas a terapia, no necesitas tomar el problema de raíz,
25:43yo te doy un robot que te acompañe, un robot programado y automatizado
25:46por una empresa que gana dinero contra enfermedad mental.
25:50Entonces, ¿qué necesitamos? Parámetros éticos,
25:55en los que no decidan solo los gobiernos y las empresas, sino los usuarios.
26:00Me llama mucho la atención que cada vez que se hace una ley en materia de tecnología,
26:04denosten nuestras autoridades, ya me reuní con las empresas,
26:09tuve una capacitación por parte de Meta, oye, pero Meta no ha dado resultados,
26:14es más fácil que nos borren a nosotras un tendedero de mercados de explotación sexual,
26:21a que borren un mercado de explotación sexual, ellos son tus consejeros,
26:26y no estoy satanizando a las empresas, los queremos mucho,
26:29qué bueno que existan todo, pero son empresas que tienen intereses comerciales,
26:35no intereses personales, humanos y mucho menos, no tienen estándares de derechos humanos
26:41en donde te deje el país, que te deje meter tu empresa a diestra y a siniestra,
26:48lo van a hacer sin contar, por ejemplo, que estas repercusiones generan una repercusión al ambiente,
26:55¿sabían que entre 10 y 50 preguntas que se le haga a ChatGPT,
27:02se consume medio litro de agua? Dirían en casa, ¿cómo es posible eso?
27:06Sí, porque nos dicen que es gratuito y es abierto, pero ¿cómo funciona?
27:11Primero, estamos conectados a Internet a raíz de la fibra óptica que tiene circuitos de cables submarinos,
27:19que lo pueden encontrar, quiénes son sus dueños y quiénes ganan con esto, en www.cablesubmarinos.com, para empezar.
27:26Y en segundo lugar, para poder procesar toda esta información de la megadata,
27:31se necesitan procesadores de información, que necesitan refrigeradores,
27:37que necesitan agua para poder llevar a cabo esto y nadie lo está regulando.
27:42O sea, las regulaciones se están dando solamente por los contenidos o por las circunstancias
27:48y no por la raíz comercial que tienen las empresas digitales.
27:52Yo sí creo que necesitamos leyes de regulación, sí, pero no solamente en donde intervengan los políticos,
27:58las instituciones y las empresas, sino los usuarios, las usuarias y sobre todo las víctimas.
28:05Sobre todo con estos intereses divididos, medio ambiente, derechos humanos,
28:11intenciones de minorías, intenciones de cada país y los contextos de cada país,
28:17porque es importante entender que cada uno vivimos en territorios diferenciados
28:23y que por eso es importante hablar de tecnología y desarrollo tecnológico desde estos contextos.
28:28Y justo, decíamos, la inteligencia artificial no es el problema, ¿no?
28:32Tampoco vamos a satanizarla ni nada.
28:34Hay una manera también como de hackear, digamos, el sistema
28:38y utilizar esa inteligencia artificial también para prevenir y atacar la violencia.
28:43¿Cuáles serían como esas posibilidades?
28:46Digo, en un escenario positivo donde no nos enfocamos solamente en los riesgos que están,
28:51pero ¿cuáles serían como estas propuestas que podríamos estar también viendo?
28:53Pues mira, yo creo que hay una empresa que está generando en lugar de humanoides,
29:00objetivoides creo que les llaman.
29:02Entonces, en lugar de que antropomorficen, no sé, a una barredora de piso, ¿no?
29:14Que la antropomorficen, simplemente la objetivizan, o sea, es un instrumento tecnológico
29:20y ya, no tendría que tener.
29:22Eso me parece una buena tendencia para empezar a ver la tecnología como eso, un instrumento.
29:28O sea, no como la creación completa que va a absorber a los humanos
29:35en esta película de ciencia ficción que nos va a llevar al caos, ¿no?
29:39Sino eso, o sea, el generar, el acercar la programación a nuevas generaciones,
29:45a niñas, niños, adolescentes.
29:46Hablar no solamente de, cuando hablan las políticas públicas de los gobiernos
29:52sobre combatir la brecha digital, ¿no?
29:56Combatir la brecha digital, hablan solo del acceso a Internet.
29:59Internet para todos, Internet para todas.
30:02Sí, pero estamos llevando estos aparatos a las manos, por ejemplo,
30:07de un niño indígena en el cual hasta hace mucho se está hablando de un abecedario
30:13ya dentro de Google, me parece que en Nahuatl.
30:14Pero faltan todos los demás, no están insertados directamente,
30:20es un tipo de colonización digital con la llegada de estos aparatos
30:24y además con la tenencia y además con la vigencia de estos aparatos
30:29que tiene toda una consecuencia dentro de las personas.
30:32Y me parece entonces importante que podamos señalar estas circunstancias
30:37para poder hablar de que las políticas públicas tienen,
30:40y las empresas y las cosas buenas que se pueden hablar de las tecnologías
30:46tengan que ver con escuchar las voces desde abajo,
30:50tengan que ver con que no queremos que el Estado domine las empresas,
30:57pero sí queremos que las empresas tengan medidas éticas,
31:01medidas reales, medidas en las cuales se genere de manera de raíz,
31:06entender que hay problemas sistematizados y que hay grupos en donde se tiene que ver
31:14esa sistematización de violencias que es, yo creo que en el caso de América Latina,
31:19mujeres, niños, niñas, adolescentes y otras incidencias.
31:23Entonces me parece importante que desde ahí vaya que las leyes,
31:27todas las encaminadas que se estén haciendo por hacer,
31:29que no le manden a llamar a los que les benefician los intereses,
31:37sino que los intereses no sean comerciales, sino sean intereses éticos,
31:42intereses también democráticos e intereses de derechos humanos de todas las personas,
31:48pero con ciertas experiencias transversales que tienen que ver con las mujeres.
31:53Olimpia, ya hablamos del gobierno, las empresas y falta también nosotras.
31:59Nosotras, como es que parece que va creciendo la tecnología,
32:03pero también los riesgos para nuestro bienestar e integridad.
32:08¿Cuáles serían las recomendaciones que tú das para nosotras,
32:12para quien nos está viendo, para irnos protegiendo en un entorno digital
32:16donde surgen nuevas amenazas? Por ejemplo, pienso ahora con la suplantación de identidad.
32:20¿Cómo podemos ir integrando también esto a nuestro día a día para estar protegidas?
32:26Va a sonar a cliché, pero hay que leer las recomendaciones,
32:31hay que leer las letras chiquitas, hay que leer las reglas de usanza
32:35de cada cosa que descarguemos y de cada tendencia de tecnología que tengamos.
32:41Por ejemplo, para las redes sociales que integran las empresas de Meta, Twitter,
32:45Instagram, Facebook, ¿no? Perdón, Instagram, Facebook, por poner un ejemplo.
32:51Registren, es que es una trampa que yo diga esto, porque fíjense como la colonia digital
33:00y las condiciones de ahora tener que pagar para que no te roben tu identidad, como en Instagram.
33:05Para que no te roben tu identidad en Instagram, tienes que pagar para que te den tu flechita
33:09doscientos y tantos pesos al mes. Entonces, así ya como la empresa no se va a ser responsable
33:16de la raíz del problema, que es los robos de identidad, entonces te dicen,
33:19el problema eres tú, la responsabilidad cabe en ti, usuario, entonces págame para tener seguridad
33:24como las plusvalías en lugares más seguros. Si tú pagas para vivir en un lugar con mayor plusvalía,
33:30vas a tener menores índices de inseguridad, pues así también impacta la pobreza hacia las personas.
33:34Por eso, pido disculpas anticipadas por las recomendaciones que voy a decir,
33:39con el antecedente de que no estoy a favor completamente, pero digamos,
33:44es una manera de prevenirnos sin dejar de soslayar que, para mi punto de vista,
33:50debe de ser de raíz el problema. Pero bueno, una de ellas, para no pagar,
33:55es registrar, por ejemplo, si tienes Facebook, si tienes TikTok,
33:59registrar con tu documentación, otra vez es una trampa, fíjate,
34:03porque tú tienes que dar la documentación y entonces tienen tus datos personales
34:07y entonces se les filtra, yo para mí, la persona que mayor tiene un pack en el mundo,
34:10tienes Max Zuckerberg, pero bueno, registrar con antelación tus redes sociodigitales,
34:18poner siempre tu nombre, yo siempre recomiendo que incluso tengas un nombre público
34:24y tu nombre que realmente sea privado, pero que no publiques tus datos personales
34:29para que no haya robos de identidades posteriores, por ejemplo,
34:32tus fechas de nacimiento reales, a veces por la popularidad de que me festeje en mi cumpleaños,
34:37ponemos 12 de julio de bla, bla, bla, de tal año, yo por ejemplo,
34:41solo pongo 12 de julio, sin el año, porque eso puede ser tanto mi contraseña,
34:46tanto mi robo de identidad, tanto phishing, tanto un montón de violencias
34:49que se pueden desprender, entonces, sesgar un poquito las datos que son públicos,
34:56revisar y tener siempre la revisión de cuáles imágenes queremos, cuáles no,
35:01cuiden, cuiden por favor, por favor, por favor, todos aquellos datos que damos con las manos,
35:07que damos con las caras, que damos, incluso estos datos dactilares que damos,
35:12por ejemplo, ahora que fue la selección, todo el mundo subía,
35:15entonces alguien muy bien puede escanear tu huella digital y entonces hacer,
35:19si tú abres tu banca móvil con la huella digital, pues no sé,
35:23con una buena tecnología la podrían abrir, cuidemos esto, no,
35:28tratemos de no dar esta información, suena cliché, lo sé,
35:32pero tratemos eso y tratemos de registrar desde con anterioridad nuestras plataformas,
35:36ahorita terminando este podcast, por favor, váyanse,
35:39primero enlisten cuántas redes sociales tienen,
35:41segundo tengan una vida pública, una privada y una íntima,
35:45es lo que yo recomiendo, por ejemplo, un correo electrónico público,
35:49un correo electrónico privado y un correo electrónico íntimo,
35:52cuál es el ID digital, cuál es tu ID para que puedas tener redes sociales,
35:57puedes descargar aplicaciones, tienes que tener o un teléfono o un correo,
36:01ese es tu ID digital, es el que vas a registrar,
36:04entonces yo por ejemplo tengo dos teléfonos celulares,
36:07uno es público y uno es privado,
36:09con el público es donde registro ciertas cosas para poder bajar aplicaciones,
36:13en ese público no tengo la banca móvil,
36:16en ese público no tengo mi correo público,
36:19sino lo que se puede hacer en caso incluso de pérdida de teléfono celular,
36:24un correo o un teléfono, cuando decimos si tú quieres agarrar correo,
36:29un correo privado, público e íntimo,
36:32por ejemplo, el correo público es para el registro de la mesa de trabajo,
36:35correo para que te registres en el seminario web,
36:38todos esos son públicos, privado, las cosas privadas,
36:42a lo mejor las cosas de tu trabajo, cuando te llegan,
36:45eventos de tu trabajo, eventos de tu casa,
36:48e íntimo para tus contraseñas, por ejemplo,
36:51entonces así, si te hackean tu cuenta y te va a llegar,
36:55por ejemplo, activan los códigos de inicio de sesión de todo,
36:59es importantísimo, oye pero es que si me roban mi teléfono celular,
37:02tenemos y yo los voy a invitar a hacer un hack de ciberseguridad allá en casita,
37:06hack de ciberseguridad, baja un dedo y ahí va,
37:09o sea, si sí, acaban este podcast, háganlo por favor,
37:12baja un dedo si tú has hecho esas cosas, baja un dedo,
37:15si tienes códigos de inicio de sesión para todas tus redes sociodigitales,
37:19para todas tus redes sociodigitales, correos electrónicos,
37:22e incluso para la introducción a tu teléfono,
37:26porque una cosa es la tecnología del hardware,
37:28y otra cosa es la tecnología del software,
37:31digamos que el hardware es el teléfono celular,
37:34yo tengo este código de inicio de sesión para mi hardware,
37:38y ahora la entrada a mis redes,
37:41tengo código de inicio de sesión para mi software,
37:44códigos de inicio de sesión, baja un dedo,
37:47si tienes un testamento digital en caso de que mueras,
37:50quién se va a quedar con tus redes sociodigitales,
37:53quién va a tener esa información, pensando que además hoy la gente
37:55está hablando de que incluso muerto puedes seguir vivo tu cerebro,
37:59la información de tu cerebro, ahora tienes que pagar
38:02como la flechita de Instagram en un futuro,
38:05para que la información de tu cerebro no se quede en manos privadas,
38:08pero eso ya lo hablamos, baja un dedo,
38:11si tienes además de estas dos cosas,
38:14por ejemplo un protocolo en caso de que se pierda tu teléfono celular,
38:19por ejemplo aquí en la Ciudad de México,
38:21tú puedes registrar tu teléfono celular Locatel,
38:24entonces ya no tienes que hablar a Telcel,
38:27para que te bloqueen los datos o buscarlo en el GPS de bloquear,
38:31no, hablas a Locatel como ya está registrado tu teléfono otra vez,
38:35son dos, una aguja de dos filos,
38:38pero hablas a Locatel e inmediatamente Locatel bloquea tu teléfono celular,
38:42eso es un protocolo en caso de que se pierda tu teléfono celular,
38:45baja un dedo, si tienes además de estas dos cosas,
38:48quién se va a quedar con tus redes sociodigitales,
38:51baja un dedo, si tú tienes tu memoria para que se descarguen tus teléfonos,
38:56revisada, pública y privada,
38:59la tienes, tanto también de tus documentos que subes a tu propia memoria interna,
39:04tienes, revisas las memorias internas, los permisos,
39:08baja un dedo si revisas los permisos que tienen todas sus aplicaciones,
39:12por ejemplo sabías que la cámara tiene permiso a veces para que puedas ver
39:16cuántas veces parpadeas, cuántas veces hablas,
39:18cuántas veces te da el marcapaso de tu corazón,
39:22para qué necesitaríamos esto, por ejemplo para el Maps,
39:26no tiene caso, desactívenlo, revisamos, baja un dedo,
39:30y así podríamos seguir con este hack de ciberseguridad,
39:36del cual está en muchas letras no escritas y en muchos discursos no escritos,
39:41que puede ayudarnos no solamente a la seguridad de las mujeres,
39:45sino a la seguridad de todas las personas,
39:46pero siempre interrogando y sabiendo que si recae la responsabilidad en el usuario,
39:52en la usuaria, pero no solamente recae la responsabilidad,
39:56que no se enganguaje las empresas diciendo que solo es cosa de cada usuario,
40:01sino hay parámetros importantes.
40:03Oye Olimpi, pues bueno, ya para despedirnos,
40:06si nos quieres contar un poco de lo que viene también de tu investigación
40:09sobre este tema, y bueno, pues como un último consejo,
40:12advertencia o último mensaje que quieres dejar a las personas que nos están viendo.
40:17Bueno, pues vienen comerciales,
40:20vienen cositas, vienen comerciales.
40:22Vamos a presentar a mediados de septiembre, octubre,
40:26ya una inteligencia artificial con esto de cómo ayuda la inteligencia artificial
40:31a prevenir la violencia, pues ahí va.
40:33Por parte de Defensoras Digitales, que es la colectiva latinoamericana
40:38de la que yo formo parte y muchas compañeras más,
40:40vamos a presentar junto con una empresa que se llama AuraChat
40:44una inteligencia artificial para poder ayudar a guiarte
40:49sobre el proceso en caso de que vivas violencia digital.
40:53Entonces tú ya puedes cargar esta inteligencia artificial,
40:56este chat que te puede estar ayudando,
41:01está dotado con inteligencia artificial y que entonces nos va a ayudar
41:04de manera mucho más instantánea, más sistematizada,
41:06con muchísimas más aperturas para poderte ayudar a prevenir,
41:14a actuar para casos de violencia digital y en específico
41:19para casos de violencia sexual digital.
41:21Entonces estén pendientes de las redes sociales
41:23porque lo vamos a presentar.
41:25Además, bueno, pues vamos a ya presentar el próximo informe
41:28de violencia digital que responde a la pregunta
41:31de qué ha servido la Ley Olimpia,
41:32que tiene mucho, que tenemos mucha tela donde cortar,
41:36lo hicimos justo junto con la Fiscalía de la Ciudad de México
41:40y que tiene ahora una propuesta metodológica para la investigación
41:46y la persecución jurídica de las violencias digitales.
41:49Por eso insisto, cuando me da mucho coraje,
41:51en saber que mientras otros países están apenas discutiéndose
41:54cómo le van a llamar a esta violencia,
41:56nosotros hasta ya tenemos un estudio sobre qué está sirviendo
41:59y qué no está sirviendo la legislación
42:00y creo que no hay más ley modelo que la Ley Olimpia en este momento.
42:04Y bueno, viene también el encuentro latinoamericano
42:07Defensoras Digitales.
42:09Vamos también al encuentro internacional para poder,
42:13en la mesa, estas interrogantes que tenemos
42:16sobre el algoritmo patriarcal,
42:18sobre la automatización de las violaciones
42:20debido a las nuevas tecnologías que se están dando
42:23y además pues vamos ya uniendo muchos esfuerzos juntas
42:27para lo que hoy es Ley Olimpia Colombia,
42:30Ley Olimpia Guatemala,
42:32Ley Olimpia Honduras,
42:34Ley Olimpia Panamá.
42:36Entonces estamos trabajando con muchas compañías en América Latina,
42:39todas sobrevivientes de esta violencia
42:41y estamos tratando de incidir
42:43dentro no solamente de las políticas de los países,
42:46sino que de incidir dentro de las conciencias colectivas.
42:49No estamos interesadas con que se aprueben las leyes olimpias
42:51como si hubiera noxios en toda Latinoamérica,
42:53sino que se entienda que este es un problema
42:56igual de salud pública,
42:58que es un problema que nos atañe a todos y a todas.
43:01Así que tú tienes que ser experto en la materia tecnológica
43:03para tener conciencia
43:05de que nuestros cuerpos no son para la diversión
43:07en las redes sociales.
43:09Eso es muy fácil de entender.
43:11Y bueno, pues muchos proyectos más.
43:13Estén pendientes.
43:15Voy a dar, no sé cuándo sale este podcast,
43:17pero por favor estén pendientes de las redes sociales.
43:19Tenemos muchos cursos, muchos proyectos.
43:20Ayúdenos a nuestra autonomía.
43:22Ayúdenos a seguir autónomas, libres, independientes.
43:24Tenemos ahí varios cursos y talleres
43:26que estamos dando de manera virtual.
43:28Así que si estás interesado en saber más sobre esto
43:30y profesionalizarte más,
43:32por favor métete ahí
43:34en nuestras redes sociales,
43:36Defensoras Digitales,
43:38Ley Olimpia o Olimpia Coral Merocruz.
43:40Y ahí está toda la información.
43:42Perfecto. Bueno, pues mucha, mucha tarea
43:44la que tenemos pendiente por ahí para cuidarnos
43:46y bueno, también para seguir poniendo
43:47el tema en la mesa.
43:49Te agradezco mucho Olimpia
43:51que hayas aceptado venir
43:53y pues bueno, seguiremos muy pendientes
43:55de todo lo que haces.
43:57Muchas gracias por venir al podcast de Eva.
43:59Gracias a la cadena de Eva y gracias a todas.

Recomendada