• el año pasado
Sobre violencia digital donde interviene la filóloga, periodista y profesora
universitaria, Miren Gutiérrez. 

Category

🗞
Noticias
Transcripción
00:00Buenos días. El mundo digital amplifica la violencia, la difusión de forma masiva y
00:06el anonimato abre la puerta al machismo, al acoso, a la creación de bulos y a su
00:11expansión que puede afectar y de forma muy grave a la víctima del bulo. Todas
00:16estas formas de violencia que la sociedad no admite, con legislación que
00:21además las combate, ¿han encontrado en el mundo digital esa tabla de
00:26supervivencia? Sí, efectivamente se podría decir exactamente eso. Por un lado
00:32los algoritmos de las plataformas sociales como TikTok, Instagram, YouTube
00:36están diseñados para mantener a usuarios y usuarias enganchadas el más
00:42tiempo posible con el fin de recabar el máximo volumen de datos y monetizarlos
00:47que es el modelo de negocio de estas plataformas. El problema es que este tipo
00:52de contenidos mentirosos, muchas veces agresivos,
00:56llama más la atención y mantienen más a la gente enganchada, con lo cual se
01:02comparten más, etcétera. Con lo cual a los algoritmos de las plataformas, a las
01:07plataformas, a los negocios detrás de estas plataformas, les conviene este tipo
01:11de contenidos y por tanto los promocionan y los priorizan. Por otro
01:15lado estamos viendo una tendencia bastante preocupante con respecto a los
01:21contenidos misóginos y machistas. Desde luego circulaban, han circulado y han
01:26proliferado por las plataformas, pero ahora con inteligencias artificiales se
01:30pueden generar de forma muy rápida y muy dañina. Estoy hablando de las
01:36tecnologías de fake que permiten, por ejemplo, hacer vídeos pornográficos de
01:40cualquier persona. Bueno, cualquier persona no, porque la mayor parte de las
01:45personas que son atacadas con este tipo de contenidos son mujeres, con
01:50lo cual juntamos dos potencialidades, dos funcionalidades de la
01:56tecnología digital que son bastante peligrosas. Es cierto que estamos
02:02asistiendo a una red de hombres y mujeres, sobre todo hombres, que han
02:06encontrado en las redes ese lugar donde esparcir misoginia, sexismo, mensajes
02:12antifeministas, pero aunque en ocasiones sintamos que estamos en dos mundos
02:16paralelos, la realidad es que aquellos que vierten su odio en redes son personas
02:20reales con las que convivimos en el mundo real. Sí, bueno, la misoginia y el
02:25antifeminismo son fenómenos transversales que en cierta medida se
02:31pueden encontrar en muchos espacios y en nuestro entorno incluso.
02:37Claro, de ahí llegar al extremo de algunos grupos de la de la manosfera,
02:42como los célibes involuntarios que han cometido actos asesinatos en Estados
02:49Unidos y en Canadá, hay un gran salto, pero es verdad que algunos de
02:54estos mensajes están siendo acogidos por ciertas personas, especialmente
03:01hombres, que culpan de sus problemas personales o de los problemas de la
03:04sociedad, pues al excesivo feminismo, a las cuotas que se difunden mensajes como
03:11que las denuncias de violencia machista son falsas denuncias, ese tipo de
03:17mensajes que calan en ciertas personas. ¿Qué se puede hacer? Pues en las
03:22plataformas, una se puede salir de la plataforma, una puede bloquear aquellos
03:27contenidos odiosos, puede denunciarlo, aunque la verdad es que en algunas
03:34plataformas como NX pues no tiene mucho éste, esta estrategia no tiene
03:40mucho éxito, pero bueno, están surgiendo alternativas, plataformas donde se puede
03:46hablar con más, iba a decir amabilidad, no sé cómo
03:52decirlo, pero con más tranquilidad a las que, de hecho mujeres que habían
03:57salido de X y de otras plataformas, están volviendo porque se están
04:02generando alternativas, entonces sí que hay maneras de evitar este tipo de
04:09contenidos. Desde luego que la denuncia no tenga recorrido en una red social como
04:14X, que tiene a miles de millones de usuarios, es un mensaje en sí mismo
04:20muy peligroso, porque al final estás invitando, estamos invitando, es una red
04:25que invita, aquí puedes hacer lo que quieras. Sí, sí, bueno, sé libre para
04:30algunos o para algunas, muchos de mis compañeros y compañeras progresistas
04:34que hemos estado en X desde hace muchísimo tiempo, desde Twitter desde hace
04:37muchísimo tiempo, estamos viendo que nuestros seguidores y seguidoras están
04:41disminuyendo cada día a patadas, estamos perdiendo seguidores a patadas, no
04:48porque estemos empezando a hacer cosas locas, etcétera, sino porque hay una
04:53política y una ideología detrás del algoritmo que favorece los
04:59contenidos odiosos, etcétera, etcétera. De hecho,
05:04hay un estudio que acaba de salir hace poco, que decía que la ideología de los
05:09creadores de estas plataformas se puede detectar en el tipo de mensajes que se
05:14promocionan y decía, por ejemplo, de ChatGPT, que es un mensaje
05:22artificial que genera contenidos, pues que es conservador. Estas
05:27tecnologías no son neutras, no son objetivas, no funcionan de manera
05:33imparcial, sino que sus algoritmos promocionan aquellos mensajes, aquellas
05:40ideas que están más de acuerdo con sus creadores. Eso está ya demostrado en
05:46muchísimos casos de estudio. Claro, si las herramientas que utilizamos están
05:51manipuladas, al final estamos entrando en ese juego muy turbio de, por ejemplo,
05:57ahora ponías el ejemplo de ChatGPT, que uno cree que al final da respuestas
06:01objetivas o respuestas entre las millones de respuestas que hay en la red y de ahí
06:06saca una conclusión, ChatGPT. Pero es una conclusión, como dices,
06:11manoseada, por ese interés primero de que al final tengas el resultado que él
06:16quiere, no el tuyo, el que él quiere. Efectivamente. Bueno, hay dos maneras en
06:22las que se introducen sesgos. En los algoritmos más sofisticados, que
06:30entre comillas aprenden de una serie de datos. La primera es con los datos con
06:36los que entrenas el algoritmo y necesariamente van a tener sesgos, porque
06:41no vienen de Marte, no son recursos naturales, sino que son recursos
06:45culturales y los recursos culturales tienen valores, tienen ideas, las ideas de
06:50quienes han recabado esos datos y quienes los han seleccionado para
06:54entrenar a los algoritmos. Y luego el algoritmo, cómo funciona, también puede
06:59generar sesgos, como decía, al apoyar y priorizar aquellos contenidos que
07:05son más ruidosos, más escandalosos y que generan más atención. Así que tenemos
07:10esos dos días. Aunque el algoritmo de ChatGPT fuera maravillosamente neutral,
07:16se le ha entrenado con datos de internet y, por desgracia,
07:22los datos que hay en internet son datos históricos que reflejan también
07:27las asimetrías de poder y los sesgos que tenemos en nuestra sociedad y no
07:32vivimos en sociedades paritarias. Entonces, necesariamente, aunque el
07:37algoritmo fuera lo más exquisito posible, que es lo que se está intentando
07:42y que no es imposible lograr, también hay que tener cuidado con los datos con los
07:46que se entrenan estos algoritmos. En la red hay datos que son datos
07:52reales, datos oficiales, pero también es un caldo de bulos, de noticias falsas, de
07:59datos no contrastados, de manera que, si fuéramos realmente objetivos, si la
08:03inteligencia artificial fuera absolutamente objetiva, estaría haciendo
08:08una media con todos esos datos, los verdaderos y los falsos.
08:13Una inteligencia artificial no puede ser nunca objetiva. ¿Por qué? Porque lo ha creado
08:18una persona humana. Las personas no somos objetivas. Tenemos nuestros
08:26valores, nuestras ideas, las buenas personas, las malas personas y las
08:30medio pensionistas también. Por tanto, las inteligencias artificiales nunca van a
08:35poder ser objetivas. Y es verdad, lo que tú has dicho, cuando tú entrenas con un
08:41gran volumen de datos disponibles en internet a una inteligencia artificial,
08:46se cuelan en esos datos de toda la información, desinformación,
08:50estereotipos nocivos, buenos ejemplos, de todo. Hay un ejemplo, un caso muy
08:58divertido de una inteligencia artificial que aprendió a
09:04vincular a las mujeres con las cocinas. ¿Por qué? Porque se le entrenó con todas
09:08las fotografías que había de cocinas en internet, pero es que en las fotografías
09:12aparecen más mujeres que hombres, ya sea acompañadas con hombres, con
09:18otro tipo de personas. Entonces, el algoritmo aprendió a vincular a las
09:22mujeres con las cocinas y no solamente aprendió eso, sino que además
09:26multiplicó ese sesgo. No sabemos ni siquiera por qué, porque
09:31tampoco estos algoritmos, estos mecanismos de caja cerrada, no podemos
09:36entrar a mirar cómo funcionan y por qué
09:41generan los resultados que generan. Entonces, ¿por qué es problemático esto?
09:45Bueno, pues porque el trabajo en la cocina es un trabajo totalmente honesto,
09:50digno y respectable, pero en muchas ocasiones es no remunerado, está
09:57vinculado a la vulnerabilidad, excepto si es un chef famoso que siempre
10:02suele ser un tío. Entonces, por eso es peligroso, por la
10:10serie de estereotipos que existen acerca de mujeres y cocina. Entonces, esto es
10:16cómo funcionan los algoritmos y cómo tenemos que ser conscientes, la
10:21ciudadanía, de que funcionan los algoritmos. ¿Por qué nos empeñamos en
10:25usar tan mal? Tenemos por delante oportunidades, oportunidades de avance,
10:29de crecimiento, de utilizar esto a nuestro favor, a nuestro favor como
10:33sociedad. ¿Por qué nos empeñamos en entorpecer tanto? Hay muchos equipos de
10:39trabajo que están utilizando estas tecnologías para detectar discursos de
10:44odio, para detectar perfiles en las plataformas que pueden ser
10:50peligrosos para, yo que sé, curar el cáncer. Esta tecnología se puede utilizar
10:56para el bien. Puede abrir muchas puertas muy interesantes, como la cura de
11:00enfermedades. Y estamos haciendo algoritmos para que las mujeres aparezcan
11:05en red, asociadas a las cocinas, que es un ejemplo que efectivamente es muy gráfico
11:09de... Tenemos en nuestra mano una herramienta poderosísima y la utilizamos
11:14para este tipo de cosas. Es muy sorprendente. Quería poner énfasis en lo
11:18que has dicho a principio, de que se puede utilizar para hacer el
11:23bien común, el bien de las personas. Y yo creo que lo que se necesita es
11:30más conciliación a nivel ciudadanía, también en la clase política.
11:37Tenemos que tener más alfabetización de datos. Se tiene que
11:43mejorar y entrenar el pensamiento crítico en las escuelas, desde la
11:50primaria, para saber detectar, por ejemplo, esto se hace en algunas escuelas
11:55en países escandinavos, ya desde primaria, para saber detectar la
11:59desinformación. Hay herramientas para detectar si se han
12:05manipulado fotografías. Hay herramientas para detectar si un perfil es
12:10sospechoso. Esto yo creo que tendría que estar ya en las escuelas, desde muy
12:16temprano, para ejercitar ese músculo que tenemos,
12:24que no es un músculo, pero el cerebro, y entrenar el
12:32pensamiento crítico. Claro, combatir todos esos delitos de odio, todos esos
12:37mensajes de odio que en las redes campan a sus anchas fuera de las redes.
12:43Es mucho más difícil pensar que vamos a poder ganar en ellas que fuera de ellas.
12:48Bueno, yo creo que también soy una firme defensora de la legislación. En Europa
12:53tenemos legislación muy avanzada. Ahora mismo, por ejemplo, yo estoy
12:58participando en un grupo de trabajo del Código de Buenas Prácticas de
13:01Intereses Artificiales General y hay una ambición de poder regular esto y se
13:11están dando sentencias también en tribunales que dan la razón a la
13:15ciudadanía por abusos que se han podido dar. Entonces yo también creo que la
13:21regulación podría entrar en el discurso del odio, que la
13:27licitación a la violencia, todo esto es un delito. Se puede actuar
13:32en este terreno también. Es que con respecto a la legislación y
13:37sobre las denuncias, que algunas sí que evolucionan, pero otras no, ahora lo
13:43decías. Por poner una imagen, hay algunos creadores de contenido, además
13:48cada vez son más, con millones de seguidores que se autoproclaman gurús
13:52sobre el macho alfa, cómo ser un macho alfa. No se esconden, tienen millones de
13:59seguidores. Si esto lo trasladáramos a una escena real, un señor lanzando estos
14:03mensajes en una plaza frente a millones de personas, esto tendría una
14:06consideración clara de delito?
14:08Pues me imagino que sí, a ver, me imagino que sí.
14:12De hecho, pues si estamos hablando de gente como Andrew Chage,
14:16este hombre está creo que ahora mismo detenido por
14:23tráfico, es un tipo peligrosísimo. A ver, yo creo que lo que ha
14:30facilitado las plataformas es que esta gente, que no son ni la mayoría ni
14:36se encuentran en ninguna esquina voceando sus ideas, se encuentren. Yo me
14:42los imagino siempre pues al típico
14:46raro, el típico misógino metido en su
14:55habitación comiéndose su perrito valiente, que de repente se le ha abierto
15:01el mundo, el planeta. O sea, gracias a estas plataformas se puede detectar
15:06otras personas en su situación y de hecho algunos estudios de caso hablan de
15:11cómo, por muy misóginos y agresivos y tal, lo que hacen es encontrar apoyo
15:17emocional a gente que igual se ha visto frustrado. Yo he leído algunos
15:24manifiestos de los incels y te dan ganas de decir, tío, espabila, o sea, nadie me
15:30ha querido, nunca me ha besado nadie. O sea, unas cosas que dices, bueno, pues haz
15:35algo bueno por alguien. Igual eres merecedor de algún beso. Gente así
15:42que se encuentra en las plataformas y se da rosca y se da...
15:48Encuentran el poder que no tienen en la sociedad o la visibilidad la encuentran
15:53en las redes, pero después son personas retraídas, inofensivas, que son
15:57perjudiciales como mucho para sí mismos. Ese perfil se da. Seguramente hay otros
16:02perfiles porque, como decía, esto es muy transversal. El pensar que no, hay un
16:06montón de denuncias falsas. No, es que se aprovechan, son el chiringuito feminista.
16:11Es que esta gente con una empatía nula, que no conoce además la
16:18situación de una mujer que se atreve a denunciar, que no sabe que la mayor parte
16:23de las mujeres no denuncian, etcétera, etcétera. Entonces, se encuentran, se dan
16:29la razón unos a otros y también aquí tenemos las plataformas como culpables.
16:33Los algoritmos de recomendación te recomiendan siempre lo que te va a gustar.
16:37Entonces, encuentras a la gente con la que estás de acuerdo por eso mismo,
16:42porque te enseña y prioriza aquello que te va a gustar, no aquello que no te va
16:46a gustar. Entonces, esto se llama burbuja ideológica. Le han llamado burbuja...
16:51bueno, burbujas algorítmicas, de todo, pero yo creo que son burbujas ideológicas,
16:56porque encuentras gente que opina como tú y entonces te empiezas a creer que el
17:01mundo pues es como tú lo ves, porque como hay tanta gente que te da la razón,
17:06pero claro, son igual cuatro gatos. Estas burbujas ideológicas son
17:13bastante perniciosas y además todos y todas las llevamos encima. Yo lo que
17:20recomiendo mucho es salir de tu burbuja y leer lo que opina, siempre que sea bien
17:25fundamentado y razonado, otras personas que no opinan como tú, porque no te vayas
17:30a pensar que todo el mundo piensa como tú. Pero en este caso concreto de
17:35la manosfera ha sido muy perjudicial que esta gente se encierre en
17:43estas comunidades que se dan la razón y se dan cuerda unos a otros con estas
17:48historias que algunas son alucinaciones prácticamente.
17:54Debemos grabarnos eso a fuego, yo creo que estamos todos en redes y en esto
17:59y formamos parte al final de esa manipulación. A veces somos conscientes, a
18:04veces no tanto, pero desde luego deberíamos ser muy conscientes de que
18:08creernos que el mundo es nuestro mundo, pues nos está perjudicando gravemente,
18:13porque al final nos metemos en esa burbuja un poco sin querer, porque
18:17estamos más cómodos definitivamente, de un lado y del otro, pero en fin hay que
18:22salir y no creer que el mundo es nuestro mundo. Hay que hacer alguna excursión.
18:26Hay que viajar, que es muy saludable y conocer otras
18:30culturas y otros pensamientos desde luego. Miren Gutiérrez, intervienes esta
18:34misma tarde en este en este segundo congreso feminista en la Cámara de
18:38Comercio. Muchísimas gracias por haber estado con nosotros. A vosotros y vosotras.

Recomendada