• anteayer
Un joven de 14 años en Estados Unidos, diagnosticado previamente con Asperger, se suicidó después de desarrollar una relación obsesiva con un chatbot ficticio llamado Daenerys. La madre del adolescente ha presentado una denuncia civil contra la plataforma Character AI, alegando que el vínculo emocional del joven con el bot exacerbó su soledad y ansiedad. La tragedia resalta preocupaciones sobre el impacto de las aplicaciones adictivas en la salud mental de los jóvenes.

Category

🗞
Noticias
Transcripción
00:00La tragedia que conmueve en este caso a los Estados Unidos pero también al mundo
00:03porque un chico de 14 años se quitó la vida luego de obsesionarse con un
00:08chatbot creado con inteligencia artificial, luego de haber chateado con
00:12un personaje de ficción, luego de haberse vinculado y obsesionado con este
00:16personaje al que llamó Daenerys. Este es uno de los chats, de los últimos chats
00:21que tuvo. ¿Carla de Game of Thrones? Si, Will Seltzer, claro. Había generado
00:27un personaje ficticio con la figura de Daenerys y chateaba con ella habitualmente.
00:33Lo hacía en modo amigo pero también en algún momento teniendo algún tipo de
00:38interacción sexual y acá es donde viene la mirada de la madre que realizó una
00:44denuncia civil contra la plataforma que es Character AI. Si, está bien, pero antes de una denuncia civil podría haber
00:49mandado una terapia al pibe, digo. Bueno, fue a terapia. Recordó tarde la mamá. El chico fue a
00:54terapia. Cinco sesiones de terapia. No logró hallarse en esa terapia. Había
00:59sido diagnosticado con Asperger de más pequeño. En el último año
01:05había tenido inconvenientes para relacionarse con sus amigos. Dejó de
01:09jugar en línea, por ejemplo, al Fortnite como lo hacía habitualmente. Dejó de jugar
01:13al básquet en el club en el que lo hacía. Empezó a retraerse, a meterse en su
01:18celular, a terminar su jornada y comenzar su jornada siempre con el celular en la
01:23mano a desarrollar un trastorno de ansiedad típico, si se quiere, de una
01:28generación. De hecho, hay libros que hablan de la generación de ansiedad y de
01:32cómo el celular y las aplicaciones adictivas generan esa situación de
01:36depresión y ansiedad, sobre todo en los más chicos, a partir de su vínculo con el
01:41celular y con las redes sociales. O sea, la paradoja sería que se suicidó por
01:45amor desencantado con el chatbot. Exactamente. Sí, desencantado con la
01:51situación de soledad que vivía en su interior y el chatbot era la persona con
01:56la que se vinculaba y con la que dialogaba y le contaba estas
01:59cuestiones. Sewell Seltzer III, el nombre que tenía este chico, se había
02:05vinculado y había mostrado en un diario íntimo que tenía cuál era la situación
02:09que vivía, de soledad, de incomprensión, de sentirse ajeno en este mundo. Todo eso
02:15se lo comentaba también y se lo comunicaba a su amigo virtual o su amiga
02:18virtual, que era este personaje con inteligencia artificial. ¿Qué dice la
02:21plataforma? Que en todo momento se aclaraba que el personaje era ficticio,
02:26que los diálogos eran ficticios, que no eran reales. Si uno lo ve en el chat va a
02:30encontrar esa aclaración dentro del texto. Creo que es para analizar más
02:35profundamente. No es que se quita la vida por el vínculo y la obsesión que tenía
02:40con el personaje artificial. Lo que pasa es que ahí hay diálogo, estoy mirando, donde
02:44dice, te amo, le decía al bot, la inteligencia artificial, le decía te amo al
02:49chico y le decía vení a casa lo más pronto posible. Sí, exactamente, eso fue el
02:53diálogo final. El 28 de febrero, este hecho ocurre el 28 de febrero, pasa que
02:57se da a la luz ahora a partir de la denuncia de la madre, puedo pedirte que
03:02vengas a casa ahora mismo, le decía te extraño baby sister, yo también te
03:08extraño sweet brother. Se vinculaba de una manera extraña porque no era un
03:12vínculo sexual, a pesar de que habían tenido algún tipo de interacción sexual.
03:15Parece un vínculo maternal. Sí, había un vínculo maternal y de amistad con este
03:21personaje de ficción creado, por eso te digo, ahora están recabando información,
03:24dos fuentes de información, el diálogo que tenía con esta plataforma y también
03:29un diario íntimo. Pero, ¿a qué vas a acusar? Sewell cargaba los datos. Si la inteligencia
03:34artificial es autónoma. La madre acusa a la plataforma, la plataforma es
03:37character.ai, existe esa plataforma. ¿Y para qué sirve? Para generar
03:42personajes ficticios con los cuales puedas dialogar. Yo recién me metí en la
03:46plataforma, lo primero que te pregunta es la edad, o sea, la plataforma sabía que
03:50estaba interactuando con un menor, con un chico de 14 años, ahí puede estar el
03:54punto. ¿Qué tipo de interacciones puede tener este chatbot para alimentar con
03:59este diálogo a esta inteligencia artificial? A ver, explícame más de la
04:03plataforma. Sí, te la muestro si querés. Es una plataforma que genera, ¿qué?
04:06Personajes. Genera personajes. Yo quiero charlar con Roosevelt, qué sé yo, o Perón.
04:11Exactamente. Y te pone, vamos a charlar un rato con Perón. Sí, vos lo generás, suele
04:16hacerlo con personajes más actuales, si se quiere, pero sí, podés charlar con
04:21ese tipo de personajes. Bueno, él había generado esta figura de este
04:26personaje de Game of Thrones, ahí estoy cruzado para cuando quieran mostrar la
04:30plataforma. Es simple, la plataforma comienza a crecer a partir de la
04:35información que uno le da, y a partir del diálogo que uno tiene con esa persona.
04:38Estoy cruzado vía Apple TV para mostrarles de qué manera funciona esta
04:42plataforma. Hay personajes de ficción, mirá, vos entrás, yo ya puse mi edad, o sea,
04:47sabe que tengo los años que tengo. Cuidado con lo que te va a proponer, que
04:52conocen tus manías, cuidado. Te va a ofrecer charlar con Hortigosa.
04:57No, justamente no. Me ofrece todos estos personajes para poder charlar. Mirá,
05:01tengo a Son Goku, por ejemplo, ves, hay personajes de ficción.
05:06Ese es Napoleón, pará. O puedo crear un personaje, no te convence ningún
05:11personaje, crea el tuyo propio. Personaliza aspectos como su voz, el
05:15inicio de la conversación, su tono y mucho más. También podés hablar con
05:19padres ricos, hay un doctor ahí. Sí, el tema es que lo usa como si fuese un
05:26psicólogo. Con Einstein. Mía Califa, vamos, podés charlar con Mía Califa, que
05:32sabemos quién es Mía Califa. Ahí está abajo está Einstein, puede que Einstein tenga algo
05:35interesante para decirte. Con Albert Einstein, claro, una vez que seleccionás, me
05:39parece que me va a permitir si los personajes ahora tienen voz, podés
05:43chatear, hola Albert, podés chatear y vas, y bueno.
05:49Tiene confianza. ¿Cómo anda el universo, Albert?
05:52¿Te responde con un audio? Hola, gracias por la salud, ¿cómo te sientes hoy? Ves que dice C.AI, o sea, te
05:59indica que es una inteligencia artificial, también te permite poner play
06:03y escuchar el audio, por eso es la nueva. La verdad que se va siendo cada vez más
06:06realista. Yo creo, es una opinión personal, que el
06:11chico tal vez tenía algún inconveniente emocional, alguna soledad, algún tema no
06:16resuelto y utilizó la plataforma como si fuese un terapeuta o un consejero, a
06:21pesar de que su mamá había intentado que fuera terapia y que tuviera esa
06:26compañía tan fundamental que seguramente necesitaba. Es un tema serio, es un tema
06:30grave, es un tema para analizar y es un tema para pensar de acá a futuro de qué
06:34manera las plataformas van a interactuar, sobre todo con menores, porque la
06:38plataforma sabía la edad que tenía el chico. Y la historia termina
06:43lamentablemente con Seaweed Seltzer, este chico de Orlando, Florida, quitándose la
06:48vida a los 14 años.

Recomendada