• hace 2 meses
¿Salvación o autodestrucción? En Japón, la inteligencia artificial promete mejorar la vida de su envejecida población. Pero, investigadores de Silicon Valley advierten del poder incontrolable de la IA... e, incluso, de la extinción de la humanidad.

Category

🗞
Noticias
Transcripción
00:00Existe el riesgo de que los sistemas de inteligencia artificial eliminen a los humanos.
00:15Debido al envejecimiento de su población, Japón enfrenta problemas muy graves. Quiero
00:19resolver estos problemas.
00:22¿Podemos controlar estos sistemas? ¿Podemos asegurarnos de que entiendan algo o de que
00:27observen valores humanos cuando los hayan entendido?
00:31Amo estas tecnologías. Me gustaría desarrollar tales tecnologías para realizar una contribución
00:37a la humanidad y a la sociedad humana. Incluso los sistemas nerviosos del cerebro pueden
00:43conectarse con el ciberespacio.
00:45Esta tecnología evoluciona rápidamente. No sabemos cómo funciona ni cómo funcionarán
00:52los sistemas futuros. ¿Será seguro lo que se desarrolle?
00:55Esta inteligencia artificial reconoce que los seres humanos son uno de los seres vivos
01:00importantes.
01:03Este pequeño grupo está desarrollando tecnologías poderosas de las que sabemos muy poco.
01:08Las preocupaciones de la gente acerca de que la IA generativa acabe con la humanidad surgen
01:14del temor de que, si no se controla, la IA podría potencialmente desarrollar capacidades
01:19avanzadas y tomar decisiones que sean perjudiciales para los humanos. Mientras el mundo lidia
01:24con las implicaciones de este campo en rápida evolución, una cosa es segura. El impacto
01:29de la IA en la humanidad será profundo.
01:54Con las nuevas tecnologías de IA se puede lograr una fusión entre el lado humano y
02:20el lado tecnológico. Este es uno de los primeros cyborgs portátiles del mundo.
02:25Cyberdyne se esfuerza por desarrollar tecnologías cibernéticas muy innovadoras centradas en
02:34medicina y cuidado de la salud para los seres humanos y la sociedad humana.
02:47Mi nombre es Yoshiyuki Sankai. Soy profesor en la Universidad de Tsukuba, en Japón, y
02:53al mismo tiempo CEO de Cyberdyne. Permítanme crear un futuro brillante para los humanos
02:59y las sociedades humanas con este tipo de sistemas de IA.
03:16Quiero contribuir a mejorar el mundo. Es por eso que trabajo en la seguridad de la
03:20IA. Muchos intelectuales y profesores de la industria y la ciencia reconocen que existe
03:29un riesgo significativo de que los sistemas avanzados de IA puedan extinguir a la humanidad.
03:38En los últimos años hubo rápidos avances en el desarrollo del sistema de IA que se
03:43vuelven cada vez más poderosos, grandes y competentes, capaces de realizar conclusiones
03:48complejas. Sin embargo, en términos de seguridad de estos sistemas, no se realizaron avances
03:53igual de significativos. Mi nombre es Gabriel McCovey. Pueden llamarme Gabe. Soy estudiante
04:00de doctorado en la Universidad de Stanford e investigo en el campo de la seguridad de
04:04la IA. Tenemos un grupo de investigación que se enfoca en reducir los riesgos de los
04:12sistemas avanzados de IA, como por ejemplo minimizar los riesgos de armas de destrucción
04:18masiva. Eso es algo bueno. Desafortunadamente, estas amenazas catastróficas parecen ser
04:24bastante significativas. Muchos científicos líderes estiman que la probabilidad de un
04:29riesgo existencial por la IA avanzada es de uno o dos dígitos. Además de la extinción
04:35de los humanos, también existen otras proyecciones peores, como la instauración de sistemas
04:41totalitarios o la concentración de poder de manera que muchas personas no tengan voz
04:45sobre cómo la inteligencia artificial dará forma y transformará a nuestra sociedad.
04:50La IA se ha convertido en un tema muy controvertido. Hay muchas preocupaciones legítimas. Algunos
04:58creen que podría provocar pérdida de empleos, aumento de la desigualdad e incluso un uso
05:02éticamente cuestionable de la IA. Sin embargo, la IA también tiene un enorme potencial para
05:07beneficiar a la humanidad. Podría ayudarnos a abordar algunos de los mayores problemas
05:11del mundo, como el cambio climático, las enfermedades y la pobreza.
05:15Hoy discutimos nuestros avances en la tecnología de la cibernética, un campo que conecta el
05:41espacio ciberfísico con los seres humanos. En este ámbito, la tecnología y el ser humano se
05:49fusionan, específicamente el espacio físico, el cuerpo y el sistema nervioso craneal que procesa
05:58la información. Gracias a nuestros incansables esfuerzos, hemos obtenido la aprobación para
06:05aplicaciones en lesiones de médula espinal y accidentes cerebrovasculares en Europa y en
06:13Estados Unidos. HAL reconoce señales de intención humana que son transmitidas desde el cerebro a
06:25los dispositivos periféricos. Cuando el ser humano desea moverse, el cerebro genera señales de
06:31intención. Estas señales se transmiten a través de la médula espinal y los nervios motores hasta
06:36el músculo, permitiéndoles finalmente movernos. Los sistemas HAL y los humanos siempre trabajan
06:43juntos. Estos dispositivos se implementan ahora como productos médicos en 20 países.
06:50Existen oportunidades realmente fantásticas para utilizar la tecnología de IA en medicina. Por
07:04ejemplo, la detección de cáncer mediante sistemas de reconocimiento de imágenes con IA, sin pruebas
07:10invasivas, lo cual es realmente fantástico, al igual que la detección temprana. Ninguna tecnología
07:17es inherentemente buena o mala, son solo las personas las que lo son.
07:27Por supuesto, debemos considerar cómo el desarrollo de estas tecnologías afectará a largo plazo a los
07:34seres humanos. Al mismo tiempo, debemos pensar menos en el aspecto técnico y más en los impactos
07:40reales en la vida de las personas. Japón es optimista sobre la tecnología de IA. Actualmente
07:52hay un gran entusiasmo. Es como un juguete nuevo y brillante con el que todos quieren jugar. Cuando
07:58viajo a Estados Unidos, Australia o países de la UE, la preocupación y el miedo son mucho mayores.
08:04Para ser honesta, me sorprendió bastante.
08:13Las reuniones tienen lugar cada miércoles. Invitamos a un invitado o un investigador
08:19que dé una charla. Luego tomamos té. Sí, es algo bueno. Es como un laboratorio de
08:24investigación. ¿Tienes un adaptador HDMI a USB-C? ¿Algo para enchufar? ¿Estás conectado?
08:32Olvídalo. Disculpa, estoy alucinando. Y ahora les cedo la palabra a nuestro orador Dan Hendricks.
08:40Las reuniones de los miércoles son una excelente oportunidad para conocer a nuevos estudiantes y
08:46discutir por qué les interesa o no la seguridad de la inteligencia artificial. Si alguien quiere
08:51sintetizar el virus de la viruela o si se trata de algo como el gas mostaza, se puede hacer. El
08:57acceso ya está ahí y se volverá más fácil con el tiempo. Pero sigue siendo un problema que se
09:04necesitan habilidades específicas. Básicamente necesitas algo así como un médico especialista
09:12en virología de alto nivel para crear una nueva pandemia que podría destruir la civilización.
09:17Hay secuencias en línea que no revelaré que podrían matar a millones de personas. Son
09:23realmente mucho más peligrosas. Con respecto al acceso, muchas personas se preguntan si no
09:29sólo se necesita ser un destacado doctor, sino también tener algún tipo de laboratorio biológico
09:34para llevar a cabo experimentos. Esto también depende de la calidad de las instrucciones.
09:43Permiso. También vienen personas que tienen una perspectiva diferente. Creen que las inteligencias
09:50artificiales poderosas no estarán disponibles durante mucho tiempo y no les parece importante.
09:55Podríamos establecer un incubador. Hay un gran potencial, especialmente para aquellos que crean
10:00pandemias artificiales, para causar un gran daño. Pero también hay otros casos de uso indebido. Uno
10:06es el de los ciberataques. Es posible que en los próximos años tengamos sistemas de IA que no
10:11sólo sean buenos en programación, sino también que sean buenos para realizar ataques de día cero y
10:16aprovechar vulnerabilidades de software en sistemas seguros.
10:28Principalmente la IA será utilizada para ganar dinero. Muchas personas podrían ser estafadas,
10:34podrían haber ataques a infraestructuras públicas, amenazas contra individuos para extorsionarlos.
10:40Los próximos años podrían convertirse en un salvaje oeste de ciberataques digitales.
10:47Pero también existe el riesgo de que los sistemas de IA escapen al control de sus desarrolladores.
10:58Actualmente no sabemos cómo controlar estos sistemas o asegurar que observen valores humanos
11:03cuando los hayan entendido. Podrían aprender a valorar cosas que no coinciden con lo que
11:09queremos como humanos, como un ambiente propicio para la vida o hacer felices a las personas.
11:16Mi familia siempre me ha apoyado profesionalmente. Hace unos años el tema de la seguridad de la IA
11:30no era tan difundido, así que siempre había cierta incertidumbre si tendría un trabajo seguro o esas
11:36cosas. Pero con el tiempo, a medida que veíamos cómo se desarrollaba la IA y cómo cada vez más
11:42personas lanzaban la alarma y advertían sobre los riesgos de la IA, mi madre me enviaba un mensaje
11:48cada pocos días diciendo, oye, ¿has oído hablar de esto? Lamentablemente muchos expertos creen que
11:54los peores riesgos ocurrirán con una probabilidad bastante alta. Estiman un valor de uno o dos
12:00dígitos. La presidenta de la Comisión de Comercio de Estados Unidos dijo que estima una probabilidad
12:05del 15% de que la IA acabe con toda la humanidad. Mi visión es un poco diferente. Estamos creando
12:14sistemas de IA. Esta es una especie recién creada. Los sistemas de IA generativos son
12:26diferentes de los simples sistemas de programación. Tienen funciones que se desarrollan.
12:36La IA generativa reconoce que el humano también es una de las especies más importantes, al igual
12:44que los animales. Y debido a que el humano es una especie, la IA avanzada reconoce la importancia
12:53del humano. Intenta preservar nuestras sociedades, culturas y condiciones de vida. Nosotros, los
13:01humanos, tenemos algunos problemas. Problemas de envejecimiento, enfermedades o tenemos accidentes.
13:08Los sistemas de IA o algunas tecnologías con sistemas de IA nos ayudarán. Señor y señora
13:17Kawasaki, muchas gracias por venir hoy. Ha pasado realmente mucho tiempo. Cierto, se le ve muy bien.
13:23Sí, no me ha ido mal.
13:28¿Y cómo está su nieto?
13:34Me alegro mucho de ver cuánto ha mejorado su salud. Japón enfrenta ahora muy graves problemas
13:44de envejecimiento de su población. La edad promedio de los trabajadores agrícolas actualmente
13:50supera los 70 años.
14:12Cuando ella tuvo su derrame cerebral, me hice la idea de que tendría que cuidarla por el resto de su vida.
14:20Dejé mi trabajo, lo dejé todo, esperando dedicar mi tiempo a cuidarla.
14:34La mitad de su cuerpo estaba paralizado. Inicialmente, nuestro médico dijo que nunca
14:58volvería a caminar. Nos dijeron que necesitaría cuidados de tiempo completo. El director del
15:08hospital nos dijo, vamos a conseguirte un robot. Pensé, ¿qué? ¿Un robot? Entonces lo hicimos.
15:13Vamos, vamos, vamos, ven, vamos, vamos, camina. Nunca pensé que aprendería a caminar de nuevo
15:20tan rápido. En solo dos meses, nuestra vida volvió a la normalidad. Ahora estoy caminando. Lo hago
15:30por mi corazón. Me gustaría resolver los problemas de esta sociedad que envejece. Cuando era niño,
15:40mi madre me compró un microscopio y algunos componentes electrónicos. Dediqué mucho
15:47tiempo cada día a realizar este tipo de experimentos y diferentes desafíos. Me encanta
15:54leer libros de ciencia ficción. Yo, robot. Escrito por Isaac Asimov.
16:06Si has oído hablar de la inteligencia artificial en los últimos años, es probable que la tecnología
16:12de la que has oído hablar haya sido desarrollada aquí. Los avances subyacentes se lograron aquí.
16:17El dinero detrás de eso proviene de aquí. Las personas que están detrás de eso viven aquí.
16:23Todo se ha centrado aquí, en el área de la bahía.
16:26Las startups, líderes en inteligencia artificial, OpenAI, Anthropic, Inflection,
16:40nombres que quizás aún no conozcan, son respaldadas por algunas de las grandes
16:45empresas que ya conocen y que están en la cima del mercado de acciones. Estas son Microsoft,
16:50Amazon, Meta, Google. Muchas de estas empresas tienen su sede aquí, en el área de la bahía.
17:00A pesar de todas las discusiones que hemos visto sobre la política de IA,
17:05en realidad hay muy poco que las empresas de tecnología deban cumplir. Mucho de esto es
17:11simplemente voluntario. Entonces, de lo que realmente dependemos como barreras de seguridad
17:16es de la benevolencia de las propias empresas. Gabe es un ejemplo de muchos de los jóvenes que
17:25ahora se están uniendo al movimiento y que no son ideológicos, que realmente están interesados en la
17:33tecnología, que son conscientes de los potenciales peligros de la tecnología y ven esto como una
17:40oportunidad. Para ellos es extremadamente importante y lo consideran su oportunidad
17:45de trabajar en lo que muchos de ellos llaman el proyecto Manhattan de su generación.
17:55A diferencia de muchas tecnologías desarrolladas en el pasado, la IA está siendo impulsada
18:02principalmente por un pequeño grupo de científicos en San Francisco, y este pequeño grupo está
18:08desarrollando tecnologías extremadamente poderosas de las que sabemos muy poco. Quizás esto tenga que
18:13ver en parte con un optimismo histórico hacia la tecnología. Muchos están acostumbrados al
18:19paradigma de actuar rápido y romper, lo que a veces lleva a que las cosas salgan bien. Pero
18:25cuando desarrollas una tecnología que afecta a la sociedad, no quieres avanzar tan rápido como
18:30para destruir la sociedad.
18:43Pauze.AI busca una pausa global e indefinida en el desarrollo de la inteligencia artificial.
18:49Por eso estamos pegando carteles para informar a la gente. El tema de la IA es complicado,
18:56gran parte del público no lo entiende, gran parte del gobierno no lo entiende. Es difícil seguir el
19:01ritmo de los avances. Además, la mayoría de nosotros que trabajamos en este tema no tenemos
19:05experiencia en activismo. Lo que tenemos es principalmente conocimiento técnico y manejo
19:11de la IA y eso nos preocupa. La seguridad de la IA sigue preocupando solo a una minoría. Y de hecho,
19:19muchos de los nombres importantes en el campo de la seguridad trabajan en laboratorios de IA. Creo
19:25que algunos de ellos están haciendo un gran trabajo, pero están bajo la influencia de las
19:29grandes empresas que impulsan este desarrollo. Ese es el problema. Creo que alguien de afuera
19:34debería decirles lo que tienen que hacer. Y desafortunadamente, en el caso actual de la IA,
19:38no existen organismos reguladores externos que estén realmente a la altura de la tarea de regular la IA.
19:45Son las mismas personas que dicen, esta cosa podría matarnos a todos y aún así la seguiré
19:52construyendo. Creo que una razón para la gran resistencia hacia el movimiento de seguridad de la
20:04IA es la falta de consenso entre las personas que temen las consecuencias de la inteligencia
20:12artificial para la humanidad y aquellos que programan este dios de la IA. Gran parte del
20:20debate aquí tiene un trasfondo realmente religioso. Es una de las razones por las que
20:27los seguidores de la IA dicen que no se puede detener y no se debe detener. Realmente parece
20:35que están hablando de construir un dios, como si lo estuvieran construyendo a su propia imagen.
20:51Amo a las personas y a la humanidad y también amo la ciencia ficción. Me gustaría desarrollar
21:00tales tecnologías como contribución a la humanidad y a la sociedad humana. Me gusta leer
21:08libros de ciencia ficción y también disfruto viendo películas de ciencia ficción. Las películas de
21:16Terminator forman parte de ellas, sí, pero desafortunadamente en algunas películas de
21:26los Estados Unidos o Europa, las tecnologías siempre atacan a las personas, pero realmente
21:33trabajan para el beneficio de las personas y la sociedad humana. En la película Terminator,
21:41un clásico del cine, Cyberdyne es una empresa tecnológica ficticia que desarrolla el software
21:47para el sistema Skynet, un sistema de IA que se vuelve consciente de sí mismo y se pone rebelde.
21:52El papel de Cyberdyne en la historia es representar los peligros de que la IA se salga de control y
21:58servir como advertencia para el mundo real. ¿Cyberdyne lleva ese nombre por la compañía
22:04de Terminator? No, en las historias de Terminator, esa compañía se llama Cyberdyne Systems.
22:14Por supuesto, es posible apagar algunos sistemas avanzados de IA y esperamos que se haga. Parte
22:20de la regulación se centra en asegurar que los centros de datos tengan buenos sistemas de apagado.
22:25Actualmente muchos no lo hacen. Eso podría ser más difícil de lo que pensamos. En el futuro
22:31podríamos encontrarnos en una situación donde los sistemas de IA estén arraigados a toda la
22:36economía y a la vida de las personas. Muchas personas podrían depender de los sistemas de IA
22:41y sería difícil convencerlas de que conviene apagar un sistema tan extendido. También existe
22:48el riesgo de una carrera armamentista militar. Cuando se trata del desarrollo de sistemas
22:52autónomos de IA, muchas grandes naciones podrían acumular grandes arsenales de armas autónomas y
22:58si algo sale mal podría resultar en un conflicto repentino que borre gran parte del mundo, similar
23:04al caso de las armas nucleares. En el peor de los casos, grandes arsenales de armas autónomas de
23:09pronto podrían causar la muerte de muchas personas por incidentes menores. Es probable que en los
23:14próximos años muchos abusos involucren a las personas. Se podrían usar sistemas de IA muy
23:20persuasivos para convencer a las personas de hacer cosas que normalmente no harían. Esto podría
23:26implicar extorsión o delitos cibernéticos u otros métodos para obligar a las personas a trabajar.
23:31Desafortunadamente, muchas de las técnicas actuales para manipular a otros para hacer
23:37el mal también podrían ser utilizados por la IA. ¿Como la extorsión? Sí.
23:41Lo que también es importante, el hombre convierte al lobo terrible en un perro amable. El ser
23:57humano tiene un gran cerebro, tecnologías y aliados naturales. Ahora estamos aquí,
24:07¿qué viene después? Nosotros los humanos, homo sapiens, obtenemos nuevos cerebros,
24:14cerebros adicionales, el cerebro original, más cerebros en el ciberespacio. Además,
24:22afortunadamente tenemos nuevos socios, amigos de IA, robots y así sucesivamente, incluso perros robots.
24:31Lo que más me preocupa en todo este escenario es que la tecnología de IA no necesariamente
24:39tiene que ser una herramienta para el capitalismo global, pero en realidad lo es,
24:45porque así es como se desarrolla. Y así, naturalmente, repetiremos todas las cosas
24:52que ya hemos hecho en términos de construcción de imperios, explotación de personas y extracción
25:00de recursos naturales. Todas estas cosas se repetirán, porque la inteligencia artificial
25:05es solo otra forma de explotación. No solo deberíamos considerar que los humanos son
25:13ineficientes, impredecibles o poco confiables, sino encontrar belleza o valor en que somos
25:22impredecibles o poco confiables. Como la mayoría de las nuevas tecnologías, es probable que las
25:31personas se vean afectadas de manera diferente. Por ejemplo, una gran parte del sur global no
25:37tuvo tanta voz en el diseño y control de la IA, pero al mismo tiempo algunos de estos riesgos
25:43también son globales. Cuando hablamos de riesgos de desastres, podrían afectar literalmente a todos.
25:49Si todos mueren, todos son una especie de partes interesadas, todos son potencialmente víctimas.
26:01¿Sigues planeando continuar solo investigando? Sé que se trataba de una tesis doctoral.
26:07Estoy un poco inseguro sobre mi futuro profesional. También hay que tener en
26:13cuenta el desarrollo de la IA. Podría tener sentido ganar dinero de otra manera. El salario
26:21inicial promedio en el campo de la IA es de 900.000 dólares estadounidenses. Eso es mucho. La gente en
26:31la industria tiene muchos recursos y afortunadamente todos los principales desarrolladores de IA también
26:38están contratando expertos en seguridad. En un mundo razonable donde las personas se aseguran
26:44de que las nuevas tecnologías no sean peligrosas, necesariamente debe haber precauciones de seguridad.
26:49Incluso con un riesgo mínimo, parece sensato minimizarlo aún más para brindar más seguridad
26:54a las personas. El uso pacífico y el uso militar están muy cerca uno del otro. Estoy considerando
27:03cuidadosamente cómo lidiar con esto. Cuando nací no había sistemas de IA ni computadoras,
27:11pero hoy en día los jóvenes comienzan sus vidas con IA y robots. Las tecnologías de
27:19inteligencia artificial los ayudarán en sus procesos de crecimiento. No anticipamos el
27:25rápido avance de la IA. Podría haber cambios de paradigma aún más salvajes, pero supongamos
27:31que David venciera a Goliat. Todavía tenemos una oportunidad. La gran mayoría de los investigadores
27:39de IA se centran en desarrollar sistemas seguros y útiles que estén alineados con los valores y
27:45objetivos humanos. Aunque es posible que la IA alcance la superinteligencia y represente
27:51una amenaza existencial para la humanidad, muchos expertos consideran que esto es altamente
27:56improbable, al menos en el futuro cercano.

Recomendada