Quizás has oído hablar de la singularidad. Aquí te explicamos qué es exactamente y qué consecuencias tendrá su llegada. De la mano de www.antonioflores.es.
Categoría
🗞
NoticiasTranscripción
00:00Cada vez oímos más que la inteligencia artificial nos va a superar a la inteligencia humana.
00:13De hecho esto es real en muchas tareas. Hay sistemas de IA que ya superan a la mayoría
00:20de las personas en determinadas tareas. Por ejemplo, el sistema AlphaGo de Google es un
00:25sistema capaz de jugar al juego chino del Go, que es considerado el juego de mesa más
00:31complicado del mundo, y desde el año 2016 gana sistemáticamente a todos los campeones
00:37mundiales de este juego. Sin embargo, no todas las inteligencias artificiales son capaces
00:44de superar a la inteligencia humana en todo. La singularidad es un concepto que acecha
00:51sobre nuestras cabezas relacionado con esta capacidad de los sistemas de IA de superar
00:58a la inteligencia humana. Soy Antonio Flores y hoy vamos a ver qué es la singularidad
01:04y qué puede suponer para nosotros. La singularidad, entendida y definida como se encuentra en
01:10la literatura científica y técnica, consiste en el momento en el que un sistema de IA para
01:18resolver una determinada tarea, su respuesta consiste en crear otro sistema de IA más
01:25potente, más inteligente que él, de manera autónoma, sin que haya ninguna persona que
01:31le indique cómo hacer esa evolución a un sistema mejor. ¿Por qué esto es importante? Pues
01:37básicamente porque supone la pérdida de control del ser humano sobre la máquina. Tendremos máquinas
01:44que deciden crear nuevas máquinas más potentes para resolver determinadas tareas sin que haya
01:50nadie indicándole cómo hacerlo ni supervisando cómo se realiza ese proceso. Podemos asimilarlo
01:56a una capacidad de reproducción de las máquinas generando otras. Esta evolución artificial una
02:04vez alcanzada la singularidad se espera que sea exponencial, lo que quiere decir que las máquinas
02:10empiecen a crear más y más tecnología y máquinas más potentes en cuestión de días, horas o minutos.
02:19Toda la comunidad tecnológica espera que este punto llegará por la propia manera en la que se
02:25construyen los sistemas de inteligencia artificial. La cuestión es si esto va a ser un peligro.
02:30Tendremos que convivir con máquinas y tendremos que convivir con máquinas que serán más inteligentes
02:37que nosotros porque su inteligencia va a evolucionar a un ritmo mucho mayor. ¿Supone
02:43esto un riesgo? ¿Van a terminar las máquinas con la humanidad como se ha predicho en muchas películas
02:49de ciencia ficción? En tanto en cuanto la humanidad no suponga un peligro o una amenaza
02:55para esa nueva especie, que además por cierto ya no se llamará inteligencia artificial, el concepto
03:01que se utiliza es el de superinteligencia. ¿Por qué? Porque artificial significa fabricado por el
03:08hombre y estas máquinas ya serán fabricadas por sí mismas, con lo cual no sería descabellado que
03:13estas máquinas evolucionaran también a materia orgánica y a estructuras biológicas. Volviendo a
03:20la pregunta, ¿serán una amenaza para nosotros? Pues si nos empeñamos en hacer las cosas como
03:27hemos estado haciendo en los últimos miles de años, que es destruir y pensar mal, pues probablemente
03:34supondremos una amenaza para esta nueva generación y podremos tener el riesgo de ser eliminados.
03:41Todo dependerá de cómo reaccionemos como especie. ¿Crees que la singularidad supondrá un problema o
03:50un inconveniente, un punto de inflexión para la humanidad? ¿O crees que estaremos a la altura para
03:56superarlo y convivir con esas máquinas más inteligentes que las personas?