Ventajas e inconvenientes de DeepSeek
Categoría
📺
TVTranscripción
00:00Bueno, la revolución del DeepSeek,
00:01hablamos de esa guerra, podríamos decir,
00:04entre Estados Unidos y China,
00:06en relación con todo lo que tiene que ver
00:08con la inteligencia artificial,
00:10el Catedrático de Computación e Inteligencia Artificial
00:13de la Universidad Pública de Navarra,
00:14Humberto Bustince,
00:15nos va a ayudar a comprender este fenómeno,
00:18que ya sabemos que ha generado un movimiento bursátil muy notable.
00:22Profesor Bustince, Humberto Bustince, ¿qué tal estás?, bienvenido.
00:25Bienvenido, gracias a Rosalía, buenas tardes a todas, a todos,
00:28por darme la oportunidad de intentar explicar algo
00:31que ya va a ser viejo.
00:32Sí, sí, que ya ha pasado, casi, ¿no?
00:33No, no, ya todo lo que digamos hoy, mañana, ya es viejo,
00:36de hecho, es que todo lo que voy a decir hoy del DeepSeek,
00:39de la búsqueda profunda,
00:41ya ayer Aladín sacó en China otra competencia, otro modelo,
00:47Open Artificial Intelligence, otro modelo, pero de pago,
00:50entonces, todo esto va a una velocidad
00:52que todo lo que hablemos hoy, ya digo,
00:53mañana probablemente sea viejo.
00:54Así es, bueno, todo lo que has visto hasta ahora,
00:57el DeepSeek y todas las consecuencias que ha tenido,
01:00¿qué puede suponer para la ciudadanía en general?,
01:03para el mundo empresarial y económico, fundamentalmente.
01:07Para mí ha habido dos puntos fundamentales en el 20 de enero,
01:12que es, primero, el DeepSeek es un chat GPT, vamos a hablar así,
01:16pero digamos que viene de China, pero con código abierto,
01:19¿qué significa eso?,
01:20que no es una caja como la que teníamos,
01:22que tú te conectas vía internet a Estados Unidos,
01:26allá resuelven lo que hice y te mandan la contestación a tiempo real,
01:29es decir, es en streaming, te lo vas a decir directamente,
01:33pero la caja no sabes lo que hay dentro,
01:35los chinos han sacado lo que hay dentro de la caja,
01:38es, digamos, código abierto,
01:39entonces, tiene una ventaja impresionante
01:41desde el punto de vista de ciencia,
01:42que me permite bajarme trozos de programa,
01:45modificarlos, mejorarlos,
01:47incluso utilizarlos sin necesidad, algunos trozos,
01:50de estar conectado a internet ni a ellos.
01:53Entonces, eso para mí, desde el punto de vista científico,
01:55es un avance de gigantes.
01:59Por otra parte, también se ha mejorado algo,
02:00desde el punto de vista social, de las sostenibilidades,
02:03aunque habría que hablar un poco sobre esto,
02:05que es el tema de los costes, es mucho más barato, entre comillas.
02:10Es cierto que hay personas que ya se dicen
02:13que están utilizando lo que se dice el método de destilación,
02:16que han utilizado el sistema de Open Artificial Intelligence
02:20para aprender de ellos,
02:21es la metodología del maestro y del alumno,
02:23el alumno empieza a hacer preguntas al maestro,
02:25llega un momento en que el alumno sabe tanto como el maestro
02:28y se independiza.
02:29Entonces, hay ese tipo y no ese tipo,
02:31pero los dos puntos son que es muy eficaz y a bajo coste
02:35y, sobre todo, que es código abierto.
02:36¿E inconvenientes?
02:38Inconvenientes, bueno, a ver,
02:41es que los inconvenientes nos vienen de Europa,
02:43pero está claro, por ejemplo, el modelo chino,
02:45estos son sistemas de inteligencia artificial generativa,
02:48generan contenidos.
02:50Digo, vamos a hacer una redacción sobre Arronis o sobre Huawei,
02:53te lo hacen, generan.
02:54Entonces, el inconveniente está que,
02:57cuando tú te conectas al modelo chino,
02:59que no te lo has bajado, sino vas directamente al chino,
03:01estás sometido a las leyes que han impuesto ellos,
03:03por ejemplo, no puedes preguntar nada sobre la plaza Tiananmen
03:06o en determinadas cosas, porque lo han dicho ellos.
03:08¿Cuestiones que pueden complicar un poco la existencia china?
03:12Nada, pero el modelo de Estados Unidos lo tiene más callado.
03:16El problema es que Europa, que son los grandes inconvenientes,
03:20no hacemos nada a nivel científico de desarrollos,
03:23no tenemos esas máquinas, entonces, legislamos mucho,
03:25pero sobre herramientas que nos vienen dadas de fuera,
03:28entonces, cuando vamos a hablar, por ejemplo,
03:30sobre sesgos, nueva masculinidad, que hemos hablado antes,
03:33Europa tiene que someterse a las normativas
03:36con las que han creado el chat chino o el chat americano.
03:41Entonces, Europa lo tiene muy complicado.
03:44Para mí, el principal inconveniente es ese,
03:45y después, claro, los sesgos de cómo hayan sido entrenados.
03:48Esto son una serie de pasos muy importantes.
03:51El primer paso, a ver cómo se consigue generar un sistema de estos.
03:55Primero, un grupo de científicos importante,
03:57me da igual, matemáticos, informáticos, etc.
03:59Segundo, un sistema muy grande de máquinas GPU para almacenar datos.
04:04Tercero, un pre-entrenamiento con esos datos,
04:07pre-entrenamiento, ahí entran todos los sesgos, todos los que queramos.
04:10Cuarto, viene un aprendizaje reforzado en el hecho de que,
04:16por ejemplo, las frases que terminan con una palabra,
04:19coge las mil mejores, hay los entrenadores fantasma,
04:23que es un programa total, había que dedicar a eso,
04:26cómo entrenan, utilizando a personas,
04:28pagando miserias, igual medio dólar por hora.
04:32Y entre las 100 frases que pueden contestar,
04:35por el entrenamiento reforzado,
04:37se consigue cuál es la mejor para tu contexto.
04:40Todo ese proceso, dicen que costó 100 millones de dólares en su momento.
04:44Los chinos dicen que lo han hecho con seis, no tengo ni idea.
04:48Pero Europa no está haciéndolo, eso está claro.
04:51Cuando tú pre-entrenas con datos sesgados,
04:53te salen sesgos homófobos, etc.
04:55No nos dejan, no tenemos la oportunidad de entrenar nuestro sistema.
04:59¿Por qué Europa no hace esto?
05:01Porque no se ha metido en la guerra directamente, no ha querido,
05:05porque primero era una cosa privada de grandes empresas,
05:09Microsoft, Open Artificial Intelligence, se unió con Microsoft,
05:12Google por otro lado, unos se hacían abiertos, otros cerrados,
05:14y luego ha venido China.
05:16Entonces, Europa no ha invertido en investigación,
05:18ha invertido sobre todo en legislación.
05:21Es un problema muy gordo, espero que reaccionen.
05:23De hecho, Europa sacó la Ley de Inteligencia Artificial el año pasado,
05:29el día 1 de febrero entraba ya en vigor la normativa de cómo sancionar
05:34a los que utilizan mal ciertas cosas de inteligencia artificial,
05:37pero en Francia se desligaron un poco
05:40e intentaron hacer su propio sistema.
05:43Incluso cogiendo a grandes investigadores de Estados Unidos,
05:48la semana pasada abrieron su sistema y fracasó rotundamente.
05:54No hay dinero suficiente invertido en investigación.
05:57Lo siento, el problema de Europa es que hay que invertir dinero
06:01en estas técnicas para investigar.
06:04¿A qué peligros nos enfrentamos, por ejemplo,
06:06con la aplicación de este tipo de sistemas de inteligencia artificial?
06:10¿Qué sería lo más grave o preocupante, Alberto?
06:13Preocupante, primero, la pérdida total de la privacidad.
06:16Es muy bonito decir, me levanto por la mañana,
06:17el sistema me recomienda que desayune esto
06:19porque me va el colesterol mal,
06:21a continuación vas a jugar al pádel con fulano y tal,
06:23que tienes que ganarlo,
06:25de los 200 correos vas a responder solamente a 10,
06:28que son los importantes,
06:29he perdido absolutamente mi privacidad.
06:31Segundo, son los sesgos.
06:33Los sesgos es que yo he entrenado al sistema como me ha dado la gana.
06:36En China lo he entrenado de una forma, en Estados Unidos de otra,
06:39pero ahí puedes crear racismo, homofobia, etc.
06:43El siguiente problema muy importante es la sostenibilidad.
06:48Esto supone un gasto económico impresionante, hay que decirlo.
06:53Por ejemplo, al hacer una consulta al chat GPT
06:55se dice que es más o menos 0,5 kWh de energía.
06:59Eso no es sostenible a día de hoy.
07:01Entonces, los peligros...
07:04y a partir de ahí, cuando ya tenemos que el coste energético es muy elevado,
07:09vienen otros peligros, que es la utilización.
07:12Yo puedo construir,
07:13me coges un minuto de mi conversación aquí contigo,
07:17ahora escribes en un texto algo que lo haya dicho, si quieres,
07:20o te lo inventas o que lo haya dicho yo que sé, en la UNMASC,
07:24y se puede conseguir que yo hable con mi tono todo ese texto.
07:30Entonces, claro, yo puedo engañar a la ciudadanía,
07:32puedo hacer vídeos que son irreales, que están hechos de forma digital,
07:37donde aparece que yo estoy pegando a una persona.
07:39Eso es muy fácil de hacer.
07:41Claro, y ante eso, ¿qué se puede hacer?
07:43Europa lo que ha querido hacer es exclusivamente legislar,
07:48pero cuando la máquina te viene de otro sitio,
07:52ellos sí que han puesto sus vetos ahí.
07:54Nosotros tenemos que hacer vetos sobre investigaciones
07:59y mecanismos hechos por otros, y eso cuesta bastante más tiempo.
08:04Los peligros que nos vienen, de verdad, se pierde todo tipo de realidad,
08:08no se sabe exactamente si lo que vas a ver es real o es falso,
08:12vas a poder crear vídeos ad-hoc para ti, pero vienen...
08:17Ahora, hay grandes ventajas en medicina, por ejemplo,
08:20simulaciones absolutas de procesos de operaciones,
08:24simulaciones de evoluciones de cáncer,
08:26podríamos hablar de muchas cosas también, en la parte positiva,
08:29porque pasa que hablamos siempre de lo negativo,
08:32pero lo negativo es que hay que legislar bien
08:33si tú tienes el poder sobre la herramienta.
08:37Así es, pues legislación, normas éticas,
08:41porque aquí también entra en juego la ética,
08:43no solo la tecnología, y a eso hay que darle un valor especial,
08:47un valor mayor, si cabe, como dices, Humberto.
08:50Es que es fundamental.
08:52A mí me resulta un poco duro decir...
08:54no todo el mundo está preparado para jugar con esas herramientas,
08:58y es así, uno no puede decir... créame un vídeo de un minuto,
09:02simplemente dando una frase y que sea todo, por ejemplo,
09:04agresivo, etcétera, etcétera.
09:06De alguna forma hay que establecer normas.
09:10De hecho, para que veamos dónde estamos,
09:13en la película de Brutalistik, que me imagino que lo habréis visto,
09:16es muy larga, pero yo recuerdo una película que hizo Maggie Streep
09:21hace años, donde ella imitaba a una europea
09:24que estaba en un campo de concentración,
09:26con el acento expresante de la europea.
09:29Le costó más de un año preparar solamente ese papel,
09:32su voz, su sonido, etcétera.
09:34En el brutalista, lo que ocurre es...
09:36un arquitecto húngaro aparece en Estados Unidos,
09:39habla muy mal inglés,
09:40entonces habla un inglés con un DG húngaro total,
09:43no ha dicho ni una sola palabra al actor,
09:46todo ha sido una inteligencia artificial.
09:47Él lo que hacía era decir lo suyo,
09:49pero quien hablaba era la inteligencia artificial.
09:52Entonces, hay vídeos que...
09:54claro, va a ganar el Oscar, pues no tengo ni idea si lo va a ganar o no,
09:58pero lo que sí es cierto es que no se ha esforzado ni un solo minuto
10:01en coger un DG húngaro para poder hablar en inglés.
10:04¿Y nosotros cómo vamos a saber que es verdad y que no lo es?
10:07Es que eso es lo que pasa, que muchas veces no sabemos,
10:09de hecho, es que en unas elecciones que hubo hace poco en Estados Unidos,
10:12anteriores a las legislativas de Biden, etcétera,
10:16en un pueblo, el candidato a alcalde iba a ganar,
10:20parecía que era uno muy concreto,
10:22salió un vídeo hecho por inteligencia artificial
10:24donde defendía con su voz la violencia policial
10:28en determinados momentos y no ha ganado.
10:31Puede arruinar la carrera de cualquiera.
10:32Es una herramienta muy buena para otras aplicaciones.
10:34Tiene sus ventajas y sus inconvenientes,
10:36como bien ha quedado claro,
10:38por ejemplo, en el campo de la medicina, como bien indicas,
10:40pero sí que es verdad que puede cercenar
10:42algunos de nuestros derechos y nuestras libertades.
10:45Bueno, seguiremos hablando acerca de esto,
10:47del momento en que, como sabemos,
10:49ha roto un poco los esquemas de Estados Unidos
10:52y nos ha sorprendido a todos.
10:54Hoy hemos hecho un abordaje, yo creo que muy claro,
10:56con ayuda de Humberto Agustín C.,
10:59que es un experto en inteligencia artificial.
11:02Seguiremos hablando de las ventajas otro día, Humberto.
11:04Sí, por supuesto, además creo que hay muchísimas.
11:07Esto es una guerra entre empresas y procesadores, etcétera.
11:11Entonces, lo que han conseguido,
11:12esa guerra que está Estados Unidos
11:15no queriendo vender al resto del mundo
11:16lo que se llaman los chips H800 a la parte china,
11:21lo que ha hecho son los chinos optimizar todo
11:24utilizando procesadores más viejos que consumen menos
11:27y que son tan eficientes como los otros.
11:29Es una guerra, digamos, económica, pero bueno, se ha pillado en medio.
11:32Efectivamente, pues en medio estamos,
11:34modelos económicos con diferentes miradas,
11:36transparencia o no, sostenibilidad o no.
11:40Muchísimas gracias, Humberto Agustín C.,
11:42y cuando queráis podemos hablar de otras aplicaciones
11:44que las hay muy interesantes en medicina y en proteínas,
11:47y hay empresas navadas muy bien colocadas.
11:50Pues quedamos otro día, ¿de acuerdo?
11:51Muchísimas gracias, Humberto Agustín C.,
11:53que nos ayuda a comprender estas novedades
11:58en el campo de la informática.