• ayer
At CES 2025, Nvidia CEO Jensen Huang kicks off CES, the world's largest consumer electronics show, with a new RTX gaming chip, updates on its AI chip Grace Blackwell and its future plans to dig deeper into robotics and autonomous cars.
Transcripción
00:00Aquí está, nuestra nueva GPU GeForce RTX 50 Series con arquitectura Blackwell.
00:11La GPU es una bestia. 92 billones de transistores, 4000 tops, 4 petaflops de AI.
00:22Tres veces más alto que la última generación AIDA.
00:25Y necesitamos todo eso para generar esos píxeles que les mostré.
00:29380 pétalos de rayos para que podamos, para los píxeles que tenemos que computar,
00:36computar la imagen más hermosa posible.
00:39Y, por supuesto, 125 pétalos de shader.
00:42Hay un concurrente de pétalos de shader,
00:45así como una unidad de energía de igual performance.
00:48Entonces, dos pétalos duales. Uno es para el punto flotante, otro es para la energía.
00:54Memoria G7 de Micron, 1.8 TB por segundo,
00:59dos veces la performance de nuestra última generación.
01:02Y ahora tenemos la capacidad de intercambiar los descargos de AI con descargos de gráficos de computador.
01:08Y una de las cosas increíbles de esta generación es que el shader programable también es capaz de procesar las redes neuronales.
01:17Entonces, el shader es capaz de llevar estas redes neuronales,
01:20y como resultado, inventamos la compresión de textura neurónica y el shader material neurónico
01:27con la familia Blackwell RTX 5070.
01:30La performance de 4090 en 549.
01:43Imposible sin la inteligencia artificial.
01:46Imposible sin los cuatro tops, los cuatro teraops de las redes tensores de inteligencia artificial.
01:53Imposible sin las memorias G7.
01:56Entonces, 5070, la performance de 4090, 549 dólares, y aquí está la familia.
02:02Empezando con 5070, hasta 5090.
02:055090, dos veces la performance de una 4090.
02:10Empezando...
02:12Por supuesto, estamos produciendo disponibilidad a gran escala a partir de enero.
02:17Bueno, es increíble, pero conseguimos poner estos GPUs de performance gigantesco en un computador.
02:27Este es un computador 5070.
02:30Para 1299, este computador 5070 tiene una performance de 4090.
02:38Entonces, el 5090 se encajará en un computador.
02:43Un computador fino.
02:44El último computador era de 14.9 milímetros.
02:47Tenemos un 5080, un 5070 Ti y un 5070.
02:51Pero lo que tenemos aquí básicamente son 72 GPUs Blackwell o 144 dies.
02:56Este chip es de 1.4 exaflops.
03:00El supercomputador más grande del mundo, el más rápido.
03:03Este supercomputador, solo recientemente, este supercomputador de toda la habitación, solo recientemente logró un exaflops.
03:10Este es de 1.4 exaflops de AI floating point performance.
03:14Tiene 14 terabytes de memoria, pero aquí es lo increíble.
03:18La banda de memoria es de 1.2 petabytes por segundo.
03:22Es básicamente todo el tráfico de Internet que está sucediendo en este momento.
03:30El tráfico de Internet de todo el mundo está siendo procesado a través de estos chips.
03:36Y tenemos 130 trillones de transistores en total, 2.592 cores de CPU, un montón de networking.
03:48Y así, estos, me gustaría poder hacer esto.
03:51No creo que pueda.
03:52Estos son los Blackwells.
03:53Estos son nuestros chips de networking ConnectX.
03:58Estos son los NVLink.
04:00Y estamos tratando de bromear sobre la espalda de los NVLink, pero eso no es posible.
04:06Y estos son todos los memorios de HBM.
04:0912, 14 terabytes de memoria de HBM.
04:12Esto es lo que estamos tratando de hacer.
04:14Y este es el milagro, este es el milagro del sistema Blackwell.
04:17Así que lo finestramos usando nuestra experiencia y nuestras capacidades,
04:20y lo convertimos en el suite de modelos abiertos de Lama-Nemotron.
04:26Hay modelos pequeños que interaccionan a muy rápida velocidad de respuesta, extremadamente pequeños.
04:33Son lo que llamamos supers, supers de Lama-Nemotron.
04:37Básicamente son las versiones principales de vuestros modelos.
04:40O vuestro modelo Ultra.
04:42El modelo Ultra puede ser usado.
04:44Para ser un modelo de profesor para un montón de otros modelos.
04:47Puede ser un modelo de recompensa, evaluador,
04:50un juzgado para otros modelos para crear respuestas y decidir si es una buena respuesta o no.
04:56Básicamente dar respuesta a otros modelos.
04:58Puede ser distilado en muchas formas diferentes.
05:00Básicamente un modelo de profesor, un modelo de distilación de conocimientos.
05:04Muy grande, muy capaz.
05:06Y todo esto ahora está disponible en línea.
05:09Envidia Cosmos, el primer modelo de fundación mundial.
05:13Está entrenado en 20 millones de horas de video.
05:18Los 20 millones de horas de video se enfocan en cosas físicas y dinámicas.
05:24Cosas dinámicas, temas de la naturaleza,
05:28humanos caminando, manos moviendo, manipulando cosas.
05:34Cosas que son movimientos de cámara rápida.
05:36Es realmente sobre enseñar a la AI.
05:39No sobre generar contenido creativo,
05:41pero enseñar a la AI a entender el mundo físico.
05:44Y con esta AI física,
05:47hay muchas cosas de abajo que podríamos hacer como resultado.
05:51Podríamos hacer generación de datos sintéticos para entrenar modelos.
05:55Podríamos distilarlo y convertirlo en efectivo.
06:00Podríamos generar múltiples escenarios físicamente plazables
06:04en el futuro.
06:06Básicamente, hacer un Doctor Strange.
06:08Porque este modelo entiende el mundo físico,
06:11por supuesto, viste un montón de imágenes generadas.
06:13Este modelo entiende el mundo físico.
06:15También podría hacer, por supuesto, captación.
06:18Y así podría tomar datos sintéticos.
06:21Podría hacer captación.
06:23Podría hacer captación.
06:25Podría hacer captación.
06:27Y así podría tomar videos.
06:29Capturarlo increíblemente bien.
06:32Y esa captación y el video
06:34podrían ser usados para entrenar modelos de lenguaje grande.
06:38Modelos de lenguaje grande multimodal.
06:41Y así podrías usar esta tecnología
06:43para usar este modelo de fundación
06:45para entrenar robots,
06:47así como modelos de lenguaje grande.
06:49Y así, este es el NVIDIA Cosmos.
06:51La plataforma tiene un modelo autoregresivo
06:53para aplicaciones en tiempo real.
06:55Tiene un modelo de difusión
06:57para generar imágenes de calidad muy alta.
06:59Es un tokenizador increíble,
07:01básicamente aprendiendo el vocabulario del mundo real.
07:04Y una red de datos,
07:06así que si te gustaría tomar todo esto
07:08y luego entrenarlo en tu propia data,
07:10esta red de datos,
07:12porque hay tanta data involucrada,
07:14hemos acelerado todo para ti.
07:16Y así, este es el primer modelo de procesamiento de datos del mundo
07:19que es CUDA acelerado,
07:21así como AI acelerado.
07:23Y esto es parte de la plataforma de Cosmos.
07:25Y hoy estamos anunciando
07:27que Cosmos es licenciado abierto.
07:29Está abierto y disponible en Github.
07:31Bueno, hoy estamos anunciando
07:33que nuestro procesador de próxima generación
07:35para el coche,
07:37nuestro computador de próxima generación
07:39para el coche se llama Thor.
07:41Tengo uno aquí, espera un segundo.
07:43Bien, este es Thor.
07:45Este es Thor.
07:47Este es...
07:49Este es un computador de robótica
07:51Este es un computador de robótica
07:53que toma sensores
07:55y una cantidad de sensores
07:57de una madre
07:59de información.
08:01Procesa
08:03cámaras,
08:05resolución alta,
08:07radars, lidars,
08:09todos vienen a este chip
08:11y este chip tiene que procesar todo ese sensor,
08:13convertirlo en tokens,
08:15ponerlo en un transformador
08:17y predicar el siguiente camino.
08:19Y este computador de AV
08:21ahora está en producción completa.
08:23Thor es 20 veces
08:25la capacidad de procesamiento
08:27de nuestro último generador, Oren,
08:29que es realmente el estándar
08:31de vehículos autónomos hoy.
08:33Esto es realmente increíble.
08:35Thor está en producción completa.
08:37Este procesador de robótica, por cierto,
08:39también se convierte en un robot completo.
08:41Puede ser un AMR,
08:43un robot humano,
08:45el cerebro, el manipulador.
08:47Este procesador, básicamente,
08:49es un computador de robótica universal.
08:51El momento de chat GPT
08:53para la robótica general
08:55está justo alrededor.
08:57Y, de hecho, todas las tecnologías
08:59que he estado hablando de
09:01van a hacer posible
09:03para nosotros
09:05en los próximos años
09:07ver desastres rápidos,
09:09desastres sorprendentes en la robótica general.
09:11La razón por la que la robótica general es tan importante
09:13es porque los robots
09:15con ruedas y ruedas
09:17necesitan espacios especiales
09:19para acompañarlos.
09:21Hay tres robots,
09:23tres robots en el mundo que podemos hacer
09:25que necesitan
09:27ningún campo verde.
09:29La adaptación del campo rojo es perfecta.
09:31Si pudiéramos posiblemente
09:33construir estos increíbles robots,
09:35podríamos desplegarlos
09:37en exactamente el mundo que hemos construido por nosotros mismos.
09:39Estos tres robots son,
09:41uno, robots agentes
09:43porque
09:45son trabajadores de información.
09:47Por lo tanto, si pudieran acompañar
09:49los computadores que tenemos en nuestras oficinas,
09:51sería genial.
09:53Dos, automóviles automáticos.
09:55Y la razón por la que lo hacemos es que hemos pasado
09:57más de 100 años construyendo carreteras y ciudades.
09:59Y, tres,
10:01humanos o robots.
10:03Si tenemos la tecnología para resolver estos tres,
10:05esta será la industria de tecnología
10:07más grande que el mundo haya visto.
10:09Esta es
10:11la nueva supercomputadora de inteligencia artificial de NVIDIA.
10:15Y
10:17se llama
10:19Proyecto Dígitos
10:21en este momento.
10:23Y si tienes un buen nombre para ello,
10:25háznoslo saber.
10:27Aquí es lo increíble.
10:29Esta es una supercomputadora de inteligencia artificial.
10:31Ruena toda la caja de inteligencia artificial de NVIDIA.
10:35Todo el software de NVIDIA runa en esto.
10:37DGX Cloud
10:39runa en esto.
10:41Esto se siente
10:43en algún lugar y es
10:45wireless o conectado a tu computadora.
10:47Incluso es una instalación de trabajo, si te gusta.
10:49Y puedes acceder a esto.
10:51Puedes alcanzarlo como
10:53una supercomputadora de cloud.
10:55Y la inteligencia artificial de NVIDIA
10:57funciona en esto.
10:59Y es basado en un chip supersecreto
11:01que hemos estado trabajando en,
11:03llamado GB110,
11:05la pequeña caja de inteligencia artificial de Grace que hacemos.
11:07Y este es el chip que está adentro.
11:11Está en producción.
11:13Este chip supersecreto
11:15que hicimos en colaboración
11:17con la CPU, la CPU de Grace,
11:19fue construido
11:21para NVIDIA en colaboración
11:23con MediaTek.
11:25Son la compañía de S.O.C. líder del mundo
11:27y trabajaron con nosotros para construir
11:29esta CPU, la S.O.C. de la CPU
11:31y la conectamos con el chip-to-chip
11:33NVLink a la GPU de Blackwell.
11:35Y esta pequeña caja
11:37está en plena producción.
11:39Esperamos que
11:41este computador
11:43sea disponible
11:45a finales de mayo.

Recomendada