Google I / O 2024 Keynote: Desarrollador

  • la semana pasada
Actualizaciones de Gemini API y Gemma de Google I/O el 14 de mayo de 2024. Únase a Josh Woodward, vicepresidente de laboratorios, para obtener más información sobre las actualizaciones de Gemini 1.5 Flash, Gemini 1.5 Pro, PaliGemma y Gemma 2.

Category

🗞
Noticias
Transcripción
00:00¡Gracias, Dave! Es increíble ver a Gemini Nano hacer todo eso directamente en un teléfono de Android.
00:07Ese ha sido nuestro plan durante todo el proceso, crear un Gemini nativamente multimodal, en una variedad de tamaños,
00:14para que todos ustedes, como desarrolladores, puedan elegir el que sea mejor para ustedes.
00:19Durante la mañana, habéis escuchado mucho de lo que ha pasado en el mundo de la tecnología.
00:24Y quiero hablarles de los dos modelos que pueden acceder hoy.
00:27El 1.5 Pro, que está recibiendo una serie de mejoras de calidad que están saliendo justo ahora.
00:33Y el nuevo 1.5 Flash.
00:35Ambos son disponibles hoy globalmente en más de 200 países y territorios.
00:41¡Gracias, Dave!
00:42¡Gracias, Dave!
00:43¡Gracias, Dave!
00:44¡Gracias, Dave!
00:45¡Gracias, Dave!
00:46¡Gracias, Dave!
00:47¡Gracias, Dave!
00:48¡Gracias, Dave!
00:49¡Gracias, Dave!
00:50¡Gracias, Dave!
00:51Están todavía en Almost.
00:56Podéis cubrir la venta informacional en el sitio web degronado de Google.
01:01El 2.5 Pro también está en distribución global.
01:05¡Gracias, Dave!
01:06¡Gracias, Dave!
01:07¡Gracias, Dave!
01:08Blow, Blow, Ches.
01:12¡Gracias, Dave!
01:13Allá vamos.
01:14Eso es todo, chicos.
01:15En Google Dev, hoy, puedes inscribirte para probar la venta de 2 millones de tokens de contexto para 1.5 Pro.
01:23También estamos agregando un montón de nuevas funciones para desarrolladores,
01:26empezando con extracción de video frame, que va a estar en el API de Gemini,
01:31llamadas de función paralelas, para que puedas regresar más de una llamada de función a la vez,
01:36y mi favorito, caching de contexto, para que puedas enviar todos tus files a la modela de una vez
01:43y no tener que enviarlos de nuevo y de nuevo.
01:46Eso debería hacer que el contexto largo sea aún más útil y más afordable.
01:51Se envía el mes siguiente.
01:59Ahora, estamos usando la infraestructura de Google para servir estos modelos,
02:03para que los desarrolladores, como todos ustedes, puedan obtener buenos precios.
02:071.5 Pro es $7 por 1 millón de tokens,
02:12y estoy emocionado por compartir que para promesas hasta $128K,
02:16será un 50% menos, por $3.50.
02:20Y 1.5 Flash comenzará a $0.35 por 1 millón de tokens.
02:32Ahora, una cosa que podrías estar preguntando es, ¿cuál modelo es mejor para tu uso?
02:36Aquí es como lo hemos estado pensando en el equipo.
02:39Usamos 1.5 Pro para tareas complejas,
02:42donde realmente quieres la respuesta de calidad más alta.
02:45Y está bien si toma un poco más de tiempo para volver.
02:48Estamos usando 1.5 Flash para tareas rápidas,
02:51donde la velocidad del modelo es lo que importa más.
02:55Y como desarrollador, puedes probar ambos hoy
02:58y ver qué funciona mejor para ti.
03:01Ahora, voy a mostrarles cómo funciona aquí en AI Studio,
03:04la manera más rápida de construir con Gemini.
03:07Voy a ponerlo aquí.
03:09Y puedes ver que esto es AI Studio.
03:11Es gratis, no tienes que configurar nada para empezar.
03:15Simplemente vas a aistudio.google.com,
03:18ingresas con tu cuenta de Google,
03:20y puedes elegir el modelo aquí a la izquierda que te sirva mejor.
03:24Una de las maneras en que hemos estado usando 1.5 Flash
03:27es realmente aprender de la respuesta del cliente
03:30sobre algunos de los productos de nuestros laboratorios.
03:32Flash hace esto posible con su baja latencia.
03:35Así que lo que hicimos aquí
03:37fue tomar un montón de respuestas diferentes
03:40de nuestros foros de clientes.
03:42Puedes ponerlos en Flash,
03:44cargar un prompto y dar a correr.
03:46Ahora, en el fondo, lo que va a hacer
03:48es que va a pasar por esa pila de información de 93.000 tokens,
03:52y puedes ver aquí, empieza a rematarlo.
03:55Ahora, esto es muy útil porque nos lleva a los temas,
03:58nos da todos los lugares correctos
04:00donde podemos empezar a mirar.
04:02Y puedes ver que esto es de algunos de los beneficios
04:04que hemos mostrado antes.
04:06Ahora, lo que es genial de esto
04:08es que puedes tomar algo así en AI Studio,
04:11prototipado aquí en 10 segundos,
04:14y con un clic en la izquierda superior,
04:16agarra una llave de API,
04:18o aquí en la derecha superior,
04:20solo tapas en Get Code,
04:22y tienes todas las configuraciones del modelo,
04:24los ajustes de seguridad, listos para ir,
04:26directo a tu IDE.
04:28Ahora, con el tiempo,
04:30si encuentras que necesitas más funciones de nivel de empresa,
04:32puedes usar los mismos modelos de Gemini 1.5
04:35y las mismas configuraciones en Vertex AI.
04:39De esta manera, puedes escalar con Google Cloud
04:41mientras tus necesidades de empresa crecen.
04:44Así que ese es nuestro nuevo Gemini 1.5 Pro
04:48y el nuevo 1.5 Flash,
04:50ambos de los que están disponibles hoy, globalmente.
04:53Y escucharás mucho más sobre ellos
04:55en la presentación del desarrollador más tarde.
04:59Aplausos
05:05Ahora, volvamos y hablemos de Gemma,
05:08nuestra familia de modelos abiertos,
05:10que son cruciales para la innovación y responsabilidad de la Inteligencia Artificial.
05:14Gemma es construida con la misma investigación y tecnología
05:17que Gemini.
05:19Ofrece una gran prestación
05:21y viene en tamaños ligeros de 7B y 2B.
05:25Ahora, desde que se lanzó menos de tres meses atrás,
05:27ha sido descargada millones de veces
05:29a través de todos los grandes modelos.
05:32Los desarrolladores y los investigadores
05:34han estado usando y customizando el modelo base de Gemma
05:37y usando algunas de nuestras variantes preestablecidas,
05:40como la Gemma recurrente y la Gemma de código.
05:43Y el nuevo miembro de hoy,
05:46PolyGemma,
05:48nuestro primer modelo abierto de lenguaje de visión,
05:51y está disponible ahora mismo.
05:54Está optimizado para una variedad de tareas de captación de imágenes,
05:58Q&A visual, y otras tareas de labelamiento de imágenes.
06:01Así que, ¡déjalo probar!
06:03También estoy muy emocionado por anunciar
06:06que se viene Gemma 2.
06:09Es la siguiente generación de Gemma
06:11y estará disponible en junio.
06:14Uno de los principales pedidos que hemos oído de los desarrolladores
06:17es para un modelo más grande de Gemma,
06:19pero todavía va a encajar en el mercado.
06:21Así que en pocas semanas
06:23vamos a añadir un nuevo modelo de 27 billones de parámetros
06:26para Gemma 2.
06:28Y aquí es lo que es genial.
06:30Este tamaño está optimizado por NVIDIA
06:33para funcionar en GPUs de la siguiente generación
06:36y puede funcionar eficientemente
06:38en un solo host de TPU en Vertex AI.
06:42Así que este ratio de calidad a tamaño es increíble
06:45porque va a desarrollar modelos
06:47más que lo que se ha hecho hasta ahora.
06:49No podemos esperar a ver
06:51lo que vas a construir con ella.
06:59Para terminar, quiero compartir
07:01esta historia inspiradora de India
07:03donde los desarrolladores han estado usando Gemma
07:05y su tokenización única
07:07para crear Navarasa,
07:09un conjunto de modelos de ajuste de instrucción
07:12para ampliar el acceso a 15 idiomas Índicos.
07:15Esto se construye en un modelo de 15 idiomas
07:18Esto se construye en nuestros esfuerzos
07:20para hacer accesible la información
07:22en más de 7.000 idiomas alrededor del mundo.
07:24Veamos.
07:36La lengua es un problema muy interesante
07:38para resolver.
07:40Dado que India tiene una gran variedad de idiomas
07:44y cambia cada 5 kilómetros.
07:48Cuando la tecnología se desarrolla
07:50para una cultura en particular,
07:52no podrá resolver
07:54y entender los números
07:56de un país como India.
07:58Una de las funciones de Gemma
08:00es un tokenizador increíblemente poderoso
08:02que permite al modelo
08:04usar cientos de miles de palabras,
08:06símbolos y personajes
08:08a través de tantos alfabetos y sistemas de lenguaje.
08:10Este vocabulario grande
08:12es crítico para adaptar Gemma
08:14a proyectos como Navarasa.
08:17Navarasa es un modelo
08:19entrenado para idiomas indígenas.
08:21Es un modelo finetune
08:23basado en la Gemma de Google.
08:25Construimos Navarasa
08:27para hacer modelos de idiomas
08:29culturalmente orientados
08:31donde la gente puede hablar
08:33en su idioma nativo
08:35y obtener respuestas en su idioma nativo.
08:37Nuestro mayor sueño
08:39es construir un modelo
08:41que incluya a todos
08:43desde todos los lados de India.
08:47Hoy en día, el idioma que hablas
08:49puede ser la herramienta y la tecnología
08:51que usas para resolver
08:53tus problemas reales.
08:55Y ese es el poder de la AI generativa
08:57que queremos traer a todos los lados
08:59de India y a todo el mundo.

Recomendada