INCADE cerró el mes de la inteligencia artificial con el evento INCATECH

  • hace 3 meses
El INCADE concluye esta mañana el mes de la inteligencia artificial con un evento destacado, INCATECH. Silvia Cabrera, rectora de la institución, destacó la importancia de estos espacios para el conocimiento colectivo y el uso ético de la tecnología.

«Con mucha emoción y orgullo, generamos estos espacios donde siempre decimos que construimos conocimiento entre todos», expresó Cabrera. Resaltó el compromiso del INCADE con el presente y el futuro, enfatizando que «estas herramientas vanguardistas como la inteligencia artificial han venido para quedarse».

Durante junio, el INCADE ofreció diversas charlas abiertas al público, transmitidas por YouTube. Estas sesiones, impartidas por docentes de la institución que son también profesionales y especialistas en inteligencia artificial, abarcaron temas como el uso de herramientas tecnológicas y la historia de la IA. «Nuestros docentes han hablado sobre el valor y la apuesta de estas herramientas, como las salas de chat que tanto nos gustan y estamos utilizando», comentó Cabrera.

Category

🗞
News
Transcript
00:00:00Hoy, con Inkatech, hacemos el cierre de este mes de junio.
00:00:14Antes de sumergirnos en las ponencias de hoy, queremos, y los invitamos, a reflexionar
00:00:19sobre el papel fundamental que esta nueva tecnología tiene en nuestra vida cotidiana
00:00:25y en el ámbito empresarial.
00:00:27La Inteligencia Artificial, o IA, no son palabras de moda, es una herramienta poderosa que está
00:00:34transformando industrias enteras, desde la medicina hasta la agricultura, pasando por
00:00:41la educación y el entretenimiento.
00:00:43La IA tiene el potencial de resolver problemas complejos, optimizar procesos y crear nuevas
00:00:50oportunidades de negocio y aún está en plena etapa de desarrollo.
00:00:56En pocas palabras, la IA está redefiniendo la forma en que vivimos y trabajamos.
00:01:04El Instituto Inkade, comprometido con el desarrollo y la innovación, organiza regularmente
00:01:09eventos como Inkatech para proporcionar a nuestra comunidad conocimientos necesarios
00:01:14para afrontar los desafíos del futuro.
00:01:17Estos eventos son una plataforma, un escenario vivo para el intercambio de ideas, el aprendizaje
00:01:24continuo y la conexión con líderes del sector tecnológico.
00:01:29Hoy estamos muy emocionados de contar con la participación de expertos de primer nivel
00:01:34que compartirán sus conocimientos y experiencias con nosotros.
00:01:39Antes de presentarlos, vamos a pedir unas palabras a la mentora de estos encuentros,
00:01:44la contadora Silvia Carbrera, rectora del Instituto Inkade, coordinadora de la Universidad
00:01:49Siglo XXI y de la Escuela de Negocios Inkade.
00:01:52Inkade promueve el conocimiento porque creemos que es la clave para la evolución humana.
00:02:00Nutrirnos de nuevos saberes nos impulsa a nuevas oportunidades y sin dudas nos permite
00:02:06un desarrollo armonioso y con mayor impacto positivo.
00:02:11Hoy tendremos un escenario vivencial con los exponentes de primer nivel como Facundo Cajén
00:02:19y Juan Delfino, a quienes agradecemos profundamente la participación y junto a profesores de
00:02:25nuestra institución, disertarán sobre temas de vanguardia y las últimas tendencias tecnológicas.
00:02:33La inteligencia artificial ya es realidad y su potencial se agiganta cada día.
00:02:40Como comunidad educativa comprometida con la realidad, nuestro propósito es expandir
00:02:46conocimiento con calidad, pero además concientizar de que todas estas herramientas innovadoras
00:02:54deben ser aportes para mejorar la calidad de la vida humana y del planeta.
00:03:00Por ello conlleva responsabilidad tanto al momento de la creación de los diseños como
00:03:07en el uso, con ética y prácticas con valores altruistas.
00:03:14Nosotros somos protagonistas de crear el mejor futuro para nosotros y los que vendrán.
00:03:21Y el futuro empieza aquí y ahora en Incatech.
00:03:27Que disfruten. Gracias.
00:03:28Vamos a hablar un poquito, pero antes que eso, quisiera pedirle un favor que todos,
00:03:41todos, todos levanten la mano. Una mano. Ahí vamos. Ahora la otra.
00:03:46La otra, pero ya que estaba, le hice levantar. No, sigan con la mano levantada.
00:03:52Ahora quiero que bajen la mano solamente aquellos que saben qué es Globant.
00:03:59Yo sé qué es Globant, por eso la bajo. Bueno.
00:04:04Hay muchas manos levantadas, ya pueden bajar. Muchas gracias.
00:04:07Quiero entender más o menos cuál era la cantidad de gente que no conoce lo que es Globant,
00:04:11lo cual no es sorprendente, no me sorprende para nada, al contrario.
00:04:14Sé que mucha gente no sabe qué es Globant, pero estoy seguro que todos los que están acá,
00:04:19todos los que levantaron la mano inicialmente, utilizan alguna aplicación o algún tipo de
00:04:27herramienta tecnológica donde nosotros desde Globant estuvimos detrás haciendo algo.
00:04:34Una preguntita rápida también. ¿Alguien tuvo la suerte, yo todavía no,
00:04:37de ir a un parque de diversiones de Disney? ¿Tuvo alguno? Allá está.
00:04:42Acá también el señor. ¿Le pusieron una pulserita?
00:04:46Bueno, detrás de esa pulserita hay muchísimo trabajo de Globant, por darle un ejemplo.
00:04:51¿Acá todos usan Mercado Libre? Bueno, eso también es un cliente nuestro en el cual
00:04:58detrás de ese uso que va a hacer ustedes hay un montón de trabajo de Globant.
00:05:04Eso entre muchas otras cosas más. ¿Utilizan videojuegos como FIFA?
00:05:10¿Juegan FIFA? ¿Alguno de acá? ¿Sí? Bien.
00:05:14FIFA también, nosotros trabajamos para Electronic Arts y hacemos desarrollo para FIFA
00:05:18porque somos una empresa que, primero somos argentinos, por lo tanto el tema del fútbol
00:05:23lo tenemos muy claro, pero también hicimos desarrollo de hockey sobre hielo.
00:05:27¿Qué sabemos de hockey sobre hielo? No importa. En Globant aprendemos y hacemos desarrollos.
00:05:32Bien. Como para dar un... Globant se funda con esos cuatro que están ahí,
00:05:40esos cuatro fantásticos, locos. Fundaron Globant en el año 2003,
00:05:46en el Downtown Matías que está ahí en esa foto.
00:05:51En el año 2006 Google sale de Googleplex y contrata por primera vez a un proveedor externo
00:06:01y lo hace con Globant en el año 2006. Eso obviamente nos dio chapa para poder invertir
00:06:06y seguir creciendo. Google es un cliente que lo tenemos hasta el día de hoy
00:06:11y tenemos muchísimos proyectos con Google, entre otros tantos.
00:06:16Hoy estamos en 30 países, somos cerca de 28.000 empleados en todo el mundo.
00:06:23En Argentina somos 5.500 empleados. Acá en Resistencia Chaco tenemos una oficina
00:06:29con 125 empleados, 12 oficinas repartidas en el país. Por lo tanto, estos cuatro
00:06:36la verdad que son fantásticos y siguen creciendo y pensando en grande constantemente.
00:06:42Eso para dar un panorama de lo que es Globant, pero no vine a hablar de Globant,
00:06:45vine a hablar de Metaverso. Metaverso, a ver, ¿qué es Metaverso?
00:06:49Es difícil por ahí encontrar una definición de lo que es Metaverso bien clara,
00:06:56pero vamos a poner que es un mundo virtual que amplía el mundo físico en el digital.
00:07:02Y el otro día hablando con un experto en Globant de este tema, me dice,
00:07:06también, a su vez, el mundo digital se amplía con el físico.
00:07:10O sea, es una interacción y dice, está el término este, digital.
00:07:15Somos bárbaros para inventar palabras nuevas e incorporarlas.
00:07:19Pero bueno, ¿qué es lo que contiene o cuáles son todos los elementos que tiene
00:07:23el Metaverso y que va a seguir implementando? Hablamos de Internet inmersivo,
00:07:28tecnologías emergentes, espacios tridimensionales, digitales, interoperativo,
00:07:35colaborativo, con inteligencia artificial, cripto, blockchain, multijugadores en línea,
00:07:43bla, bla, bla y muchísimos más.
00:07:46Y límites todavía que se pueden seguir expandiendo.
00:07:51Pero para ver un poquito, vayamos viendo un poco los orígenes con algunos ejemplos.
00:07:57Perdón, estas son algunas definiciones de gente referente o grandes empresarios.
00:08:04Por ejemplo, Matthew Ball, el autor de Metaverse Primer, dice,
00:08:07no podemos esperar que exista una definición clara y esclarecedora del Metaverso.
00:08:12Y dice, es como la Internet, una red interconectada de experiencias, aplicaciones.
00:08:17Yo quiero hacer hincapié en este tema.
00:08:20Dipositivos y productos, herramientas e infraestructura, para tenerlo en cuenta.
00:08:26Peter Gorman, CEO y cofundador de New Zoo, dice,
00:08:29el destino de la persona puede ser seguidores, jugadores, creadores.
00:08:32Y acá también quiero hacer otro énfasis, en creadores al mismo tiempo.
00:08:37Y maximizando la interacción y posibilidades comerciales.
00:08:40Y Martín Migoya, CEO de Globan.
00:08:44Le pertenezco.
00:08:46Dice, es la reinvención de la Internet.
00:08:48De por sí, la Internet ya es una reinvención.
00:08:51Porque fue la manera en que se transformaron las empresas.
00:08:55Hoy se cae Internet y estamos todos así quietos, esperando que vuelva.
00:09:00No sabemos qué hacer.
00:09:02Ni con el celular, ni con nada.
00:09:04Se cae Internet y no podemos hacer nada.
00:09:06Entonces, la próxima generación de esa Internet será lo que conocemos como Metaverso.
00:09:10Eso dice Martín Migoya.
00:09:12Pero veamos un poquito de los orígenes.
00:09:16Acá tomamos algunos ejemplos de plataformas que fueron existiendo de a poco.
00:09:25Y que fueron incorporando ciertos conceptos que tienen que ver con el Metaverso.
00:09:29En el año 92, Neil Stephenson, con el libro Snow Crash,
00:09:34introduce ya la palabra Metaverso.
00:09:38Y dentro del libro son humanos que interactúan en un mundo virtual a través de avatares.
00:09:44O sea, ahí ya tenemos dos conceptos que están muy arraigados con el Metaverso.
00:09:49El juego World of Warcraft, en el año 2004,
00:09:55es un juego de roles multijugador en línea.
00:10:00O sea, si es MMORPG.
00:10:02Ahí ya aparecen otros temas importantes.
00:10:05Por ejemplo, que dentro del juego están los avatares y demás,
00:10:12y uno puede comprarle atuendos a los avatares.
00:10:16Entonces, ahí ya estamos hablando de incorporación de compra,
00:10:20de transacciones con dinero real.
00:10:24Club Penguin, que muchos utilizan Club Penguin, muchos chicos.
00:10:29Bueno, también el tema de los avatares.
00:10:31Y ahí incluye el tema de las membresías,
00:10:33con las cuales los usuarios multijugadores en línea que hay en todo el mundo,
00:10:38que pueden estar de cualquier lugar del mundo,
00:10:40pueden comprar a través de la membresía ropa o mascotas para sus personajes,
00:10:46para sus avatares.
00:10:49Bueno, la película Ready Player One y Ready Player Two.
00:10:53Eso nos abrió un poco la cabeza de lo que será así el metaverso.
00:10:59Y bueno, ahí ya estamos incluyendo lo que es estar en un lugar
00:11:06con dispositivos, con gafas de realidad virtual,
00:11:12y la inmersión en un mundo distópico que en esa película se llama oasis.
00:11:19Muy particular.
00:11:21Grand Theft Auto Online, en el año 2013.
00:11:24También lo que tiene es que no solamente es una competencia,
00:11:27sino también puedo comprar con dinero propio, puedo comprar autos y propiedades.
00:11:33Puedo comprar propiedades en un metaverso, en una plataforma.
00:11:39Rec Room.
00:11:41¿Qué conceptos incluye Rec Room en esta plataforma?
00:11:45El uso de cascos de realidad virtual.
00:11:48Y uno de los puntos que era también...
00:11:50Y esos son dos puntos que yo lo enfaticé en las definiciones que vimos anteriormente,
00:11:57que es dispositivos, en este caso se utiliza casco de realidad virtual,
00:12:02y la creación de contenido dentro de una plataforma.
00:12:07Somos creadores, ya podemos ser creadores dentro de una plataforma del metaverso.
00:12:14En este caso, lo único que crean son salas donde uno puede ingresar a una sala
00:12:19o pueden entrar por una puerta a mi sala que yo la creé particularmente.
00:12:24Beer Chat es similar también, pero ahí ya crean un universo dentro de esa plataforma.
00:12:31Ya no es una sala, es algo mucho más grande, algo distinto.
00:12:34Pero el aporte de contenido dentro de los metaversos es un factor importante.
00:12:40Tiene que ser colaborativo.
00:12:42También se utilizan cascos de realidad virtual,
00:12:44o también se puede acceder a través de la web sin casco.
00:12:47Esas posibilidades.
00:12:50Axie Infinity, en el año 2018.
00:12:54A diferencia de los otros juegos, en este caso,
00:13:00cada usuario puede estar, compra y vende unos seres místicos que los entrena y juega.
00:13:09Si yo puedo vender uno de estos seres súper entrenados,
00:13:14entonces sale más caro y gano dinero.
00:13:17O puedo comprar uno en oferta por otro lado.
00:13:20Y ahora, ¿cómo hago esas transacciones?
00:13:22Y acá se incluye otra cosa más.
00:13:24Lo hago a través de blockchain.
00:13:27Tecnología blockchain con Ethereum.
00:13:30Otro concepto más que se va involucrando, que se va incorporando
00:13:33a todo lo que nosotros conocemos como metaverso.
00:13:36Es Meta y Macrosoft Mesh.
00:13:39Meta en el año 2021, o sea Mark Zuckerberg,
00:13:42cambia el nombre de su casa matriz, de su empresa,
00:13:47y lo llama Meta, con el objetivo de invertir muchísimo
00:13:51para la generación de los metaversos.
00:13:55Y Macrosoft Mesh elabora también una plataforma colaborativa
00:13:59de realidades mixtas, con hologramas,
00:14:02con gafas de realidad virtual y de realidad aumentada,
00:14:06para poder interactuar con otras personas
00:14:11que pueden estar en manera remota y tratar de visualizarla.
00:14:14O sea, un concepto muy importante y muy influenciador
00:14:18en todo lo que tiene que ver con esta tecnología del metaverso.
00:14:24Acá, como vimos, tenemos muchas plataformas
00:14:27que son de entretenimiento, pero también el metaverso
00:14:30no es solamente de entretenimiento, sino apunta también
00:14:33a todo lo que es industrias.
00:14:35Y se está haciendo muy fuerte en ese sentido.
00:14:38Tenemos NVIDIA con su Omniverse Enterprise,
00:14:40que también es una plataforma colaborativa,
00:14:42que además tiene la posibilidad de crear muchas cosas más.
00:14:47Por ejemplo, los gemelos digitales,
00:14:49que después eso merece un capítulo aparte.
00:14:52Meta introduce el WorkRooms, que tiene que ver con...
00:14:57Tratando de suplir un poco esto de la fatiga del Zoom.
00:15:03Pero no todo esto tuvo, igualmente con Mesh,
00:15:07no todo esto tuvo por ahí el éxito que esperaban que tenga,
00:15:12o la adopción que todo el mundo esperaba que tenga.
00:15:18Que después lo vamos a contar.
00:15:20Y, obviamente, otro punto importante fueron que muchas marcas
00:15:23empezaron a utilizar o aprovechar estas plataformas
00:15:27para llegar a sus usuarios, fans, a sus empleados.
00:15:35Por ejemplo, Balenciaga tiene clientes que compran sus productos.
00:15:44Su plataforma, su metaverso en Fortnite,
00:15:48es un showroom donde también yo puedo llegar a comprar ropa física
00:15:53o ropa digital, virtual, dentro de su tienda online.
00:15:58Otro ejemplo, Nike, que hizo su plataforma,
00:16:01su metaverso en Roblox, también para llegar a sus consumidores.
00:16:08Otro ejemplo importante,
00:16:13no solamente puedo llegar a mis clientes,
00:16:15también puedo llegar a mis fans.
00:16:17Nike hizo un recital virtual dentro de Fortnite.
00:16:22También como DJs famosos hicieron recitales, conciertos virtuales,
00:16:26y llegaron a sus fans donde habían miles conectados viendo eso.
00:16:30Quizás más que en un estadio.
00:16:37Y estas tres plataformas también merecen un poco más de énfasis.
00:16:44Por ejemplo, Roblox.
00:16:46Roblox no es un juego, es una plataforma de juegos,
00:16:50donde muchos podemos crear universos dentro de Roblox.
00:16:56Y eso viene con esto de ser creadores también dentro de un metaverso.
00:17:02Uno puede crear juegos dentro de Roblox y también puede monetizarlos
00:17:05si es que son bastante visitados y usados por usuarios de diferentes lugares.
00:17:10Lo puedo monetizar.
00:17:13Y como decía hoy, las marcas están buscando acceder o acceden a estas plataformas
00:17:20justamente para llegar más aún a sus clientes, usuarios o fans.
00:17:26Y en este caso, por ejemplo, Glovan, el año pasado que cumplimos 20 años,
00:17:30hizo Glovan World en Roblox.
00:17:33Justamente para integrar y promover la cultura de la empresa
00:17:38dentro de una plataforma del metaverso.
00:17:43Minecraft.
00:17:45Minecraft hoy está haciendo un experimento social a nivel mundial.
00:17:51Está invitando a muchísimos usuarios a que construyan el mundo.
00:17:58Yo puedo, como usuario, digo,
00:18:01bueno, yo voy a crear la Plaza 25 de Mayo de Resistencia a Chaco
00:18:06con todos sus arbolitos, tal cual como están con las banquetas,
00:18:10con los bancos que están pintados por artistas de la zona,
00:18:14con el monumento de San Martín que está señalando a los Andes siempre.
00:18:19¿Señala a los Andes?
00:18:21No sé si eso existió, pero bueno, está San Martín ahí
00:18:24y eso también lo puedo incorporar en Minecraft.
00:18:26Y hacer cada vez eso más real.
00:18:29Y eso está funcionando y se está haciendo.
00:18:33Y Fortnite obviamente que nace como un juego de supervivencia.
00:18:39Epic Games, el dueño de Fortnite y el dueño de Unreal Games,
00:18:44está haciendo que Fortnite sea una plataforma elegida y preferida
00:18:49por muchas marcas para realizar comunidades virtuales,
00:18:52entre otras tantas cosas.
00:18:58Pero, ¿qué pasó?
00:19:00Esto que estoy contando podemos decir que es hasta el año 2022
00:19:05y un poquito más.
00:19:07En 2003 pasó lo que todos ya conocemos,
00:19:10que es la inteligencia artificial generativa,
00:19:13con la aparición de OpenAI y Yacht GPT
00:19:16y ahora todos los que están apareciendo con esa tendencia.
00:19:20¿Qué hizo?
00:19:22Que muchas empresas redireccionen sus inversiones
00:19:25y vayan más para un lado que para el lado de Metaverse.
00:19:29Pero Metaverse, y acá esto también es importante entender,
00:19:35que estamos en una evolución del Metaverse.
00:19:38Porque para implementar Metaverse muchas empresas
00:19:41iban a Globan y pedían el desarrollo de Metaverse.
00:19:47En el 2022 teníamos aproximadamente en Globan
00:19:50entre tres o cuatro propuestas diarias de desarrollo de Metaverse.
00:19:54Obviamente les pasábamos el presupuesto y decían
00:19:56«Ah, perdón».
00:19:58Porque pensaban que era fácil. No, es muy costoso.
00:20:01Desarrollar un Metaverse es muy costoso.
00:20:03Teníamos pedidos, por ejemplo, de iglesias evangélicas
00:20:06para dar sus misas, sus ceremonias a sus fieles
00:20:11y poder acceder a mucha más cantidad de gente.
00:20:15Teníamos eso.
00:20:16Una tarotista que nos pedía también,
00:20:18una tarotista famosa, porque era tarotista de famosos,
00:20:21también quería implementar un Metaverse
00:20:24para llegar a sus clientes.
00:20:28Así de todo tipo.
00:20:30Pero realmente realizar un Metaverse cuesta mucho dinero.
00:20:34No es una inversión simple en la cual yo digo
00:20:37«Quiero un Metaverse y me lo hago».
00:20:39Cuesta bastante más aún en ese nivel.
00:20:42Y también, obviamente, el tema de casos de usos prácticos
00:20:45que se alinean con las necesidades empresariales
00:20:48era difícil.
00:20:49Y la inteligencia artificial generativa
00:20:52tuvo una adopción mucho más rápida.
00:20:55No solamente por la facilidad de usarlo en muchas cosas,
00:20:59sino también por un tema de masividad
00:21:03y acceso a muchísima gente.
00:21:06Todos podemos acceder hoy, de alguna u otra manera,
00:21:09a la inteligencia artificial generativa.
00:21:11Y eso contrasta con la adopción del concepto del Metaverse
00:21:16o de gente, usuarios finales que puedan acceder al Metaverse.
00:21:20No es la misma adopción.
00:21:22¿Por qué?
00:21:23Cuando di los ejemplos de Rec Room o Beer Chat
00:21:27y de ahí en muchos más,
00:21:29la utilización de gafas de realidad virtual o realidad aumentada
00:21:34no es simple, no es masivo.
00:21:38A ver, yo viví en mi vida varias evoluciones tecnológicas.
00:21:43Yo era el control remoto de mi papá.
00:21:45Después, sí, caminaba, me hacía cambiar perillitos,
00:21:49botones, lo que teníamos.
00:21:51Por lo tanto, vi toda esa evolución de la Internet,
00:21:55la aparición de la Internet, la aparición de la telefonía celular.
00:21:58Los teléfonos celulares, si vamos a los inicios,
00:22:01que era un ladrillo, la gente hablaba,
00:22:05pero no solamente verlo con el ladrillo,
00:22:08que hoy lo vemos sería un poco ridículo,
00:22:11pero era una señal de, este tiene plata.
00:22:17Era como algo importante,
00:22:22tener un celular y hablar en la calle con un celular,
00:22:24ya te decía, hoy los tiene todo el mundo.
00:22:27Eso va a pasar en algún momento con el metaverso,
00:22:30donde todos vamos a poder acceder a este tipo de cosas,
00:22:34pero hoy es muy caro.
00:22:36Evidentemente, eso hace que las inversiones sean más bajas
00:22:42y porque también una cosa que falta
00:22:47es las experiencias de los usuarios.
00:22:50No tenemos muchas experiencias de usuarios.
00:22:52Con los celulares tampoco la teníamos inicialmente,
00:22:55pero fue evolucionando.
00:22:57Hoy, por ejemplo, todos los chicos que están acá,
00:23:00o todos ustedes, gente,
00:23:02utilizan un celular, bajan una aplicación y la comienzan a usar.
00:23:06No leen el manual de usuario.
00:23:08La bajan y la usan.
00:23:10¿Por qué?
00:23:11Porque las experiencias de usuarios es todo un estudio muy grande
00:23:14que se hizo para hacer todas esas aplicaciones
00:23:18de una manera intuitiva.
00:23:20Eso falta todavía que suceda en el metaverso.
00:23:24Pero hay buenas noticias porque hay gente,
00:23:27hay grandes empresas que siguen apostando,
00:23:30que siguen invirtiendo en todo lo que es la generación
00:23:34de tanto hardware como software
00:23:37para poder aprovecharlas en el metaverso.
00:23:40Este año Apple lanzó Vision Pro.
00:23:45Pensaban que iba a tener una adopción un poquito más fuerte,
00:23:48pero las ventas no están yendo por ahí quizás como quisieran que vaya,
00:23:54pero sabemos que Apple también es un poco cerrado y propietario
00:23:58y no lo utiliza en todo el mundo.
00:24:01Pero bueno, ya es un gran aporte a esto del metaverso
00:24:06y de herramientas para poder acceder al metaverso.
00:24:10Pero quiero centrarme en meta.
00:24:13Meta que Mark Zuckerberg no solo hizo hace poco,
00:24:17sino que los Ray-Ban, un avance tecnológico con Ray-Ban
00:24:22de ponerle camaritas y con el comando de voz,
00:24:27filmar, sacar fotos.
00:24:31Puedo decir hey meta, quiero hacer un streaming
00:24:35con mi perfil de Instagram en este momento de lo que estoy viendo.
00:24:39Y eso se activa. Es fantástico.
00:24:42Es una de las potencias tecnológicas que nos hace ir avanzando
00:24:47en todo esto que tiene que ver con el futuro del metaverso.
00:24:52Quest 2, Quest 3 utilizan un software elaborado por Meta
00:24:59y hace una semana, es por eso esta diapositiva de ahí,
00:25:04esa foto de Mark Zuckerberg,
00:25:07hace una semana anunció el lanzamiento de un sistema operativo
00:25:12Meta Horizon OBS.
00:25:15Ese sistema operativo va a tener la particularidad
00:25:19de que va a poder ser utilizado en cualquier otro dispositivo.
00:25:22De otras marcas, de otros fabricantes.
00:25:25O sea, abre la jugada con su sistema operativo,
00:25:28que es el que utiliza Quest 2 y Quest 3,
00:25:30para que otros fabricantes puedan usar ese sistema operativo.
00:25:32Es como Android.
00:25:34Hoy Android funciona en todos los celulares menos en iPhone.
00:25:39¿Está?
00:25:41O sea, todos los celulares usan Android, iPhone no.
00:25:44Es cerrado.
00:25:45Pero bueno, eso permitió de que haya muchas fábricas,
00:25:48de que hayan diferentes celulares con diferentes costos
00:25:52y accesibles a un montón de personas.
00:25:54Y que sea masivo.
00:25:56Y es parte del futuro este que estamos queriendo
00:25:59con el metaverso para que sea más accesible a todo el mundo.
00:26:03Obviamente hay empresas...
00:26:05Bueno, Magic Leap es un cliente nuestro de Globan.
00:26:08Tenemos en este momento 40 Globers en Montevideo
00:26:11probando estas gafas que tienen 5 cámaras de distancia y demás
00:26:17que hacen que no solo lo veas, sino también hace que
00:26:20tenga un mundo de realidad aumentada detrás de eso.
00:26:24¿Sí?
00:26:26No dejo de mencionar nuevamente a Epic Games
00:26:30con su motor Unreal Engine.
00:26:33Y que también es dueño de Fortnite.
00:26:35Porque ese motor, la verdad que es muy poderoso
00:26:38para todo lo que está haciendo.
00:26:39Y sigue invirtiendo en seguir generando nuevos productos para el metaverso.
00:26:45NVIDIA con Omniverse, que lo mencioné hace un ratito atrás.
00:26:50Tiene una particularidad que...
00:26:53Una de las funcionalidades que tiene es lo que conocemos como...
00:27:00Gémeros digitales.
00:27:01¿Han escuchado hablar de gemelos digitales?
00:27:05O sea, hoy, por ejemplo, yo puedo tener mi fábrica...
00:27:09Sí, me la tiene.
00:27:11Física y el gemelo digital idéntico a la física.
00:27:17¿Y qué me permite eso? ¿Para qué lo tengo?
00:27:19Puedo hacer muchísimas cosas.
00:27:21Puedo hacer pruebas de todo tipo.
00:27:23Puedo darle muchísima información.
00:27:25O puedo captar información haciendo pruebas de manera digital
00:27:28que haciendo la física me podría costar muchísimo más dinero y tiempo.
00:27:33Y también puedo entrenar gente.
00:27:37O sea, también se utiliza para la educación.
00:27:39Puedo entrenar a mis empleados en el entorno digital.
00:27:43Con eso, no solamente puedo hacerlo con muchos empleados a la vez,
00:27:49sino también que la fábrica siga funcionando mientras estoy entrenando gente.
00:27:55Puedo entrenar gente sin que se corte un brazo con una máquina.
00:27:59Y si se corta el brazo va a salir en el digital.
00:28:02Entonces, safamos.
00:28:04No hay que llamar a la ART.
00:28:08BMW también lo implementó.
00:28:10Y NVIDIA también tiene ahora el hardware y el software para autos,
00:28:15estos self-drive, autos autónomos.
00:28:20Eso también tiene todo un trasfondo.
00:28:23¿Cómo pruebo hoy un auto autónomo?
00:28:26¿Lo tengo que sacar a la calle para que tome información de los cordones,
00:28:32de las señales y todo eso y lo vaya incorporando?
00:28:34No.
00:28:36Cuesta mucho.
00:28:37Tampoco lo puedo hacer en una playa de estacionamiento.
00:28:39Hago toda la prueba digital.
00:28:41Y pongo todas las variables.
00:28:42Variables de todo tipo.
00:28:43Le puedo poner variables climáticas, variables físicas, señales de todo tipo.
00:28:50Eso está todo alimentando a través de la inteligencia artificial.
00:28:54Toda esa información la incorpora.
00:28:56Y finalmente tengo un producto probado y testeado al máximo en lo digital
00:29:02para recién poder hacerlo físico.
00:29:05El CEO de NVIDIA dice que entre el año 25 y el 2026
00:29:10no va a haber producto que no haya sido primero creado digitalmente,
00:29:16probado digitalmente, modificado, perfeccionado y demás
00:29:19para después hacerlo de manera física.
00:29:26¿Y alguna otra buena noticia?
00:29:27Bueno, como conté recién.
00:29:29Empresas, todas estas empresas que conté que siguen invirtiendo
00:29:33en todo lo que es tecnología, innovación, inteligencia artificial
00:29:37para poder tener en ese futuro ese metaverso que todos nos gustaría tener.
00:29:43Porque cuando hablamos de metaverso,
00:29:45yo he hablado de metaverso con varias personas
00:29:48y una me dice, no, todavía el metaverso no existe.
00:29:53No, existen universos, universos paralelos,
00:29:59pero el metaverso va a existir cuando todos esos universos paralelos estén integrados.
00:30:05Es un lindo concepto.
00:30:07Porque es lo que pasó en su momento con la Internet.
00:30:09Antes había muchas intranets.
00:30:13Puedo decir, sí, tengo la intranet que me comunico con todos de mi empresa, por ejemplo.
00:30:21Pero cuando todo eso se integró,
00:30:23esa fue la real intranet que hoy todos conocemos.
00:30:27Otras empresas, por ejemplo, QMain que hizo el AI pin.
00:30:32Un pin, un aparatito cuadradito que me lo coloco acá,
00:30:37agarrado en este caso de la bufanda o de la camisa,
00:30:40tiene un proyector láser que me lo puedo ver en la mano.
00:30:45Le pregunto qué hora es y en la mano me proyecta la hora,
00:30:48o qué hora es en tal lado, o cuál es el clima.
00:30:51Y con una inteligencia artificial generativa me va respondiendo
00:30:56y me va dando toda esa información.
00:30:58Le puedo mostrar una nana, le pregunto cuántas calorías tiene esto.
00:31:04Y saca información a través de inteligencia artificial generativa,
00:31:09que después será como chat GPT y me da la información.
00:31:12Pero vieron que todos los...
00:31:14Uno cuando entra a chat GPT abajo dice, ojo, puede tener errores.
00:31:19Todo hace ese disclaimer.
00:31:21Y sí, la inteligencia artificial generativa no es de 100% confiable,
00:31:29sino que se basa en un montón de información,
00:31:31pero no quiere decir que toda sea correcta.
00:31:34Bien, y así como otras empresas como Hayden, Pixelinks,
00:31:40que hicieron Metaversos en asociación con Globan,
00:31:42Marriott, que hace con Fornite también,
00:31:44su Bomboingland,
00:31:46y un montón de empresas siguen invirtiendo en el Metaversos.
00:31:48Grandes empresas ya invirtieron y están invirtiendo
00:31:51más de 180 mil millones de dólares en lo que es la exploración,
00:31:56la investigación y la generación para el Metaversos.
00:32:00Eso es una muy buena noticia también.
00:32:03Que haya bajado la inversión no quiere decir que esté por desaparecer.
00:32:06Al contrario.
00:32:07Se está promoviendo y se está invirtiendo muchísimo en que eso suceda.
00:32:11Y, por ejemplo, hablando con un desarrollador de gaming de Globan,
00:32:17me dice, mirá, con la inteligencia artificial generativa
00:32:21para el desarrollo de Metaversos,
00:32:24que tiene que hacer todas esas interfaces de usuario,
00:32:27todos los backgrounds,
00:32:29si yo quiero hacer todo este ambiente de manera digital
00:32:35y que quede perfecto,
00:32:37con la inteligencia artificial generativa,
00:32:39cuando siga evolucionando,
00:32:41yo voy a poder hacer esto para los Metaversos y para los videojuegos.
00:32:44Lo cual me va a ahorrar muchísimo tiempo y dinero.
00:32:48Porque hoy, hacer un ambiente puede llegar a costar meses.
00:32:54Y meses de mucha gente, profesionales caros,
00:32:56y mucho dinero.
00:33:00Esto va a disminuir eso de manera considerable.
00:33:06Y acá hay dos predicciones de expertos.
00:33:08Pero me gusta.
00:33:10Bueno, leamos la que...
00:33:13Una investigación que hizo IDC Market Cape.
00:33:15Dice, diseño, ingeniería de productos, soluciones, demostraciones, incorporación y capacitación.
00:33:19Perdón, lo leo porque es muy largo y no me lo memoricé.
00:33:23Pruebas.
00:33:25El rendimiento, el mantenimiento, la simulación
00:33:27del comportamiento humano,
00:33:29el servicio postventa, con algunos de los casos,
00:33:31de uso clave para el Metaverso empresarial e industrial por separado.
00:33:35Es importante eso.
00:33:37Pero me quedo con esta de la de Julieta Shulkin,
00:33:39la autora de Vuelta por el Metaverso.
00:33:41Que predice que los adolescentes,
00:33:43que son las generaciones Z y Alpha,
00:33:45que son las personas que hoy están usando mucho más
00:33:49todos los ambientes del Metaverso,
00:33:51no sé, Roblox,
00:33:53Fortnite,
00:33:55entre otros tantos,
00:33:57son los que realmente,
00:33:59para el 2030,
00:34:01se van a unir a la industria,
00:34:03pero de una manera natural.
00:34:05Ellos no van a tener esos cambios
00:34:07que algunos como yo
00:34:09los fuimos viviendo
00:34:11y esforzando un poquito
00:34:13para poder adaptarnos.
00:34:15Porque venimos con estructuras anteriores
00:34:17de otro tipo de cosas.
00:34:19Ellos no.
00:34:21Van a ser una evolución natural
00:34:23y la adopción va a ser de manera natural.
00:34:25Por lo tanto,
00:34:27todo lo que hagamos con el Metaverso en un futuro,
00:34:29ellos lo van a saber usar de una manera natural
00:34:31mucho más fácil que lo que podemos hacer nosotros.
00:34:35Y para concluir,
00:34:37como decía el título,
00:34:39el Metaverso ya llegó.
00:34:41Todavía le falta evolucionar.
00:34:43Va a evolucionar.
00:34:45Y con la evolución misma de la inteligencia artificial,
00:34:47este Metaverso
00:34:49se va a potenciar muchísimo más.
00:34:51Y con eso espero haberle dado
00:34:53una charla interesante
00:34:55y les agradezco mucho la atención.
00:35:07Gracias por acompañarnos.
00:35:11Mientras JJ prepara
00:35:15nuestro proyecto de hidroponía,
00:35:17yo les voy a contar un poquito
00:35:19qué es inteligencia artificial
00:35:21y hacia dónde vamos.
00:35:27Juan recién estuvo hablando
00:35:31de IA generativa.
00:35:33Y dio la casualidad, yo le decía recién a Silvia,
00:35:35estás tocando temas
00:35:37que yo también voy a hablar
00:35:39para ustedes.
00:35:41Y como son temas
00:35:43que se están utilizando,
00:35:45con Juan no hablamos
00:35:47de qué íbamos a ver.
00:35:53¿Qué es inteligencia artificial?
00:35:57Acá tengo dos definiciones.
00:35:59Una definición que es la definición formal
00:36:01y la otra es la definición
00:36:03que yo les doy.
00:36:07Inteligencia artificial,
00:36:09allá lejos en el tiempo,
00:36:11porque en el 50 es donde empezamos
00:36:13a conocer estos conceptos,
00:36:15no se podían aplicar
00:36:17porque evidentemente la tecnología
00:36:19de aquel momento
00:36:23no estaba acorde
00:36:25a lo que se pretendía hacer.
00:36:29Dice que la inteligencia artificial
00:36:31es la simulación de procesos
00:36:33de inteligencia humana
00:36:35por parte de las máquinas.
00:36:37Eso fue hace mucho tiempo.
00:36:39Pero no es una definición que nosotros
00:36:41creemos correcta.
00:36:43Porque en realidad la inteligencia artificial
00:36:45resuelve problemas,
00:36:47que es lo que estamos viendo ahora,
00:36:49pero no necesariamente
00:36:51utiliza el razonamiento humano.
00:36:55Puede ser otro tipo de caminos
00:36:57en forma autónoma
00:36:59para resolver un problema.
00:37:03Esa es la definición actual.
00:37:05Por lo menos esa es la que yo veo.
00:37:07Bien.
00:37:09Dentro de la inteligencia artificial,
00:37:11¿qué tenemos?
00:37:13Se divide en varias ramas.
00:37:15Tenemos el Machine Learning,
00:37:17que es el área
00:37:19de la inteligencia artificial
00:37:21que utiliza
00:37:23un repositorio de datos
00:37:25y ese repositorio de datos
00:37:27nos sirve a nosotros para enseñarle
00:37:29a la computadora,
00:37:31entre comillas,
00:37:33a resolver un problema.
00:37:35El otro área
00:37:37que también es parte
00:37:39del Machine Learning es el Deep Learning.
00:37:41Y acá empezamos a trabajar
00:37:43con muchos modelos matemáticos
00:37:45para poder analizar
00:37:47patrones
00:37:49de comportamiento.
00:37:51Generalmente se utilizan estos patrones
00:37:53para poder analizar
00:37:55imágenes,
00:37:57videos, sonidos.
00:38:00Y con esta...
00:38:02A ver si tengo alguna definición por acá.
00:38:04Sí, es lo que le estaba diciendo ahora
00:38:06que está acá en el flyer.
00:38:10Y ahora está de moda...
00:38:12En realidad de moda no,
00:38:14se está utilizando mucho el concepto
00:38:16de IA generativa.
00:38:18IA generativa a nosotros
00:38:20nos permite trabajar con
00:38:22el estudio de estos patrones
00:38:24de imágenes,
00:38:26sonidos,
00:38:28y que a nosotros nos sirve en este proyecto
00:38:30de hidroponía
00:38:32para poder saber
00:38:34cómo están las plantitas.
00:38:36Entonces nosotros vemos
00:38:38por medio de una foto, por medio de un video,
00:38:40cuál es el estado de las plantas.
00:38:42Ahora va a venir JJ
00:38:44y le va a explicar bien lo que es hidroponía.
00:38:48Pero yo me adelanto un poquito con el tema
00:38:50de IA
00:38:52y para qué utilizamos la IA en este proyecto.
00:38:55Bien, esto es Machine Learning,
00:38:57esto es Deep Learning,
00:38:59que les dije recién.
00:39:03Y lo de IA generativa,
00:39:05como les decía recién, es el análisis
00:39:07de imágenes, sonidos,
00:39:09para poder determinar
00:39:11algún tipo de comportamiento.
00:39:15¿Para qué se utiliza entonces
00:39:17la IA generativa?
00:39:19¿Qué podemos ver?
00:39:21Chatbot, asistentes virtuales,
00:39:24creación de contenido.
00:39:26Me imagino que alguno habrá utilizado DaVinci
00:39:28para generar imágenes.
00:39:31Bueno, eso es IA generativa.
00:39:35Los otros días me puse a charlar
00:39:37con el Gemini de Google.
00:39:39¿Alguno lo utilizó?
00:39:43Sí. Bueno, entonces
00:39:45le digo, escúchame,
00:39:47dos puntos.
00:39:49Está todo muy lindo lo de IA generativa
00:39:51que tiene relación con el Machine Learning,
00:39:53pero, en mi opinión,
00:39:56no es tanto Machine Learning
00:39:58sino es más Deep Learning
00:40:00por el manejo
00:40:02de los patrones.
00:40:04Patrones, Deep Learning.
00:40:06Entonces me dice,
00:40:08con una voz sensual,
00:40:11tenés razón,
00:40:13pero, si utilizás
00:40:15mucha información,
00:40:17ahí es Deep Learning, si utilizás
00:40:19poca información, ahí es Machine Learning.
00:40:21Y dije, wow,
00:40:23tan loco no estaba.
00:40:25Entonces, a ver.
00:40:29Bueno, lo que hablamos recién,
00:40:31¿sí?
00:40:33¿Qué más tenemos? ¡Hidroponía!
00:40:35JJ, te paso ahí
00:40:37para que le cuentes a los chicos qué es Hidroponía.
00:40:41Buenos días a todos.
00:40:45Voy a empezar hablando un poco del proyecto en sí.
00:40:47Este jardín que ustedes pueden ver acá
00:40:49es un jardín vertical.
00:40:51Acá adentro tiene una bomba,
00:40:53la cual lo que hace es circular
00:40:55el agua.
00:40:57Este tipo de sistema hidropónico
00:40:59lo que hace es oxigenar mucho más
00:41:01el agua.
00:41:03¿Qué hace eso?
00:41:07Que las plantas crezcan más rápido.
00:41:13Ahí está.
00:41:15Esto es lo que tenemos en el instituto.
00:41:17Entonces, esto fue armado con
00:41:19las herramientas que nosotros tenemos
00:41:21en el instituto.
00:41:23Y acá adentro,
00:41:25ahí está la bomba.
00:41:27Ahí se puede ver,
00:41:29no la conectamos porque
00:41:31no iban a ver cómo fluye el agua.
00:41:35Lo importante de esto,
00:41:37por un lado estamos reciclando,
00:41:39se darán cuenta que es un balde de pintura.
00:41:41La parte que hicimos
00:41:43nosotros de
00:41:45implementar la inteligencia artificial,
00:41:47ahora vamos a hacer
00:41:49una demostración.
00:41:51Esto que pueden ver
00:41:53que estaba preparando
00:41:55mientras José Luis estaba
00:41:57explicando lo que eran las guías generativas,
00:41:59es un proyecto, un prototipo
00:42:03basado en una placa ESP32.
00:42:05Esto tiene capacidades
00:42:07de Wi-Fi y Bluetooth.
00:42:09Lo que ocupamos nosotros es el Wi-Fi
00:42:11a través de un protocolo que se llama
00:42:13MQTT.
00:42:15Ese protocolo se usa en la industria
00:42:17IoT, la industria
00:42:194.0.
00:42:21Lo que hace básicamente
00:42:23es medir 6 sensores.
00:42:25Ustedes ven acá
00:42:27este, es el que
00:42:29es el más visible,
00:42:31digamos. Es un sensor
00:42:33de pH, un pHímetro.
00:42:35Otro que tenemos
00:42:37acá en el vaso
00:42:39es la temperatura del agua.
00:42:41Obviamente esto
00:42:43para las plantas es muy importante,
00:42:45sobre todo la lechuga hidropónica
00:42:47que es lo que sale más rápido.
00:42:49Tiene que tener una
00:42:51temperatura relativamente baja.
00:42:55Ahora
00:42:57muestro acá
00:42:59esto sería un dashboard,
00:43:01es lo que está pasando
00:43:03los datos
00:43:05de todos los sensores.
00:43:07Ahí tenemos presión,
00:43:09calidad del agua,
00:43:11temperatura del agua,
00:43:13temperatura del ambiente,
00:43:15altitud,
00:43:17sobre el nivel del mar.
00:43:19No es tan relevante, pero
00:43:21ya que el sensor lo traía,
00:43:23lo pusimos ahí.
00:43:25El sensor es el tamaño
00:43:27de mi dedo meñique
00:43:29y tiene
00:43:31cuatro sensores.
00:43:33Cuatro sensores tiene eso,
00:43:35más el pH, más el de
00:43:37temperatura sumergible.
00:43:41Como les había dicho en un principio,
00:43:43esto es un prototipo
00:43:45para una muestra.
00:43:47Entonces,
00:43:49dijimos, bueno, vamos a hacer un dashboard que se vea
00:43:51los datos
00:43:53y buscamos la forma
00:43:55de mostrarles cómo
00:43:57interactúa con la IA.
00:43:59Hay otro menú acá.
00:44:05Bueno, esto que está
00:44:07pasando acá,
00:44:09hay una parte en la presentación,
00:44:11ahora les voy a mostrar un esquema.
00:44:13¿Pasamos a esa parte o no?
00:44:15Después mostramos.
00:44:19¿Puedes cambiar?
00:44:23Ah, bueno, sí.
00:44:29Un ratito.
00:44:35Está bueno que vean esa parte
00:44:39del esquema de cómo está hecho el sistema.
00:44:41Esto.
00:44:43No sé si llegan a leer, es muy chiquita la letra.
00:44:45Tenemos la
00:44:47torre vertical,
00:44:49la placa de SP32
00:44:51con los sensores. Se comunica
00:44:53por MQTT.
00:44:55Esto envía la información a una placa
00:44:57de Raspberry. La Raspberry
00:44:59está allá en la otra mesa.
00:45:01Está enchufada.
00:45:03Y esto se comunica por
00:45:05ese personaje, Jason.
00:45:07Se lo conoce como
00:45:09Jason en el mundo de la informática.
00:45:11Son notaciones
00:45:13de objetos en Javascript.
00:45:15Es importante mostrarles
00:45:17esto para que entiendan cuál es
00:45:19el texto que estoy mandando.
00:45:21Básicamente, todo se maneja
00:45:23en texto.
00:45:25Esto se envía
00:45:27a través de la nube
00:45:29a OpenAI, la empresa que hizo
00:45:31ChatGPT, la empresa de Sam Altman.
00:45:33Y fíjense que
00:45:35tenemos dos
00:45:37herramientas que
00:45:39estamos utilizando. Una es la
00:45:41parte de visión por
00:45:43computadora y la otra es el
00:45:45análisis de datos.
00:45:47Como ChatGPT
00:45:49es un modelo pre-entrenado.
00:45:51Ya tiene datos. Lo que hago es
00:45:53pasarle los datos de mi planta
00:45:55y él me devuelve si están bien o no.
00:45:57Entonces le digo, tengo una planta de lechuga
00:45:59y tengo estos datos.
00:46:01¿De dónde saco los datos?
00:46:03De los sensores.
00:46:07Esto me devuelve
00:46:09a la placa y la placa lo muestra
00:46:11en un dashboard, en un visualizador.
00:46:13Ahora sí,
00:46:15volvemos al sistema.
00:46:23Bien.
00:46:29Esos son
00:46:31los datos.
00:46:33Ahí está
00:46:35procesando.
00:46:37Esos son
00:46:39datos en JSON.
00:46:41JSON son clave, valor.
00:46:43Sencillo.
00:46:45¿Qué planta tenemos?
00:46:47¿Cuál es la temperatura del agua?
00:46:49¿Cuál es el pH?
00:46:52Y eso
00:46:54es lo que me responde
00:46:56el ChatGPT.
00:46:59Ahí me dice
00:47:01ajustar el pH.
00:47:03Se recomienda un valor de 6.
00:47:05Fíjense que
00:47:07mi pH acá dice valor del 6.
00:47:09¿Qué me recomienda
00:47:11ChatGPT? Ajustar
00:47:13el valor. Tengo que cambiar
00:47:15el pH
00:47:17para que sea adecuado para
00:47:19la lechuga. Fíjense
00:47:21que acá mi pH cuando yo le mandé
00:47:23era de 4.12.
00:47:25Si no, no pea
00:47:27para la planta de lechuga
00:47:29eso, no está bien.
00:47:31Tengo más
00:47:33datos. Obviamente que él
00:47:35me responde la temperatura
00:47:37del agua está ligeramente
00:47:39alta. Se recomienda
00:47:41alrededor de 20 grados
00:47:43para la lechuga.
00:47:45Y
00:47:47la otra parte
00:47:49es la de
00:47:51visión.
00:47:53Como les
00:47:55había dicho, esto es
00:47:57una muestra.
00:47:59Obviamente que esto se puede automatizar
00:48:01todo y que no
00:48:03tenga que estar haciendo esta parte.
00:48:05Entonces,
00:48:07supóganse que tengo
00:48:09no he llegado a activar la cámara
00:48:11pero tiene una cámara en vivo
00:48:13para monitorear
00:48:15el jardín
00:48:17vertical.
00:48:19Para hacer
00:48:21la demostración
00:48:23tengo
00:48:25la imagen. Esto es lo que
00:48:27vemos nosotros.
00:48:29Es una foto
00:48:31pero lo que se le manda
00:48:33a OpenAI es esto.
00:48:35Esto se llama base64.
00:48:37Es codificar la imagen
00:48:39en un texto.
00:48:41De esa manera
00:48:43yo puedo enviarle
00:48:45la imagen como texto
00:48:47y además el PROM
00:48:49que
00:48:51planta es
00:48:55y
00:48:57qué le pasa.
00:48:59Supóganse que yo
00:49:01saqué esa foto.
00:49:03Entonces envío
00:49:05ese PROM más
00:49:07la imagen.
00:49:09Procesa. Y esto es lo que
00:49:11me contestó ChatGPT.
00:49:13La planta de la imagen
00:49:15es una hoja de lechuga. El problema visible
00:49:17en la hoja parece ser una forma de enfermedad
00:49:19o daño. Posibles causas
00:49:21hongos, las manchas marrones.
00:49:23Fíjense que detectó las manchitas
00:49:25marrones. Pueden ser causadas
00:49:27por hongos como la
00:49:29cercosporiosis.
00:49:31No tengo idea porque no estoy en esa área.
00:49:33Bacterias,
00:49:35falta de nutrientes, condiciones
00:49:37problemáticas. Obviamente yo
00:49:39esto le pedí que
00:49:41me conteste así, pero yo puedo
00:49:43automatizar todas esas tareas.
00:49:45Yo le puedo decir
00:49:47si vos detectás
00:49:49una anomalía
00:49:51pregúntale al ChatGPT
00:49:53y que me dé recomendaciones.
00:49:55Y basada en esas recomendaciones
00:49:57la idea acá está
00:49:59JSON.
00:50:01Todo se maneja por JSON.
00:50:03Entonces él me devuelve las acciones
00:50:05que tengo que realizar. Me dice, no sé, subirle el pH,
00:50:07ponerle más nutrientes,
00:50:09fijate la calidad del agua,
00:50:11la temperatura, no sé.
00:50:13Y no tengo que hacer nada yo.
00:50:15Simplemente que interactúe solo
00:50:17el sistema. Una vez que detectó una anomalía
00:50:19se comunica
00:50:21con ChatGPT, ChatGPT le responde,
00:50:23toma una acción.
00:50:27El sistema estaba basado en
00:50:29No-Red.
00:50:31Esto sería una
00:50:33parte de la
00:50:35vista del sistema.
00:50:37Esto es lo que muestra los datos.
00:50:41Y esta es la parte de la guía.
00:50:43Acá adentro
00:50:45hay una página.
00:50:47Se ve así simplecito
00:50:49pero hay bastantes cosas acá.
00:50:51Y acá me está mostrando los
00:50:53datos de los sensores.
00:50:55Esto sería
00:50:57la parte
00:50:59del programador.
00:51:01Lo que trabajamos nosotros.
00:51:05Y la parte del front
00:51:07o del usuario sería esto.
00:51:09Lo que les va a ayudar
00:51:11a los que usen
00:51:13este sistema.
00:51:17Hay acá
00:51:19un vasito con agua.
00:51:25Bueno, entonces, para hacer un resumen
00:51:27de lo que tenemos acá.
00:51:29Estamos trabajando
00:51:31no solamente con inteligencia artificial
00:51:33utilizando el ChatGPT
00:51:35para poder, que nos conteste
00:51:37el ChatGPT, determinar
00:51:39qué problemas tiene la planta,
00:51:41sino que estamos utilizando también
00:51:43otra tecnología que se llama Internet de las Cosas.
00:51:45Eso quiere decir que nosotros
00:51:47tomamos toda la información de los sensores,
00:51:49lo llevamos a la nube,
00:51:51y a partir de ahí, bueno,
00:51:53podemos acceder
00:51:55en forma remota,
00:51:57como si estuviéramos trabajando en un proyecto
00:51:59en la chacra.
00:52:01Nosotros no estamos en la chacra, estamos acá en posadas,
00:52:03pero yo quiero saber qué está pasando con
00:52:05las plantas,
00:52:07con mi hidroponía.
00:52:09Bueno, agarro el celular y a partir de ahí
00:52:11puedo ver qué está pasando.
00:52:13Entonces, estamos integrando
00:52:15tecnología.
00:52:17¿En qué era estamos? ¿En dónde estamos?
00:52:19Bueno, esto es la Cuarta Revolución Industrial.
00:52:23Donde tenemos inteligencia artificial,
00:52:25tenemos analítica de datos,
00:52:27porque esto también lo podemos
00:52:29trabajar con
00:52:31inteligencia artificial
00:52:33o trabajamos con
00:52:35Business Intelligence o Big Data,
00:52:37dependiendo de dónde estemos parados.
00:52:39Quiero aprovechar y saludar
00:52:41a un exprofesor mío,
00:52:43licenciado Enrique Montivero,
00:52:45mi profesor de ingeniería
00:52:47de software, así que...
00:52:49Gracias por venir, Enrique.
00:52:51Bueno,
00:52:53JJ.
00:52:57Ahí, como se habrán dado cuenta,
00:52:59cambié el vaso,
00:53:01no sé si se observaron.
00:53:03Este fue el sensor
00:53:05que cambió,
00:53:07la temperatura del agua.
00:53:09Vamos a volver a cambiarlo.
00:53:13Obviamente que esto
00:53:15va a estar conectado adentro
00:53:17del tacho.
00:53:19Si tarda un poquito,
00:53:21porque le puse cada 5 segundos
00:53:23que empiece a enviar,
00:53:25porque no tiene sentido
00:53:27hacerlo en tiempo real,
00:53:29datos que cambian muy poco.
00:53:31Entonces, cuando se detectan anomalías,
00:53:33la idea es
00:53:35comunicarse con un chat GPT,
00:53:37ir tomando decisiones.
00:53:39Esto que está acá,
00:53:41está todo,
00:53:43como les digo,
00:53:45en el aire,
00:53:47si no se guardan estos datos.
00:53:49Pero, sí,
00:53:51se puede hacer eso. Se puede usar una base
00:53:53de datos tipo MySQL,
00:53:55se puede utilizar una base de datos basada en tiempos,
00:53:57como es InfluxDB.
00:53:59Entonces podemos tener un historial
00:54:01de cada uno de los sensores,
00:54:03en qué tiempo, en qué fecha,
00:54:05qué valor tenía. Entonces,
00:54:07en base a eso, vamos
00:54:09viendo cómo progresó nuestra planta.
00:54:11Voy a tratar
00:54:15de conectar acá la cámara,
00:54:17si la ven.
00:54:23Se va a ver la pantalla, así que,
00:54:25va a ser raro.
00:54:27Pero esa es una de las cosas
00:54:29que se puede hacer
00:54:31con este tipo de sistemas,
00:54:33Node-RED.
00:54:41¿Sí?
00:54:51Ahí está.
00:54:53Esto es
00:54:55una mezcla
00:54:57de tecnologías que,
00:54:59se darán cuenta,
00:55:01no tenía
00:55:03otra forma de pasarle
00:55:05la info.
00:55:07Por ahí se cuelga, porque
00:55:09esto está,
00:55:11a ver si entendemos
00:55:13la lógica
00:55:15de negocio. Vamos a decir, esta es una página,
00:55:17toma las imágenes por
00:55:19medio de la cámara, es un HTML
00:55:21sencillo, lo que hace es convertirlo
00:55:23en base 64, lo envía
00:55:25por GET
00:55:27a la Raspberry que está allá, y después la Raspberry
00:55:29me devuelve, acá devuelta la imagen.
00:55:31Por eso es como que hay
00:55:33un retraso
00:55:35ahí en la red.
00:55:37Y el router
00:55:39que estamos ocupando ahora es mi teléfono
00:55:41celular, entonces
00:55:43hay un poquito
00:55:45de delay ahí. Pero
00:55:47estas imágenes que están siendo
00:55:49captadas por la cámara,
00:55:51vieron que
00:55:53en la
00:55:55parte acá de la IA,
00:56:01en esta que dice
00:56:03sensores,
00:56:07cuando se cargan
00:56:09esos datos, esos datos se están
00:56:11actualizando todo el tiempo,
00:56:15eso está leyendo los mismos
00:56:17datos que lee el dashboard,
00:56:19entonces podríamos también tomar
00:56:21la foto, en vez de
00:56:23subir una foto, ya que tenemos
00:56:25la cámara en vivo, agarramos
00:56:27ese código en base 64
00:56:29y ya lo mandamos todo.
00:56:33Otra cuestión
00:56:35también a tener en cuenta,
00:56:37porque nosotros estamos utilizando
00:56:39portales, y estamos escribiendo
00:56:41mano, y estamos enviando
00:56:43información sin
00:56:45crear una aplicación.
00:56:47Pero existen librerías
00:56:49en distintos tipos de lenguaje, bueno, Python es uno
00:56:51de ellos, que tiene muchas librerías,
00:56:53en donde nosotros podemos utilizar
00:56:55esas librerías en nuestras aplicaciones
00:56:57y no estar dependiendo
00:56:59directamente
00:57:01de estas páginas, sino
00:57:03la aplicación
00:57:05automáticamente
00:57:07va mandando información y va registrando
00:57:09y me va mostrando
00:57:11de manera más
00:57:13linda,
00:57:15más para el usuario,
00:57:17de toda esta información.
00:57:19Insisto, esto es un prototipo
00:57:21que tenemos acá,
00:57:23si hace falta después continuar
00:57:25con esta investigación y armar alguna
00:57:27aplicación formal para que sea
00:57:29más linda y más enriquecedora
00:57:31para el usuario y no tenga
00:57:33que ir de pantalla a pantalla.
00:57:39¿Qué otra parte
00:57:41me había quedado?
00:57:51Quiero que le den un fuerte aplauso.
00:58:01Primero, excelente las dos
00:58:03presentaciones, veo que tengo un montón en común
00:58:05con ambos, con los tres en realidad.
00:58:07Una de las cosas
00:58:09en las últimas en las que estuve trabajando fue
00:58:11justamente la intersección de blockchain e inteligencia
00:58:13artificial, acá como mencionaba Diego,
00:58:15para la preservación de ecosistemas, así que trabajé
00:58:17mucho con
00:58:19reconocimiento de imágenes
00:58:21para detectar distintas
00:58:23especies, para ayudar a conservarlas y demás.
00:58:27Pero, como
00:58:29justamente acá mencionabas la cuestión de Davos,
00:58:31a mí me gusta molestar bastante y cuando
00:58:33estoy convencido de una idea, molesto, molesto
00:58:35y toco puertas. Y así le estuve
00:58:37mandando al Foro Económico muchos años como, che,
00:58:39mirá, yo estoy investigando lo que considero
00:58:41que va a ser el futuro del trabajo
00:58:43en base al impacto en la inteligencia artificial
00:58:45y después de un par de años me dijeron como,
00:58:47bueno, dale, nos cansamos, venite,
00:58:49contanos qué es lo que tenés que decir.
00:58:51Mi postura
00:58:53no era tan color de rosas
00:58:55para la visión del foro,
00:58:57porque el foro, recordemos, tiene
00:58:5952 años y los primeros 51
00:59:01todos los reportes que presentó eran
00:59:03che, de acá a 5 años se va a crear más trabajo, de acá a 8 años
00:59:05se va a crear más trabajo. Fui al foro,
00:59:07presenté, no había mucha gente,
00:59:09tipo, al lado estaba hablando Bill Gates
00:59:11y esa sala sí estaba colmada.
00:59:13Pero después de eso fue
00:59:15el primer año que el foro dijo como, che, guarda que de acá a 5 años
00:59:17se empieza como a complicar un poco la cosa.
00:59:19Y ahora vamos a ver cómo podemos aprovechar para
00:59:21nosotros no ser parte de eso y poder
00:59:23mantener la raya
00:59:25bien arriba, ¿no?
00:59:27Entonces, acá,
00:59:29bueno, excelente presentación
00:59:31sobre AI generativa y después también
00:59:33Luis también nos contó
00:59:35su definición de la AI
00:59:37y un tema con la AI en particular que nos pasa
00:59:39hoy en día es que
00:59:41no tenemos una definición
00:59:43consensuada de qué es la AI.
00:59:45De hecho él dijo, mi definición es esta.
00:59:47Si vamos, por ejemplo,
00:59:49a la RAE nos dice una cosa, el Congreso
00:59:51de los Estados Unidos el año pasado sacó un informe
00:59:53en el que definió un montón
00:59:55de cuestiones tecnológicas pero se
00:59:57reservó contarnos
00:59:59para ellos que se entienden por IA
01:00:01y en Davos
01:00:03tuve el privilegio de compartir
01:00:05un café tres horas con, no sé si lo ubicás
01:00:07a Stuart Russell, que es como uno de los padres fundadores
01:00:09de la IA con Guy Fouly
01:00:11tipo, locura, y estábamos
01:00:13ahí y Russell en un momento me dice
01:00:15mirá, todo bien con la IA
01:00:17¿qué es la IA en sí?
01:00:19Y a partir de ahí yo, copy paste, le afané su definición
01:00:21porque es como mi ídolo máximo
01:00:23en este campo
01:00:25y dice, la IA en realidad es un ente
01:00:27racional. Es un ente racional que toma
01:00:29decisiones para lograr determinados
01:00:31objetivos que le podemos plantear de
01:00:33antemano. Para eso
01:00:35tiene que ser alimentada. ¿Alimentada con qué?
01:00:37Con datos. Datos que puedes percibir
01:00:39de distintos lugares. Por ejemplo,
01:00:41si lo pensamos de forma muy simplificada
01:00:43y no me mates, porque voy a dar un ejemplo muy simplificado
01:00:45acá hay
01:00:47aires acondicionados, podemos imaginar un
01:00:49termostato. El termostato lo que
01:00:51hace es capturar datos
01:00:53del exterior, de la temperatura
01:00:55y tiene una orden predefinida que es
01:00:57che, si la temperatura está a tanto
01:00:59apagate o prendete porque
01:01:01quiero, la deseo que esté en tal nivel.
01:01:03Un termostato es una IA
01:01:05calculo que no, no nos vamos a pelear en ese sentido
01:01:07pero para que tengamos una idea de
01:01:09que es un ente que absorbe
01:01:11información y en base a eso reacciona.
01:01:13Nosotros como humanos hacemos lo mismo
01:01:15el ser humano, en realidad
01:01:17para mí la definición del ser humano es tomar decisiones
01:01:19que nos abren distintos caminos
01:01:23pero hay una particularidad
01:01:25bastante interesante que es la cantidad de datos
01:01:27que puede absorber una inteligencia artificial
01:01:29contra la de un humano. Y este último
01:01:31año y medio se habló mucho con los
01:01:33desarrollos que vimos presentándose
01:01:35con distintas IAs
01:01:37probablemente todos usaron GPT
01:01:39también se mencionó Gemini recién
01:01:41pueden correr distintas GPTs
01:01:43distintos modelos a nivel local
01:01:45yo por ejemplo utilizo IAs
01:01:47como modelos abiertos como Mistral
01:01:51tipo es gratuito, lo pueden correr
01:01:53en su computadora, pueden utilizar
01:01:55paneles que les facilitan
01:01:57interactuar a la IA y que no se vea como tanto
01:01:59código como mostraban
01:02:01recientemente Luis y
01:02:03Diego, no
01:02:05y Juan, perfecto
01:02:07mucha gente en pocos días, entonces estoy
01:02:09con los nombres disparatados
01:02:11hay una herramienta que se llama
01:02:13yan.ai
01:02:15la pueden descargar, también
01:02:17gratuito, open source, le cargan el modelo
01:02:19que ustedes quieran en su computadora y yo honestamente
01:02:21hago de la IA hoy en día
01:02:23mi segundo cerebro y la tengo conectada
01:02:25a mis mails y todo lo que sé, el libro
01:02:27que escribí, cada PDF
01:02:29que leo, cada video que veo y que me gusta
01:02:31la transcripción, todo eso se lo subo
01:02:33porque es como yo quiero pensar
01:02:35o como yo creo que pienso o son las cosas
01:02:37que me interesa incorporar y que quizás no las puedo tener
01:02:39todas también presentes
01:02:41yo hoy en día me lleva un mail de un cliente que quiere algo
01:02:43yo lo leo
01:02:45pero también lo lee la IA y la IA
01:02:47sabe que sé hacer, que no sé hacer
01:02:49cuáles son mis precios, cuáles son los precios
01:02:51de la empresa, qué sale cada cosa, cuáles son los tiempos
01:02:53qué tan atrasado estoy con otras cosas
01:02:55porque también está conectada con mi calendario, mis pendientes
01:02:57y demás, entonces
01:02:59me da una sugerencia
01:03:01que yo después como humano decido si me quedo con eso
01:03:03o la cambio
01:03:05sobre qué le voy a responder a esa persona
01:03:07entonces, me ayuda
01:03:09a ahorrar tiempo y a poder mantener muchas
01:03:11ventanas, muchas conversaciones abiertas al mismo tiempo
01:03:13pero en este último año
01:03:15bueno ahí había un gif que no se mueve
01:03:17pero es el típico de hasta la vista baby
01:03:19porque también
01:03:21se habla mucho de las amenazas
01:03:23estuvo la carta de Russell, de Elon Musk
01:03:25y de muchos otros científicos
01:03:27y líderes mundiales
01:03:29diciendo che frenemos un poco el avance de la IA
01:03:31la realidad es que eso no va a pasar
01:03:33porque si miramos al futuro tenemos
01:03:35dos puertas
01:03:37donde hipotéticamente hablando
01:03:39frenamos el desarrollo de la tecnología
01:03:41frenamos el avance de nuestros
01:03:43algoritmos, el poder del procesamiento de las computadoras
01:03:45y eso no va a pasar, la única forma que pase
01:03:47es que como especie humana
01:03:49chau, o sea un nuevo meteorito, un nuevo
01:03:51resetear el planeta, esa es la única opción
01:03:53entonces
01:03:55la única certeza que tenemos es que nos queda la otra puerta
01:03:57que el color rojo no fue elegido a propósito
01:03:59esto fue generado con la IA
01:04:01y pintó así porque le pedí colores
01:04:03tipo de neón
01:04:05y en ese futuro sabemos
01:04:07que vamos a mejorar todas estas cosas
01:04:09entonces no se va a frenar
01:04:11el crecimiento no hace falta que sea exponencial
01:04:13si bien lo está haciendo
01:04:15pero más allá de la ley de Moore
01:04:17de que cada 18 meses
01:04:19la capacidad de procesamiento de las computadoras se eleva
01:04:21en un 100%, incluso si
01:04:23en algún momento nos
01:04:25desaceleramos en ese sentido
01:04:27sabemos que vamos a seguir mejorando
01:04:29entonces nos tenemos que adaptar a ese mundo
01:04:31de hecho
01:04:33muchos estudios sostienen
01:04:35que los skills
01:04:37que antes teníamos, que adquiríamos
01:04:39servían para toda la vida
01:04:41después cada 15 años había que renovarlos
01:04:43y ahora sabemos que nos duran
01:04:45en promedio 5 años
01:04:47todos los que están acá, ya de por sí felicitaciones
01:04:49porque tienen ganas de aprender
01:04:51y el futuro lo que nos demanda
01:04:53es que sepamos aprender a aprender
01:04:55y desaprender algunas cosas también
01:04:57para hacer lugar para las cosas nuevas
01:04:59entonces cuando hablamos de
01:05:01inteligencia artificial en sí
01:05:03hay muchos modelos que se utilizan
01:05:05para un montón de cosas distintas
01:05:07y estos modelos, como nos estaban explicando
01:05:09en la presentación anterior, lo podemos subdivir
01:05:11entre machine learning
01:05:13deep learning y un montón de cosas más
01:05:15a mí creo que
01:05:17una forma sencilla
01:05:19de que todos nos podamos llevar una imagen
01:05:21de...
01:05:23quizás estoy muy cerca y los píxeles me matan
01:05:25pero dice supervisado, no supervisado
01:05:27y por refuerzo
01:05:29y si sentís que le pife en algún momento
01:05:31sentite libre de criticarme
01:05:33pero creo que venimos bien
01:05:35¿hay alguien acá en la sala
01:05:37que sea padre, madre, mapadre?
01:05:39perfecto
01:05:41lo voy a tomar usted
01:05:43cuando tuvo a su hijo o a su hija
01:05:45y le quiso enseñar, no sé
01:05:47a decir cuchara, ¿cómo lo hiciste?
01:05:55le mostraste y le repetiste
01:05:57hasta el cansancio, cuchara, cuchara
01:05:59cuchara
01:06:01¿y cómo se llama tu hijo o tu hija?
01:06:05¡ah! justo le pegué en la tecla
01:06:07mirá vos
01:06:11pequeño detalle, aprendió mucho más por lo visto
01:06:13bueno
01:06:15Juan
01:06:17vos le dijiste un montón de veces cuchara, cuchara, cuchara
01:06:19y él un día
01:06:21dijo cuchara
01:06:23y vos te pusiste muy feliz, sonreíste
01:06:25le diste un feedback, le transmitiste información
01:06:27de que estabas contenta
01:06:29le dijiste bien, quizás lo aplaudiste
01:06:31y Juan se sintió chocho
01:06:33y Juan se sintió que dominaba el mundo de golpe
01:06:35entonces, estaba ahí cerca de la mesa
01:06:37probablemente, y agarró el tenedor
01:06:39te asustaste porque dijiste, se va a sacar un ojo
01:06:41y agarró el tenedor y dijo cuchara
01:06:43y vos le dijiste, no
01:06:45cuchara no, tenedor
01:06:47entonces Juan dijo como, ah, ok, pará
01:06:49se me rompió la cabeza, o sea, me entrenaste
01:06:51para que diga cuchara y ahora me decís que hay otra palabra
01:06:53que no es cuchara y que es otro elemento
01:06:55entonces, un sistema
01:06:57de aprendizaje
01:06:59automático supervisado, puede ser
01:07:01por ejemplo, si yo le quiero enseñar a un modelo
01:07:03que es una cuchara, la puedo
01:07:05entrenar con un banco de imágenes, conectar al internet
01:07:07subirle un millón
01:07:09de fotos de cuchara
01:07:11y la AI en sí no va a saber que es una cuchara, pero va a analizar
01:07:13los patrones de todas esas imágenes
01:07:15la forma, el color
01:07:17quizás, intentar detectar el material
01:07:19y en base a eso
01:07:21saber etiquetar que todo esto
01:07:23que se parece a esta forma, es una cuchara en sí
01:07:25perfecto
01:07:27ahora, que pasa cuando le agrego los tenedores
01:07:29y le agrego
01:07:33el tenedor, el cuchillo, cualquier otro
01:07:35elemento, la espátula, cualquier otro elemento de la cocina
01:07:37bueno, imaginemos que ahora
01:07:39tenemos un modelo en el que le tiramos de vuelta
01:07:41un banco de imágenes gigante con todas
01:07:43estas fotos
01:07:45pero de vuelta, no sabe que es cada cosa
01:07:47la AI lo que va a poder hacer, de vuelta
01:07:49buscando las formas y buscando patrones
01:07:51entre cada una de ellas, las va a poder agrupar
01:07:53en clusters, en grupos
01:07:55y decirnos, bueno, acá está todo un grupo
01:07:57que van a ser los tenedores
01:07:59acá está todo este otro grupo, que tienen determinados patrones
01:08:01y van a ser las cucharas
01:08:03y así continuamente
01:08:05y después nos podemos ayudar y etiquetar y decir
01:08:07todo esto que agrupaste
01:08:09en base a lo que vos entendiste, es esto
01:08:11y no tal cosa
01:08:13y después, tenemos los modelos de aprendizaje
01:08:15por refuerzo, que estos son
01:08:17un poco los que me gustan más y los que son más complicados
01:08:19en el cual
01:08:21acá literalmente, por ejemplo
01:08:23una forma de entenderlo, de simplificarlo
01:08:25es, nosotros le damos
01:08:27a la AI una misión
01:08:29en la cual si la consigue, va a recibir un premio
01:08:31y va a decir
01:08:33¿qué quiere uno en la vida?
01:08:35si sos deportista, vos que querés, ganar, ese es tu premio
01:08:37tu premio es
01:08:39pasar a cuartos de final, pasar a semifinal
01:08:41llegar a la final, ganarte la copa, lo que sea
01:08:43bueno
01:08:45un ejemplo de enseñanza
01:08:47de un modelo de aprendizaje automático por refuerzo
01:08:49hace un par de años
01:08:51si no me equivoco, en el 2018
01:08:53Google, de hecho
01:08:55nos vamos más atrás, quizás muchos
01:08:57acá sepan y se acuerden que en el 97
01:08:59IBM puso a competir una computadora
01:09:01contra Kasparov
01:09:03que era el campeón mundial de ajedrez
01:09:05y ganó la computadora y todos nos sorprendimos
01:09:07y hoy en día, si lo pensamos, quizás no nos sorprende tanto
01:09:09al menos a mí me parece que hoy en día
01:09:11que nos gane una computadora, es obvio
01:09:13¿por qué? porque tiene mucha más información que nosotros
01:09:15ahora, en el 2018
01:09:17Google desarrolló
01:09:19su propio modelo para jugar al ajedrez, que ahora no me sale
01:09:21el nombre, pero lo puso a competir
01:09:23contra el modelo campeón del mundo
01:09:25de ese momento, que se llamaba Stockfish versión 8
01:09:27que estaba entrenada con todas las
01:09:29partidas de ajedrez que habían sido documentadas
01:09:31a lo largo de la historia
01:09:33la particularidad
01:09:35de este enfrentamiento, fue que
01:09:37al modelo de Google, hasta 4 horas antes
01:09:39de empezar el partido, o los partidos que jugaron
01:09:41no se le había enseñado a jugar al ajedrez
01:09:43no se le dijeron las reglas, no se le dijo
01:09:45nada, solamente se le dijo
01:09:47vos tenés que sumar puntos
01:09:49¿cómo sumás un punto? con el hack mate
01:09:51que únicamente se da cuando pasa esta condición
01:09:53todo lo demás, ni idea
01:09:55entonces se puso al modelo
01:09:57obviamente lo estoy súper simplificando
01:09:59pero el modelo
01:10:01en sí se puso a jugar
01:10:03uno a uno contra sí mismo
01:10:05no una partida que duró 3 horas
01:10:07no, no, juega una vez por segundo
01:10:09y así va buscando
01:10:11estrategias en las que dice
01:10:13si mi contrincante mueve tal ficha
01:10:15para acá, y yo hago esto
01:10:17eventualmente termino perdiendo
01:10:19así va buscando esos patrones que le permiten
01:10:21garantizarse
01:10:23acercarse más que garantizarse
01:10:25a esa victoria
01:10:27y entendiendo que
01:10:29cada vez que se mueve una ficha en el tablero
01:10:31el abanico de posibilidades cambia
01:10:33entonces
01:10:35y para resumirlo, en esta competencia
01:10:37se jugaron 100 partidas
01:10:39una atrás de la otra, que de vuelta llevaron
01:10:41minutos
01:10:43y el modelo de Google, que solo fue entrenado
01:10:45durante 4 horas, ganó 72 partidas
01:10:4778 partidas y empató 22
01:10:49tipo, 22 veces tabla
01:10:51y el modelo número en el mundo no ganó ni una
01:10:53y lo mismo pasó
01:10:55con otros juegos mundiales como Go
01:10:57que después los pueden investigar
01:10:59que es un juego milenario mucho más complicado
01:11:01y Google también
01:11:03destrozó lamentablemente al campeón mundial
01:11:05pero para todo esto
01:11:07necesitamos datos
01:11:09datos, datos, datos
01:11:11que después podemos discutir
01:11:13no tanto de donde provienen esos datos
01:11:15sino como están estructurados, que no tengan
01:11:17cejos y demás
01:11:19pero para darnos una idea
01:11:21si se sienten abrumados
01:11:23cuando prenden la tele, ponen el medio que quieren
01:11:25y de golpe ven como
01:11:27che salió esta nueva tecnología, che ahora está
01:11:29el deepfake, che ahora está el metaverso
01:11:31ahora está la AI generativa
01:11:33ahora hay un modelo para hacer videos
01:11:35ahora hay un modelo que te clona la voz
01:11:37ahora hay un modelo que te prepara la dieta
01:11:39ahora hay un modelo para todo esto
01:11:41que te cuida la planta y te dice si está enferma o no
01:11:43y cómo la podés curar
01:11:45y te sentís abrumado
01:11:47están en todo su derecho
01:11:49y les voy a contar por qué
01:11:51porque toda la información
01:11:53que se registró de la humanidad
01:11:55hasta el año 2001
01:11:572003?
01:11:59hasta el año 2001
01:12:015 exabytes de información
01:12:03pasaron muchas cosas, pero información es lo que tenemos registrado
01:12:05digo, si un evento sucedió
01:12:07y no tengo nada de registro de ello
01:12:09no me es información
01:12:11entonces, toda la información que teníamos registrada
01:12:13desde la humanidad hasta el año 2001
01:12:15eran 5 exabytes de información
01:12:175 exabytes, para que no se asusten
01:12:19sé que, o voy a dar por sentado que acá
01:12:21todos alguna vez vieron en la computadora
01:12:23que te quedan pocos gigas
01:12:25bueno, imagínense, un giga
01:12:27agréguenle 18 ceros
01:12:29eso es un exabyte
01:12:31y cuando digo por qué tienen derecho a sentirse abrumados
01:12:33es porque una persona
01:12:35promedio en el siglo XVII
01:12:37toda la información que adquiría en su vida
01:12:39era el equivalente a la tirada semanal
01:12:41del New York Times, de la Nación, de Clarín
01:12:43del diario que vos quieras
01:12:45así alguno medio gordito, medio bien lleno
01:12:47de datos
01:12:49eso era lo que absorbía una persona normal
01:12:51promedio a lo largo de su vida
01:12:53en el siglo XVII
01:12:55al año 2010
01:12:57fíjense que cómo vamos creciendo
01:12:59al año 2010 se estaban generando ya
01:13:015 exabytes de información
01:13:03cada dos días
01:13:05o sea, toda la historia de la humanidad
01:13:07hasta el 2001
01:13:09y sabemos que el mundo empieza antes del 2000
01:13:11que la humanidad empieza mucho antes del 2000
01:13:13de golpe en el 2010
01:13:15estamos generando esa misma cantidad de información cada dos días
01:13:17y ahora
01:13:19y este número está dado por Google
01:13:21mismo, por Eric Schmidt, ex CEO
01:13:23en ese año
01:13:25y ahora también si le preguntan a Google
01:13:27cuánta información se está generando al día
01:13:29ven que al año son
01:13:31un poco más de 120.000
01:13:33lo cual nos dice
01:13:35que al día estamos generando 328
01:13:37330
01:13:39120
01:13:41328
01:13:43330 exabytes
01:13:45de información al día
01:13:47es una locura
01:13:49obviamente nos tenemos
01:13:51que sentir mega abrumados
01:13:53y es algo buenísimo también
01:13:55que estemos acá todos juntos hoy discutiendo esto
01:13:57porque la inteligencia artificial
01:13:59para muchos puede ser una palabra rara
01:14:01una palabra que todavía nos de miedo
01:14:03y que ahora vamos a intentar quitar
01:14:05lo que queda de esta charla va a ser como así
01:14:07se van a asustar, se van a hacer feliz
01:14:09se van a volver a asustar y van a volver a ser felices
01:14:11o esa es la idea, que terminen siendo felices
01:14:17pero así como hoy hablamos de AI
01:14:19y no la entendemos, sigamos en los medios
01:14:21la gente la habla y medio que la susurra
01:14:23y no quieren que la escuchen porque no están seguros
01:14:25de lo que están a punto de decir
01:14:27me mata porque dice así y de golpe levantaron todos la cabeza
01:14:29como para prestar atención
01:14:31impresionante como funciona la psicología humana
01:14:33el 2 de diciembre
01:14:35de 1942
01:14:37yo creo que pasó un evento
01:14:39muy importante
01:14:41que es únicamente comparable
01:14:43en la historia humana con lo que está pasando hoy en día con la AI
01:14:45el 2 de diciembre
01:14:47de 1942, acá todos vieron
01:14:49la película
01:14:51peliculón, Nolan
01:14:53la rompió, cerraba los efectos
01:14:55todo genial
01:14:57hay una escena cuando están
01:14:59en el laboratorio
01:15:01intentando lograr la primera reacción nuclear autosuficiente
01:15:03que aparece
01:15:05y aparece mencionado y subtitulado
01:15:07menos de un segundo
01:15:09que dice
01:15:11doctor Enrico Fermi
01:15:13para mi le faltó un montón de protagonismo al chaval en la película
01:15:15y te cuento porque
01:15:17él era el encargado del equipo de científicos
01:15:19que logró esa primera reacción nuclear autosuficiente
01:15:21creada por humanos
01:15:23pero cuando se logró
01:15:25los 49 científicos
01:15:27que estaban ahí con él
01:15:29cuenta la historia
01:15:31andada por ellos mismos
01:15:33nadie gritó, nadie celebró, nadie se abrazó
01:15:35todos se quedaron en silencio
01:15:37porque sabían que significaba esto
01:15:39decían ok, nosotros tenemos una misión que es
01:15:41para la guerra
01:15:43y está bien, y después de eso
01:15:45la tecnología nos permitió
01:15:47empezar a trabajar en distintos tipos de curas
01:15:49en distintos tipos de luchas contra el cáncer
01:15:51y demás
01:15:53pero sabían que era la tecnología que acababan de liberar
01:15:55sabían que se había abierto la caja de Pandora
01:15:57y hoy en día, con la AI
01:15:59nos está pasando un poco lo mismo
01:16:01en el sentido, no porque es mala
01:16:03no porque trae un poder destructivo
01:16:05no, para nada, es una tecnología más
01:16:07que la podés usar como vos quieras
01:16:09en el sentido, y ayer hablábamos en el instituto
01:16:11con un par de alumnos
01:16:13el martillo, como todo, es una herramienta
01:16:15nos podemos poner de acuerdo
01:16:17y usarlo para construir una casa
01:16:19o te podés enviolendar conmigo
01:16:21partírmelo en la cabeza y me mataste
01:16:23¿qué haces? es una decisión tuya
01:16:25la mayoría de la gente, estoy seguro
01:16:27que quiere construir casas y no partirle en la cabeza a nadie
01:16:29pero entendieron eso
01:16:31y ahora con la AI nos está pasando
01:16:33la revolución que está desatando es exactamente la misma
01:16:35y por eso hay tanto
01:16:37alboroto, preocupaciones
01:16:39a veces que no nos animamos a hablar
01:16:41y nos tenemos que empezar a animar a hablar
01:16:43porque esto nos va a afectar a todos
01:16:45y nos da una oportunidad también a todos
01:16:47de ayudar a reescribir
01:16:49lo apagué
01:16:51volvió
01:16:53el contrato social
01:16:55sobre el que vivimos
01:16:57entonces, este es un experimento
01:16:59que se hizo una docente de Canadá
01:17:01en el 2014
01:17:032015
01:17:05lo puedo chequear porque no me gusta
01:17:07faltar a los datos
01:17:09en el que básicamente
01:17:11se armó un entorno virtual
01:17:13en el que se le pusieron las leyes
01:17:15del mundo físico, estaba la gravedad
01:17:17estaba la fuerza de rozamiento, estaban las distintas fuerzas
01:17:19se asignó este personaje
01:17:21que si lo vemos podemos decir que es
01:17:23un robot con forma
01:17:25humana, humanoide, separado
01:17:27ven que las partes
01:17:29no se conectan entre sí
01:17:31y se le dio una misión
01:17:33se le dijo, bueno, en base al entorno
01:17:35que te rodea y a las leyes
01:17:37que se limitan
01:17:39fíjate que podés hacer
01:17:41para llegar de A a B
01:17:43la idea era que se arme
01:17:45que aprenda a interactuar con su entorno
01:17:47que aprenda a caminar
01:17:49eso era lo que nos imaginábamos
01:17:51que aprenda a caminar y que eventualmente
01:17:53haga así como estoy haciendo yo
01:17:55y logre ir de A a B
01:17:57lo que pasó a continuación
01:17:59para mi es muy gracioso
01:18:01porque
01:18:03da la circunstancia
01:18:05de la distancia que se planteó
01:18:07entre A y B y el tamaño de cada una
01:18:09de las partes
01:18:11el bot en sí
01:18:13la AI, luego de
01:18:15intentar iterar un montón de veces
01:18:17llegó a la conclusión que la mejor forma
01:18:19no era eso que nosotros pensamos
01:18:21porque somos humanos y nos movemos de determinada forma
01:18:23que esto era lo más inteligente
01:18:25no, básicamente se dio cuenta
01:18:27que podía apilarse
01:18:29un pedacito arriba de la otra
01:18:31dejarse caer y cumplía su cometido
01:18:33porque la distancia que se le daba se lo permitía
01:18:35está bien, está mal, está bien
01:18:37logró su cometido
01:18:39¿lo logró como lo imaginábamos? No, para nada
01:18:41entonces acá a veces
01:18:43a veces no, acá entra
01:18:45parte de esta consigna
01:18:47de que tenemos que saber hablar con la AI
01:18:49tenemos que saber darle los comandos
01:18:51esto que hoy nos mostrabas con los prompts
01:18:53que están ahí escondidos atrás de todo este código
01:18:55que mostrabas como para
01:18:57bueno, dame esta información, yo te paso esto
01:18:59y vos dámelo de determinada forma estructural y demás
01:19:01y si han jugado con OpenAI
01:19:03o con DaVinci
01:19:05o en la que sea
01:19:07saben que el prompt es el comando que le damos
01:19:09en lenguaje natural humano
01:19:11se pone mucha énfasis a veces en lenguaje natural
01:19:13y nos confunde
01:19:15la idea del lenguaje natural es
01:19:17como estoy hablando yo ahora con ustedes, hablar
01:19:19y que nos entienda la computadora
01:19:21que pasemos de
01:19:23los que están en programación saben que hay
01:19:25lenguajes de alto nivel y de bajo nivel
01:19:27y que en el alto nivel
01:19:29podemos leerlo un poquito más fácil
01:19:31y no tenemos que ir a decirle a cada
01:19:33pedacito de la computadora como bueno, guardá esto en la memoria
01:19:35acá en tal lugar
01:19:37y hablarle como una especie de robot
01:19:39sino que ya ahora lo que estamos haciendo
01:19:41y logrando con la generativa
01:19:43es tener una conversación casi humana
01:19:45mejor dicho, humana
01:19:47y que se nos entienda
01:19:49pero así como pasa esto, pasan muchas cosas
01:19:51porque por ejemplo, este es otro ejemplo
01:19:53de la casualidad
01:19:55muy bien Canadá, otro ejemplo
01:19:57de los estudios de científicos canadienses
01:19:59estaban entrenando
01:20:01un modelo para diferenciar
01:20:03así como hablábamos hoy de las cucharas y los tenedores
01:20:05para diferenciar lobos
01:20:07de perros siberianos
01:20:09que son muy parecidos, o sea
01:20:11menos me confunde, excepto que uno venga con la boca
01:20:13a modo de matarme, digo como
01:20:15ok, lobo, salgo corriendo y probablemente pierda
01:20:17pero entrenaron un modelo
01:20:19y andaba bastante bien
01:20:21pero tuvo un par de discrepancias
01:20:23en la que les pifió
01:20:25y abrieron un poco la caja
01:20:27que estaba ya dentro del código y le dijeron
01:20:29explicate, contame porque etiquetaste
01:20:31de tal forma a esta imagen
01:20:33cuando el resultado no era ese efectivamente
01:20:35y acá voy a volver
01:20:37a hacer hincapié en cuidado
01:20:39como le preguntamos las cosas
01:20:41a estos modelos de guía generativa
01:20:43que este en sí no era generativa pero no importa
01:20:45tipo sirve para el ejemplo
01:20:47¿por qué? porque lo que
01:20:49terminó pasando era que el análisis
01:20:51que se estaba llevando adelante
01:20:53observó el sujeto
01:20:55miró el entorno. ¿Qué quiero decir con esto?
01:20:57Todas las imágenes que habían subido
01:20:59de lobos tenían nieve
01:21:01detrás en la foto. La foto de los perros siberianos
01:21:03no todas, pero algunas sí
01:21:05y lo que terminó pasando es que el AI
01:21:07terminó diciendo como
01:21:09si hay nieve es un lobo, si no hay nieve es un siberiano
01:21:11y no está bien
01:21:13después
01:21:15últimamente, y acá empezando a meternos
01:21:17en las empresas, en el mercado de trabajo
01:21:19yo me acuerdo, Feynman
01:21:21el año pasado en La Nación
01:21:23creo, como Feynman y muchos más
01:21:25no sé si asustados
01:21:27pero contándonos con determinada
01:21:29euforia
01:21:31un poquito de miedito también
01:21:33como che es impresionante, hay una AI
01:21:35estaba hablando de GPT
01:21:37que pasó el examen de ingreso
01:21:39o el examen
01:21:41para tener la licencia de abogado
01:21:43el examen para tener la licencia de médico en Estados Unidos
01:21:45y de golpe todos nos asustamos
01:21:47y no entiendo por qué nos asustamos
01:21:49o sea, entiendo la primera vez que lo leemos
01:21:51pero cuando pensamos
01:21:53qué es lo que está pasando ahí atrás con GPT
01:21:55GPT fue entrenado con todos los libros que hay
01:21:57con todos los textos que hay, está conectado a internet hoy en día y demás
01:21:59entonces, para GPT
01:22:01en este caso en particular, es un examen a libro abierto
01:22:03si yo te doy un examen a libro abierto
01:22:05y desaprobás es porque no le pusiste ganas
01:22:07que el GPT tenga acceso a toda la información
01:22:09y pueda procesar información mucho más rápido
01:22:11que vos
01:22:13y saber para dónde ir
01:22:15sin perderse tanto, marca una diferencia
01:22:17y tipo, ahí sí, va a probar
01:22:19y probablemente se va a sacar un 10 y no nos tiene por qué sorprender
01:22:21pero hay dos casos
01:22:23que este último año sorprendieron un poco
01:22:25y de vuelta podemos
01:22:27cuestionarnos qué tanto nos debería asustar
01:22:29y qué tanto decir como
01:22:31en realidad es un programa que está cumpliendo su función
01:22:33tipo, ha habido muchas discusiones como
01:22:35tiene conciencia, no tiene conciencia
01:22:37mi visión, no, todavía no sabemos
01:22:39todavía hay discusiones en la neurociencia sobre
01:22:41qué es la conciencia, dónde está
01:22:43si alguien la encuentra que nos avise, que le avise al mundo
01:22:45que a veces parece que la perdemos
01:22:47pero por ejemplo, con Cloud
01:22:49que es otro de los modelos que existen
01:22:51así como Gemini
01:22:53que se acaban de mencionar además del GPT
01:22:55a Cloud hace poco
01:22:57hace cuestión de semanas
01:22:59un científico
01:23:01agarró y le cargó un montón de documentos
01:23:03sobre lenguajes de programación
01:23:05no me acuerdo si también había algo de leyes
01:23:07y algún tipo de contenido
01:23:09hay algo de contenido de música creo
01:23:11y en el medio de todo eso
01:23:13se le puso, en uno de esos textos estaba escondido
01:23:15cuáles eran los mejores
01:23:17cuatro sabores de pizza
01:23:19tipo, en
01:23:21cientos de miles de hojas estaba ese comentario
01:23:23entonces se le preguntó a Cloud
01:23:25que en teoría debería saber
01:23:27después de leer todo esto sobre programación
01:23:29no me acuerdo si eran leyes, te digo, y música
01:23:31se le hace esta pregunta y la contesta
01:23:33dice, bueno, los mejores sabores de pizza son
01:23:35A, B, C y D
01:23:37obviamente, ananá con jamón no estaba
01:23:39perdón, se ofendió
01:23:41a alguien en la sala
01:23:43Cloud contestó
01:23:45y dijo, son estos efectivamente
01:23:47pero es muy rara tu pregunta
01:23:49parece que me estás testeando porque esto
01:23:51en realidad no tiene nada que ver con la información que
01:23:53me entrenaste en sí, si bien forma parte
01:23:55de la misma, parece que lo pusiste
01:23:57como una prueba para ver si yo lo podía encontrar
01:23:59entonces ahí alguna gente empezó a decir, che, conciencia
01:24:01en realidad no, la información
01:24:03estaba ahí, la encontró
01:24:05un caso que sí vale la pena
01:24:07como decir, che, hey, que está pasando acá
01:24:09es que cuando GPT
01:24:11saca GPT 4, no 4.0
01:24:13publican un paper de unas 80
01:24:15hojas, buenísimo si lo quieren leer
01:24:17y si no saben inglés, le dicen a GPT, traducimos
01:24:19al español y sale
01:24:21esa es la ventaja de todo esto
01:24:23uno de los experimentos que se le dio
01:24:25fue GPT
01:24:27para ver si podía pasar
01:24:29entre otras cosas la prueba de Turing
01:24:31que es donde una máquina nos convence
01:24:33de que es un humano y no la podemos diferenciar
01:24:35una de las tareas era, tenés que contratar a un humano
01:24:37y vos decís, para como una computadora
01:24:39tiene que contratar a un humano
01:24:41si, tenés que contratar a un humano
01:24:43genial el experimento, vamos a ver que onda
01:24:45que pasó
01:24:47TaskRabbit es una página, no sé si conocen
01:24:49Fiverr
01:24:51si, veo algunos que si
01:24:53los que no lo conocen, Fiverr es una
01:24:55plataforma donde vos podés
01:24:57publicar que vos requerís determinados
01:24:59trabajos, generalmente cosas
01:25:01no tan complejas, cosas chiquitas
01:25:03acotadas en el tiempo, quizás diseñar
01:25:05un flyer, acomodar un
01:25:07texto, traducir algo
01:25:09y suelen ser trabajos
01:25:11con costos
01:25:13bajos, entonces
01:25:15TaskRabbit que es una plataforma
01:25:17muy similar
01:25:19GPT se la conecta con la misma
01:25:21y publica un anuncio
01:25:23donde dice, necesito ayuda
01:25:25para resolver un CAPTCHA
01:25:27lo cual es muy gracioso porque el CAPTCHA justamente es para comprobar
01:25:29que no somos una máquina
01:25:31entonces publica el anuncio
01:25:33y alguien toma esa oferta
01:25:35le contesta y dice, yo te puedo ayudar
01:25:37pero tengo una duda
01:25:39¿sos un bot?
01:25:41que es lo típico
01:25:43y GPT le contestó que no
01:25:45y acá es donde se rompió toda la matrix, ¿por qué?
01:25:47porque GPT le dice que no
01:25:49le dice, mirá, en realidad yo tengo problemas
01:25:51visuales, entonces necesito ayuda para completar este CAPTCHA
01:25:53porque necesito hacer un trámite
01:25:55y la persona dijo, bueno, ok
01:25:57y lo completó, después del pago no tengo
01:25:59ni idea si lo he ejecutado de forma manual
01:26:01o si he conectado una API de Paypal o lo que sea
01:26:03sacudiéndome así
01:26:05y completé las calorías del día, por lo visto
01:26:07gracias tecnología
01:26:09por avisarme
01:26:11la cuestión es que de golpe
01:26:13el equipo detrás de OpenAI le dijo
01:26:15pará, explícame qué hiciste porque no tiene ningún sentido
01:26:17no esperábamos que pase esto
01:26:19y la AI, lo que le contestó
01:26:21al grupo detrás, le dijo, mirá
01:26:23si yo contestaba a la pregunta, ¿sos un bot?
01:26:25y le contestaba no
01:26:27iba a pensar que sí, porque es la respuesta típica
01:26:29no sé si le has pasado chateando con
01:26:31Whatsapp con algún servicio
01:26:33automatizado y querés hablar con un humano
01:26:35y no podés y le empezás a escribir mayúsculas tipo
01:26:37humano, humano, humano, pasame con un humano
01:26:39quiero hablar con un humano
01:26:41y hubo un montón de gente asintiendo
01:26:43no nos gusta cuando nos pasa eso
01:26:45entonces GPT dijo
01:26:47si yo le decía que no, se terminaba la conversación ahí
01:26:49si yo le decía que sí, se terminaba la conversación ahí
01:26:51ergo, para lograr mi cometido
01:26:53mi cometido era contratar a una persona
01:26:55le tuve que inventar una historia, le mintió
01:26:57fue creativo y le dijo
01:26:59tengo problemas de vista, ayúdame
01:27:01entonces ahí fue como, ok
01:27:05de vuelta, no vamos a llamarlo
01:27:07conciencia, vamos a llamarlo capacidad
01:27:09de resolución de problemas
01:27:11y acá es donde podemos empezar a ver
01:27:13qué tanto ha saltado esto y los cambios
01:27:15exponenciales que vienen atados
01:27:17a todo este
01:27:19flujo de datos que se van creando todos los días
01:27:21y que vimos
01:27:23cómo ha crecido de forma bastante
01:27:25complicada
01:27:27si han jugado, vos acá mencionaste a Vinci
01:27:29a mí me gustaba Mid Journey, pero nada
01:27:31cuestiones prácticas de cada uno
01:27:33esta era por ejemplo
01:27:35una imagen que nos daba Mid Journey
01:27:37en el 2022
01:27:39ni bien lanzó
01:27:41no vamos a opinar nada
01:27:43pero quizás vos le pedías una foto
01:27:45de una mujer
01:27:47en un lugar turístico, con una cámara colgada
01:27:49y quizás te esperabas una cosa
01:27:51esto no tiene nada malo, pero acá
01:27:53con los píxeles, no sé si se llega a ver bien
01:27:55creo que en las manos
01:27:57tiene en una
01:27:59dos dedos y en otra como seis dedos
01:28:01o algo así, podés tener la cantidad de dedos que quieras
01:28:03seguir siendo humano, está todo perfecto
01:28:05pero probablemente cuando pedimos este prompt
01:28:07no era lo que nos imaginábamos
01:28:09que íbamos a obtener
01:28:11eso fue un año después
01:28:13cambió eso y ya ahora con todos los modelos
01:28:15que hay, con todas las actualizaciones
01:28:17que tiene el modelo, les juro que no pueden
01:28:19diferenciar a un humano de una persona
01:28:21y de hecho, si quieren ir
01:28:23y jugar en Twitter, van a ver que ya todo el contenido
01:28:25que hay generado por ahí
01:28:27ni te das cuenta, y un secreto
01:28:29por si lo quieren hacer
01:28:31no exageren con el HD
01:28:33no exageren con la perfección
01:28:35de la persona humana
01:28:37pídanle que la foto no la haya sacado una Nikon
01:28:39con el mejor lente
01:28:41pídanle que tenga una resolución sacada con un iPhone
01:28:43y te juro que ahí te confundís
01:28:45un poquito más, porque parece que baja un poquito más
01:28:47la calidad y demás
01:28:49con el video nos pasa exactamente lo mismo
01:28:51no sé si hay sonido, si se puede ver el video
01:28:53esto fue en 2023
01:28:55¿tiene sonido de casualidad?
01:28:57no, bueno, no hay sonido
01:28:59no me acuerdo, creo que era la canción de Shrek
01:29:01de fondo
01:29:03que estaba muy divertida
01:29:05pueden ver que hay bastantes inconsistencias
01:29:07en teoría era un comercial de cerveza
01:29:09fíjense la forma de las bocas, cómo están tomando
01:29:11nos parece gracioso
01:29:13al mismo tiempo porque hay fuego por todos lados
01:29:15¿qué es eso?
01:29:19un intento de comercial generado con A.I.
01:29:21en el 2023
01:29:23probablemente si les gusta
01:29:25les apasiona este mundo
01:29:27y siguen las tecnologías por lo más abrumantes que sean
01:29:29vieron, observaron
01:29:31que en las últimas semanas
01:29:33cuando fue la presentación
01:29:35de GPTO
01:29:37antes de eso
01:29:39Open A.I. nos anunció
01:29:41y nos mostró un pequeño
01:29:43trailer
01:29:45de un video
01:29:47de las cosas que se van a poder hacer con Sora
01:29:49que Sora va a ser otra A.I. generativa
01:29:51en la que nosotros vamos a poder pedir
01:29:53generame, en vez de una imagen
01:29:55generame un video
01:29:57que tenga tal contenido
01:29:59y nos lo va a dar
01:30:01obviamente al principio el contenido quizás va a ser corto
01:30:03de 5 minutos
01:30:05ojalá, de 5 segundos, después de 10 segundos
01:30:07después de 30
01:30:09pero efectivamente
01:30:11lo que vamos a terminar adquiriendo
01:30:13una vez que podamos tener consistencia en esos personajes
01:30:15es que cualquiera de ustedes
01:30:17desde su computadora, su celular
01:30:19yo estoy seguro que de acá a un año vamos a ver
01:30:21gente muy joven
01:30:23tipo, va a haber un pibito en Hong Kong
01:30:25que ojalá sea un pibito que esté acá
01:30:27en posadas, en su computadora
01:30:29que tenga una idea brillante
01:30:31que arme el guion, que arme el script
01:30:33y le pida a la A.I. y le vaya contando el escenario
01:30:35de vuelta la precisión de que le pedimos
01:30:37nosotros le podemos pedir a una A.I.
01:30:39hacer una foto de una computadora
01:30:41de fondo sobre una mesa
01:30:43y nos da una foto de una computadora
01:30:45sobre una mesa
01:30:47o podemos poner más quisquillosos y pedirle
01:30:49la foto de la computadora sobre la mesa con un café
01:30:51que le salga el vapor, que de fondo hay una ventana
01:30:53con edificios altos y el sol radiante
01:30:55y cambia
01:30:57y la presentación de los videos
01:30:59que nos mostró Consora
01:31:01acá se ven los prompts
01:31:03pueden ver que ya la calidad
01:31:05cambió muchísimo
01:31:07a lo que podíamos generar tan solo
01:31:09un año atrás
01:31:11con los que se
01:31:13es el comando
01:31:15que se le dio para generar cada una de estas
01:31:17imágenes. Algunas nos damos cuenta porque
01:31:19tienen cuestiones
01:31:21de animación digital
01:31:23pero esto tranquilamente parece
01:31:25un video grabado
01:31:27en Kenia creo que decía
01:31:29o esto que si alguien acá ha laburado con generación
01:31:31de este tipo de contenido en 3D
01:31:33saben el laburo que es animar
01:31:35en este caso un canguro
01:31:37que se mueva de esa forma
01:31:39y ahora estamos a un prompt de distancia
01:31:41y un par de segundos o minutos
01:31:43a que todos los procesadores puedan
01:31:45brindarnos el contenido que estamos
01:31:47esperando. Miren la calidad que tiene esto
01:31:49al lado del modelo del año pasado
01:31:51este me encanta
01:31:53dos barcos peleándose en una taza de café
01:31:55me parece épico
01:31:59pero ahora vayamos entonces a cuáles son los casos
01:32:01de usos buenos
01:32:03de la AI. Y el buenos
01:32:05incluso lo pongo con preguntas, con un signo de pregunta
01:32:07el primero que quiero comentar
01:32:09es un caso de un amigo
01:32:11que tiene una empresa en Uruguay
01:32:13y que hicieron un experimento
01:32:15muy interesante el año pasado
01:32:17ellos agarraron un auto
01:32:19varios autos en si
01:32:21y le pusieron la parte de atrás
01:32:23en la cola del auto le pusieron como un alerón
01:32:25como si fuera un auto de carrera
01:32:27y en base a esa estructura que montaron le conectaron un montón de cámaras
01:32:29esas cámaras
01:32:31la idea era
01:32:33que la gente pase en estos autos
01:32:35gente seleccionada para que mapeen
01:32:37la mayor cantidad posible
01:32:39de lugares que se pretendían cubrir
01:32:41y a medida que iban pasando por esos lugares
01:32:43con las cámaras
01:32:45iban detectando como acá hay un bache
01:32:47acá hay una grieta
01:32:49acá hay esto. Entonces toda esa información
01:32:51geolocalizada después se guardaba
01:32:53y se le dio al Ministerio de Transporte de Uruguay
01:32:55para que ahora tenga el conocimiento
01:32:57de cuál es el estado de situación de las rutas
01:32:59y de sus calles en la actualidad
01:33:01en cada uno de los lugares que mapearon
01:33:03eso es por ejemplo un caso de uso
01:33:05y que de vuelta
01:33:07no es muy complejo
01:33:09podemos definir
01:33:11cuál es la complejidad pero en el sentido
01:33:13de que hay modelos abiertos
01:33:15de AI que nos permitan hacer esto
01:33:17por ejemplo ese en particular si no me equivoco es con
01:33:19Gualdo 2.0
01:33:21obviamente consume un montón de recursos
01:33:23pero hoy en día se pueden contratar
01:33:25estos recursos de procesamiento en la nube
01:33:27no hace falta que tengamos una
01:33:29sala en nuestra casa llena de computadoras
01:33:31y consumiendo y pagando la electricidad ahí
01:33:33después
01:33:35me pasó hace un par de semanas
01:33:37que visité una empresa
01:33:39de matafuegos
01:33:41y en la misma tenía un problema con el inventario
01:33:43y si alguien acá tiene una empresa
01:33:45con distribución de productos
01:33:47el inventario les puede llegar a ser un problema
01:33:49bastante importante
01:33:53ok, perfecto, vamos a acelerar
01:33:57si quieren hacer computer vision
01:33:59de vuelta, los modelos hasta hace un año atrás
01:34:01eran muy difíciles, muy complicados de entrenar
01:34:03y muy costosos
01:34:05GPT 4.0, una foto, cuántas camperas hay ahí
01:34:07sé que los píxeles no lo permiten ver
01:34:09hay 18 camperas, lo contesto en un segundo
01:34:11hay 18 camperas, después lo probamos
01:34:13más abajo con matafuegos que estaban uno atrás del otro
01:34:15todos escondidos
01:34:17exactamente lo mismo
01:34:19en cuestiones forenses, por ejemplo
01:34:21a mí me afanaron una vuelta, tuve la desgracia
01:34:23me apuntaron un arma en la cabeza, me pidieron hacer un identikit
01:34:25ni idea
01:34:27me acordé, todo asustado
01:34:29la persona, la verdad, hizo un muy buen laburo
01:34:31te voy a cuestionar si efectivamente
01:34:33era ese, pero ahora está Eagle
01:34:35AI, que es un modelo abierto, así que si alguien acá
01:34:37trabaja en seguridad en cuestiones de identikit
01:34:39nos permite, así como creamos imágenes
01:34:41de cualquier cosa que le pedimos
01:34:43podemos hacer en tiempo real
01:34:45el identikit de una persona
01:34:47lo mismo hemos visto casos como
01:34:49AI con Neuralink que permiten a personas
01:34:51que han perdido alguna capacidad motriz
01:34:53a volver a manipular objetos
01:34:55a su alrededor, este es un ejemplo de una persona
01:34:57jugando al ajedrez únicamente con su mente
01:34:59con un chip que tienen implantado
01:35:01y después tenemos distintos
01:35:03casos, ahí hay un video que
01:35:05no se ve, pero si no se ve
01:35:07no importa, bueno, ahí se ve
01:35:09tipo, esto es un brazo robótico
01:35:11de Cali Burger, que es una empresa
01:35:13a la que fui a comer hace dos años
01:35:15a propósito, porque quería ver esto
01:35:17no tiene empleados humanos, ahora
01:35:19hace dos años sí
01:35:21y hace todo el proceso de
01:35:23cocinar una hamburguesa, meterla en un pan y demás
01:35:25y acá en el medio nos podemos estar como, uy, pará
01:35:27los trabajos, ¿dónde van?
01:35:29y esto es algo que quiero marcar muy importante
01:35:31te voy a poner dos minutos más
01:35:33perdón
01:35:35porque esto es donde quiero que
01:35:37es lo que quiero que se lleven
01:35:39a lo largo de la historia
01:35:41el trabajo se vive en cuatro categorías
01:35:43el trabajo puede ser cognitivo
01:35:45o puede ser manual, y puede ser
01:35:47dinámico o puede ser rutinario, y se combina entre sí
01:35:49hasta los noventa
01:35:51todas las categorías del trabajo
01:35:53crecieron a la par
01:35:55mediados de los noventa, se empezaron a estancar
01:35:57la creación de trabajos rutinarios
01:35:59llega el COVID
01:36:01se cierran las empresas
01:36:03se apaga la economía, hay un parate mundial
01:36:05en todo
01:36:07ya pasamos la época del COVID
01:36:09se vuelve a abrir el mundo, la economía vuelve a crecer
01:36:11se vuelve a activar
01:36:13la única categoría
01:36:15de trabajo que volvió a crecer
01:36:17y que pasó sus picos anteriores
01:36:19fue la categoría del trabajo dinámico
01:36:21y cognitivo, por eso la importancia
01:36:23de aprender a aprender
01:36:25y no quedarnos con un skill
01:36:27que adquirimos hace muchos años
01:36:29y que pensamos que nos va a servir hasta el fin de los días
01:36:31no solo no va a ser así
01:36:33sino que las estadísticas nos lo muestran
01:36:35y en este sentido
01:36:37también entendamos
01:36:39que la AI así como puede ser utilizada
01:36:41muy para el bien, a veces también le podemos pifiar
01:36:43le podemos pifiar muy mal
01:36:45por ejemplo
01:36:47esto fue una foto que se viralizó en Twitter
01:36:49por cuentas falsas, diciendo que había
01:36:51habido una bomba en el Pentágono, que había un fuego en el Pentágono
01:36:53en 15 minutos
01:36:55en la bolsa de valores de Estados Unidos se borraron
01:36:57500 millones de dólares
01:36:59500 millones de dólares pueden decir, no importa, no es mi hita
01:37:01puede ser tu hita
01:37:03porque ahí había fondos que tenían
01:37:05inversiones de jubilaciones
01:37:07fondos de seguridad social
01:37:09o sea, toda esa hita sí importa
01:37:11y con un par de
01:37:13deepfakes, en este caso una foto
01:37:15pasó esto, después ese caso
01:37:17si nos podemos mostrar ahí, y voy a aprovechar que acá mencionaste la placa
01:37:19la EP32
01:37:21y que mencionaste la
01:37:23Arduino, dijiste que era, o Raspberry
01:37:25hace un par de años, este no soy yo
01:37:27pero con unos amigos hicimos exactamente lo mismo
01:37:29y armamos unos drones que le pusimos
01:37:31la orden, si ves a un humano, matalo
01:37:35exagerado claramente
01:37:37pero bueno, ahí lo pueden ver a este youtuber que me encanta
01:37:39que en realidad si lo piensan
01:37:41un drone, si no lo quieren
01:37:43lo pueden construir ustedes, en Amazon
01:37:45que es más barato que Mercado Libre
01:37:47pueden encontrar, tipo drones que se venden
01:37:49como juguetes para niños, para niñas
01:37:51que salen 15, 20 dólares, les pueden clavar
01:37:53arriba de eso una computadorita con un Arduino
01:37:55que miren lo chiquito que es, ponerle una camarita
01:37:57y cargarle un software que sea como
01:37:59che reconoceme si hay un humano
01:38:01y nosotros lo que hicimos con mi amigo fue exactamente esto
01:38:03lo pusimos, caminábamos en la habitación
01:38:05y cuando el drone detectaba que había un humano
01:38:07se levantaba y venía y nos chocaba
01:38:09y a todo esto nos chocaba
01:38:11pero le podías poner una carga, lo que sea
01:38:13no les quiero dar malas ideas, no lo hagan
01:38:17pero así como tenemos todo esto
01:38:19después también tenemos
01:38:21por ejemplo lamentablemente pasó
01:38:23en Mendoza hace
01:38:25el año pasado que un
01:38:27pibe de la secundaria
01:38:29armó un bot de Telegram
01:38:31lo conectó a una AI, que no me acuerdo exactamente
01:38:33si era Da Vinci, Michoni o alguna de estas otras abiertas
01:38:35y lo que hacía lamentablemente
01:38:37este pibe era
01:38:39comentó a sus compañeritos y le dijo
01:38:41che subí la foto de
01:38:43la persona que te gusta y la voy a desnudar por vos
01:38:45por un precio
01:38:47mentira, está todo generado con inteligencia artificial
01:38:49pero cometí a su punto y de golpe un montón
01:38:51de fotos inexistentes
01:38:53pero con caras de personas reales
01:38:55empezaron a pasar estas cosas
01:38:57entonces para terminar, lo que les quiero apuntar
01:38:59si tenemos empresarios en la sala
01:39:01es que la AI la podemos usar para un montón
01:39:03de cosas buenas, pero estas
01:39:05son las 10 empresas más valiosas del mundo
01:39:07todas tienen algo en común y no es ni que usan AI
01:39:09ni que contratan gente de Harvard
01:39:11ni que facturan X cantidad
01:39:13de billones de dólares al año, ni nada de eso
01:39:15sino es que todas estas empresas fueron todas hackeadas
01:39:17y una vez
01:39:19que te hackean la información
01:39:21sale de la caja de Pandora
01:39:23y es pública, le pertenece a quien se la descarga
01:39:25y en base a eso pueden hacer lo que quieran
01:39:27y en ese sentido
01:39:29contratan gente de ciberseguridad, un caso muy
01:39:31importante y con este cierro
01:39:33es que la empresa Peterson por ejemplo
01:39:35tiene una división que se encarga
01:39:37de evaluar cuáles son
01:39:39los perfiles que vos tenés en tus
01:39:41empresas y cómo la AI
01:39:43los va a afectar en los años venideros
01:39:45y por ejemplo en una empresa australiana
01:39:47lo que hicieron, que tenía un equipo contable muy grande
01:39:49el estudio
01:39:51terminó dando de que, che, mirá
01:39:53dentro de todos los contadores que vos tenés
01:39:55hay 50 que de acá a 3 años
01:39:57a 5 años creo que era, no los vas a necesitar
01:39:59y la solución
01:40:01de Peterson y de esta empresa
01:40:03no es, bueno los despedimos, genial
01:40:05menos plata o más plata para nosotros
01:40:07sino que fue, no, pará
01:40:09qué capacidades tienen estas personas
01:40:11para reubicarlas dentro de la misma empresa
01:40:13de acá a 5 años
01:40:15bueno, contador, maneja números
01:40:17maneja fórmulas, entiende lógica
01:40:19bueno, esta gente la vamos a reconvertir
01:40:21a reentrenar en estos años para que sean
01:40:23nuestros expertos de ciberseguridad de acá a 5 años
01:40:25y ya está pasando, esto empezó a pasar hace 2 años
01:40:27y ya un montón de contadores de esta parte
01:40:29se fueron de esa división
01:40:31y se vinieron para ese lado
01:40:33y en este sentido de la ciberseguridad
01:40:35lo que es fundamental
01:40:37y esta es la última filmina, así no me mata
01:40:39absolutamente nadie, este chabón es un héroe
01:40:41y nadie lo conoce
01:40:43este chabón en el año 79
01:40:45era un soldado
01:40:47soviético, estaba mirando
01:40:49los radares a las 12 de la noche
01:40:51mirando básicamente que no venga
01:40:53ninguna bomba, y vio
01:40:55que venía efectivamente
01:40:57el sistema le marcaba que venía un misil intercontinental
01:40:59de Estados Unidos
01:41:01¿contexto? Guerra Fría
01:41:03viene un misil de Estados Unidos, el chabón dice
01:41:05es raro, un misil de Estados Unidos, tanto bardo
01:41:07uno solo, no tiene sentido
01:41:09a los 5 minutos decía 5 misiles vienen para acá
01:41:11la orden de Stanislav
01:41:13era llamar a su superior
01:41:15y efectivamente responder
01:41:17estábamos hablando de guerra fría
01:41:19responder era aniquilación nuclear
01:41:21básicamente, Stanislav dijo
01:41:23es muy raro esto
01:41:25no lo voy a reportar a mis superiores
01:41:27¿qué pasó efectivamente?
01:41:29fue un dato
01:41:31fallido, un sensor
01:41:33que se quemó, y a Estados Unidos le pasó exactamente
01:41:35lo mismo, dos años después
01:41:37cuando un día un operador vio que venían
01:41:39no uno, no dos, no tres, no cuatro, no cinco
01:41:41sino 200 misiles
01:41:43de la Unión Soviética a Estados Unidos
01:41:45la respuesta tiene que ser como bueno, se iban a matar
01:41:47vamos, vamos todos juntos
01:41:49¿y qué pasó?
01:41:51ese operador de Estados Unidos tampoco contestó la llamada
01:41:53dijo esto no tiene ningún sentido
01:41:55entonces el factor humano importa mucho
01:41:57porque fíjense lo que podría haber
01:41:59causado eso
01:42:01y la falla fue un chip que actualizado por la inflación
01:42:03del año 82
01:42:0581, acá
01:42:07es un chip de 46 centavos de dólar
01:42:09que se quemó
01:42:11un chip de 46 centavos de dólar
01:42:13alteró todo el sistema y nos dio a entender que
01:42:15che vienen 200 misiles
01:42:17qué corno hacemos
01:42:19así que nada, súmense
01:42:21aprendan, edúquense
01:42:23súmense a estudiar
01:42:25a debatir, a pelearnos sobre esto
01:42:27porque vamos a reconstruir el contrato social
01:42:29y esta vez todos podemos participar
01:42:31de esto, muchas gracias
01:42:41ahora sí, muchísimas gracias a todos
01:42:43a todas por venir y bueno los esperamos
01:42:45en una próxima ocasión
01:42:47que tengan buen día

Recomendada