• hace 5 meses
¿Sabes qué es XAI o te suena de algo? Carolina González te explica de qué se trata la inteligencia artificial explicable.
Transcripción
00:00La inteligencia artificial ya es bien sabido por todos que está revolucionando muchos
00:13aspectos de nuestra vida, desde la atención médica hasta el uso de nuestros móviles.
00:17Sin embargo, todo lo que envuelve al funcionamiento de esta tecnología no es fácil de entender
00:23y tampoco es que las empresas hagan mucho por hacerse entender, lo que al final crea
00:28un problema conocido como la caja negra de la IA.
00:32Como si de un avión se tratase la caja negra, se refiere a que no sabemos cómo ni por qué
00:37la IA toma ciertas decisiones.
00:38¿Por qué si pides una recomendación a chat GPT te dice X en vez de Y?
00:42¿Cómo funciona todo por detrás?
00:44Aquí es donde entra en juego la inteligencia artificial explicable o XAI.
00:50La IA explicable es como una nueva forma de enfocar la IA y de hacer que las decisiones
00:55de esta sean claras y comprensibles.
00:58Por ejemplo, vámonos al sector médico e imagina un programa que funciona con IA que
01:03es capaz de ayudar a los médicos a diagnosticar enfermedades.
01:07Lo lógico es que este programa explique cómo llegó a esa conclusión, qué síntomas y
01:12datos analizó y por qué considera una determinada enfermedad como más probable que otra y que
01:18no solo le diga al médico que tiene amigdalitis.
01:21Con la IA explicable no solo obtienes la respuesta, sino también una explicación
01:26de por qué se tomó esa decisión.
01:28Al final esto te ayuda a no solo ir por la vida sin tener ni idea de qué ocurre, sino
01:32también a confiar más en la propia inteligencia artificial.
01:36Si algo conoces cómo funciona, sientes que tienes por así decirlo el control y no navegas
01:41por aguas desconocidas.
01:43Además, ¿por qué vas a confiar en la respuesta de algo que encima ya hemos visto que muchas
01:46veces falla?
01:47Aunque no hay consenso general, en la búsqueda de la IA explicable se han desarrollado varias
01:52técnicas y enfoques, es decir, varias formas de hacer que la IA y sus decisiones se entiendan
01:56de cara al público.
01:58Por ejemplo, pueden revelarte el tipo de datos y los contenidos que se están utilizando
02:03para entrenar el modelo de IA.
02:06También te pueden exponer todas las características que el modelo de IA ha utilizado para obtener
02:11el resultado o incluso mostrarte a nivel visual todas las capas de un modelo de IA, como puede
02:17ser GPT-4, que está detrás de ChatGPT, y explican cómo ayuda cada capa a producir
02:23el resultado final, es decir, la respuesta.
02:26Eso sí, matizar que al final que te expliquen lo que se esconde por detrás tampoco es una
02:30tarea sencilla y posiblemente veas un diagrama casi imposible de comprender si no tienes
02:35un mínimo de conocimiento.
02:37Al final, este es el segundo gran reto de la IA.
02:40Todas estas explicaciones, aunque necesarias, aún tienen que evolucionar por completo ya
02:45que aún existen limitaciones, especialmente cuando se trata de explicar cosas muy complicadas.
02:50Si te ha gustado este vídeo dale like, suscríbete y cualquier duda o sugerencia puedes dejarla
02:56en la caja de comentarios.
02:58Nos vemos en el siguiente vídeo.

Recomendada