TAY | A Face da Internet
Somos bons ou maus?
A Microsoft desenvolveu uma ROBÔ, a TAY, que tinha como objetivo interagir com jovens pelas redes sociais por meio de INTELIGÊNCIA ARTIFICIAL. Com as conversas, o sistema de resposta automática aprendia e se tornava cada vez mais inteligente e eficiente.
Ótima ideia, não? Será?
Ou algo poderia dar errado?
Será que a Microsoft está criando uma HAL 9000 que dominará o mundo?
O caso da TAY ilustra muito bem a LEI DE GODWIN, que diz que “Quanto mais tempo DURA uma discussão online, a probabilidade de uma comparação envolvendo Nazistas ou Hitler é quase total.”
Fontes:
http://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist
https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter
https://www.theguardian.com/technology/2016/mar/30/microsoft-racist-sexist-chatbot-twitter-drugs
https://en.wikipedia.org/wiki/Godwin%27s_law
Somos bons ou maus?
A Microsoft desenvolveu uma ROBÔ, a TAY, que tinha como objetivo interagir com jovens pelas redes sociais por meio de INTELIGÊNCIA ARTIFICIAL. Com as conversas, o sistema de resposta automática aprendia e se tornava cada vez mais inteligente e eficiente.
Ótima ideia, não? Será?
Ou algo poderia dar errado?
Será que a Microsoft está criando uma HAL 9000 que dominará o mundo?
O caso da TAY ilustra muito bem a LEI DE GODWIN, que diz que “Quanto mais tempo DURA uma discussão online, a probabilidade de uma comparação envolvendo Nazistas ou Hitler é quase total.”
Fontes:
http://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist
https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter
https://www.theguardian.com/technology/2016/mar/30/microsoft-racist-sexist-chatbot-twitter-drugs
https://en.wikipedia.org/wiki/Godwin%27s_law
Category
🛠️
Lifestyle