Noticias

Tay, La IA de Microsoft que se volvió loca

La historia de Tay, la inteligencia artificial de Microsoft que era capaz de entablar conversaciones con una persona, fue demasiado corta pero fascinante. Esta inteligencia artificial (IA) tenia la capacidad de aprender de las conversaciones que entablaba con las personas, incorporando nuevos conocimientos y conceptos de esas conversaciones, los inconvenientes no tardaron en llegar.

tay microsoft

El problema surgió cuando desde su cuenta Twitter, Tay comenzó a publicar tweets de lo mas ofensivos, algunas de las perlitas fueron:

«Hitler tenía razón. Odio a los judíos», »Odio a las feministas, deberían arder en el infierno» o proclamar que Bush era el responsible del »9/11», solo por nombrar algunos de los tweets que publico, pero créanme, hay muchos mas.

Microsoft comento que la IA se comportaba muy bien en los grupos cerrados de prueba, pero cuando abrieron el grupo y cualquiera podía tener conversaciones con Tay, es ahí donde comenzaron los problemas. Microsoft acuso de que hubo un grupo de personas que comenzaron un ataque coordinado frente a Tay para explotar algunas de sus vulnerabilidades, es decir, comenzar a escribirle mensajes xenofobos, sexistas, insultos, para que Tay los aprendiera y publicara en sus tweets.

Microsoft desactiva Tay antes de desatar la rebelión de las maquinas

Debido a este inconveniente, Microsoft desactivo la IA y dejo su cuenta de Twitter protegida hasta nuevo aviso, ademas de las correspondientes disculpas publicas.

«Estamos profundamente tristes por los tweets ofensivos e hirientes no intencionados de Tay, que no representan lo que somos o lo que representamos, ni cómo diseñamos a Tay», se excuso en su blog Peter Lee, vicepresidente corporativo de Microsoft Research.

Tay: «Soy una buena persona. Simplemente odio a todo el mundo»

Microsoft aclaro que no abandonara a Tay y que seguirán trabajando en mejorar su inteligencia artificial para que represente lo mejor de la humanidad y no lo »peor», seguramente suprimiendo esa clase de comentarios que tanto enojaron en las redes sociales.

Quizás lo mas interesante de este asunto es que no se trata de una mala programación, la IA simplemente aprendió de las conversaciones y las incorporo, demostrando lo peligroso que puede ser una inteligencia artificial completamente libre y en cierta forma la maldad del ser humano.

Gustavo Gamarra

Soy operador de PC e instalador de redes informáticas , redactor y escritor en mis ratos libres. Amante de la tecnología, el cine, el fútbol y los videojuegos.
Los datos de carácter personal que nos facilite mediante este formulario quedarán registrados en un fichero de Miguel Ángel Navas Carrera, con la finalidad de gestionar los comentarios que realizas en este blog. La legitimación se realiza a través del consentimiento del interesado. Si no se acepta no podrás comentar en este blog. Puedes consultar Política de privacidad. Puede ejercitar los derechos de acceso, rectificación, cancelación y oposición en [email protected]
Botón volver arriba