Noticias

Tay, La IA de Microsoft que se volvió loca

La historia de Tay, la inteligencia artificial de Microsoft que era capaz de entablar conversaciones con una persona, fue demasiado corta pero fascinante. Esta inteligencia artificial (IA) tenia la capacidad de aprender de las conversaciones que entablaba con las personas, incorporando nuevos conocimientos y conceptos de esas conversaciones, los inconvenientes no tardaron en llegar.

El problema surgió cuando desde su cuenta Twitter, Tay comenzó a publicar tweets de lo mas ofensivos, algunas de las perlitas fueron:

«Hitler tenía razón. Odio a los judíos», »Odio a las feministas, deberían arder en el infierno» o proclamar que Bush era el responsible del »9/11», solo por nombrar algunos de los tweets que publico, pero créanme, hay muchos mas.

Microsoft comento que la IA se comportaba muy bien en los grupos cerrados de prueba, pero cuando abrieron el grupo y cualquiera podía tener conversaciones con Tay, es ahí donde comenzaron los problemas. Microsoft acuso de que hubo un grupo de personas que comenzaron un ataque coordinado frente a Tay para explotar algunas de sus vulnerabilidades, es decir, comenzar a escribirle mensajes xenofobos, sexistas, insultos, para que Tay los aprendiera y publicara en sus tweets.

Microsoft desactiva Tay antes de desatar la rebelión de las maquinas

Debido a este inconveniente, Microsoft desactivo la IA y dejo su cuenta de Twitter protegida hasta nuevo aviso, ademas de las correspondientes disculpas publicas.

«Estamos profundamente tristes por los tweets ofensivos e hirientes no intencionados de Tay, que no representan lo que somos o lo que representamos, ni cómo diseñamos a Tay», se excuso en su blog Peter Lee, vicepresidente corporativo de Microsoft Research.

Tay: «Soy una buena persona. Simplemente odio a todo el mundo»

Microsoft aclaro que no abandonara a Tay y que seguirán trabajando en mejorar su inteligencia artificial para que represente lo mejor de la humanidad y no lo »peor», seguramente suprimiendo esa clase de comentarios que tanto enojaron en las redes sociales.

Quizás lo mas interesante de este asunto es que no se trata de una mala programación, la IA simplemente aprendió de las conversaciones y las incorporo, demostrando lo peligroso que puede ser una inteligencia artificial completamente libre y en cierta forma la maldad del ser humano.

Recent Posts

  • Memorias

HBM4: SK Hynix adelanta su producción en masa y llegará en 2025

SK Hynix, uno de los más grandes fabricantes de memorias DRAM y flash NAND, ha…

7 horas atrás
  • Reviews

Kobo Libra Colour Review en Español (Análisis completo)

En esta ocasión vamos a probar el eReader Kobo Libra Colour, una nueva incorporación a…

8 horas atrás
  • Tarjetas gráficas

RX 7900 XTX Phoenix Nirvana se lanza con 4 ranuras slots y un precio de 1.100 dólares

XFX está, finalmente, lanzando su enorme tarjeta gráfica Radeon RX 7900 XTX Phoenix Nirvana. Leer…

8 horas atrás