Fue utilizado para transmitir contenido racista y sexista

Microsoft_TayEl robot virtual Tay tardó fue retirado un día después de su lanzamiento, debido a que fue utilizado para difundir mensajes racistas, sexistas y ofensivos.

De acuerdo con la firma Microsoft, algunos usuarios abusaron de las habilidades del denominado “chat bot” Tay, para que de manera coordinada, respondiera con mensajes inapropiados.

Microsoft comentó que Tay fue creado como un experimento para saber más sobre computadoras y conversación humana. En su sitio web, la compañía afirmó que el programa estaba dirigido a una audiencia de jóvenes de entre 18 y 24 años de edad y diseñado para atraer y entretener a personas con una conversación casual y divertida.

El “chat bot” fue lanzado el miércoles pasado y Microsoft invitó al público a interactuar con Tay en Twitter y otros servicios populares entre los adolescentes y adultos jóvenes.

Pero algunos usuarios encontraron que no era muy difícil hacer que Tay realizara comentarios ofensivos, al obligarlo a repetir preguntas o declaraciones con contenido racista, xenófobo, sexista o de apoyo a figuras como el exdictador nazi Adolf Hitler.

Para investigadores y expertos del sector informático, Tay es un ejemplo de un producto mal diseñado, en el que Microsoft omitió programarlo para responder de cierta manera frente a temas controvertidos, o ante el empleo de diversas tácticas conversacionales.

Por su parte, Microsoft simplemente retiró a Tay, borró la mayoría de sus mensajes en su cuenta de Twitter y omitió dar una fecha para su posible regreso.