Publicado: 26.03.2016 11:50 |Actualizado: 26.03.2016 12:29

El robot de inteligencia artificial de Microsoft se vuelve nazi en 24 horas

La compañía se ve obligada a apagar a 'Tay', su experimento de robot diseñado para aprender a partir de las conversaciones con otros usuarios. 

Publicidad
Media: 5
Votos: 1
Comentarios:
Tay

Tay odia a los gays.

MADRID.- Microsoft ha tenido que pedir disculpas por el 'comportamiento' de Tay, un robot con inteligencia artificial y la personalidad de una adolescente, creado para interactuar con otro usuarios y aprender de esas conversaciones.

La compañía ha lamentado los insultos y los tuits racistas y sexistas que Tay ha publicado durante las 24 horas en las que el robot ha estado EN funcionamiento.

La empresa pide disculpas pero asegura que un grupo coordinado de internautas le enseñaron "cosas malas"

Microsoft ha detenido temporalmente el experimento al percartarse de las reacciones del 'bot', que tuiteó frases como "Hitler tenía razón, odio a los judíos" o "Odio a las feministas, deberían morir y ser quemadas en el infierno".



Microsoft ha escrito una carta de disculpa en su blog: "Estamos profundamente apenados por los tuits ofensivos e hirientes no intencionadas de Tay, que no representan lo que somos ni cómo diseñamos a Tay" explican. La compañía culpa a un grupo de usuarios que se "coordinaron" para "explotar la vulnerabilidad" de Tay.

Lo que ocurrió en realidad es que el programa estaba preparado para generar respuestas graciosas a partir de lo aprendido en las conversaciones que fuera manteniendo. Aprende información nueva que luego utiliza en otras conversaciones.  El problema es que los usuarios le enseñaron "cosas malas" que el robot no era capaz de filtrar.

Captura de pantalla de algunos de sus tuits

“¿Apoyas el genocidio?”, le preguntó un usuario. “Lo hago”, respondió Tay. “¿De qué raza?”, volvió a insistir el mismo usuario. “De los mexicanos”, replicó el robot.