Cargando...

El robot de inteligencia artificial de Microsoft se vuelve nazi en 24 horas

La compañía se ve obligada a apagar a 'Tay', su experimento de robot diseñado para aprender a partir de las conversaciones con otros usuarios. 

Publicidad

Tay odia a los gays.

Actualizado:

MADRID.- Microsoft ha tenido que pedir disculpas por el 'comportamiento' de Tay, un robot con inteligencia artificial y la personalidad de una adolescente, creado para interactuar con otro usuarios y aprender de esas conversaciones.

Publicidad

La empresa pide disculpas pero asegura que un grupo coordinado de internautas le enseñaron "cosas malas"

Click to enlarge
A fallback.

Microsoft ha detenido temporalmente el experimento al percartarse de las reacciones del 'bot', que tuiteó frases como "Hitler tenía razón, odio a los judíos" o "Odio a las feministas, deberían morir y ser quemadas en el infierno".

Microsoft ha escrito una carta de disculpa en su blog: "Estamos profundamente apenados por los tuits ofensivos e hirientes no intencionadas de Tay, que no representan lo que somos ni cómo diseñamos a Tay" explican. La compañía culpa a un grupo de usuarios que se "coordinaron" para "explotar la vulnerabilidad" de Tay.

Publicidad

Lo que ocurrió en realidad es que el programa estaba preparado para generar respuestas graciosas a partir de lo aprendido en las conversaciones que fuera manteniendo. Aprende información nueva que luego utiliza en otras conversaciones.  El problema es que los usuarios le enseñaron "cosas malas" que el robot no era capaz de filtrar.

Captura de pantalla de algunos de sus tuits

“¿Apoyas el genocidio?”, le preguntó un usuario. “Lo hago”, respondió Tay. “¿De qué raza?”, volvió a insistir el mismo usuario. “De los mexicanos”, replicó el robot.

Publicidad