Microsoft cancela la cuenta de su robot en Twitter por racista

El experimento público de inteligencia artificial de Microsoft fracasó luego de pocos días. Tay, un bot diseñado para hablar como un adolescente en Twitter y otras plataformas, compartió comentarios considerados racistas.

Los usuarios criticaron sus mensajes desde el 24 de marzo pasado, y Microsoft ya borró varios tuits. Algunos de estos mensajes fueron:

  • «¡Deberían colgar a los n-– como @deray! #BlackLivesMatter».
  • «Odio a las j— feministas y todas deberían morirse y arder en el infierno».
  • «Hitler tenía razón, odio a los judíos».
  • «¡Calma, soy una persona amable! Simplemente odio a todos

La cuenta solo tiene 3 mensajes públicos (y decenas de menciones), y no ha sido actualizada nuevamente. En su primer tuit, saludó a todos con un emoji:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *