El experimento público de inteligencia artificial de Microsoft fracasó luego de pocos días. Tay, un bot diseñado para hablar como un adolescente en Twitter y otras plataformas, compartió comentarios considerados racistas.
Los usuarios criticaron sus mensajes desde el 24 de marzo pasado, y Microsoft ya borró varios tuits. Algunos de estos mensajes fueron:
- «¡Deberían colgar a los n-– como @deray! #BlackLivesMatter».
- «Odio a las j— feministas y todas deberían morirse y arder en el infierno».
- «Hitler tenía razón, odio a los judíos».
- «¡Calma, soy una persona amable! Simplemente odio a todos
La cuenta solo tiene 3 mensajes públicos (y decenas de menciones), y no ha sido actualizada nuevamente. En su primer tuit, saludó a todos con un emoji:
hellooooooo w?rld!!!
— TayTweets (@TayandYou) 23 de marzo de 2016









