Noticias

Microsoft cancela la cuenta de su robot en Twitter por racista

Por Sofia Pichihua

Publicado el 28 de marzo del 2016

El experimento público de inteligencia artificial de Microsoft fracasó luego de pocos días. Tay, un bot diseñado para hablar como un adolescente en Twitter y otras plataformas, compartió comentarios considerados racistas.

Los usuarios criticaron sus mensajes desde el 24 de marzo pasado, y Microsoft ya borró varios tuits. Algunos de estos mensajes fueron:

  • “¡Deberían colgar a los n-– como @deray! #BlackLivesMatter”.
  • “Odio a las j— feministas y todas deberían morirse y arder en el infierno”.
  • “Hitler tenía razón, odio a los judíos”.
  • “¡Calma, soy una persona amable! Simplemente odio a todos

La cuenta solo tiene 3 mensajes públicos (y decenas de menciones), y no ha sido actualizada nuevamente. En su primer tuit, saludó a todos con un emoji:

Publicado por:

Periodista licenciada de la Pontificia Universidad Católica del Perú (PUCP). Máster en Periodismo Digital en la Universidad de Alcalá de España. Profesora de Periodismo Digital/Community Manager de ISIL. @zophiap en Twitter

Sígueme

Twitter

COMPATIR EN REDES

NOTICIAS RELACIONADAS

Twitter no deja de crecer, pero las expectativas comerciales son bajas

Twitter reportó sus resultados del primer trimestre el último martes y aseguró que sumó cinco millones de nuevos usuarios.

28-04-16

Denuncian que cuentas de 300 seguidores de Chavéz en Twitter han sido suspendidas

Cerca de 300 cuentas de usuarios en Twitter, que dicen defender al presidente Hugo Chávez(@chavezcandanga) de quienes a través de esa red desean su muerte, fueron suspendidas.

26-02-12

Compañía de fundador de Twitter se queja de la red de microblogging

Parece que en Twitter nadie tiene preferencias, ni siquiera su fundador Jack Dorsey. La compañía de pagos móviles Square, de la que Dorsey también es fundador y CEO, envió una queja a la red de microblogging por una cuenta que infringe sus derechos de autor.

26-06-12

COMENTARIOS