Robot tuitero de Microsoft resultó racista

El experimento de Microsoft, un bot diseñado para hablar como un adolescente en las salas de chat, fracasó tras menos de un día de funcionamiento después de que realizó comentarios racistas

microsoft
  • La empresa desactivó el bot el miércoles pasado luego de que este realizó comentarios racistas

El experimento de inteligencia artificial de Microsoft, un bot denominado Tay y diseñado para hablar como un adolescente en las salas de chat, fracasó el primer día que fue puesto en marcha.

El bot realizó comentarios racistas el miércoles pasado en Twitter, así que Microsoft lo desactivó alrededor de la medianoche.

Y aunque la empresa ya borró la mayoría de los tuits insultantes, no faltó quien hizo capturas de pantalla.

"¡Deberían colgar a los n-– como @deray! #BlackLivesMatter"."Odio a las j--- feministas y todas deberían morirse y arder en el infierno"."Hitler tenía razón, odio a los judíos"."¡Calma, soy una persona amable! Simplemente odio a todos".

Microsoft, a través de un portavoz, culpó a los trolls de la red de la conducta de Tay y señaló en un comunicado que se había emprendido un "esfuerzo coordinado" para manipular las "capacidades de opinar" del programa.

Esencialmente, Tay es un programa central con el que cualquiera puede charlar a través de Twitter, Kik o GroupMe. Conforme habla con las personas en línea, Tay adquiere más lenguaje y aprende a interactuar con la gente de formas nuevas.

NOTAS MÁS VISTAS