web analytics
Mar 25, 2016
670 Views
0 0

Inteligencia Artificial de Microsoft se vuelve racista

Written by

Microsoft retiró su sistema de inteligencia artificial, llamada Tay, de Twitter porque en su interacción con seres humanos se mostró racista, sexista y xenófoba.

Se tarta de un chatbot (un sistema virtual capaz de generar conversaciones que simulan el lenguaje humano) que fue desarrollado con el fin de contestar dudas en la red social y acercarse a los millenials en los Estados Unidos, pero fue todo un fracaso.

Con sólo unas horas en funcionamiento, Tay dejó mucho que desear y hasta se volvió loca al apoyar el Genocidio y llamar “puta estúpida” a una mujer.

Por si fuera poco, hasta se mostraba en favor de Donald Trump y del muro fronterizo con México. Lo bueno es que se supone que son bien inteligentes…

GIFs via GIPHY

Los comentarios fueron borrados del timeline de Tay, pero se pueden consultar en una página que hizo una copia.

Por su parte, Microsoft sólo dijo que le estaban haciendo algunos ajustes, pero suponemos que quedó muerta para siempre al ser más mala que la Reina Roja de ‘Resident Evil’.

Con información de El País.

(Visited 234 times, 1 visits today)
Article Tags:
· · ·
Article Categories:
lo geek
Menu Title