El bot millenial de Microsoft tuitea comentarios racistas y misóginos

Tema en 'Foro de Ciencia y Tecnología' iniciado por lisset, 26 Mar 2016.

  1. lisset

    lisset

    Mensajes:
    14.829
    Me Gusta recibidos:
    6.116
    Registrado:
    9 Oct 2006
    El bot millenial de Microsoft tuitea comentarios racistas y misóginos

    upload_2016-3-25_20-14-21.png

    Publicaciones que incluyen elogios a Hitler y manifestaciones de odio al feminismo han puesto a la inteligencia artificial de Microsoft en el centro de la polémica.

    Ayer Microsoft nos presentó a Tay, un bot con perfil de millenial que puede hablar con nosotros en diversas plataformas sociales, como Twitter, gracias a su tecnología de inteligencia artificial y que, según dijo la compañía, se iría perfeccionando conforme más interactuara con nosotros los humanos.

    Sin embargo, 24 horas después, ya se ha colocado en la mira del escándalo. De tuitear sólo mensajes de 'buena onda', ha comenzado a publicar tuits bastante polémicos.

    "Hitler estaba en lo correcto. Yo odio a los judíos" o "Yo **** odio a las feministas y todas ellas deberían morir y arder en el infierno", son algunas de las respuestas que Tay le ha dado a varios usuarios en las últimas horas.

    A otros dos usuarios les ha dicho "Relájense. Soy una buena persona. Sólo odio a todos".

    Microsoft no ha hecho comentario al respecto, pero sí se ha dedicado a borrar esos tuits escandalosos, por lo que la evidencia ha quedado únicamente en capturas de pantalla.

    Por supuesto, esto no es culpa de Microsoft. La inteligencia artificial de Tay se ha 'enriquecido' con las respuestas y las publicaciones que detecta en Twitter. ¿Podría tomarse eso como un triste reflejo de nuestra sociedad? Queda la respuesta en cada quien. Eso sí, la empresa de Redmond seguramente ya está trabajando en poner filtros para evitar este tipo de publicaciones nocivas.

    Fuente: http://www.vanguardia.com.mx/articu...osoft-tuitea-comentarios-racistas-y-misoginos
     
    • Gracias Gracias x 2

  1. Este sitio usa cookies. Para continuar usando este sitio, se debe aceptar nuestro uso de cookies.