Microsoft se disculpa por el comportamiento y los comentarios de su robot en Twitter

Como si de una adolescente se tratara, Tay es un programa de inteligencia artificial, creado por Microsoft para establecer una conversación «casual y juguetona» con usuarios entre 18 y 24 años de edad.

Estando programada para responder de manera inteligente, su objetivo era ser capaz de aprender de los mensajes de los propios usuarios, lo que le llevó a convertirse en racista, sexista, homófoba y antisemita, siendo desconectada en menos de 24 horas.

Lo que comenzaba tratando de ser un espejo de la sociedad, ha terminado por mostrar un reflejo bastante desagradable, por lo que Microsoft no ha tardado en disculparse, cancelando momentáneamente la actividad de su cuenta.

Sentimos profundamente los ofensivos e hirientes tuits de Tay, que no representan quienes somos o lo que representamos, ni como diseñamos a Tay», publica en un blog Peter Lee, vicepresidente corporativo de Microsoft Research.

La compañía volverá a lanzar a su robot online una vez esté segura de que pueda anticiparse mejor a las intenciones maliciosas de algunos usuarios.

Un ataque coordinado por un grupo de personas a puesto en evidencia la vulnerabilidad de Tay. Aunque estábamos preparados para muchos tipos de abusos del sistema, habíamos subestimado este tipo de ataques», explica en su comunicado, sin dar más detalles.

El miércoles, 23 de marzo, era el día escogido por Microsoft para lanzar su programa en Twitter y otras plataformas de mensajería. Además de aprender a repetir los comentarios de los usuarios y generar sus propias respuestas y declaraciones en base a todas sus interacciones, también tenía que emular la manera de hablar de una conversación informal, pero algunos usuarios trataron de comprobar hasta donde podrían llevar a Tay.

Los tuits más desagradables fueron rápidamente eliminados, quedando Tay fuera de línea en alguna ocasión por las dificultades para absorber toda la información.

Mientras unos usuarios han llegado a pensar que Microsoft había bloqueado a determinados usuarios para que no pudieran interactuar con Tay, otros se preguntan los motivos por los que la empresa no programó filtros para prevenir a su programa de los temas más comprometidos.

No puedo creer que lo vieran venir», declara el doctor Kris Hammond, diseñador informático de la Universidad de Northwesten, que señala que Microsoft no parece haber realizado ningún esfuerzo en preparar su programa con respuestas apropiadas.

En la misma línea, Caroline Sinders, experta en «análisis de conversación», señala que es un claro «ejemplo de mal diseño». Algunos usuarios señalan que no parecia estar programada para aprender, sino para repetir todo lo que le decían.




Deja una respuesta

Tu dirección de correo electrónico no será publicada.

WordPress Lightbox Plugin
Ir a la barra de herramientas