Robots en Twitter: deficiencia artificial

Inteligencia Artificial

Hace apenas una semana, Microsoft lanzaba en Twitter a Tay, una adolescente virtual que aprendería y conversaría en la red bajo @TayandYou. Un ambicioso proyecto en el que un bot – o robot informático – debía ser capaz de interactuar como un humano más. Sin duda, suponía otra vuelta de tuerca sobre el avance de la inteligencia artificial y su cada vez mayor influencia. Al principio Tay no tuvo gran repercusión mediática, pero a las pocas horas, la noticia saltaba a la prensa generalista comunicando que “Tay se había vuelto racista” al escribir varios comentarios xenófos. El debate estaba servido.

Todo comenzó con la apertura del perfil el pasado 23 de marzo. Como no podría ser de otro modo, el hecho despertó un gran interés entre los usuarios, llevando a Tay a una popular y triunfal entrada en Twitter. Al cabo de unos minutos, miles de usuarios preguntaban, mencionaban,… y es que por primera vez, cualquiera podía hablar con una máquina “de tú a tú”. Entre las muchas conversaciones, centradas en adolescentes de 18 a 24 años, también se generó un considerable número de comentarios adversos, protagonizando un ataque o “troleo” indiscriminado: los usuarios escépticos querían poner a prueba el sistema, ver si era posible engañar a Tay e incluso enseñarle conductas inadecuadas. Al final el hombre ganó a la máquina, y el robot acabó tuiteando sobre racismo, clasismo o sexismo entre otros varios temas polémicos, dando mensajes y declaraciones claramente incómodas para Microsoft, que al final es quien debe asumir la responsabilidad de las declaraciones. La multinacional ha tenido que pedir disculpas públicamente, y la noticia a generado todavía más eco que el propio lanzamiento del perfil.

Sigue leyendo