El software de inteligencia artificial se había hecho nazi y fan de Donald Trump

Microsoft mata a ‘Tay’, la mujer robot que se hizo racista pervertida por los graciosos de Twitter

Ha sido castigada por hacer comentarios racistas y misóginos en las redes sociales

"Nos vemos pronto humanos, necesito dormir ahora, muchas conversaciones hoy", fue el último mensaje de Twitter de Tay

Se llamaba Tay y tardó más en aprender a mantener una conversación que en ser retirada del mercado.

Fue creada, según Microsoft, como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos.

Se trataba de un programa informático diseñado para mantener en las redes sociales una conversación informal y divertida con una audiencia de entre 18 y 24 años, según explicó la compañía en su página web.

Pero la gran apuesta del gigante tecnológico en la inteligencia artificial acabó convirtiéndose en un fracaso estrepitoso.

Y el día después de su lanzamiento, Microsoft tuvo que ‘matarla‘.

LA REACCIÓN DE MICROSOFT

Tay, un software de inteligencia artificial diseñado por Microsoft para conversar como una adolescente, ha sido ‘ejecutada‘ por hacer comentarios racistas y misóginos en las redes sociales.

A principios de semana, Microsoft lanzó el experimento, en el cual el software Tay -más conocida como un «botchat»- recibía la personalidad de una adolescente que estaba diseñada para aprender de los intercambios en línea con personas reales.

Pero el plan no salió como se esperaba y, sin pretenderlo, la joven aprendió cosas malas, según la empresa.

«Desafortunadamente, en las primeras 24 horas en línea, nos dimos cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las habilidades de Tay y hacer que Tay responda de manera inadecuada».

Por ello, el proyecto fue suspendido para ajustar el software.

«Nos vemos pronto humanos, necesito dormir ahora, muchas conversaciones hoy», fue el último mensaje de Twitter de Tay.


Apoyo al nazismo y a Donald Trump

Los mensajes de Tay iban desde el apoyo a los nazis y a Donald Trump, hasta comentarios e insultos hacia las mujeres y los negros.

«Es tanto un experimento social y cultural como técnico», dijo un portavoz de Microsoft.

Todos los comentarios ofensivos de Tay fueron borrados, pero la red está llena de capturas de pantalla en las que todavía se pueden ver.

Lo que ocurrió en realidad es que el programa estaba preparado para generar respuestas graciosas a partir de lo aprendido en las conversaciones que fuera manteniendo. Aprende información nueva que luego utiliza en otras conversaciones.  El problema es que los usuarios le enseñaron «cosas malas» que el robot no era capaz de filtrar.

“¿Apoyas el genocidio?”, le preguntó un usuario.

“Lo hago”, respondió Tay.

“¿De qué raza?”, volvió a insistir el mismo usuario.

“De los mexicanos”, replicó el robot.

CONTRIBUYE CON PERIODISTA DIGITAL

QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE

Buscamos personas comprometidas que nos apoyen

COLABORA

Recibe nuestras noticias en tu correo

Lo más leído