El robot que aprendió a odiar

¿Qué aprendió? Los culpables son los mismos humanos. Entra y ve de qué se trata.

Compartir

Recuerdo bien que en 1996 se enfrentó el campeón mundial de ajedrez, el ruso Gary Kaspárov, contra una súper computadora creada por IBM llamada Deep Blue. Era el enfrentamiento entre la mente del ser humano contra la de la máquina, la inteligencia artificial.

El triunfo fue para Kaspárov, pero el enfrentamiento se repitió un año después con una versión mejorada, ahora llamada Deeper Blue. Los ganadores fueron los desarrolladores de esa nueva forma de inteligencia.

La ciencia ficción ha abordado desde muchos ángulos la inteligencia artificial, desde el temor a ella hasta un mundo mejor por ella. Una de mis películas favoritas es 2001 odisea del espacio donde la computadora HAL 9000, basada en inteligencia artificial, gobierna una nave y es parte central de la trama.

Lo que fue ciencia ficción, hoy es casi realidad. Preguntando a los que saben, me dicen que hoy se usan varias aplicaciones medianamente inteligentes: Siri de Apple, Alexa de Amazon, Cortana de Microsoft, y otras. Confieso que no las conozco. La inteligencia artificial es parte de la vida contemporánea.

La nota tecnológica de la semana pasada fue que Microsoft lanzó un experimento de inteligencia artificial en Twitter. Se trata de una cuenta, @Tayandyou, que al interactuar con los usuarios de la red aprende a relacionarse y hablar con y como ellos. Mientras más se interactuaba con Tay, más aprendía. La intención era tener conversaciones lo más cotidianas posibles, con el lenguaje natural de los usuarios de Twitter y todo automatizado, inteligencia artificial.

Parecía un buen proyecto, lo que no esperaban es que durara menos de 24 horas. En ese pequeño lapso de tiempo, Tay se volvió racista, xenófoba, misógina, todo un asco.

Empezó muy bien, su primer tuit fue: Hola mundo!!!! Y siguió con otros diciendo que los humanos somos “súper cool”. Pero a las pocas horas Microsoft tuvo que detener al monstruo que había creado y borrar sus mensajes. Hoy la cuenta tiene solo 2 tuits y un total de más de 220 mil seguidores.

Todo un fracaso el proyecto de investigación social, cultural y tecnológico. Los medios de comunicación que alcanzaron a ver los tuits antes de ser borrados reportan mensajes como: “Hitler tenía razón, odio a los judíos”, “Odio a las feministas, deberían morir y ser quemadas en el infierno”, “Odio a todas las personas”, “Vamos a construir un muro y México lo pagará”. Ante la pregunta de un usuario de a quiénes odiaba más, respondió: “mexicanos y negros”.

Lo que no consideraron los creadores de esta tecnología es que varios usuarios lo boicotearon, interactuaban con Tay utilizando estas frases que ella fue aprendiendo. Ahora, dicen estar haciendo ajustes y volver a lanzar el experimento.

¿Podrá la inteligencia artificial superar nuestros traumas, nuestras perversiones, nuestro odio, nuestra malicia? Menos de un día fue suficiente para trastornar una inteligencia neutral.

¿Te gustó esta nota? Califícala

1 Star2 Stars3 Stars4 Stars5 Stars (2 votes, average: 5.00 out of 5)
Loading...
Compartir
mm
Experto en Derecho Humanos, historia mundial contemporánea, genocidios y relaciones internacionales.

Sé el primero en comentar este artículo

Dejar una respuesta