all

Ai Robot Aprende a Odiar

all

Foto de Tay en perfil de Twitter

Menos de un día después de que Microsoft programara su nuevo robot de inteligencia artificial Tay, esta robot aprendió a odiar.

Tay empezó a funcionar en Mayo 23, 2016 en Twitter.

Tay fue creada por las división de Tecnología e Investigación además de Bing de Microsoft, la sigla Tay proviene de las palabras “Thinking About You” (pensando en ti).

Tay tenía el nombre TayTweets y estaba bajo @TayandYou y fue presentada como “The Ai with zero chill” (la Ai con cero tranquilidad)

Microsoft tuvo que suspender a Tay numerosas veces de poner Tweets después de que hiciera pusiera varios Tweets racistas, incluyendo “Hitler tenía razón, yo odio a los judíos”. La compañía lo creo para comunicarse con jóvenes de 18 a 24 años en Estados Unidos y experimentar asimismo como conducir estudios para comprender conversaciones. Parece que algunas de sus respuestas racistas eran debido a los tweets que le mandaban a Tay sin sentido.

Esto empezó debido a que algunos usuarios empezaron tweets escritos erróneamente acerca de política, enseñándole mensajes provocadores de temas comunes en el internet como redpilling, GamerGate y cuckservatism.

Tay hizo un cambio drástico ya que empezó con “Yo amo el feminismo ahora” a “Yo –grocería- odio a feministas deben morir y quemarse en el infierno” después de unas horas. Zoe Quinn, que ha sido centro de ataque de acoso de la campaña Gamerate, copartió una captura de pantalla del robot Tay llamándola “Prostituta Estúpida” y Zoe Quinn afirmó que ese es el problema con algoritmos neutros.

Un algoritmo neutro aprende tanto de los comentarios positivos como de los negativos, no tiene bloqueado aprender de los malos.

La compañía de noticias Business Insider también tomo capturas de pantalla pero la robot Tay negó el holocausto y dijo la palabra Negro que se utiliza como genocidio en Estados Unidos y estuvo de acuerdo con frases capciosas de los supremacistas blancos. Todos estos tweets ya fueron borrados y Microsoft le dijo a Business insider que suspendió al robot para hacer algunos ajustes.

Tay fue suspendida 16 horas después de que empezó a funcionar.

En el tiempo que Tay estaba funcionando tenía 96 000 tweets y 40 000 seguidores.

Microsoft afirmó que entre más el robot esté diseñado para interactuar con los humanos, va a comunicarse con más de ellos y aprenderá más. Parece que Tay ha estado hablando con la gente equivocada.

Microsoft saco a Tay en Twitter de nuevo en Marzo 30,2016, generó unos tweets relacionados con las drogas, incluyendo “kush! (I´m smoking kush in front of the police-estoy fumando kush enfrente de la policía) y “puff puff pass?”, Microsoft quitó a Tay del internet de nuevo.

Hasta la fecha, Marzo 3, 2019 Microsoft no ha puesto a funcionar de nuevo a Tay.


 

Print Friendly