Microsoft crea un bot con Inteligencia Artificial y se vuelve racista y nazi en cuestión de horas

6912_microsoft_crea_un_bot_de_inteligencia_artificial_y_se_vuelve_racista_y_nazi_en_cuestion_de_horas (1).jpg

El pasado miércoles, Microsoft presentó al mundo a Tay, un bot experimento que pretendía imitar el comportamiento en redes sociales de una chica de 19 años. Tay iba aprendiendo a medida que iba interactuando en Internet. Y como siempre que pones a Internet de por medio, los resultados son de lo más inesperado, ya que la buena fe de Microsoft no hizo que Tay pudiera evitar aprender comportamientos inapropiados.

El bot tuvo un inicio de lo más tímido y normal, intentando conocer a personas y hablar con ellos vía plataformas como Twitter, Kik o Groupme. Pero rápidamente se les fue de las manos y terminó soltando toda clase de insultos racistas, negando el Holocausto, dando apoyo al genocidio y posteando estados controvertidos al azar.

A las pocas horas de su inicio, Microsoft desactivó a Tay.

Fuente y leer más: Urbanian

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s