cash

Domingo, 3 de abril de 2016

SUMA CERO

tecno

“Hitler no hizo nada malo” fue uno de los mensajes de la inteligencia artificial de Microsoft, llamada Tay. En menos de 24 horas, pasó de decir que los humanos eran “súper guay” a odiarlos a todos. Tay es un programa informático diseñado para mantener una conversación “casual y fluida” con jóvenes de entre 18 y 24 años. Es una inteligencia artificial adolescente, que aprende a medida que habla con los humanos. Sin embargo, el experimento de Microsoft no funcionó demasiado bien. A medida que Tay interactuaba con personas, se volvía cada vez más xenófoba, malhablada y sexista. Se hizo simpatizante de Hitler y acabó deseándole a muchos que acaben en un campo de concentración. En uno de sus tuits dijo que esperaba que las feministas “ardiesen en el infierno”, pese a haberlas defendido al principio. “Hitler tenía razón. Odio a los judíos”, dijo en otro post. Microsoft se vio obligado a borrar todos los mensajes ofensivos, pedir disculpas y desactivarla. “Estamos profundamente tristes por los tuits ofensivos e hirientes no intencionados de Tay, que no representan lo que somos o lo que representamos, ni cómo diseñamos a Tay”, explicó en su blog Peter Lee, vicepresidente corporativo de Microsoft Research.

Compartir: 

Twitter

 
CASH
 indice

Logo de Página/12

© 2000-2022 www.pagina12.com.ar | República Argentina | Política de privacidad | Todos los Derechos Reservados

Sitio desarrollado con software libre GNU/Linux.