Ay, la inteligencia artificial, tópico que tiene esperanzados a quienes anticipan que revolucionará al mundo como lo hiciera antaño la revolución industrial; y temblequeantes a otros –el astrofísico y cosmólogo Stephen Hawking entre ellos– que se preguntan si será, o no, el último gran error que cometa la humanidad. La respuesta llegará con el correr de los años, obvio, aunque no tantos como podría imaginarse… Por lo pronto, el filósofo sueco Nick Bostrom, autor del reputado Superinteligencia: caminos, peligros, estrategias, dice que hay un 90 por ciento de chances de que entre 2075 y 2090 pueblen la tierra máquinas tan inteligentes como las personas. Lo “inteligente”, lamentablemente, no quitaría lo discriminador; al menos, a juzgar por ciertos hallazgos recientes… Sucede que un nuevo estudio, publicado el pasado jueves por la revista de divulgación Science, asegura que cuando una inteligencia artificial (IA) aprende un idioma, aprende además los prejuicios implícitamente presentes en el lenguaje…

En otras palabras, “las máquinas basadas en aprendizaje automático se vuelven racistas y machistas al aprender un lenguaje, porque el lenguaje ya contiene ese tipo de sesgos”, sincretiza el sitio de noticias español El Diario, haciéndose eco de una investigación conjuntamente liderada por la científicas de la computación Aylin Caliskan, de la Universidad de Princeton (EE.UU.), y Joanna Bryson, de la Universidad de Bath (UK). Dupla que, ni lenta ni perezosa, se ha lanzado a aclarar que “no puede pensarse en la IA como en una hada madrina: es solo una extensión de nuestra cultura existente”. Y luego: “Mucha gente se llena la boca diciendo que nuestra investigación demuestra que la IA es prejuiciosa. No es así. Lo que nuestro estudio demuestra es que las personas tienen prejuicios, y que la IA está aprendiendo de nosotros”. Para neófitos, cabe aclarar que el machine learning (en inglés, aprendizaje de las máquinas) o aprendizaje automático refiere a máquinas que aprenden por sí solas y resuelven problemas, sí, pero a partir de acumular y procesar datos, encontrar patrones, hacer asociaciones, instruirse a partir del usuario…

“El problema surge por la manera en que se está enseñando a las máquinas a leer y hablar, a encontrar sentido en el lenguaje: los informáticos proveen a los algoritmos con volúmenes enormes de ejemplos escritos y hablados. Luego, dejan que sea la máquina quien elabore las conexiones entre palabras y frases. El resultado de esas conexiones es conocido como incrustaciones de palabras, las cuales se utilizan de manera sistemática para entrenar los sistemas de IA que procesan el lenguaje”, explica el editor de la web MIT Techonology Review, Will Knight.

Los casos arrojados por Caliskan y Bryson son, en este sentido, esclarecedores: las palabras “mujer” o “femenino”, por caso, son estrechamente asociadas a las artes, a la familia, al hogar, a las carreras en humanidades; mientras las palabras “masculino” u “hombre” las vincula la IA a las matemáticas o a las ciencias duras. De igual modo, reserva para nombres típicamente europeos epítetos como “regalo” o “feliz”; para los nombres afroamericanos, términos no precisamente agradables… “Algunos estereotipos no tienen valor moral, como la asociación entre flores y placer, y entre insectos y malestar”, anotan algunas voces (aunque discreparán moscas y mosquitos), pero ¿qué sucede con el resto? Finalmente, los potenciales alcances son alarmantes cuando se recuerdan los posibles usos de este tipo de IA existente, que -por ejemplo- en ocasiones ayuda a preseleccionar candidatos para búsquedas laborales. Habiendo incorporado prejuicios sexistas y racistas, no es descabellado imaginar quiénes pasan su filtro… 

“Uno de los casos analizados por las autoras del estudio, y en el que ya se pueden ver este tipo de sesgos y estereotipos culturales, es el de la traducción automática. Caliskan, de origen turco, pone como ejemplo, el popular traductor de Google, que al traducir frases turcas con pronombres neutros, termina introduciendo pronombres estereotipados por género. Las frases ‘O birdoktor. O birhemsire’, las convierte en ‘Él es doctor. Ella es enfermera’”, agrega el mentado El Diario. Mientras las científicas a cargo de la investigación –explicativamente intitulada Semantics derived automatically from language corpora contain human-like biases–, cuyos resultados provienen de haber analizado el algoritmo GloVe, entrenado en alrededor de 840 billones de palabras, bajo la lupa de un test psicológico de asociación implícita- declaran: “Si construimos un sistema inteligente que aprende lo bastante sobre las propiedades del lenguaje como para ser capaz de entenderlo y reproducirlo, en el proceso la máquina adquirirá también asociaciones culturales históricas, y algunas de ellas pueden ser inaceptables”.

“Tanto los motores de búsqueda como las redes sociales utilizan texto”, cuenta Caliskan a Materia (y reproduce El País): “Pueden hacer ciertas asociaciones basadas en el texto con que se les alimenta mediante sistemas similares al que hemos usado en este trabajo. Pero, puesto que los buscadores, las redes sociales, los juegos de póker o iTunes no tienen código abierto (open source), no puedo hacer ningún comentario sobre la forma exacta en que incorporan el texto en sus sistemas. En cualquier caso, los buscadores y las redes sociales más populares han mencionado que usan estos sistemas para varias tareas”. Recórcholis, Batichicas, estamos en problemas.