El lenguaje de las máquinas como reflejo del lenguaje de los humanos
Extrapolación de prejuicios

La revista Science aparece una vez por semana. Contiene artículos de múltiples disciplinas y permite tener una visión panorámica de lo que está ocurriendo en la frontera del conocimiento. En su edición del 14 de abril de este año (1), apareció publicado un trabajo que –en principio– parece inocente. Sin embargo, por razones que usted verá si sigue leyendo, podría tener un impacto brutal en un futuro no muy lejano. Créame, a esta altura, me parece que debía haber puesto presente en lugar de futuro no muy lejano, pero en algún sentido me estoy protegiendo. El artículo advierte sobre la extrapolación de algunos de nuestros prejuicios a los programas que funcionan en computadoras, teléfonos, tabletas, etc.

Me imagino su cara, como si me estuviera preguntando: “¿Qué? ¿De qué habla?”. Téngame un poco de paciencia y verá como todo cierra al final... o al menos eso espero. En principio, quiero narrar algunas historias que aparecen desvinculadas. La conexión la hacemos -juntos- al final. Acá voy.

Los seres humanos, con mayor o menor nivel de conciencia, tenemos una alta capacidad para ‘segregar’. Cuando nos descubrimos en ‘falta’, el monitor ético que –supongo– cada uno tiene instalado con diferentes grados de eficiencia, se pone en funcionamiento. Si detecta una ‘falla’ en nuestro comportamiento, o lo que considera que es una ‘falla’, se activa, interviene y corrige.

Hay un ejemplo muy conocido y que ya apareció en Página 12 en agosto del año 2006 (2). Permítame sugerirle que no avance en la lectura de este texto hasta no leer la referencia. Si usted no se propuso ese test, hágalo y después vuelva a este artículo. Si sigue leyendo lo que estoy escribiendo ahora, se perderá de poder ponerse a prueba y créame que ‘vale la pena’.

Si usted ya sabe de qué hablo, habrá visto que le pasó algo muy curioso. Si yo le preguntara: ¿puede una mujer ser una eminencia?, es muy posible que nunca llegue a contestarme porque no podría entender que ‘quepa’ ese tipo de cuestionamiento. Lo mismo sucedería al revés, si la pregunta fuera: ¿puede una eminencia ser una mujer? Si yo voy ‘de frente’ y le pregunto, usted lo entendería (o debería entenderlo) como un insulto... ¡y tendría toda la razón del mundo!

Pero sin embargo, cuando yo entro ‘por la puerta de atrás’, por un lugar en donde usted no me está esperando, y la (o lo) sorprendo con la guardia baja, ahí sí, se dispararían con tranquilidad los prejuicios que tenemos embebidos en nuestro ser. Al no haber un ‘filtro’ al que estamos acostumbrados, aparecen en la superficie todas las deformaciones de la cultura: uno queda expuesto en un estado de indefensión, desnudo y vulnerable. Incómodo y molesto, no necesariamente con el ‘otro’, sino con uno mismo.

La Universidad de Harvard, en Massachusetts (EE.UU.), hizo una serie de estudios interactivos que se pueden encontrar en internet(3). Lleva el nombre de “Project Implicit” (“Proyecto Implícito”) y si me permite otra sugerencia, participe de alguno de ellos. Le servirá para ‘descubrir’ cosas de usted que muy posiblemente ignore.

El estudio está dividido en varios capítulos y la idea es detectar y describir nuestras ‘segregaciones’, ya sea ante personas de distinto color de piel, o de distinto género, o nacionalidad o de distinta orientación sexual. En realidad, es muchísimo más amplio, pero creo que esos ejemplos son suficientes. La idea entonces es aprovechar de este tipo de test para aprender un poco más sobre cómo somos, cómo pensamos, cómo sentimos, cómo pre-juzgamos, cómo juzgamos, cómo segregamos, cómo preferimos y sirve para poder exhibir/nos como somos. Y en el camino, expone lo que nos queda más natural y casi ‘instintivo’ con lo que está aprendido y eventualmente, deformado por la propia cultura en la que uno se desarrolla.

La ventaja que tiene este tipo de procesos, es que la evaluación es ‘fáctica’, no es opinable. Como hice más arriba con el ejemplo de la ‘eminencia’, si yo ahora le preguntara en forma directa: “Usted, ¿es racista?”, supongo que la abrumadora mayoría (y mientras tipeo estas líneas me preocupa no poder poner que el cien por ciento de las personas) contestarían que ¡no! Pero cuando uno está solo (o sola) y está dispuesto a enfrentarse con preguntas a las que no está acostumbrado y tiene la predisposición para contestar honestamente, descubre que no somos exactamente lo que creemos ser: somos mucho más racistas de lo que nos damos cuenta o nos queremos dar cuenta.

Justamente, los resultados de los estudios de Harvard sirven para mostrar las desviaciones, tendencias, segregaciones, prejuicios, etc, que todos tenemos.

Un ejemplo del que participé. La pantalla de mi computadora aparece dividida en dos, en forma vertical. El programa me advierte que irán apareciendo palabras asociadas con algo placentero: felicidad, paraíso, belleza, festival, crepúsculo, playas, montañas... Otras tendrán la connotación opuesta: infierno, desastre, fealdad, pútrido, insectos, terror, peligro... Después, me ofrece recortes de ‘caras’. Algunas corresponderán a personas de tez blanca y otras serán de tez negra. Además, hay una serie de palabras que hablan de ‘mi, yo, mío, mi grupo’ y otras que hablan de ‘ellos, ustedes, ese grupo, el otro grupo”.

Una vez establecidas las reglas, comienzan las asociaciones. Al finalizar, no solo están medidas mis ‘preferencias’ o ‘desvíos’, sino también el tiempo que tardé en elegir. Es decir, les fue posible determinar cuánto me ‘sale natural y más instintivo’ que lo que ‘tengo que pensar’.

Por más protegido y preparado que creí que estaba, igualmente aparecieron mis desviaciones y mis prejuicios. Son brutales porque están medidos por parámetros en donde no intervienen personas. El resultado no miente. Una vez más, si tiene tiempo, no deje de hacerlo.

No pretendo enfatizar este experimento en particular porque no soy un experto en sociología (ni mucho menos), pero lo que sí me quedó claro es que fue una buena manera de descubrir y exponer mis propios prejuicios.

Segunda parte

 Históricamente, las computadoras se programaban dándole instrucciones ‘paso por paso’. ‘Haga tal cosa’. Después, ‘haga tal otra’. ‘Si llegó a tal lugar, pare’. “Si no, de un paso más’. “Evalúe de nuevo: ¿llegó?”. “Si la respuesta es sí, deténgase’. Si la respuesta es no, de un paso más... y así siguiendo. Todo bien estructurado y elaborado.

Pero eso era antes. Ahora no. Por ejemplo, si usted quiere enseñarle a un robot a cruzar la calle, los avances en ‘inteligencia artificial’ le permiten hacer lo siguiente: usted alimenta el programa con un millón de casos en donde una persona cruza bien. Le muestra entonces cómo cruzar cuando le alcanzó el tiempo para ir de una vereda a la que está enfrente. Por otro lado, le incorpora otro millón de casos en donde una persona cruza mal: o bien es atropellada, o tiene que correr desesperada, cuando es protagonista de un ‘casi’ accidente. Es decir, usted le muestra lo que ‘conceptualmente’ es ‘cruzar bien’ y la diferencia con ‘cruzar mal’.

Lo extraordinario es que estamos en un momento en donde la computadora... ¡aprende! Ese ha sido (y es) un momento muy particular en la evolución y desarrollo de lo que se llama ‘machine learning’(4). Los autos empezaron a manejarse solos, los drones ya existen en la vida cotidiana, las casas inteligentes activan sus termostatos para adecuarse a las distintos tipos de temperaturas, luces que se encienden o apagan, hornos que cocinan, y la lista podría seguir. La máquina ya empieza a detectar sus gustos: lo que le interesa leer, qué películas, qué series, qué temperatura, qué restaurantes, qué deportes, qué hoteles, qué rutas...

Hay muchísimos más casos y si le interesa el tema le sugiero que lea lo que está sucediendo hoy con dos programas específicos: Deep Mind (AlphaGo) y Libratus. El primero (5), ya ganó dos veces a los campeones del mundo de Go. En el 2016 superó 4-1 al surcoreano Lee Sedol. Este año, hace menos de un mes, le ganó 3-0 al chino Ke Jie... y Google, el dueño de estos avances en inteligencia artificial, anunció que se retirarán de la competencia. Ya demostraron todo lo que tenían que demostrar y ahora utilizarán lo que aprendieron para mejorar la detección de enfermedades y la capacidad para encontrar medicamentos hechos ‘a medida’.

Y por otro lado está Libratus (6), el programa que diseñaron en Pittsburgh, en Estados Unidos, en la Universidad de Carnegie Mellon, y que superó a principios del 2017 a los cuatro mejores jugadores de poker del mundo.

Lo extraordinario es que en ninguno de los dos casos, hizo falta usar ‘la fuerza bruta’ que provee la memoria de las computadoras. No. Ahora, los programas ¡aprenden! La computadora aprende jugando contra ella misma y aprende tan rápido que los mejores exponentes de nuestra especie, ya no pueden competir. Y encima, como en el caso del poker, la computadora no solo aprendió, sino que aprendió a ¡mentir! A hacer bluff, a engañar. Ahí tiene otro salto impactante.

Y ahora, la conclusión.

¿Qué relación hay entre estas historias?

El artículo de la revista Science hace una advertencia. Si los humanos, nos guste o no, tenemos prejuicios enquistados y embebidos en nuestro ser, y los programas ahora aprenden cuando les mostramos lo que ‘está bien’ y lo que ‘está mal’... esos mismos programas... ¡están heredando esos prejuicios! Y los van a aplicar en la vida cotidiana que se avecina. Pero lo que es mucho más grave, como señalan los autores, es que a usted y a mí, al hombre, nos queda esa suerte de ‘monitor ético’ que nos permite distinguir lo que hacemos, las computadoras no lo tienen y por lo tanto, no harán ninguna diferencia.

La preocupación entonces es que los estereotipos culturales se perpetúen y profundicen. El primer paso incluye detectar el problema, reconocerlo y ¡corregirlo!

Afortunadamente, siempre hay gente como Caliskan y sus colaboradores que son capaces de observar desde otro lugar. Ahora hace falta reaccionar e incorporar en los programas la capacidad de detectar las segregaciones que las máquinas presenten como ‘naturales’ y aplicarles el mismo ‘código ético’ que tenemos los humanos.


(1) “Semantics derived automatically from language corpora contain human-like biases”, por Aylin Caliskan, Joanna Bryson y Arvind Narayanan. Revista Science, Vol 356, pag 183-186 (2017), publicado el 14 de abril del año 2017.

(2) https://www.pagina12.com.ar/ diario/contratapa/13-71599- 2006-08-18.html

(3) https://implicit.harvard.edu/ implicit/research/

(4) “Machine Learning¨ o el “Aprendizaje de la Máquina”.

(5) http://www.pagina12.com.ar/ diario/sociedad/3-303267-2016- 07-03.html

(6) https://www.pagina12.com.ar/ 18279-la-computadora-que-sabe- enganar