La noticia sobre el interés de la AFIP en aplicar un exótica sistema de reconocimiento facial, emocional y termo-corporal en el Aeropuerto de Ezeiza avivó una discusión que en este momento quizá pase desapercibida debajo de la urgente agenda electoral, pero que más temprano que tarde terminará de imponerse: ¿cuál es la conveniencia de este novedoso mecanismo utilizado cada vez más frecuentemente en nombre de la “seguridad”, pero a la vez violatorio de la intimidad personal y con alarmantes márgenes de error en todo el mundo?

El sistema de reconocimiento facial es el último grito de la moda por la tecnología aplicada a políticas de seguridad pública. En China, por ejemplo, se expandió a un ritmo acelerado, al punto que en estos días fue viral un video en el cual un hombre paga en un mercado sin dinero, tarjetas ni el celular, sino simplemente ingresando el monto y colocando su cara frente a una cámara que completa la operación. Argentina sigue estos pasos, sobre todo desde que el gobierno porteño comenzó a utilizar esta plataforma en abril para un programa de búsqueda de prófugos.

Un 81% de error

Sin embargo la flamante plataforma de vigilancia digital que tanto desvela a los halcones de la seguridad del mundo tiene un talón de Aquiles de momento irresoluble: el elevado margen de error. Lo cual es claramente un problema, pues un algoritmo que falla implica en este caso estampillar como culpable o sospechoso a quien no lo es.

Se abrió entonces una pregunta sobre cuál es el porcentaje de yerros “aceptables” para determinar la eficacia del sistema. Una publicación del MIT de Massachussets reveló que el mecanismo probado por la policía de Londres desde 2016 arrojaba un 81 por ciento de errores. Es decir, cuatro de cada cinco personas escaneadas como sospechosas finalmente no eran quienes las cámaras decían. Algo similar quisieron aplicar el año pasado en Europa durante el concurrido torneo continental de clubes de fútbol Champions League, aunque con los mismos resultados. Y en Gales la policía probó el sistema en un partido con un resultado pasmoso: el 92 por ciento de “alertas” se trataba en verdad de falsos positivos.

Pero el desarrollo de estas tecnologías fue más rápido que la legislación sobre la materia, y en ese magma pringoso de controles aún jabonosos se mueven a discreción gobiernos “clientes” y empresas proveedoras de “soluciones”. Las perspectivas de crecimiento para un negocio en un ámbito de reglas confusas o insuficientes son siempre alentadoras. La industria informática da cuenta de esto y un ejemplo claro fue la última edición del Hackapalooza, importante concurso realizado IBM México para empresas y estudiantes del rubro: dos de los tres primeros premios fueron para proyectos basados en reconocimiento facial.

Derechos Humanos en peligro

Por eso, semanas atrás, el Consejo de Derechos Humanos de la ONU publicó un informe alarmante en el que pide suspender el uso, venta, transferencia de estos sistemas de vigilancia hasta tanto no se establezca una regulación que compense a todos los “actores”. El documento (a cargo del experto David Kaye), pide primeramente desarrollar “mecanismos públicos para aprobar y supervisar las tecnologías de vigilancia, el fortalecimiento de los controles a la exportación de dichos sistemas y la creación de herramientas legales de reparación”. Este último punto es acaso el más importante: mucho se habla sobre software, pero poco y nada de cada persona vulnerada en un amplio rango de injusticias (desde arrestos en vía pública hasta días de detención) producidas por un “error del sistema”. El informe, además, insta a dictar leyes en las que se responsabilice a las empresas por las consecuencias que puedan tener sus productos en la vulneración de derechos, cosa que hasta ahora no sucede.

Antes de que lo sugiriera el informe de la ONU, San Francisco decidió prohibir el uso de sistemas de reconocimiento facial en defensa de “la privacidad y las libertades civiles”. La proclamación enumeraba -entre las varias inconveniencias que el dispositivo había presentado- los altos errores en el reconocimiento de afroamericanos. Este veto resonante provino desde la mismísima cuna de Sillicon Valley, allí donde Facebook y Google habían comenzado a desarrollar justamente el sistema de reconocimiento facial con fines comerciales. La medida fue pedida y celebrada por numerosos organismos civiles como una pequeña victoria dentro de la avanzada punitivista del gobierno de Trump.

El juguete de Bullrich

Exactamente a la inversa de lo que empieza a discutirse en un montón de estrados y foros, Argentina se vuelca hacia este dispositivo con una vehemencia atemorizante. En abril, el gobierno porteño anunció la instalación en la ciudad de trescientas cámaras rotativas basadas en esta plataforma, las cuales serían parte de una red de casi siete mil. La propia Ministra de Seguridad de la Nación, Patricia Bullrich, salió a defender la herramienta porque, según ella, ofrecería “enorme tranquilidad a la sociedad de que no está caminando al lado de un asesino, un pederasta, un pedófilo, o cualquier otro tipo de delito”.

El software le costó a la ciudad casi dos millones y medio de pesos por solo 17 meses de licencia. Las cámaras están ubicadas en estaciones de subte y de trenes y escanean rostros para cruzarlos con una base de datos confeccionada por fotos policiales. Aseguraron que el sistema detectaba rostros incluso con gorra y capucha, y hasta incluso cambios en la fisonomía como en la barba, por ejemplo. Desde el gobierno anunciaron que nadie iba a quedar detenido por error o sin justificación. Sin embargo tres semanas después una mujer fue capturada en el subte y llevada en esposas hasta una comisaría, donde permaneció un día porque el sistema la confundió con otra persona. Algo similar le ocurrió a una empleada doméstica en la estación de trenes de Constitución. Pero en esa instancia se desentienden desde el Ministerio de Seguridad: a pesar de que se trata de la “autoridad de aplicación” de este mecanismo de vigilancia, intentan explicar desde allí que simplemente le envían la información al Poder Judicial, quien finalmente decide si extiende la detención o dispone la liberación del “alertado”.

La AFIP también

Pero pesar de la falibilidad del mecanismo, Cambiemos profundiza su interés en el mismo y así lo hizo saber la AFIP a través del reciente llamado a licitación para adquirir un software que no solo coteje rostros “en vivo” con fotos de archivo, sino también la temperatura corporal y “emociones” como “ansiedad” o “preocupación”, tal como señala el pliego en ciernes. El mismo, aseguraron, sería utilizado en el Aeropuerto de Ezeiza con el fin “agilizar” los trámites en Migraciones.

La AFIP ya había desarrollado un dispositivo similar para gestionar o recuperar la clave fiscal con la que se opera en su página web a través del reconocimiento facial vía celular (aunque solo Android), aunque este nuevo propósito va más allá y es inevitablemente enlazado con el endurecimiento de las políticas migratorias argentinas. Lo cual (casualidad o no), sintoniza con acaso uno de los pocos discursos frontalmente ideológicos que en toda su larga carrera política se permitió confesar Miguel Pichetto, flamante aliado a la derecha de la coalición gobernante.

El anuncio puso a un montón de sectores y especialistas en la materia porque nuevamente se pone en discusión la falta de leyes, protocolos y controles que –curiosamente- vuelven inseguro un mecanismo promocionado en nombre de la seguridad. Además trascendió en simultáneo con la publicación de los primeros resultados del sistema que puso en marcha el gobierno porteño en abril. La idea de darle buena prensa al mecanismo va de la mano con la idea de ampliar su operatividad: “1043 prófugos a disposición de la justicia” fue el titular. Sin embargo, el dato fino es que solo 174 de ellos quedaron detenidos, un microuniverso que tiene mucho de delito común (45) pero bien poco de graves como homicidios (nueve) o delitos sexuales (ocho), que componen apenas el 2 por ciento del global.

Si el gobierno pretende darle sustancia a su proclama de “lucha contra las grandes mafias”, el sistema de reconocimiento facial no es por el momento el mejor de los ejemplos para ofrecer. Sin embargo Rodríguez Larreta aseguró en la conferencia presentación del informe que “seguimos poniendo la tecnología a disposición del cuidado de la gente. Son delincuentes, violadores y asesinos que estaban caminando al lado nuestro. La verdad que está funcionando incluso mucho mejor de lo que esperábamos”.