El avance de la inteligencia artificial (IA) genera incertidumbre por sus implicancias en distintos campos. A los riesgos que implican los sesgos de automatización y las fallas en sus predicciones, Fernando Schapachnik, Director Ejecutivo de la Fundación Sadosky, agrega dos preocupaciones: el impacto sobre el mercado de trabajo y la necesidad de regular el sector con una mirada regional.

Schapachnik es profesor del Departamento de Computación de la Facultad de Ciencias Exactas y Naturales de la UBA, Doctor en Ciencias de la Computación e Investigador del Instituto de Ciencias de la Computación UBA-CONICET.

En diálogo con Cash, Schapachnik advierte que frente al grado de concentración y desterritorialización de los grandes monopolios de la IA, Argentina debería globalizar la discusión sobre la regulación. “Un frente común con otras naciones podría tener más eco del que a veces imaginamos”, plantea.

--¿En qué áreas es socialmente valioso el uso de inteligencia artificial?

--Hay ejemplos muy positivos de uso de inteligencia artificial “clásica”, como por ejemplo en la detección de enfermedades, en el análisis de imágenes satelitales y para la producción petrolera. Son casos en los que está involucrado el ser humano, ya que el sistema no toma decisiones de manera autónoma, es solo un asistente, un amplificador de las capacidades humanas. Es un escenario muy virtuoso, porque están lo mejor de ambos mundos: la capacidad de detección de patrones, que a los humanos a veces nos excede, y la opinión profesional, confirmando o rechazando ese hallazgo. Aunque, claro, tampoco está exento de problemas.

--¿Qué tipo de problemas?

--Hay un fenómeno llamado “sesgo de automatización”, que indica que se tiende a confiar mucho en las decisiones de un sistema. Si esta interacción humana no es suficientemente significativa, se corre el riesgo de no detectar la falla. Algo de esto ocurrió en Países Bajos, donde personas validaron decisiones erróneas basadas en IA y el resultado fue desastroso.

--¿Cuáles son las áreas en donde la incorporación de la IA puede llegar a niveles inaceptables de riesgo?

--Allí hay dos grandes cuestiones a analizar. Por un lado, la IA reproduce muchos sesgos. Un ejemplo elocuente es el de Estados Unidos, que usaba IA para detectar si una persona merecía la libertad condicional. El sistema estaba sesgado y, por ende, profundizaba criterios raciales y xenófobos. Dado que el sistema aprende de los datos, alguien podría decir que era el humano el que estaba sesgado. Pues entonces, confiar en el sistema solo agrava la situación.

--¿La solución frente a tal situación es no recurrir a la IA o hay un punto intermedio?

--Cuando las decisiones tienen consecuencias muy gravosas para las personas, hay que ser muy cautos con el sistema y tener como requisito la revalidación. Gregorio Klimovsky analizaba el impacto de la ideología en la ciencia y señalaba tres momentos: el descubrimiento, la justificación y la aplicación.

--¿Cuál es el paralelismo?

--¿Es virtuoso utilizar capacidad de elección de patrones para el contexto de descubrimiento de una situación? ¿Es virtuoso detectar ahí un fraude que no se puede detectar humanamente? Podría serlo. Ahora, si los patrones detectan algo que se presenta como un hallazgo, la validación tiene que ser rigurosa y todos tenemos que entenderla. Si no, es inaceptable. Hay una discusión válida que aparece en los intentos de legislar este campo, relacionada con cómo validar los sistemas antes de ponerlos en funcionamiento. Incluso si el sistema dijera que se basa en reglas estadísticas, hay que mirarlo con criterios socialmente aceptados. No importa si el 85 por ciento de las personas que cometieron fraude tenían el pelo ondulado. ¿Cuáles son los criterios sociales, legales e institucionalmente aceptados para verificar si una persona está cometiendo fraude? No puede ser la chance estadística que da el sistema.

Opacidad

--Una de las principales inquietudes que emerge del debate público es la opacidad de los mecanismos algorítmicos del sistema. ¿Cómo se resuelve este problema?

--Los criterios deben ser públicos y comprendidos por todos, se debe conocer cómo se aplican en cada caso y cuál es la justificación. Cuando se trata de decisiones de alto riesgo, que tienen impacto sobre la vida de la gente, tiene que haber una persona que analice el proceso tal como se hubiera hecho de manera analógica. Por caso, que analice el expediente judicial. Las dos discusiones van de la mano. Primero, ser transparentes; una vez que se logra esa transparencia, la demanda es conocer los algoritmos. Sin embargo, la discusión real no se reduce solo a que los sistemas basados en IA hagan las tareas peor o mejor que nosotros.

--¿Cuál es la discusión real?

--La posibilidad de que esta tecnología reemplace el trabajo que hoy hacen los seres humanos. Allí sí hablaría de riesgo. No se trata de que las personas no tengan sesgos o no cometan errores. La discusión pasa por el derecho a la vida digna de toda la población. Por la forma en la que se organizan hoy las sociedades, ese derecho está asociado a tener un trabajo digno.

--¿Cuáles son los puntos que hay que enfatizar en este debate?

--Por ejemplo, cuando se afirma que podríamos ir hacia una sociedad donde se trabaje menos, o cuando se habla del ingreso universal básico. La palabra “básico” me da terror. ¿Significa las condiciones mínimas de alimentación? El trabajo digno es un bien de primer orden a proteger con independencia de los riesgos, incluso si lográramos construir sistemas de IA sin sesgos o sin posibilidad de equivocarse.

Empleos

--¿Qué tipo de trabajos están en riesgo?

--Si se automatiza un call center, uno podría decir que, en definitiva, ese era un trabajo alienante. Pero ¿qué ofrecemos en su lugar para garantizar a la población una vida digna si no puede acceder a un trabajo mejor? La persona que perdió ese trabajo básico no se volverá automáticamente un programador de sistemas de call center. En el caso del servicio al cliente, el trabajo está tan guionado que se deshumanizó. Vos pedís un dato, tardan cinco segundos y te dicen “disculpe por esperar”; es ridículo. Y además, producto de la deslocalización, ni siquiera esperamos compartir pautas culturales. A la persona que te atiende no le podés decir que tu casa queda a dos cuadras del Obelisco, porque no sabe dónde queda el Obelisco. Todo eso vuelve más simple automatizarlos. Recientemente, British Telecom anunció que iba a eliminar diez mil de esos puestos y los iba a automatizar.

--¿Qué ocurre con los trabajos creativos?

--La IA generativa tiene capacidad para realizar elementos digitales basados en texto de complejidad media. Hay una capa superior de alta complejidad donde estos sistemas quedan afuera, tareas para las cuales los humanos tenemos que involucrar creatividad. Yo no creo que las máquinas tengan esa creatividad pero no importa, porque mediante ciertos comandos logran algo que, visto de afuera, es indistinguible. Efectivamente, el grueso de lo que hacemos no es tan original y ahí es donde las máquinas podrán reemplazar eso. No quiero ser alarmista pero, con mis limitaciones e incertidumbre, aplico un criterio de riesgo. Si los otros tienen razón y nos espera un futuro pleno, tomar una precaución adicional no genera un problema. El riesgo grave tiene lugar si fuera al revés: es decir, si no nos espera un futuro pletórico de alegrías, felicidades y empleos dignos y no hicimos nada porque ignoramos las voces de alerta.

En Argentina

--¿Qué grado de impacto tendrá la IA en el mercado de trabajo argentino?

--Algunas estimaciones internacionales señalan que un 25 por ciento del empleo en Argentina puede verse impactado por la automatización. Hay una base de datos norteamericana que descompone cada puesto laboral en las habilidades requeridas, observa cuáles de esas habilidades pueden ser realizadas por inteligencia artificial y calcula el impacto del sistema sobre ese puesto. Sería ideal que Argentina haga su propio estudio. No quiero ser fatalista, pero comercio y servicios representan un 15 por ciento del empleo en blanco en Argentina. Si la IA impacta en el 10 o el 15 por ciento del empleo total, puede ser gravísimo. La otra preocupación son los salarios: hasta los años noventa, las curvas de empleo de las personas de menor nivel educativo evolucionaban en paralelo a las de mayor nivel. Después de eso, se desacoplaron por completo, ya que los que tienen secundario completo se van para abajo y los que tienen nivel educativo superior se van para arriba. El otro dato a atender es la idea de que surgirán nuevos empleos. Yo pondría varios asteriscos allí.

--¿Por qué?

--Primero, el tiempo que transcurre entre los puestos que se pierden y los que se generan es un valle de la muerte. En segundo lugar, las estadísticas laborales de los Estados Unidos muestran que en los últimos 60 años, los únicos dos tipos de empleo novedosos fueron ingeniería de software y hardware. Con la revolución de Internet y de las computadoras, aparecieron nuevos empleos, pero no movieron la aguja. Tercero: ¿qué nivel educativo requieren los empleos que aparecen? Nuestra matriz de desarrollo podría estar muy lejos de competir por estos puestos nuevos. Y finalmente, ¿dónde se generan estos puestos laborales? Producto de la globalización, no queda claro que se generen territorialmente. Y, además, ¿cómo competir salarialmente en esa globalidad?

--¿Qué rol podría jugar la regulación? ¿Es suficiente con un diseño regulatorio nacional?

--Argentina debería globalizar esta discusión lo más posible, tanto a nivel regional como con los organismos internacionales. Un frente común con otras naciones podría tener más eco del que a veces imaginamos. Los ganadores no solo pueden no estar acá, sino que pueden no estar en ningún lado. Hay un problema compartido. Los sindicatos también pueden tener una herramienta. En Europa, algunos sindicatos median en la automatización y se necesita negociar con la representación sindical para que cada paso de automatización prevea la reubicación de sus trabajadores y trabajadoras desplazables.

--En varias ocasiones, usted pidió tener cuidado con la dicotomía entre innovación y regulación. ¿A qué se refiere?

--Es una dicotomía falsa, empujada por quienes en lugar de libertad para innovar quieren libertinaje para abusar. El ejemplo que siempre doy es el de la industria farmacéutica, que tiene enormes márgenes de ganancia pero está fuertemente regulada. Y la verdad es que discutir la capacidad innovadora de la industria farmacéutica no tiene sentido, lo vimos en la pandemia.

--¿Están dadas las condiciones para avanzar en una regulación sobre el extractivismo de datos?

--La moratoria de 1998, llamada “moratoria de los derechos aduaneros sobre las transmisiones electrónicas”, impide gravar los servicios digitales en cada país. Esa moratoria fue diseñada para que floreciera Internet y se viene prorrogando desde entonces. Esto también se relaciona con el extractivismo de datos, porque ni siquiera se pueden cobrar impuestos sobre los grandes monopolios de la IA. Esta moratoria se volverá a negociar en febrero de 2024. Podría haber consenso en la propuesta de derogarla en la negociación con la Organización Mundial del Comercio. Al menos hay que intentarlo, para lo cual sería importante buscar alianzas en el Sur Global.