Dinamarca es noticia porque planea sancionar una ley pionera, una norma que garantiza el derecho de cada persona sobre su rostro, su voz y su cuerpo. Es un intento de regular lo que sucede con las deepfakes, noticias falsas generadas a partir de técnicas de aprendizaje automático e inteligencia artificial con el objetivo de engañar a la población. Videos y audios que imitan a los protagonistas y pretenden influir en elecciones, o bien, erosionar la imagen de figuras públicas. El proyecto, impulsado por el ministro de cultura Jakob Engel-Schmidt, se enviará al parlamento en septiembre y podría entrar en vigencia a partir de 2026.
Bajo la premisa de reforzar la identidad digital, la iniciativa danesa plantea que si alguien utiliza el rostro, la voz o el cuerpo de un ciudadano, este tendrá el derecho de pedir que lo eliminen de internet. Aunque disruptivo, también es cierto que el proyecto rescata aspectos que en Europa se discuten desde hace tiempo. En diálogo con Página 12, la especialista en tecnopolítica Natalia Zuazo plantea: “Estamos en un momento de exploración de regulaciones que ordenen un poco el asunto para avanzar en formas de mitigar los problemas que nos genera la IA generativa. Lo que vendrá después es saber cómo se aplica. ¿Se le pedirá a Instagram o Tik Tok que dé de baja un video? Porque lo cierto es que también se podría demandar a los responsables del modelo que lo generó”.
Esta norma que proponen en Dinamarca, según Zuazo, recoge elementos ya presentes en el Reglamento General de Protección de Datos de la Unión Europea. “Se considera que las personas son las dueñas de sus datos, y que simplemente los ceden a empresas. Por lo tanto, tienen el derecho a exigir la rectificación”. Por otra parte, también se basa en cuestiones como las deepfakes y los modelos de IA generativa que están presentes en otros documentos (como la AI Act, es decir, la Ley de IA).
Las copias y los engaños son moneda corriente. A partir de técnicas de IA y conocimientos rudimentarios ya es posible robar la identidad digital de cualquier persona. Lo anticipaba Black Mirror y la dinámica de las redes sociales lo confirma cada semana. Lo que sucedió con la periodista Julia Mengolini y la campaña en su contra a partir de un video falso, o bien, el contenido creado con IA en que, previo a las elecciones legislativas porteñas, Mauricio Macri anunciaba que Silvia Lospenatto, referente en la lista del PRO, bajaba su candidatura, constituyen dos ejemplos más entre tantos.
Agustín Espada, investigador del Conicet en el Centro de Industrias Culturales y Espacio Público de la Universidad Nacional de Quilmes, apunta: “Se trata de traducir a la digitalidad protecciones que rigen para nosotros en el mundo físico y presencial. Nadie puede usar tu cara para una publicidad sin pagarte, nadie puede usar tu voz sin tu autorización, por ejemplo, para dar una clase. Lo que sucede es que la inteligencia artificial ha vuelto estas operaciones mucho más accesibles, rápidas y con mayor alcance”. Y continúa: “Esto precipitó la necesidad de pensar formas de condicionar su desarrollo para proteger a las personas. Es necesario trabajar, no solo en la consolidación de derechos sobre nuestra voz o imagen, sino también avanzar sobre mecanismos para proceder ante vulneraciones. Es realmente importante porque ya vimos con redes sociales y plataformas cuán difícil es asignar responsabilidades y hacer cumplir fallos judiciales”.
Emmanuel Iarussi, investigador del Conicet en el Laboratorio de IA de la Universidad Torcuato Di Tella, suma su opinión para ayudar a comprender el proyecto danés. “Entiendo que lo interesante de esta ley es que no apunta directamente a penar lo que hacemos con los deepfakes, sino que propone algo preventivo: que sea ilegal compartir deepfakes de otra persona sin su consentimiento, usando la ley de copyright como herramienta”, advierte.
Copia de libros y problemas electorales
En abril pasado, una noticia conmovió al mundo editorial. Fue cuando la periodista italiana de la revista L’Espresso, Sabina Minardi, descubrió que el chino Jianwei Xun, autor del best seller Hipnocracia. Trump, Musk y la nueva arquitectura de la realidad, sencillamente, no existía. Lo reveló de forma simple: quiso entrevistarlo y él solo quería charlar por mail. Entonces, comenzó a dudar. En el texto, además, había oraciones sospechosas, poco concatenadas o directamente con ninguna coherencia. Luego, se supo que el autor real de la publicación, el filósofo italiano Andrea Colamedici (que figura originalmente como traductor de la obra) en verdad no solo había creado un manuscrito falso sino que también había recurrido a dos inteligencias artificiales, Chat GPT y Claude, para redactar en equipo su libro. Una creación conjunta entre el hombre y la máquina.
“En cuanto a conflictos por copyright o derecho de autor, por caso, quienes han hecho demandas por plagios han fracasado. La justicia suele darles la razón a las plataformas, ya que en sus objetivos formales, lo que hacen es solo ‘ordenar información y dar respuestas’”, comenta Zuazo. En otras partes del mundo, el uso de IA para crear artículos científicos falsos también suponen un problema de dimensiones que nadie sabe muy bien cómo mensurar. Ni que hablar el uso que le dan a la IA los adolescentes y jóvenes en la educación secundaria y universitaria.
Otro de los escenarios en los que la identidad digital y las deepfakes se ponen en juego es el electoral. La UE, por caso, posee una serie de directrices de buenos y malos usos en este terreno. Sin embargo, los avances no son solo europeos: en 2024, el Tribunal Superior de Brasil prohibió el uso de deepfakes en tiempos electorales. Zuazo amplía: “Se regula todo lo que dañe la integridad electoral, es decir, tu capacidad como ciudadano de informarte en una elección de manera más o menos fidedigna”.
Este miércoles, la Cámara Nacional Electoral (CNE) de Argentina se pronunció acerca de la creación y manipulación de videos falsos con el uso de la Inteligencia Artificial, y los consideró delitos electorales. El dictamen fue pronunciado en el marco de la investigación del material audiovisual que involucró al exjefe de interbloque Juntos por el Cambio en Diputados, Mario Negri, cuando fue precandidato a senador nacional por Córdoba en las PASO del 2021.
Dudas con la aplicación
Como siempre suele decirse: una cosa es la ley y otra muy diferente su aplicación. Iarussi reflexiona al respecto: “Hay que ver qué tan efectiva resulta una ley que directamente prohíbe compartir contenido en Internet. Si bien se reservan ciertos usos legítimos, como la sátira o el humor, ese es un terreno lleno de grises en donde no siempre es fácil trazar una línea”.
Sería posible pedirle a una red social que baje un contenido, pero si ya se replicó mucho y se hizo viral, el usuario que demande debería ir a los servidores, y todo podría complicarse. El contenido, además, podría subirlo un usuario anónimo difícil de rastrear.
Más allá del aspecto legal, también está la cuestión de la factibilidad técnica. “Hoy es posible generar deepfakes cada vez más realistas y a un costo cada vez menor. Eso vuelve mucho más difícil distinguir si un video es real o no, y al mismo tiempo hace que ese tipo de contenido circule con mayor frecuencia. El desafío no es solo normativo, sino también tecnológico y cultural”, remata Iarussi.