Cualquiera puede ser una estrella porno sin serlo ni desearlo. A simple vista, nadie notaría la diferencia. Si un par de fotos mal trucadas generan repercusiones en internet -siendo claramente falsas- ¿Qué pasaría con un video bien editado?

Eso es un deepfake, videos manipulados a través del médodo deeplearning (aprendizaje profundo de la máquina) que insertan una cara en el cuerpo de otra persona. Una técnica que sólo es posible con el avance de la inteligencia artificial y la posibilidad de aprender que tales fotos o videos corresponden a una misma persona. La máquina, educada, comienza a darle forma a la imagen para convertirla en un video con movimientos casi reales. 

Una de las primeras en sufrir la viralización de un porno deepfake fue la actriz israelí Gal Gadot dos años atrás. Pornhub comenzó a ofrecer, a fines de enero, videos trucados –presentados como verdaderos– de Kim Kardashian, Ivanka Trump, Gal Gadot, Maisie Williams, Selena Gomez, Emma Watson, entre otras. Y también, de la actriz Scarlett Johansson: “tratar de protegerse de internet y su depravación es básicamente una causa perdida”, declaró a The Washington Post, dando por sentada la frustración de parar lo imparable. Su video falso tiene más de un millón y medio de reproducciones.

Para frenar esto, Reddit, Pornohub, Twitter y Google comenzaron a eliminar este tipo de contenidos denominados “imágenes pornográficas sintéticas involuntarias”. Pero ya es tarde. La aplicación Fakeapp puede crear un montaje en video con solo presionar un botón. Así tan simple como hacemos los stickers de Whatsapp o un meme. 

Este programa no está disponible en las tiendas tradicionales para descargar pero había tenido más de 100.000 descargas en la red social Reddit y otras 100.000 por fuera de este sitio, donde ya fue dado de baja.

La baja resolución o precareidad de estos videos se complementa con “paquetes de cuerpos donantes” desarrollados por programadores anónimos para facilitar la inserción de una cara cualquiera en un video porno. La frutilla del postre es la clonación de la voz para generar un audio a partir de grabaciones reales. Nada que no esté disponible en internet. La tecnología de reconocimiento facial, que utiliza inteligencia artificial y aprendizaje automático, se va educando a partir de fotos o videos de una persona. Pasa en nuestro

Facebook, en nuestro Google Fotos y también, en cualquier lado con nuestras caras que se acumulan en las redes sociales e internet.

Este tipo de material está siendo usado como la mal llamada pornovenganza que, como su nombre lo indica, toma lo más íntimo de la víctima –su cuerpo– y lo expone en las redes. No es venganza, sino extorsión o “sextorsión”. Se viraliza como las fake news y en las redes parece no importar si es cierto o no, si es público o privado, si es real o falso.

En Estados Unidos, uno de cada 25 ciudadanxs ha sufrido amenazas o publicaciones sin su consentimiento, indica Data and Society Research Institute. Entre un 80 a 93 por ciento de lxs afectadxs sufren daños emocionales como depresión, ansiedad, paranoia. En Argentina, la Fundación Activismo Feminista Digital, absorbe muchos de estos casos aunque aún no hay números oficiales.

En caso de ser víctima de la difusión de imágenes íntimas hay diferentes herramientas para darlas de baja, por citar un ejemplo: “Cómo quitar pornografía involuntaria y falsa” de Google. A los fines de la ley, la figura de usurpación de identidad o pornografía no consensuada podría ser la solución para defender la integridad de las afectadas y siempre se recomienda realizar la denuncia correspondiente.