Microsoft presentó recientemente un software que puede ayudar a detectar fotos o videos “deepfake”, lo que se suma a la lista de programas diseñados para combatir estas imágenes falsas y difíciles de detectar antes de las elecciones presidenciales de Estados Unidos.

Se trata del software “Video Authenticator” que analiza una imagen o cada fotograma de un video con el objetivo de encontrar evidencia de manipulación que podría ser invisible a simple vista.

Microsoft informó que se asoció con la Fundación AI en San Francisco para hacer que la herramienta de autenticación de video esté disponible para campañas políticas, medios de comunicación y otros involucrados en el proceso democrático.

Los deepfakes son fotos, videos o clips de audio alterados usando inteligencia artificial para que parezcan auténticos y ya se convirtieron en el objetivo de planes preventivos en las redes sociales Facebook y Twitter.

“Pueden hacer parecer que las personas digan cosas que no dijeron o que estuvieran en lugares en los que no estaban”, explicó este martes una publicación del blog de la empresa. Los “deepfakes” son parte de las actividades de desinformación que existen en el mundo en línea y que distintos expertos han advertido que pueden llevar mensajes engañosos o completamente falsos.

Estas publicaciones falsas camufladas también representan una preocupación ante las próximas elecciones presidenciales de Estados Unidos, ya que los “deepfakes” en las redes sociales aumentaron en número durante la votación de 2016 que llevó al republicano Donald Trump al poder.

Microsoft también anunció que incorporó a su plataforma en la nube Azure tecnología que permite a los creadores de fotos o videos agregar datos en segundo plano que se pueden usar para verificar si las imágenes resultaron alteradas.

En ese sentido, anunció que piensa probar los programas con organizaciones mediáticas como la cadena BBC y el diario The New York Times.