Los “deepfakes” son parte de las actividades de desinformación que existen en el mundo en línea.
La gigante tecnológica Microsoft ha presentado un software que puede ayudar a detectar fotos o videos “deepfake”, lo que se suma a la lista de programas diseñados para combatir estas imágenes difíciles de detectar antes de las elecciones presidenciales de Estados Unidos.
El software “Video Authenticator” analiza una imagen o cada fotograma de un video, buscando evidencia de manipulación que podría ser invisible a simple vista.
Microsoft informó que se asoció con la Fundación AI en San Francisco para hacer que la herramienta de autenticación de video esté disponible para campañas políticas, medios de comunicación y otros involucrados en el proceso democrático.
Los deepfakes son fotos, videos o clips de audio alterados usando inteligencia artificial para que parezcan auténticos y ya son objetivo de planes preventivos en las redes sociales Facebook y Twitter.
“Pueden hacer parecer que las personas digan cosas que no dijeron o que estuvieran en lugares en los que no estaban”, dijo el martes una publicación de blog de la empresa.
Los “deepfakes” son parte de las actividades de desinformación que existen en el mundo en línea y que expertos han advertido que pueden llevar mensajes engañosos o completamente falsos.
Estas publicaciones falsas camufladas son de particular preocupación actualmente debido a la proximidad de las elecciones presidenciales de Estados Unidos, el 3 de noviembre, especialmente después de que los ‘deepfakes’ en las redes sociales aumentaron en número durante la votación de 2016 que llevó al magnate republicano Donald Trump al poder.
Microsoft también anunció que incorporó a su plataforma de computación en la nube Azure tecnología que permite a los creadores de fotos o videos agregar datos en segundo plano que se pueden usar para verificar si las imágenes resultaron alteradas.
En ese sentido, anunció que piensa probar los programas con organizaciones mediáticas como la cadena BBC y el diario The New York Times.