Noticias

Deepfake, en el punto de mira de Microsoft

Publicado

en

Hace ya unos meses hablamos de deepfake, y de los riesgos que plantea en múltiples campos. No se trata de una amenaza nueva, esta técnica ganó bastante popularidad el pasado 2019, pero ya desde 2017 se han realizado pruebas de concepto (aunque algunas no tenían la finalidad de actuar como tales) que nos han permitido comprobar el alto grado de calidad que, con los medios y las circunstancias adecuadas, se puede llegar a obtener en este tipo de vídeos.

Por si no sabes qué es deepfake o, lo que es más probable, sí que lo sabes pero no lo identificas por su nombre, hablamos de la técnica consistente en combinar dos vídeos para, de este modo, hacer que el rostro de la persona que protagoniza uno de ellos sea sustituido por el de la que ha sido grabada en el otro, generando así la ilusión de que alguien ha hecho algo que, en realidad, no ha hecho. En los últimos años esta tecnología se ha perfeccionado y seguramente seguirá evolucionando y produciendo deepfakes cada vez más difíciles de detectar.

Si bien la primera toma de contacto que tuvo la sociedad con deepfake fue de un perfil puramente lúdico, principalmente humorístico y pornográfico, el enorme potencial que ofrece fue visto como una joya tanto por ciberdelincuentes como personas interesadas en realizar campañas de desinformación, algo que tiene un encaje milimétrico en el campo de la política, donde la desinformación y las noticias falsas llevan ya algunos años cosechando, desgraciadamente, algunos éxitos incuestionables.

Con ese problema presente, y ante las cada vez más cercanas elecciones presidenciales de Estados Unidos, Microsoft ha creado Microsoft Video Authenticator, una herramienta que puede analizar una foto o un video y proporcionar una puntuación de confianza sobre si ha sido manipulado digitalmente para crear un deepfake.

Para evitar que los interesados en realizar todo tipo de acciones basadas en deepfake puedan analizar la herramienta y, a continuación, utilicen el conocimiento obtenido para hacer que sus deepfakes sean más propensos a engañarla, la herramienta inicialmente no será accesible para el público en general. En su lugar, la iniciativa Reality Defender 2020 (RD2020) hará que Microsoft Video Authenticator esté disponible para las organizaciones involucradas en el proceso democrático, como los medios de comunicación y los partidos políticos.

Por otra parte, se ha alcanzado un acuerdo con un consorcio de empresas públicas y privadas de comunicación, como BBC, CBC, y The New York Times entre otros, que podrán emplear este sistema automático de verificación, y que además colaborarán en la difusión de la misma, con el fin de que termine por convertirse en una herramienta estándar empleada por medios, periodistas y, también en un futuro, redes sociales.

En el caso de un video, puede proporcionar determinar el porcentaje de fiabilidad en tiempo real para cada fotograma a medida que se reproduce el video. Funciona detectando el límite de combinación de elementos deepfake y los sutiles desvanecimientos o escalas de grises que pueden no ser detectables por el ojo humano”, explicaron Tom Burt, vicepresidente corporativo de seguridad y confianza del cliente de Microsoft, y Eric Horvitz, director científico del proyecto.

Lo más leído

Salir de la versión móvil