Deepfake Detection plantea una carrera tecnológica problemática



Los expertos tienen pocas esperanzas de una solución técnica sólida a largo plazo.

Con la preocupación por la desinformación aumentando a medida que se acercan las elecciones presidenciales de Estados Unidos, los investigadores académicos y de la industria continúan investigando formas de detectar contenido engañoso o falso generado mediante redes neuronales profundas, las llamadas «deepfakes».

Si bien ha habido éxitos, por ejemplo, centrarse en artefactos como el parpadeo antinatural de los ojos ha dado como resultado altas tasas de precisión, sigue existiendo un problema clave en la carrera armamentista entre atacantes y defensores: las redes neuronales utilizadas para crear videos deepfake se prueban automáticamente contra una variedad de técnicas destinadas a detectar medios manipulados, y se pueden incluir fácilmente las últimas tecnologías de detección defensiva. El ciclo de retroalimentación utilizado para crear deepfakes es related en enfoque, si no en tecnología, a los servicios completamente indetectables (FUD) que permiten que el malware se codifique automáticamente de una manera para esquivar la tecnología de detección basada en firmas.

La detección de artefactos es, en última instancia, una propuesta perdida, dice Yisroel Mirsky, becario postdoctoral en ciberseguridad en el Instituto de Tecnología de Ga y coautor de un artículo que encuestó a los estado real de las tecnologías de creación y detección de deepfake.

«El lado defensivo está haciendo lo mismo», dice. «Están buscando algún tipo de artefacto que sea específico del generador deepfake o aplicando algún clasificador genérico para una arquitectura u otra. Necesitamos buscar soluciones que estén fuera de banda».

El problema es bien conocido entre los investigadores. Tomemos como ejemplo el anuncio de Microsoft del 1 de septiembre de una herramienta diseñada para ayudar a detectar videos deepfake. Microsoft Video clip Authenticator detecta posibles deepfakes al encontrar el límite entre las imágenes insertadas y el video original, proporcionando una puntuación para el video mientras se reproduce.

Si bien la tecnología se lanza como una forma de detectar problemas durante el ciclo electoral, Microsoft advirtió que los grupos de desinformación se adaptarán rápidamente.

«El hecho de que (las imágenes son) generadas por IA que pueden seguir aprendiendo hace que sea inescapable que superen la tecnología de detección convencional», dijo Tom Burt, vicepresidente corporativo de seguridad y confianza del cliente, y Eric Horvitz, director científico de en una publicación de site que describe la tecnología. «Sin embargo, a corto plazo, como las próximas elecciones estadounidenses, las tecnologías de detección avanzada pueden ser una herramienta útil para ayudar a los usuarios más exigentes a identificar deepfakes».

Microsoft no es el único que considera la tecnología genuine de detección de deepfake como una solución temporal. En su Deep Phony Detection Obstacle (DFC) a principios del verano, Fb descubrió que el algoritmo ganador solo detectaba con precisión video clips falsos aproximadamente dos tercios de las veces.

«(L) os resultados del DFDC también muestran que este es todavía un problema sin resolver», dijo la empresa. dijo en su anuncio. «Ninguno de los 2.114 participantes, que incluían a los principales expertos de todo el mundo, logró un 70 por ciento de precisión en deepfakes invisibles en el conjunto de datos de caja negra».

De hecho, llamar a la competencia entre atacantes y defensores una «carrera armamentista» es un nombre poco apropiado porque los avances en la tecnología probablemente significarán que los videos falsos realistas que no pueden ser detectados por la tecnología se convertirán en una realidad no muy lejana en el futuro. dice Alex Engler, miembro de Rubenstein Fellow en estudios de gobernanza en el Brookings Institute, un grupo de expertos en políticas.

«No hemos visto una mejora dramática en los deepfakes, y realmente no tenemos un movie de deepfake súper convincente, pero ¿soy optimista sobre la visión a largo plazo? No realmente», dice. «Van a mejorar. Con el tiempo, no habrá una forma empírica de diferenciar entre un video clip deepfake y uno legítimo».

En un documento de políticaEngler argumentó que los responsables de la formulación de políticas deberán planificar el futuro cuando la tecnología deepfake esté generalizada y sea sofisticada.

En el aspecto técnico, al igual que en la industria antimalware, existen dos rutas probables que tomará la detección de deepfake. Algunas empresas están creando formas de firmar movies como prueba de que no se han modificado. Microsoft, por ejemplo, dio a conocer una tecnología de firma con un complemento de navegador que, según la compañía, puede usarse para verificar la legitimidad de los films.

«A largo plazo, debemos buscar métodos más sólidos para mantener y certificar la autenticidad de los artículos de noticias y otros medios», escribieron Burt y Hovitz. «En la actualidad, existen pocas herramientas que ayuden a asegurar a los lectores que los medios que ven en línea provienen de una fuente confiable y que no fueron alterados».

Otra vía de investigación es buscar otras señales de que un movie ha sido modificado. Con algoritmos de aprendizaje automático capaces de convertir videos en una serie de contenido y metadatos, desde una transcripción de cualquier discurso en el video clip hasta la ubicación de donde se tomó el video clip, la creación de algoritmos de detección basados ​​en contenido podría ser una posibilidad, Mirsky de Georgia Tech dice.

«Al igual que con el malware, si tiene una técnica que puede analizar el contenido genuine, es útil», dice. «Es muy importante porque eleva el listón para el atacante. Pueden mitigar el 90% de los ataques, pero el problema es que un adversario como un actor del estado-nación que tiene mucho tiempo y esfuerzo para refinar el deepfake, se vuelve muy , muy difícil de detectar estos ataques «.

Periodista tecnológico veterano de más de 20 años. Ex ingeniero de investigación. Escrito para más de dos docenas de publicaciones, incluidas CNET Information.com, Dark Looking through, MIT&#39s Know-how Evaluation, Common Science y Wired Information. Cinco premios de periodismo, incluido el de Mejor fecha límite … Ver biografía completa

Lectura recomendada:

Más información





Enlace a la noticia primary