El laboratorio de Deepfakes: detección y defensa contra los deepfakes con IA avanzada


Las mentiras perjudiciales no son nuevas. Incluso los titulares y el texto engañosos pueden engañar al lector. Sin embargo, la capacidad de alterar la realidad ha dado un salto adelante con la tecnología “deepfake” que permite la creación de imágenes y videos de personas reales diciendo y haciendo cosas que nunca dijeron o hicieron. Las técnicas de aprendizaje profundo están aumentando la delicadeza de la tecnología, produciendo contenido aún más realista que es cada vez más difícil de detectar.

Deepfakes comenzó a llamar la atención cuando un usuario con el seudónimo de «deepfakes» lanzó en Reddit un video pornográfico falso con una actriz de «Ponder Female». Desde entonces, se han lanzado varios video clips manipulados con celebridades de alto perfil, algunos de los cuales tenían un valor puramente de entretenimiento y otros que han retratado a las figuras públicas de una manera degradante. Esto presenta una amenaza serious. Online ya distorsiona la verdad a medida que la información en las redes sociales se presenta y consume a través del filtro de nuestros propios sesgos cognitivos.

Deepfakes intensificará este problema de manera significativa. Las celebridades, los políticos e incluso las marcas comerciales pueden enfrentarse a formas únicas de tácticas de amenaza, intimidación y sabotaje de la imagen personal. Los riesgos para nuestra democracia, justicia, política y seguridad nacional también son graves. Think about una economía de la website oscura en la que los deepfakers producen contenido engañoso que se puede lanzar al mundo para influir en qué automóvil compramos, qué supermercado frecuentamos e incluso qué candidato político recibe nuestro voto. Los deepfakes pueden tocar todas las áreas de nuestras vidas por lo tanto, la protección básica es esencial.

¿Cómo se crean los deepfakes?

Los deepfakes son un avance de vanguardia de la inteligencia synthetic (IA) a menudo aprovechado por malos actores que utilizan la tecnología para generar imágenes, films, voz y texto falsos cada vez más realistas y convincentes. Estos video clips se crean mediante la superposición de imágenes, audio y video clips existentes en archivos multimedia de origen mediante el aprovechamiento de una técnica avanzada de aprendizaje profundo llamada «Redes Adversarias Generativas» (GAN). Las GAN son conceptos relativamente recientes en IA que tienen como objetivo sintetizar imágenes artificiales que son indistinguibles de las auténticas. El enfoque GAN hace que dos redes neuronales funcionen simultáneamente: una pink llamada «generador» se basa en un conjunto de datos para producir una muestra que lo imita. La otra crimson, conocida como «discriminador», evalúa el grado de éxito del generador. De manera iterativa, las evaluaciones del discriminador informan las evaluaciones del generador. La creciente sofisticación de los enfoques GAN ha llevado a la producción de deepfakes cada vez más convincentes y casi imposibles de exponer, y el resultado supera con creces la velocidad, la escala y el matiz de lo que los revisores humanos podrían lograr.

McAfee Deepfakes Lab aplica la experiencia en ciencia de datos para detectar movies falsos

Para mitigar esta amenaza, McAfee anunció hoy el lanzamiento de McAfee Deepfakes Lab para enfocar la experiencia y las herramientas de ciencia de datos de clase mundial de la compañía en contrarrestar la amenaza deepfake para las personas, las organizaciones, la democracia y la integridad normal de la información en toda nuestra sociedad. Deepfakes Lab combina técnicas de visión por computadora y aprendizaje profundo para explotar patrones ocultos y detectar elementos de video manipulados que juegan un papel clave en la autenticación de archivos multimedia originales.

Para garantizar que los resultados de predicción del marco de aprendizaje profundo y el origen de las soluciones para cada predicción sean comprensibles, dedicamos una cantidad significativa de tiempo a visualizar las capas y filtros de nuestras redes y luego agregamos un marco de explicabilidad independiente del modelo sobre el marco de detección. . Tener explicaciones para cada predicción nos ayuda a tomar una decisión informada sobre cuánto confiamos en la imagen y el modelo, además de proporcionar información que se puede utilizar para mejorar este último.

También realizamos una validación y verificación detalladas del marco de detección en un gran conjunto de datos y probamos la capacidad de detección en contenido deepfake encontrado en la naturaleza. Nuestro marco de detección pudo detectar un video clip deepfake reciente de Mark Zuckerberg de Facebook dando un breve discurso sobre el poder de los macrodatos. La herramienta no solo proporcionó una puntuación de detección precisa, sino que generó mapas de calor a través del módulo de explicabilidad independiente del modelo, destacando las partes de su rostro que contribuyeron a la decisión, lo que agregó confianza en nuestras predicciones.

Estos deepfakes fácilmente disponibles reiteran los desafíos que enfrentan las redes sociales cuando se trata de controlar el contenido manipulado. A medida que los avances en las técnicas GAN producen imágenes falsas de aspecto muy realista, será necesario desarrollar técnicas avanzadas de visión por computadora para identificar y detectar formas avanzadas de deepfakes. Además, se deben tomar medidas para defenderse de los deepfakes mediante el uso de marcas de agua o pistas de autenticación.

Hacer sonar la alarma

Nos damos cuenta de que los medios de comunicación tienen un poder significant para moldear las creencias y opiniones de las personas. Como consecuencia, su veracidad a menudo se ve comprometida para maximizar el impacto. El dicho «una imagen vale más que mil palabras» acentúa el significado del fenómeno deepfake. El audio, el video y el texto creíbles pero fraudulentos tendrán un impacto mucho mayor que puede usarse para arruinar la reputación de las celebridades y las marcas, así como para influir en la opinión política con implicaciones aterradoras. Los marcos de detección de visión por computadora y aprendizaje profundo pueden autenticar y detectar medios visuales y contenido de texto falsos, pero el daño a la reputación y la influencia de opiniones persiste.

Al lanzar Deepfakes Lab, McAfee trabajará con las organizaciones tradicionales de noticias y redes sociales para identificar video clips de deepfakes maliciosos durante esta temporada vital de elecciones nacionales de 2020 y ayudar a combatir esta nueva ola de desinformación asociada con deepfakes.

En nuestro próximo blog sobre deepfakes, demostraremos nuestro marco de detección detallado. Con este marco, estaremos ayudando a combatir la desinformación y minimizar el creciente desafío de los deepfakes.

Para contratar los servicios de McAfee Deepfakes Lab, las organizaciones de noticias y redes sociales pueden enviar films sospechosos para su análisis enviando enlaces de contenido a media@mcafee.com.





Enlace a la noticia original