Proyecto de investigación de Deepfakes y James Bond: genial pero …


El software program de código abierto para crear deepfakes es cada vez mejor, para disgusto de los investigadores.

En enero de 2020, el Grupo NCC colaboró ​​con estudiantes del College College or university London (UCL) en el tema de implicaciones de ciberseguridad de deepfakes. Como parte de nuestra investigación más amplia sobre inteligencia synthetic (IA) y aprendizaje automático, continuamos explorando el potencial impacto de las falsificaciones profundas en un contexto de ciberseguridad, particularmente en torno a su uso en actividades nefastas. Ya ha habido numerosas historias de estafadores del mundo serious que usan IA para imitar las voces de los CEO en actividades cibercriminales, y creemos que es solo cuestión de tiempo antes de que veamos intentos similares basados ​​en visuales que usan marcos falsos profundos. Y recuerde, muchos de esos marcos son de código abierto y están disponibles gratuitamente para experimentación.

Proyecto y desafío
Nuestro informe a los estudiantes (que forman parte del Centro de Capacitación Doctoral de la UCL en Ciencia Intensiva de Datos) fue explorar marcos comunes de código abierto de deepfake y evaluarlos ampliamente en términos de facilidad de uso y calidad de resultados falsos. Esta primera parte de la investigación fue para ayudarnos a comprender cuán accesibles son estos marcos para los posibles estafadores, y los recursos computacionales y los tiempos de ejecución necesarios para producir resultados realistas. Examinamos dos en individual, Intercambio cara y DeepFaceLaby un código abierto modelo de síntesis facial basado en el habla.

También les pedimos que nos ayudaran a explorar los aspectos prácticos, específicamente, cómo se pueden lograr films falsos realistas. El desafío period tomar un clip de tres minutos de una película (On line casino Royale) y reemplazar la cara del personaje principal (Daniel Craig interpretando a James Bond) con mi cara. Esto nos ayudó a comprender los aspectos logísticos en torno a las cualidades del movie de origen y destino, las condiciones de iluminación, los ángulos y las expresiones faciales de las imágenes de origen y destino. También obtuvimos una mejor comprensión no solo de los detalles técnicos, sino también de los aspectos físicos y de procedimiento.

En el frente procesal, aprendimos que al intentar crear falsificaciones profundas realistas, la calidad (resolución) de los conjuntos de imágenes de origen y destino es muy importante, ya que deben coincidir muy bien. Perdimos algo de realismo en la salida porque el metraje inicial de la calidad High definition no coincidía con el efecto cinematográfico del online video objetivo, que tenía una resolución más suave. Las condiciones de iluminación también son importantes, y las caras de origen y destino deben tener una forma related. Por ejemplo, nuestra imagen de origen tuvo que estirarse ligeramente para que coincida con la del personaje de James Bond.

Los objetos cotidianos también presentaban dificultades: el basic hecho de usar anteojos podría facilitar la prevención de ataques falsos.

Procedimentalmente, también aprendimos que es más difícil producir falsificaciones profundas realistas cuando la imagen fuente no tiene los mismos tipos de forma y movimiento de la boca (durante el diálogo) y movimientos oculares relacionados con las cejas arqueadas o el parpadeo. Los atacantes que buscan crear falsificaciones profundas realistas necesitan un rico conjunto de datos de imágenes faciales de cada individuo con diferentes expresiones y ángulos faciales.

Lo que aprendimos
Nuestra investigación fue diseñada para ayudarnos a comprender mejor las estrategias y / o políticas técnicas de mitigación de riesgos, la regulación y la legislación que podrían ser necesarias para frenar el posible abuso de la tecnología de falsificación profunda. Esto es lo que encontramos:

  • Hay muchos marcos de código abierto ya disponibles para crear deepfakes.
  • Muchos modelos están optimizados para Computer de alta gama o HPC, y requieren una larga capacitación.
  • Los marcos son fáciles de aprender pero más difíciles de dominar.
  • Hay un amplio margen para el error humano, que da como resultado videos poco realistas.

Hay muchos aspectos de procedimiento que impiden la creación de falsificaciones profundas convincentes: iluminación, ángulos, caras de origen y destino de tamaño y forma similares.

En términos de prevención, nuestra investigación identificó algunas técnicas existentes que ofrecen diversos grados de detección de falsificación profunda. Estos dependen en gran medida de las imperfecciones, lo que significa que a medida que los modelos mejoren, las medidas defensivas serán menos efectivas.

Los mecanismos preventivos plantean un desafío aún mayor: requieren la introducción de marcas de agua (que conlleva sus propias limitaciones) o el establecimiento de una raíz de confianza en el momento de la creación del contenido unique. Sería difícil de diseñar e implementar.

La prevalencia del program deepfake de libre acceso y fácil de usar es una preocupación constante. Si bien todavía hay muchos obstáculos de procedimiento y computación para crear resultados realistas, la Ley y la historia de Moore nos dicen que es solo cuestión de tiempo antes de que estas tecnologías sean mejores y más accesibles. Necesitamos más investigación, más opciones tecnológicas y tal vez una regulación para ayudar a evitar peligros falsos.

Contenido relacionado:

Regístrese ahora para el Black Hat United states totalmente digital de este año, programado para el 1 y 6 de agosto, y obtenga más información sobre el evento en el sitio web de Black Hat. Haga clic para obtener detalles sobre información de la conferencia y para registrarse.

Matt Lewis es un experimentado Director de Investigación Técnica en ciberseguridad en NCC Group, una de las consultoras de seguridad más grandes del mundo con más de 35 oficinas globales, 2,000 empleados y 15,000 clientes. Tiene experiencia en consultoría de ciberseguridad, basada en escenarios … Ver biografía completa

Lectura recomendada:

Más ideas





Enlace a la noticia original