Lectura oscura | Seguridad | Proteja el negocio



Deepfake y las tecnologías de medios sintéticos relacionados han ayudado a los atacantes a desarrollar ataques de ingeniería social cada vez más realistas en los últimos años, presionando a los defensores para que cambien las estrategias que utilizan para detectarlos y abordarlos.

El FBI advirtió que los medios sintéticos jugarán un papel más importante en los ciberataques en marzo, cuando los funcionarios predijeron
«Es casi seguro que los actores malintencionados aprovecharán el contenido sintético para operaciones cibernéticas y de influencia extranjera en los próximos 12 a 18 meses». Algunos criminales ya han comenzado: en 2019, atacantes utilizaron software program basado en inteligencia synthetic para hacerse pasar por la voz de un director ejecutivo y, al hacerlo, facilitar una transferencia de $ 243,000 USD de la organización objetivo.

Si bien los films deepfake atraen la mayor parte de la atención de los medios, este caso demuestra cómo los medios sintéticos van mucho más allá. El FBI determine el contenido sintético como un «amplio espectro de contenido electronic generado o manipulado» que incluye imágenes, movie, audio y texto. Los atacantes pueden utilizar computer software común como Photoshop para crear contenido sintético sin embargo, las tácticas más avanzadas utilizan la inteligencia synthetic y las tecnologías de aprendizaje automático para ayudar a distribuir contenido falso.

Matthew Canham, director ejecutivo de Further than Layer 7, ha investigado ataques remotos de ingeniería social en línea durante los últimos cuatro o cinco años. Su objetivo es comprender mejor el elemento humano detrás de estas campañas: cómo los humanos son vulnerables y qué nos hace más o menos susceptibles a este tipo de ataques. En última instancia, la investigación condujo a un marco que Canham espera que ayude a los investigadores y defensores a describir y abordar mejor este tipo de ataques.

Su primera experiencia con la ingeniería social habilitada por medios sintéticos involucró estafas de tarjetas de regalo utilizando tecnología bot. Las primeras interacciones de estos ataques «fueron casi idénticas y se notaba que estaban programadas», dice Canham. Después de una conversación, cuando lograban que una persona respondiera, pasaban a la interacción de persona a persona para llevar a cabo el ataque.

«La importancia de esto es que permite a los atacantes escalar estos ataques de formas que antes no podían», explica. Cuando pasaron de los chats con guión a los en vivo, Canham notó «un cambio de tono muy dramático», una señal de que los estafadores tenían mucha práctica y sabían cómo presionar los botones de la gente.

Si bien los defensores de hoy tienen acceso a métodos basados ​​en tecnología para detectar medios sintéticos, los atacantes evolucionan constantemente para derrotar los mecanismos de defensa más modernos.

«Por eso tienes … una situación de carrera armamentista, en la que nunca hay realmente paridad entre los dos grupos», explica Canham. «Siempre hay una especie de ventaja que se desliza dinámicamente entre los dos».

Otro problema, agrega, es que muchas plataformas tecnológicas se basan en conjuntos de datos que no tienen incorporadas contramedidas anti-forenses deliberadas. Este es un punto importante, porque los atacantes a menudo intentan derrotar los sistemas defensivos inyectando código en deepfakes y sintéticos. medios que les ayudarán a sortear filtros y otros tipos de mecanismos de defensa.

Y finalmente, aunque la tecnología genuine mejora constantemente, no siempre está disponible para el usuario promedio y sigue siendo difícil de aplicar en tiempo real. Muchas víctimas, incluso si reconocen un ataque de medios sintéticos, pueden no saber qué pasos deben tomar para mitigarlo.

Un enfoque centrado en el ser humano

Dadas estas dificultades, Canham se centra en contramedidas centradas en el ser humano para los ataques de ingeniería social de medios sintéticos. Propone un marco de ingeniería social de medios sintéticos para describir este tipo de ataques y ofrecer contramedidas que son más fáciles de implementar.

El marco abarca cinco dimensiones que se aplican a un ataque: medio (texto, audio, video clip o una combinación), interactividad (ya sea pregrabada, asincrónica o en tiempo real), handle (titiritero humano, software o híbrido). ), Familiaridad (desconocida, familiar o cercana) y Objetivo previsto (humano o automatizado, objetivo specific o público más amplio).

La familiaridad es un componente que él llama «un aspecto cambiante de los medios sintéticos» y se refiere a la relación de la víctima con el «títere» sintético. Un atacante puede adoptar la apariencia o el sonido de alguien acquainted, como un amigo o un acquainted, en un ataque de «secuestro digital» en el que amenaza con dañar a alguien que la víctima conoce. Alternativamente, podrían fingir ser alguien a quien la víctima nunca ha conocido, una táctica común en las estafas románticas y de pesca con gato, dice Canham.

Los métodos centrados en el comportamiento para describir estos ataques pueden ayudar a las personas a detectar inconsistencias entre las acciones de una persona legítima y las de un atacante. Las declaraciones de prueba de vida, por ejemplo, pueden ayudar a evitar que alguien caiga en un ataque de secuestro virtual.

Espera que el marco se convierta en una herramienta útil para los investigadores al proporcionar una taxonomía de ataques y un lenguaje común que puedan usar para discutir los medios sintéticos. Para los profesionales de la seguridad, podría ser una herramienta para anticipar ataques y hacer modelos de amenazas, dice.

(Canham discutirá las dimensiones del marco en su próxima sesión informativa de Black Hat Usa «,Ingeniería social de deepfake: creación de un marco para la ingeniería social de medios sintéticos, «el 4 y 5 de agosto).



Enlace a la noticia original