Remodelación del panorama de amenazas: los ataques cibernéticos deepfake están aquí



Las campañas maliciosas que involucran el uso de tecnologías deepfake están mucho más cerca de lo que muchos podrían suponer. Además, su mitigación y detección son difíciles.

Un nuevo estudio sobre el uso y abuso de deepfakes por parte de los ciberdelincuentes muestra que todos los elementos necesarios para el uso generalizado de la tecnología están disponibles y disponibles en mercados clandestinos y foros abiertos. El estudio de Trend Micro muestra que muchas estafas promocionales, de compromiso de correo electrónico empresarial (BEC) y de phishing habilitadas para deepfake ya están ocurriendo y están remodelando rápidamente el panorama de amenazas.

Ya no es una amenaza hipotética

«A partir de amenazas hipotéticas y de prueba de concepto, [deepfake-enabled attacks] han pasado a la etapa en la que los delincuentes no maduros son capaces de usar tales tecnologías», dice Vladimir Kropotov, investigador de seguridad de Craze Micro y autor principal de un informe sobre el tema que el proveedor de seguridad publicó esta semana.

«Ya vemos cómo los deepfakes se integran en ataques contra instituciones financieras, estafas e intentos de hacerse pasar por políticos», dice, y agrega que lo que da miedo es que muchos de estos ataques usan identidades de personas reales, a menudo extraídas del contenido que publican en las redes sociales. redes de medios

Una de las principales conclusiones del estudio de Development Micro es la disponibilidad inmediata de herramientas, imágenes y videos para generar deepfakes. El proveedor de seguridad descubrió, por ejemplo, que varios foros, incluido GitHub, ofrecen código fuente para desarrollar deepfakes a cualquiera que lo desee. Del mismo modo, hay disponibles suficientes imágenes y videos de alta calidad de personas comunes y figuras públicas para que los malos actores puedan crear millones de identidades falsas o hacerse pasar por políticos, líderes empresariales y otras personalidades famosas.

La demanda de servicios deepfake y personas con experiencia en el tema también está creciendo en foros clandestinos. Trend Micro encontró anuncios de delincuentes que buscaban estas habilidades para llevar a cabo estafas de criptomonedas y fraudes dirigidos a cuentas financieras individuales.

«Los actores ya pueden suplantar y robar las identidades de políticos, ejecutivos de alto nivel y celebridades», dijo Trend Micro en su informe. «Esto podría aumentar significativamente la tasa de éxito de ciertos ataques, como esquemas financieros, campañas de desinformación de corta duración, manipulación de la opinión pública y extorsión».

Una plétora de riesgos

También existe un riesgo creciente de que las identidades robadas o recreadas pertenecientes a personas comunes se utilicen para defraudar a las víctimas suplantadas o para realizar actividades maliciosas bajo sus identidades.

En muchos grupos de discusión, Craze Micro descubrió que los usuarios discutían activamente formas de usar deepfakes para eludir los controles bancarios y de verificación de otras cuentas, especialmente aquellos que involucran métodos de verificación de video clip y cara a cara.

Por ejemplo, los delincuentes podrían usar la identidad de una víctima y usar un movie falso de ellos para abrir cuentas bancarias, que luego podrían usarse para actividades de lavado de dinero. De manera identical, pueden secuestrar cuentas, hacerse pasar por ejecutivos de alto nivel en organizaciones para iniciar transferencias de dinero fraudulentas o plantar evidencia falsa para extorsionar a las personas, dijo Development Micro.

Dispositivos como Alexa de Amazon y el Iphone, que usan reconocimiento de voz o rostro, pronto podrían estar en la lista de dispositivos objetivo para ataques basados ​​en deepfake, señaló el proveedor de seguridad.

«Dado que muchas empresas todavía trabajan en modo remoto o mixto, existe un mayor riesgo de suplantación de identidad del particular en las conferencias telefónicas, lo que puede afectar las comunicaciones comerciales internas y externas y los procesos comerciales sensibles y los flujos financieros», dice Kropotov.

Development Micro no es el único que hace sonar la alarma sobre las falsificaciones profundas. Una encuesta en línea reciente que VMware realizó entre 125 profesionales de ciberseguridad y respuesta a incidentes también encontró que las amenazas habilitadas para deepfakes no solo están llegando: ya están aquí. Un sorprendente 66% (un 13% más que en 2021) de los encuestados dijeron que habían experimentado un incidente de seguridad relacionado con el uso de deepfakes en los últimos 12 meses.

«Ejemplos de ataques deepfake [already] presenciados incluyen llamadas de voz del CEO a un CFO que conducen a una transferencia bancaria, así como llamadas de empleados a TI para iniciar un restablecimiento de contraseña», dice Rick McElroy, estratega principal de seguridad cibernética de VMware.

Pocas mitigaciones para ataques deepfake y la detección es difícil

En términos generales, estos tipos de ataques pueden ser efectivos, porque aún no hay soluciones tecnológicas disponibles para abordar el desafío, dice McElroy.

«Dado el uso creciente y la sofisticación en la creación de deepfakes, veo esto como una de las mayores amenazas para las organizaciones desde una perspectiva de fraude y estafa en el futuro», advierte.

Actualmente, la forma más efectiva de mitigar la amenaza es aumentar la conciencia sobre el problema entre los equipos de finanzas, ejecutivos y de TI, que son los principales objetivos de estos ataques de ingeniería social.

«Las organizaciones pueden considerar métodos de baja tecnología para romper el ciclo. Esto puede incluir el uso de un desafío y una frase de contraseña entre los ejecutivos al transferir dinero de una organización o tener un proceso de aprobación verificado de dos pasos», dice.

Gil Dabah, cofundador y director ejecutivo de Piaano, también recomienda un management de acceso estricto como medida de mitigación. Ningún usuario debería tener acceso a grandes cantidades de datos personales y las organizaciones deben establecer límites de frecuencia y detección de anomalías, dice.

«Incluso los sistemas como la inteligencia comercial, que requieren análisis de grandes datos, deben acceder solo a datos enmascarados», señala Dabah, y agrega que no se deben mantener datos personales confidenciales en texto sin formato y que los datos como la PII deben tokenizarse y protegerse.

Mientras tanto, en el frente de la detección, los desarrollos en tecnologías como las basadas en IA Redes adversarias generativas (GAN) han dificultado la detección de deepfakes. «Eso significa que no podemos confiar en el contenido que contiene pistas de ‘artefactos’ de que ha habido una alteración», dice Lou Steinberg, cofundador y socio gerente de CTM Insights.

Para detectar contenido manipulado, las organizaciones necesitan huellas digitales o firmas que demuestren que algo no ha cambiado, agrega.

«Aún mejor es tomar microhuellas dactilares sobre partes del contenido y poder identificar qué ha cambiado y qué no», dice. «Eso es muy valioso cuando se ha editado una imagen, pero aún más cuando alguien intenta ocultar una imagen para que no sea detectada».

Tres amplias categorías de amenazas

Steinberg dice que las amenazas de deepfake se dividen en tres categorías amplias. La primera son las campañas de desinformación que en su mayoría involucran ediciones de contenido legítimo para cambiar el significado. Como ejemplo, Steinberg señala a los actores del estado-nación que usan imágenes y movies de noticias falsas en las redes sociales o insertan a alguien en una foto que no estaba presente originalmente, algo que a menudo se united states para cosas como patrocinios implícitos de productos o pornografía de venganza.

Otra categoría implica cambios sutiles en imágenes, logotipos y otro contenido para eludir las herramientas de detección automática, como las que se utilizan para detectar logotipos de productos de imitación, imágenes utilizadas en campañas de phishing o incluso herramientas para detectar pornografía infantil.

La tercera categoría involucra deepfakes sintéticos o compuestos que se derivan de una colección de originales para crear algo completamente nuevo, dice Steinberg.

«Comenzamos a ver esto con el audio hace unos años, utilizando voz sintetizada por computadora para anular las huellas de voz en los centros de llamadas de servicios financieros», dice. «El video ahora se usa para cosas como una versión moderna de compromiso de correo electrónico comercial o para dañar una reputación al hacer que alguien ‘diga’ algo que nunca dijo».



Enlace a la noticia primary