Los investigadores evitan la protección de endpoints de próxima generación



Los productos basados ​​en aprendizaje automático pueden engañarse para clasificar el malware como un archivo legítimo, según muestran los nuevos hallazgos.

El hecho de que su producto de seguridad de punto closing emplee el aprendizaje automático (ML) no significa que no pueda manipularse para pasar por alto el malware, muestra una nueva investigación.

Un par de investigadores manifestar en Black Hat Europe la próxima semana cómo pudieron evitar los productos antimalware de próxima generación basados ​​en ML. A diferencia de investigaciones anteriores que realizaron ingeniería inversa a la herramienta de punto remaining de próxima generación, como El desvío de Skylight del producto de punto final de Cylance en 2018 En cambio, los investigadores pudieron engañar a los denominados clasificadores de malware de análisis estático que se utilizan en algunos productos anti-malware de próxima generación sin realizar ingeniería inversa.

Primero probaron sus ataques utilizando la herramienta de clasificación de malware estática de código abierto Ember, y luego pudieron tomar ese ataque y usarlo contra varios productos antivirus (AV) de próxima generación, que se negaron a nombrar. La investigación avanza hallazgos que presentaron en septiembre en la Conferencia conjunta internacional sobre redes neuronales (IJCNN).

Pasaron a escondidas muestras de malware conocidas de los productos modificando algunas de las características del archivo de explotación, como sumas de verificación y marcas de tiempo, lo que les permitió engañar al clasificador estático haciéndole creer que el malware estaba compuesto por archivos legítimos y no malicioso. (El clasificador de malware básicamente determina si un archivo binario contiene malware).

«Period parte de la investigación que estábamos haciendo para proteger nuestro propio producto, para evaluar la vulnerabilidad de los antivirus de próxima generación a diferentes formas de ataque», dice Ishai Rosenberg, jefe del grupo de aprendizaje profundo de Deep Intuition.

«Tratamos de demostrar que existen otras técnicas» para eludir los AV de próxima generación que no requieren ingeniería inversa del sistema de protección de terminales, dice.

El colega de Rosenberg, Shai Meir, investigador de seguridad y científico de datos en aprendizaje profundo en Deep Intuition, dice que solo modificaron ligeramente las características de las muestras de malware, y eso fue todo lo que necesitó el clasificador en los sistemas AV de próxima generación para etiquetar el código como benigno. y no malicioso.

«Nosotros (primero) comenzamos a atacar esas características y ver cómo el clasificador puntúa los cambios» en ellas, explica Meir. «Por ejemplo, un cambio en la firma del sello de tiempo de un archivo podría afectar la puntuación» y hacer que parezca benigno, dice.

Dicen que el ataque podría llevarse a cabo fácilmente, pero defenderse es difícil. «No hay una fórmula mágica», dice Meir. La protección requiere una defensa en profundidad, dice, pero ni siquiera eso es una técnica de prevención garantizada.

«Este es un problema genérico del aprendizaje automático» y cae en la categoría de ML adversario, señala Rosenberg.

El AA adversario parece estar muy lejos para muchas empresas. Pero incluso las herramientas de seguridad basadas en ML son susceptibles a este tipo de ataques.

«Tenga cuidado con esto porque (está) llegando, y como proveedor y organización, debe estar preparado», advierte Rosenberg.

Kelly Jackson Higgins es la editora ejecutiva de Dim Looking at. Es una periodista veterana y galardonada en tecnología y negocios con más de dos décadas de experiencia en la elaboración de informes y la edición de varias publicaciones, incluidas Network Computing, Secure Business … Ver biografía completa

Lectura recomendada:

Más información





Enlace a la noticia original