3 formas en que los delincuentes utilizan la inteligencia artificial en ataques de ciberseguridad


Los delincuentes utilizan el aprendizaje automático para descifrar contraseñas más rápidamente y crear malware que sabe cómo esconderse, advierten los expertos.

ai-en-cerebro-7.jpg

Imagen: iStockphoto / metamorworks

Tres expertos en ciberseguridad explicaron cómo la inteligencia artificial y el aprendizaje automático se pueden utilizar para evadir las defensas de ciberseguridad y hacer que las brechas sean más rápidas y eficientes durante una cumbre de ciberseguridad de NCSA y Nasdaq.

Kevin Coleman, director ejecutivo de Nationwide Cyber ​​Security Alliance, fue el anfitrión de la conversación como parte de Usable Protection: Effecting and Measuring Alter in Human Conduct el martes 6 de octubre.

Elham Tabassi, jefe de individual del laboratorio de tecnología de la información del Instituto Nacional de Estándares y Tecnología, fue uno de los panelistas de la sesión «Inteligencia synthetic y aprendizaje automático para la ciberseguridad: lo bueno, lo malo y lo feo».

VER: Ingeniería social: una hoja de trucos para profesionales de negocios (PDF gratuito) (TechRepublic)

«Los atacantes pueden utilizar la inteligencia artificial para evadir las detecciones, para esconderse donde no se pueden encontrar y adaptarse automáticamente a las contramedidas», dijo Tabassi.

Tim Bandos, director de seguridad de la información de Digital Guardian, dijo que la ciberseguridad siempre necesitará mentes humanas para construir defensas sólidas y detener los ataques.

«La IA es el compañero y los analistas de seguridad y los cazadores de amenazas son los superhéroes», dijo.

Aquí hay tres formas en que la IA y el ML se pueden usar en ataques de ciberseguridad.

Envenenamiento de datos

Tabassi dijo que los malos actores a veces apuntan a los datos utilizados para entrenar modelos de aprendizaje automático. El envenenamiento de datos está diseñado para manipular un conjunto de datos de entrenamiento para controlar el comportamiento de predicción de un modelo entrenado para engañar al modelo para que funcione incorrectamente, como etiquetar los correos electrónicos no deseados como contenido seguro.

Existen dos tipos de envenenamiento de datos: Ataques que tienen como objetivo la disponibilidad de un algoritmo de AA y ataques que tienen como objetivo su integridad. La investigación sugiere que un 3% de envenenamiento del conjunto de datos de entrenamiento conduce a una caída del 11% en la precisión.

Con los ataques de puerta trasera, un intruso puede agregar una entrada a un algoritmo que el diseñador del modelo no conoce. El atacante utiliza esa puerta trasera para hacer que el sistema de AA clasifique erróneamente una determinada cadena como benigna cuando podría estar transportando datos incorrectos.

Tabassi dijo que las técnicas para envenenar los datos se pueden transferir de un modelo a otro.

«Los datos son la sangre y el flamable para el aprendizaje automático y se debe prestar tanta atención a los datos que usamos para entrenar los modelos», dijo. «La confianza del usuario está influenciada por el modelo y la calidad de la capacitación y los datos que se incluyen».

Tabassi dijo que la industria necesita estándares y pautas para garantizar la calidad de los datos y que NIST está trabajando en pautas nacionales para una IA confiable, incluidas pautas de alto nivel y requisitos técnicos para abordar la precisión, la seguridad, el sesgo, la privacidad y la explicabilidad.

Redes generativas antagónicas

Las redes generativas de confrontación (GAN) son básicamente dos sistemas de inteligencia synthetic enfrentados entre sí: uno que simula el contenido first y otro que detecta sus errores. Al competir entre sí, crean conjuntamente contenido lo suficientemente convincente como para pasar por el unique.

Los investigadores de Nvidia entrenaron un modelo de inteligencia artificial único para recrear PAC-Person simplemente observando horas de juego, sin un motor de juego, como explicó Stephanie Condon en ZDNet.

Bandos dijo que los atacantes están utilizando GAN para imitar los patrones de tráfico normales, para desviar la atención de los ataques y para encontrar y filtrar datos confidenciales rápidamente.

«Entran y salen en 30-40 minutos gracias a estas capacidades», dijo. «Una vez que los atacantes comienzan a aprovechar la inteligencia artificial y el aprendizaje automático, pueden automatizar estas tareas».

Las GAN también se pueden utilizar para descifrar contraseñas, evadir la detección de malware y engañar al reconocimiento facial, como describió Thomas Klimek en el documento «.Redes generativas antagónicas: qué son y por qué deberíamos tener miedo. «Un sistema PassGAN creado por investigadores de aprendizaje automático se entrenó en una lista de contraseñas estándar de la industria y, finalmente, pudo adivinar más contraseñas que otras herramientas entrenadas en el mismo conjunto de datos. Además de generar datos, las GAN pueden crear malware que puede evadir la máquina sistemas de detección basados ​​en el aprendizaje.

Bandos dijo que los algoritmos de inteligencia synthetic utilizados en ciberseguridad deben volver a capacitarse con frecuencia para reconocer nuevos métodos de ataque.

«A medida que los adversarios evolucionan, nosotros también tenemos que evolucionar «, dijo.

El usó ofuscación como ejemplo, como cuando un malware se construye principalmente con código legítimo. Un algoritmo ML tendría que poder identificar el código malicioso que contiene.

Manipular bots

El panelista Greg Foss, estratega senior de ciberseguridad de VMware Carbon Black, dijo que si los algoritmos de IA están tomando decisiones, pueden manipularse para tomar la decisión incorrecta.

«Si los atacantes entienden estos modelos, pueden abusar de estos modelos», dijo.

Foss describió un ataque reciente a un sistema de comercio de criptomonedas dirigido por bots.

«Los atacantes entraron y descubrieron cómo los bots estaban haciendo su comercio y usaron los bots para engañar al algoritmo», dijo. «Esto se puede aplicar a otras implementaciones».

Foss agregó que esta técnica no es nueva, pero ahora estos algoritmos están tomando decisiones más inteligentes, lo que aumenta el riesgo de tomar una mala.

Ver también



Enlace a la noticia original