El uso malicioso de la IA plantea una amenaza real de ciberseguridad



Deberíamos prepararnos para un futuro en el que los ciberataques artificialmente inteligentes se vuelvan más comunes.

¿Podrían las mismas tecnologías automatizadas que los profesionales de la seguridad cibernética utilizan cada vez más para proteger a sus empresas, y también alimentar ataques contra ellas? La investigación lo confirma, según un informe que mi colega Marc Bruce y yo completamos recientemente para la Agencia de Investigación de Defensa de Suecia.

El uso de herramientas de inteligencia artificial (IA) para analizar datos y predecir resultados ha sido una bendición para muchas industrias, incluidas las industrias de ciberseguridad y defensa. Cada vez más, los sistemas de inteligencia antivirus y de amenazas cibernéticas están utilizando el aprendizaje automático para ser más eficientes. Por ejemplo, tanto la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU. (DARPA) y la Agencia Europea de Defensa (EDA) buscan integrar las tecnologías de IA en sus capacidades de respuesta de defensa cibernética.

Sin embargo, la IA podría ser un arma de doble filo, con algunos de los pensadores más destacados de la industria. advertencia de ciberataques compatibles con IA. En este juego de gato y ratón, prever cómo la IA podría usarse en ataques cibernéticos maliciosos, y comprender su potencial futuro, preparará y equipará mejor a los respondedores.

Este artículo resume algunas de las conclusiones importantes de nuestro informe «Ciberataques Artificialmente Inteligentes«.

¿Cómo llegamos aquí?
El vasto y variado potencial del mal uso de la IA se enfocó en un informe histórico por varias instituciones de investigación en 2018. El informe mostró el potencial common de los usos maliciosos digitales, físicos y sociales de la IA.

Sin embargo, ya se había establecido que la IA podría desempeñar un papel destacado en los ataques cibernéticos. El primer ataque cibernético apoyado por la IA, registrado en 2007, fue cortesía de un chatbot de citas conocido como CyberLover, descrito como mostrar un «nivel sin precedentes de ingeniería social». El bot se basó en el procesamiento del lenguaje pure (PNL) para perfilar objetivos y generar respuestas de chat personalizadas que contienen hipervínculos fraudulentos, y se hizo famoso por sus robos de datos personales. Se estimó que CyberLover podría establecer una nueva relación cada tercer minuto.

Avance rápido hasta 2016: DARPA organizó el Grand Cyber ​​Challenge, en el que las máquinas, no los humanos, fueron los principales concursantes. Durante el concurso, se utilizaron soluciones compatibles con IA para detectar, explotar y parchear vulnerabilidades. Es de destacar que el desafío no solo atrajo a concursantes de instituciones de investigación, sino también al complejo industrial de defensa.

Más recientemente, en medio de las crecientes preocupaciones sobre el futuro uso indebido de IA, el Instituto de las Naciones Unidas para la Investigación del Desarme reportado sobre los aspectos normativos y legales de la IA en las operaciones cibernéticas, reafirmando la responsabilidad del gobierno de promulgar políticas sobre el uso y el mal uso de las nuevas tecnologías. Concomitantemente, empresa de ciberseguridad Darktracey IBM comenzó a buscar casos de uso técnico específicos para IA en ciberataques.

Usos maliciosos de IA en ataques cibernéticos
Con eso como telón de fondo, es essential anclar el camino a seguir en nuestra respuesta al mal uso de la IA. Basado en nuestra extensa investigación revisada por pares de prototipos de IA principalmente experimentales, las capacidades de agregación de datos de AI parecen ser lo más importante para los ciberatacantes que desean aprovechar la tecnología para informar sus planes de ataque. A corto plazo, los casos más fuertes para esto se encuentran en la etapa inicial de reconocimiento de los ciberataques. A través de una multitud de aplicaciones, las tecnologías de IA han demostrado ser sumamente efectivas en el análisis de datos. Las soluciones de inteligencia synthetic de amenazas cibernéticas ya están disponibles, incluidas Watson de IBM para ciberseguridad y ofertas de Cylance y CrowdStrike. Por lo tanto, podemos esperar que los antagonistas compatibles con IA tengan la capacidad de generar de manera eficiente inteligencia sobre tendencias de mitigación de amenazas, objetivos de perfil y generar bibliotecas de vulnerabilidades (conocidas) a escala.

Otra capacidad maliciosa para observar es la eficiencia de la IA en la realización de tareas repetitivas. Como se ve en el Incidente Ticketmaster Desde 2010, las herramientas de IA para derrotar a los Captchas están disponibles. La investigación experimental sobre la derrota de Captcha también está bien establecida. Sin embargo, las tareas repetitivas, como adivinar contraseñas, forzar y robar, así como automatizar la generación de exploits, también deben considerarse motivos prometedores en los que las pruebas prototípicas podrían convertirse en soluciones más avanzadas. Por ejemplo, algunos experimentos, como el uso de contraseñas y el robo de contraseñas, han mostrado tasas de éxito de más del 50% y 90%, respectivamente.

Finalmente, el engaño y la manipulación parecen posibles desarrollos de capacidad derivados de la IA. El caso de phishing cada vez más sofisticado soportado por AI puede parecer inminente cuando se mira un caso relativamente antiguo como CyberLover. En realidad, la investigación sobre phishing respaldado por AI, junto con herramientas de AI para evitar la detección de phishing, ha producido resultados mixtos. Sin embargo, esto no niega el potencial de AI para superar estadísticamente la eficiencia de los intentos humanos de ingeniería social.

Los ataques apoyados por la IA ya han comenzado supuestamente a imitar patrones de comportamiento standard en redes de destino, lo que hace que sean más difíciles de detectar. Si bien la tecnología de análisis de comportamiento de red ya está en uso para la seguridad, la investigación indica que esta tecnología también podría ser retorcida para fines maliciosos. Además, un dominio de investigación emergente se refiere a la capacidad de atacar diferentes tipos de clasificadores que identifican patrones en los datos, como los filtros de correo no deseado que identifican el correo electrónico no deseado. Con nuevos usos para NLP y otros clasificadores de IA en el horizonte, las preocupaciones de seguridad se vuelven más diversas.

Mirando hacia el futuro
Deberíamos prepararnos para un futuro en el que los ciberataques artificialmente inteligentes se vuelvan más comunes. Como se mencionó, las capacidades avanzadas de agregación de datos de AI podrían ayudar a los actores maliciosos a tomar decisiones más informadas. Si bien estas capacidades pueden no necesariamente impulsar un cambio hacia ataques más sofisticados, el potencial para aumentar la escala de actividades maliciosas debería ser motivo de preocupación. Incluso la automatización de ataques simples podría agravar tendencias como el robo de datos y el fraude.

A largo plazo, no debemos descartar la posibilidad de que los desarrollos en las capacidades de engaño y manipulación puedan aumentar y diversificar la sofisticación de los ataques. Incluso los expertos que desarrollan IA están comenzando a preocuparse por varias posibilidades de engaño, y esas preocupaciones abarcan los campos de texto AI, imagen y generación de audio. En el futuro de los sistemas físicos que implementan IA, como los automóviles inteligentes, una carrera armamentista de IA entre defensores y atacantes puede tener un impacto en los riesgos de daños físicos.

Si bien los investigadores se están concentrando en la tarea de asegurar el dominio cibernético con IA, una de las conclusiones preocupantes de nuestra investigación es que estos esfuerzos podrían no ser suficientes para proteger contra el uso malicioso de la IA. Sin embargo, al anticipar qué esperar del mal uso de la inteligencia synthetic, ahora podemos comenzar a preparar y adaptar contramedidas diversas y más completas.

Marc Bruce, un analista de investigación en prácticas en la Agencia de Investigación de Defensa de Suecia, es coautor de este artículo

Artículos relacionados:

Erik Zouave es analista de la Agencia Sueca de Investigación de Defensa FOI, donde investiga aspectos legales de tecnología y seguridad. Ha sido becario de investigación en Citizen Lab, Munk School of World Affairs, en la Universidad de Toronto, Google Policy Fellow, y … Ver biografía completa

Lectura recomendada:

Más tips





Enlace a la noticia original