Espere un aumento en los ataques a los sistemas de inteligencia synthetic



Las empresas están adoptando rápidamente el aprendizaje automático, pero no se centran en cómo verificar los sistemas y producir resultados fiables, según muestra un nuevo informe.

La investigación sobre métodos para atacar sistemas de aprendizaje automático e inteligencia artificial ha aumentado, con casi 2000 artículos publicados sobre el tema en un repositorio durante la última década, pero las organizaciones no han adoptado estrategias acordes para garantizar que las decisiones tomadas por los sistemas de inteligencia synthetic sean confiables.

Un nuevo informe de la firma de investigación de inteligencia synthetic Adversa analizó una serie de mediciones de la adopción de sistemas de inteligencia artificial, desde la cantidad y los tipos de artículos de investigación sobre el tema, hasta las iniciativas gubernamentales que tienen como objetivo proporcionar marcos de políticas para la tecnología. Descubrieron que la IA se está adoptando rápidamente, pero a menudo sin las defensas necesarias para proteger los sistemas de IA de los ataques dirigidos. Los llamados ataques de IA adversarios incluyen eludir los sistemas de IA, manipular los resultados y filtrar los datos en los que se basa el modelo.

Este tipo de ataques aún no son numerosos, pero han ocurrido y ocurrirán con mayor frecuencia, dice Eugene Neelou, cofundador y director de tecnología de Adversa.

«Aunque nuestro corpus de investigación se recopila principalmente de la academia, tienen casos de ataque contra sistemas de inteligencia artificial como dispositivos inteligentes, servicios en línea o API del gigante tecnológico», dice. «Es sólo una cuestión de tiempo cuando veamos una explosión de nuevos ataques contra los sistemas de IA del mundo genuine y se volverán tan comunes como el spam o el ransomware».

La investigación sobre los ataques adversarios en el aprendizaje automático y los sistemas de inteligencia synthetic se ha disparado en los últimos años, con más de 1,500 artículos sobre seguridad de la inteligencia artificial publicados en 2019 en el sitio de publicaciones científicas ArXiv.org, frente a 56 en 2016, según Adversa&#39s Informe de IA seguro y confiable.

Sin embargo, ese es solo un tipo de amenaza. Los ataques contrarios a los sistemas de inteligencia artificial pueden ser el caso más grande, y ciertamente es el que atrae la mayor atención, pero también hay otros casos importantes, dice Gary McGraw, cofundador y director del Berryville Institute of Device Discovering (BIML). El grupo de investigadores de aprendizaje automático de BIML identificó 78 amenazas diferentes para los modelos de aprendizaje automático y los sistemas de inteligencia synthetic. Las principales amenazas también incluyen el envenenamiento de datos, la manipulación del sistema en línea, los ataques a modelos ML comunes y la exfiltración de datos, según el informe BIML. Un análisis de riesgo arquitectónico de los sistemas de aprendizaje automático.

A fines del año pasado, Mitre, Microsoft y otras organizaciones, incluido BIML, lanzaron la Matriz de amenazas de Adversarial ML, que incluye 16 categorías de amenazas.

«Una de las cosas que debe hacer de inmediato es familiarizarse con esos riesgos y pensar si alguno de esos riesgos afecta a su empresa», dice McGraw. «Si no piensa en ellos mientras codifica sus sistemas de aprendizaje automático, más tarde se pondrá al día».

Problemas de imagen

La variedad de posibles ataques es asombrosa. Sin embargo, hasta la fecha, los investigadores se han centrado principalmente en atacar los algoritmos de reconocimiento de imágenes y otros modelos de aprendizaje automático relacionados con la visión, y el 65% de los artículos de aprendizaje automático contradictorios tienen un enfoque en la visión, según el análisis de Adversa. En julio, por ejemplo, los investigadores encontraron una variedad de formas de atacar los algoritmos de reconocimiento facial. El otro tercio de los trabajos se centró en ataques analíticos (18%), ataques de lenguaje (13%) y la autonomía de los algoritmos (4%), según Adversa.

La popularidad del uso del aprendizaje automático adverso para socavar los algoritmos relacionados con imágenes y films no se debe a que otras aplicaciones del aprendizaje automático sean menos vulnerables, sino a que los ataques son, por definición, más fáciles de ver, afirmó Adversa en el informe.

«Los datos de imagen son el objetivo más preferred porque es más fácil de atacar y más convincente para demostrar las vulnerabilidades en los sistemas de IA con evidencia noticeable», indicó el informe. «Esto también se correlaciona con el atractivo de atacar los sistemas de visión por computadora debido a su creciente adopción».

Además, el informe también mostró que los investigadores se centraron en docenas de aplicaciones, con la mayor participación (43%) en aplicaciones de clasificación de imágenes, con reconocimiento facial y aplicación de análisis de datos en un distante segundo y tercer lugar con un 7% y 6% de participación. , respectivamente.

Las empresas deben crear conciencia sobre las consideraciones de seguridad y confianza de los algoritmos de aprendizaje automático con todos los involucrados en el desarrollo de sistemas de inteligencia artificial. Además, las empresas deben realizar evaluaciones de seguridad de inteligencia artificial basadas en modelos de amenazas e implementar un monitoreo de seguridad continuo de los sistemas de inteligencia synthetic, dice Neelou de Adversa AI.

«Las organizaciones deben iniciar un programa de seguridad de IA y desarrollar prácticas para un ciclo de vida de IA seguro», dice. «Esto es relevante independientemente de si desarrollan sus propias IA y utilizan capacidades de IA externas».

Además, las empresas deben investigar la gama más amplia de amenazas que afectan su uso de los sistemas de aprendizaje automático, dice McGraw de BIML. Al considerar la gama completa de amenazas de IA, las empresas estarán más preparadas, no solo para ataques futuros, sino también para sistemas de aprendizaje automático e IA mal creados que podrían conducir a malas decisiones comerciales.

«Cuanta más gente piense en esto, mejor será para todos», dice.

Periodista tecnológico veterano de más de 20 años. Ex ingeniero de investigación. Escrito para más de dos docenas de publicaciones, incluidas CNET News.com, Darkish Looking through, MIT&#39s Technology Evaluate, Preferred Science y Wired News. Cinco premios de periodismo, incluido el de Mejor fecha límite … Ver biografía completa

Lectura recomendada:

Más información





Enlace a la noticia original