Las 5 cosas principales que debe saber sobre los ataques adversarios


El aprendizaje automático es útil para muchas organizaciones en la industria de la tecnología, pero puede tener una desventaja. Tom Merritt enumera cinco cosas que debe saber sobre los ataques adversarios.

El aprendizaje automático se está utilizando para muchas cosas geniales, desde guiar autos autónomos hasta crear imágenes de gatos que en realidad no existen. Por supuesto, como con cualquier tecnología, si existe alguien querrá piratearla. Algunos de esos piratas informáticos serán maliciosos. Los ataques contradictorios utilizan el aprendizaje automático contra el aprendizaje automático mediante la creación de imágenes, texto o audio, lo que impide que otros algoritmos funcionen como se esperaba. No es gran cosa si interrumpes el generador de gatos que no existe. Mayor problema si el automóvil autónomo ya no ve una señal de alto. Veamos cinco cosas que debe saber sobre los ataques adversarios.

VER: Ingeniería social: una hoja de trucos para profesionales de negocios (PDF gratuito) (TechRepublic)

  1. Solo los algoritmos saben lo que está pasando. Dado que el aprendizaje automático es una caja negra, también lo son los ataques. Un algoritmo puede intentar inyectar un poco de ruido que es indetectable para los humanos hasta que haya engañado a otro algoritmo haciéndole creer que un panda es un gibón. Esto es más difícil de defender que un desbordamiento de búfer más sencillo o algo por el estilo. No hay una línea de código que cause el problema.
  2. Los ataques contradictorios son estadísticos. Eso puede hacer que sea un poco más difícil de atrapar porque no funcionan siempre. Un cambio de ángulo o iluminación puede hacer que fallen y las variables que provocan la falla pueden ser múltiples. El atacante solo necesita que funcionen suficientes veces, no todo el tiempo.
  3. Nunca hay una solución. Puede cambiar los parámetros estadísticos o la arquitectura de un modelo de aprendizaje automático para defenderse de ataques conocidos, pero los atacantes pueden volver a entrenar sus algoritmos de ataque para encontrar nuevos patrones de ruido.
  4. La investigación sobre ataques contradictorios está aumentando. Ben Dickson de TechTalks hizo una búsqueda en ArXiv de artículos que mencionaran ataques o ejemplos de adversarios. Se enviaron 1,100 en 2020, frente a 800 en 2019 y ninguno en 2014.
  5. La comunidad de IA sabe que esto es un problema. Solo necesitan pasar de la investigación a las herramientas. OpenAI escribió que los ejemplos contradictorios son un problema concreto, pero «solucionarlos es lo suficientemente difícil como para requerir un esfuerzo de investigación serio». Investigadores de Microsoft, IBM, Nvidia, MITRE y otras empresas publicaron el Matriz de amenazas de ML adversario en diciembre de 2020 para ayudar a los investigadores a encontrar puntos débiles.

Es lo suficientemente temprano en la omnipresencia de la inteligencia synthetic como para no preocuparse de que los ataques adversarios puedan causar un peligro generalizado. Es lo suficientemente temprano para comenzar a preocuparse por cómo asegurarse de que los ataques adversarios no puedan causar un peligro generalizado, porque el tiempo eventualmente se acabará.

Suscríbete a TechRepublic Leading 5 en YouTube para obtener los últimos consejos tecnológicos para profesionales de negocios de Tom Merritt.

Ver también

Hacker atacando internet

Imagen: iStockphoto / xijian



Enlace a la noticia first