Ataques de disponibilidad contra redes neuronales


Ataques de disponibilidad contra redes neuronales

Nueva investigación sobre el uso de entradas especialmente diseñadas para ralentizar los sistemas de redes neuronales de aprendizaje automático:

Ejemplos de esponjas: ataques de latencia energética en redes neuronales muestra cómo encontrar ejemplos adversos que hacen que un DNN queme más energía, tome más tiempo o ambos. Afectan a una amplia gama de aplicaciones DNN, desde el reconocimiento de imágenes hasta el procesamiento del lenguaje all-natural (PNL). Los adversarios podrían usar estos ejemplos para todo tipo de travesuras, desde el agotamiento de las baterías de los teléfonos móviles, hasta la degradación de los sistemas de visión artificial de los que dependen los automóviles sin conductor, hasta el bloqueo cognitivo del radar.

Hasta ahora, nuestros resultados más espectaculares están en contra de los sistemas de PNL. Al alimentarlos con entradas confusas, podemos ralentizarlos más de 100 veces. Ya hay ejemplos en el mundo real donde las personas hacer una pausa o tropezar cuando se le hacen preguntas difíciles pero ahora tenemos un método confiable para generar tales ejemplos automáticamente y a escala. También podemos neutralizar las mejoras de rendimiento de los aceleradores para las tareas de visión por computadora, y hacer que operen en su peor desempeño.

los papel.

Publicado el 10 de junio de 2020 a las 6:31 a.m.

comentarios



Enlace a la noticia unique