Imágenes fantasma de fracción de segundo engañan a los pilotos automáticos


Imágenes fantasma de fracción de segundo engañan a los pilotos automáticos

Los investigadores son engañando a los pilotos automáticos insertando imágenes de una fracción de segundo en vallas publicitarias al borde de la carretera.

Investigadores de la Universidad Ben Gurion del Negev en Israel … revelaron anteriormente que podían usar proyecciones de luz de una fracción de segundo en las carreteras para engañar con éxito a los sistemas de asistencia al conductor de Tesla para que se detuvieran automáticamente sin previo aviso cuando su cámara ve imágenes falsas de señales de tráfico o peatones. En una nueva investigación, descubrieron que pueden realizar el mismo truco con solo unos pocos fotogramas de una señal de tráfico inyectados en un video clip de una valla publicitaria. Y advierten que si los piratas informáticos secuestraron una valla publicitaria conectada a World-wide-web para realizar el truco, podría usarse para causar atascos o incluso accidentes de tráfico dejando poca evidencia.

(…)

En este último conjunto de experimentos, los investigadores inyectaron fotogramas de una señal de pare fantasma en vallas publicitarias digitales, simulando lo que describen como un escenario en el que alguien pirateó una valla publicitaria al borde de la carretera para alterar su online video. También se actualizaron a la versión más reciente de Autopilot de Tesla conocida como HW3. Descubrieron que podían volver a engañar a un Tesla o hacer que el mismo dispositivo Mobileye le diera al conductor alertas erróneas con solo unos pocos fotogramas de online video alterado.

Los investigadores descubrieron que una imagen que apareció durante ,42 segundos engañaría de forma fiable al Tesla, mientras que una que apareció durante solo un octavo de segundo engañaría al dispositivo Mobileye. También experimentaron con la búsqueda de puntos en un fotograma de video clip que atraería la menor atención del ojo humano, llegando a desarrollar su propio algoritmo para identificar bloques clave de píxeles en una imagen, de modo que se pudiera generar una señal de tráfico fantasma de medio segundo. se deslizó en las porciones «poco interesantes».

los papel:

Abstracto: En este artículo, investigamos los «ataques fantasma en una fracción de segundo», una brecha científica que hace que dos sistemas comerciales avanzados de asistencia al conductor (ADAS), Telsa Model X (HW 2.5 y HW 3) y Mobileye 630, traten un objeto sin profundidad que aparece durante unos milisegundos como un obstáculo / objeto real. Discutimos el desafío que crean los ataques fantasma en una fracción de segundo para los ADAS. Demostramos cómo los atacantes pueden aplicar ataques fantasmas en una fracción de segundo de forma remota incorporando señales de tráfico fantasmas en un anuncio presentado en una valla electronic que hace que el piloto automático de Tesla detenga repentinamente el automóvil en medio de una carretera y Mobileye 630 emita notificaciones falsas. También demostramos cómo los atacantes pueden usar un proyector para hacer que el piloto automático de Tesla aplique los frenos en respuesta al fantasma de un peatón que se proyecta en la carretera y Mobileye 630 para emitir notificaciones falsas en respuesta a una señal de tráfico proyectada. Para contrarrestar esta amenaza, proponemos una contramedida que puede determinar si un objeto detectado es un fantasma o true utilizando solo el sensor de la cámara. La contramedida (GhostBusters) utiliza un enfoque de «comité de expertos» y combina los resultados obtenidos de cuatro redes neuronales convolucionales profundas y ligeras que evalúan la autenticidad de un objeto en función de la luz, el contexto, la superficie y la profundidad del objeto. Demostramos la eficacia de nuestra contramedida (obtiene un TPR de ,994 con un FPR de cero) y probamos su solidez ante los ataques de aprendizaje automático adversarios.

Publicado el 19 de octubre de 2020 a las 6:28 AM •
comentarios



Enlace a la noticia primary