Sigue siendo un misterio para los investigadores de la Universidad de Michigan y la Universidad de Electro-Comunicaciones (Tokio): qué les permitió inyectar comandos físicamente en los micrófonos integrados de Amazon Alexa, Google Property y otros dispositivos de asistente de voz electronic a través de punteros láser. .
En 2019, el equipo usó la luz para controlar de forma remota el Asistente de Google, Amazon Alexa, Fb Portal y Apple Siri explotando una vulnerabilidad en sus llamados micrófonos MEMS. Utilizaron los rayos de luz para inyectar comandos invisibles e inaudibles a los asistentes de voz digitales, así como teléfonos inteligentes y tabletas controlados por voz, a través de ventanas de vidrio a una distancia de hasta 110 metros (120 yardas).
Ahora están llevando su investigación a una nueva fase.
«Todavía hay algo de misterio en torno a la causalidad física de cómo funciona. Lo estamos investigando más a fondo», dice Benjamin Cyr, un Ph.D. estudiante de Michigan que, junto con la investigadora Sara Rampazzi, presentará la última versión del investigación en Black Hat Europe el 10 de diciembre. ¿Por qué los micrófonos responden a la luz como si fuera sonido? él dice. «Queremos tratar de precisar lo que está sucediendo a nivel físico, para que los diseños de components futuros» los protejan de los ataques de inyección de luz.
Ahora también están estudiando la seguridad de los sistemas de detección en typical, incluidos los que se encuentran en dispositivos médicos, vehículos autónomos, sistemas industriales e incluso sistemas espaciales.
Cyr, Rampazzi, profesor asistente de la Universidad de Florida, y Daniel Genkin, profesor asistente de la Universidad de Michigan, planean mostrar en Black Hat Europe cómo se puede manipular una cámara de seguridad a través de un asistente de voz secuestrado con el que interactúa. Estarán demostrando su truco de inyección de luz contra Amazon Echo 3, un modelo más nuevo del sistema de altavoces inteligentes que no estaba disponible el año pasado cuando probaron por primera vez Echo, Siri, Fb Portal y Google Household. Cyr dice que aún no han tenido la oportunidad de probar el altavoz Echo de cuarta generación.
Como beneficio adicional, Cyr dice que planea demostrar cómo suena realmente el rayo láser cuando golpea el micrófono del asistente digital. «Tomaré algunas grabaciones del micrófono» para reproducir durante la demostración, dice.
En el centro de la investigación se encuentra el problema más amplio de una explosión de dispositivos de World wide web de las cosas en el mercado que no se construyeron teniendo en cuenta la seguridad.
«Queremos entender … cómo defendernos contra estas vulnerabilidades. Nuestro objetivo last es proteger el sistema y hacerlo más resistente, no solo para el ataque que encontramos sino para futuros ataques que aún no se han descubierto», dice Rampazzi. .
Juguetes para gatos y Comandos de luz
Los investigadores gastaron solo $ 2,000 en equipos para realizar el ataque, que denominaron «Comandos de luz» e incluía punteros láser, un controlador láser y un amplificador de sonido. Sin embargo, dicen que podría hacerse por tan solo $ 100, incluida una impresora láser de gama baja para gatos que se puede comprar en Amazon.
«Los láseres de Amazon que compramos eran para gatos» que venían con juguetes para gatos, dice Cyr. «Así que regalamos juguetes para gatos» después de eso.
Para ataques de mayor alcance, compraron un teleobjetivo de $ 200, que les permitió disparar el haz de luz por un largo pasillo. Codifican la señal del micrófono y la luz la modula.
«Se dispara a la parte acústica del micrófono que luego se convierte en una señal acústica. Entonces, la señal de voltaje se ve exactamente igual si se realiza mediante una señal acústica», dice Cyr.
Esto les permite emitir comandos a dispositivos habilitados por voz, como abridores de puertas de garaje, cerraduras inteligentes y cámaras del sistema de seguridad del hogar.
Los investigadores compartieron sus hallazgos con Amazon, Google y los otros proveedores antes de que se hicieran públicas el año pasado con la investigación inicial. Rampazzi dice que desde entonces Amazon ha realizado algunas pequeñas actualizaciones en el software de Alexa, por ejemplo, de modo que un atacante no podría forzar el PIN del dispositivo a fuerza bruta.
«La nueva generación de dispositivos también tiene una cubierta» sobre el micrófono, señala, aunque los investigadores no saben si eso fue en respuesta a su ataque. «La cubierta hace que sea más difícil encontrar la ubicación del micrófono y poder inyectar (comandos de luz) en el dispositivo».
Los proveedores podrían hacer otros ajustes de components para proteger los dispositivos del ataque Light-weight Command, dice, como asegurarse de que el micrófono no sea prone a la luz o agregar técnicas de autenticación al software package para que un usuario no autorizado no pueda apoderarse del asistente de voz electronic. .
Kelly Jackson Higgins es la editora ejecutiva de Dim Looking at. Es una periodista veterana y galardonada en tecnología y negocios con más de dos décadas de experiencia en la elaboración de informes y la edición de varias publicaciones, incluidas Community Computing, Safe Organization … Ver biografía completa
Lectura recomendada:
Más información