Adversarial Equipment Understanding y el CFAA


Adversarial Machine Mastering y el CFAA

Acabo de ser coautor de un artículo sobre los riesgos legales de hacer investigación de aprendizaje automático, dado el estado genuine de la Ley de Abuso y Fraude Informático:

Resumen: Adversarial Device Mastering está en auge con los investigadores de ML que apuntan cada vez más a los sistemas de ML comerciales como los utilizados en Facebook, Tesla, Microsoft, IBM, Google para demostrar vulnerabilidades. En este documento, preguntamos: «¿Cuáles son los riesgos legales potenciales para los investigadores adversarios de LD cuando atacan los sistemas de LD?» Estudiar o probar la seguridad de cualquier sistema operativo potencialmente va en contra de la Ley de Abuso y Fraude Informático (CFAA), la ley federal principal de los Estados Unidos que crea responsabilidad por piratería. Afirmamos que la investigación Adversarial ML probablemente no sea diferente. Nuestro análisis muestra que, debido a que existe una división en la forma en que se interpreta CFAA, los aspectos de los ataques adversos de LD, como la inversión de modelos, la inferencia de miembros, el robo de modelos, la reprogramación del sistema de ML y los ataques de envenenamiento, pueden ser sancionados en algunas jurisdicciones y no penalizados en otros. Concluimos con un análisis que predice cómo la Corte Suprema de los Estados Unidos puede resolver algunas inconsistencias actuales en la solicitud de la CFAA en Van Buren v. Estados Unidos, una apelación que se decidirá en 2021. Argumentamos que es probable que la corte adopte una construcción estrecha de CFAA, y que esto realmente conducirá a mejores resultados adversos de seguridad de LD a largo plazo.

Medio enviar en el papel. Noticia, que utiliza nuestro gráfico sin atribución.

Publicado el 23 de julio de 2020 a las 6:03 a.m.

1 comentarios



Enlace a la noticia primary