El ejército de EE. UU. Utiliza el reconocimiento facial para entrenar a la IA Ahora, necesita protegerlo


El grupo de derechos civiles gana la batalla de San Diego para cerrar el programa de tecnología de reconocimiento facial
La campaña del EFF contra los escáneres de reconocimiento facial utilizados por la policía ha dado sus frutos.

El Ejército de EE. UU. Ha anunciado el desarrollo de software program diseñado para evitar el compromiso de la tecnología de reconocimiento facial en aplicaciones militares.

Un equipo de la Universidad de Duke, dirigido por los docentes de ingeniería eléctrica e informática, la Dra. Helen Li y el Dr. Yiran Chen, han creado un sistema que, se espera, podrá mitigar los ataques cibernéticos contra las aplicaciones de reconocimiento facial de los militares.

El ejército de EE. UU. Utiliza las tecnologías de reconocimiento facial y de objetos para entrenar sistemas de inteligencia synthetic (IA) utilizados en vehículos aéreos no tripulados (UAV), sistemas de vigilancia y más.

Las puertas traseras en las plataformas de reconocimiento facial, específicamente, son una verdadera preocupación, ya que su compromiso podría desencadenar una reacción en cadena en la que el aprendizaje de la IA podría corromperse.

Los modelos de IA se basan en grandes conjuntos de datos, y si esta información se basa en el reconocimiento facial, comprometer tipos particulares de imágenes en la fuente, como ropa, orejas o color de ojos, podría arrojar modelos de IA completos y provocar un etiquetado incorrecto.

Este tipo de piratería podría tener serias consecuencias para los programas de vigilancia, donde este tipo de ataque resulta en que una persona objetivo sea identificada erróneamente y, por lo tanto, escape de la detección, dijeron los investigadores.

Los «disparadores» para un ataque son difíciles de encontrar, dicen los militares, ya que pueden parecer inocentes a basic vista y cuando procesan imágenes limpias, las redes neuronales se comportan normalmente. Sin embargo, el código malicioso o las señales visuales incrustadas en las imágenes podrían causar estragos cuando se introducen en las configuraciones de IA.

Ver también: La policía está a punto de desplegar cámaras de reconocimiento facial que destruyen la privacidad en todo Londres

El ejército de los Estados Unidos lanzó una competencia en la que equipos de investigadores rivales contenían conjuntos de datos de 1,284 personas. En full, 10 imágenes contenían un disparador para una puerta trasera que cada equipo debía identificar.

Se tuvieron que considerar tres factores: en qué imágenes se inyectó el disparador, dónde y cómo se veía. La herramienta de la Universidad de Duke fue capaz de escanear imágenes dentro del conjunto de datos para despegar diferentes capas de la imagen, buscando indicadores de manipulación.

«Este trabajo sentará las bases para reconocer y mitigar los ataques de puerta trasera en los que los datos utilizados para entrenar el sistema de reconocimiento de objetos se alteran sutilmente para dar respuestas incorrectas», dice MaryAnne Fields, gerente de programa para sistemas inteligentes en la Oficina de Investigación del Ejército. «Proteger los sistemas de reconocimiento de objetos garantizará que los futuros soldados tengan confianza en los sistemas inteligentes que usan».

El desarrollo del software program tomó nueve meses y fue financiado por una subvención de $ 60,000 proporcionada por ARO, una división del Laboratorio de Investigación del Ejército del Comando de Desarrollo de Capacidades de Combate del Ejército de los Estados Unidos (CCDC).

CNET: Clearview AI demandó por problemas de privacidad de reconocimiento facial

Solo la semana pasada, el uso generalizado de tecnologías de reconocimiento facial en el Reino Unido fue objeto de críticas luego de que el Servicio de Policía Metropolitana (MPS) anunciara el despliegue de cámaras equipadas con tecnologías de reconocimiento facial en todo Londres.

El Fulfilled dice que las cámaras se colocarán en áreas «dirigidas por la inteligencia» para escanear a las personas que pasan por allí con el fin de localizar a los sospechosos buscados.

En respuesta, la Oficina del Comisionado de Información del Reino Unido lanzó una declaración reconociendo los planes, agregando que el MPS «está tomando medidas para reducir la intrusión y cumplir con los requisitos de la legislación de protección de datos».

TechRepublic: ¿Por qué muchas pequeñas y medianas empresas siguen siendo vulnerables al ataque cibernético?

«El MPS se ha comprometido con nosotros a que revisará cada implementación, y el ICO continuará observando y monitoreando los arreglos y la efectividad de su uso», dice el organismo de command.

Este mes, la Unión Europea (UE) provocó un discussion sobre si las tecnologías de reconocimiento facial deberían permitirse o no en los espacios públicos.

La preocupación es very simple: a los legisladores no se les ha dado suficiente tiempo para considerar la legislación para controlar las aplicaciones de reconocimiento facial cuando se trata de los derechos básicos de privacidad de los ciudadanos, y para darles un poco de espacio para respirar, el reconocimiento facial puede enfrentar un temporal – – pero expansivo – prohibición en áreas como parques, atracciones turísticas y calles de la ciudad.

Cobertura previa y relacionada


¿Tienes una propina? Póngase en contacto de forma segura a través de WhatsApp | Señal en +447713 025 499, o más en Keybase: charlie0




Enlace a la noticia first