Tribunal holandés dictamina que el sistema de detección de fraude de beneficios de IA viola los derechos humanos de la UE


El grupo de piratería respaldado por el estado intensifica la campaña contra los servicios de VPN
Si estás en Fortinet, Palo Alto, Pulse Safe, parchea ahora, advierte la agencia de espionaje del Reino Unido

Una corte holandesa ha exigido que un sistema basado en algoritmos utilizado por el gobierno para identificar y rastrear posibles engaños de viviendas y beneficios se elimine con efecto inmediato.

Como reportado por DutchNews, el miércoles, el Tribunal de Distrito de La Haya dictaminó que el sistema entra en conflicto con los derechos humanos y las protecciones de privacidad de la UE.

Apodada la Indicación de Riesgo del Sistema (SyRI), la herramienta automática de aprendizaje automático (ML) fue utilizada por las autoridades holandesas locales para elaborar perfiles y listas de personas sospechosas de tener un alto riesgo de fraude de beneficios.

Ver también: Fb acuerda pagar $ 550 millones para finalizar la demanda de tecnología de reconocimiento facial

Según la publicación, SyRI crea perfiles de riesgo de personas que cometieron fraude en la seguridad social en el pasado y luego busca perfiles de ciudadanos «similares», creando pistas para posibles investigaciones sobre otros que también pueden estar cometiendo fraude o tener un alto riesgo de hacerlo en el futuro.

La agrupación de datos ciudadanos de SyRI, que de otro modo se mantendría en silos separados, otorgó a las autoridades amplios poderes y «se ha dirigido exclusivamente a vecindarios con residentes en su mayoría de bajos ingresos y minoritarios», según el relator de derechos humanos y pobreza de la ONU, Philip Alston.

«A través de SyRI, barrios pobres enteros y sus habitantes fueron atacados y espiados digitalmente, sin ninguna sospecha concreta de irregularidades individuales», agregó. defensor de los derechos humanos dijo.

Los críticos del sistema argumentaron que el uso de algoritmos de esta manera creó sospechosos de personas inocentes, lo que resultó en un desafío authorized presentado por grupos de derechos y el sindicato FNV en 2018.

El tribunal aceptó prácticas discriminatorias, que también expresaron preocupación por las insuficientes salvaguardas de privacidad de la herramienta y la falta de transparencia.

CNET: Clearview AI golpeó con cesar y desistir de Google y Facebook sobre la colección de reconocimiento facial

Alston aplaudió la decisión y comentó: «Al aplicar estándares universales de derechos humanos, este tribunal holandés está estableciendo un estándar que puede ser aplicado por los tribunales de otros lugares. El litigio y su resultado probablemente inspiren a activistas en otros países a presentar desafíos legales similares para abordar los riesgos de los sistemas de bienestar digital emergentes «.

El estado holandés puede apelar el fallo.

los Observador de derechos humanos Consideró que la decisión fue una victoria y dijo que la orden «ha sentado un precedente importante para proteger los derechos de los pobres en la period de la automatización».

«Los gobiernos que se han basado en el análisis de datos para controlar el acceso a la seguridad social, como los de los Estados Unidos, el Reino Unido y Australia, deben prestar atención a la advertencia del tribunal sobre los riesgos de derechos humanos involucrados en tratar a los beneficiarios de la seguridad social como sospechosos perpetuos, «agregó el grupo de derechos civiles.

TechRepublic: Cómo proteger a su organización de la infraestructura como riesgos de seguridad del código

Cobertura previa y relacionada


¿Tienes una propina? Póngase en contacto de forma segura a través de WhatsApp | Señal en +447713 025 499, o más en Keybase: charlie0




Enlace a la noticia initial