Defenderse contra los deepfakes: de los Tells al Crypto


Detectar medios manipulados se ha convertido en un negocio complicado y riesgoso. Así es como las organizaciones pueden protegerse mejor de films, audios y otras formas de contenido falsos.

La concept de que la inteligencia synthetic puede ayudar a crear video clip, audio y otros medios que no se pueden separar fácilmente de los medios «reales» es materia de la ciencia ficción distópica y los sueños de los cineastas. Pero de eso se tratan los deepfakes. Expertos y analistas de seguridad han pasado cientos de miles de palabras preocupándose por los peligros de los deepfakes plantear a la democracia, pero ¿qué pasa con los peligros que representan para la empresa?

«La preocupación que tendría por la empresa es que la sofisticación de las tecnologías deepfake existentes están ciertamente más allá del umbral de la mayoría de los humanos para ser engañados por imágenes falsas», dice Jennifer Fernick, investigadora en jefe del Grupo NCC.

Las imágenes y las palabras que van más allá del umbral de reconocimiento humano se pueden utilizar con propósitos tan «prosaicos» como campañas de spear-phishing muy efectivas, dice. También es un problema creciente porque la tecnología deepfake está mejorando, mientras que nuestra capacidad para detectar deepfakes no.

«Las defensas actuales basadas en máquinas no resuelven todos nuestros problemas», explica.

Como ejemplo de lo difícil que es resolver el problema de deepfake, Fernick señala el concurso de ciencia de datos de Kaggle del año pasado llamado Desafío de detección de deepfake. Con más de 2.200 equipos participando y, según Fernick, aproximadamente 35.000 modelos de detección presentados, el mejor modelo podría detectar un deepfake en menos de dos tercios del tiempo.

Las aplicaciones delictivas para esta tecnología difícil de detectar son cada vez más variadas.

«Ahora recibes un mensaje de correo de voz que suena al igual que tu jefe. Está enojada y quiere que envíes el dinero ahora «, dice Tom Pendergast, director de aprendizaje de MediaPro.» La urgencia en su voz, y estás seguro de que es su voz, abruma tu precaución, y envías el dinero. . Y ahora te han engañado «.

&#39No siempre crea lo que ve&#39
Entonces, con la detección más allá de la capacidad de los humanos y fuera del alcance de la mayoría de las tecnologías, ¿qué puede hacer una organización para estar a salvo de los deepfakes?

«En el futuro, la mejor manera de defenderse de los deepfakes es responsabilizar y responsabilizar a las plataformas que alojan y ponen a disposición del público los deepfakes», dice Joseph Carson, científico jefe de seguridad de Thycotic. «Si una publicación no ha tenido ningún tipo de fuente confiable o contexto, entonces el etiquetado correcto del contenido debe ser claro para el espectador que la fuente del contenido ha sido verificada, aún se está analizando o que el contenido ha sido modificado significativamente. «

Sin un aviso claro de una fuente de medios, los empleados con la capacitación adecuada son engranajes críticos en la maquinaria de seguridad deepfake. Chris Hauk, defensor de la privacidad del consumidor en Pixel Privateness, dice que comienza con la alfabetización mediática básica.

«No siempre crea lo que ve. Los video clips de fuentes cuestionables siempre deben tomarse con un grano de su sustituto favorito sin sal», explica. «Si un online video o una foto no es de una fuente de medios establecida, investigue consultando con otras fuentes».

Hank Schless, gerente senior de soluciones de seguridad de Lookout, dice que la capacitación de los empleados debe actualizarse para tener en cuenta tanto las nuevas realidades del trabajo como las nuevas amenazas deepfake.

«Los deepfakes de audio y redes sociales comienzan con la interacción social, y es necesario capacitar a sus empleados sobre cómo identificar estas actividades sospechosas», dice. «El mejor primer paso es asegurarse de que su capacitación en seguridad incluya la identificación de tácticas modernas como deepfakes y phishing móvil, especialmente cuando las personas trabajan de forma remota. Dado que no podemos caminar por el pasillo para validar la comunicación de un compañero de trabajo, anime a sus empleados a llegar a través de diferentes canales «.

Como ejemplo, sugiere enviar un mensaje a través de un sistema de colaboración para verificar que una llamada telefónica inusual fuera legítima.

(Página siguiente: el online video de Deepfake «dice»)

Curtis Franklin Jr. es editor senior de Darkish Examining. En esta función, se centra en la cobertura de productos y tecnología para la publicación. Además, trabaja en programación de audio y video clip para Darkish Reading y contribuye a las actividades en Interop ITX, Black Hat, INsecurity y … Ver biografía completa

Anterior

1 de 2

próximo

Lectura recomendada:

Más información





Enlace a la noticia original