Preparándose para la próxima epidemia de ciberseguridad: Deepfakes



A la luz del rápido avance de la tecnología deepfake y la creciente dependencia de las herramientas de colaboración digital debido a los arreglos de trabajo posteriores a COVID, las organizaciones deben estar preparadas para que los actores malintencionados se vuelvan más sofisticados en sus intentos de suplantación de identidad. Lo que era un correo electrónico de phishing inteligentemente escrito desde una cuenta de correo electrónico de nivel C en 2021 podría convertirse en un video bien elaborado o una grabación de voz que intente solicitar la misma información y recursos confidenciales en 2022 y más allá.

Deepfakes son imágenes y videos creados con computadoras y program de aprendizaje automático para que parezcan reales, aunque no lo sean. En los últimos años ha habido varios ataques deepfake de alto perfil resultando en fondos robados. Recientemente, un banco con sede en Hong Kong fue engañado por un ataque de «voz profunda» impulsado por inteligencia synthetic que clonó la voz de un director de confianza que buscaba una transferencia de $ 35 millones. Desafortunadamente, estos casos son cada vez más comunes. Dado que los ciberdelincuentes se dirigen constantemente a las organizaciones empresariales, ahora es más importante verificar todo el contenido, a pesar de lo válido que pueda parecer en la superficie.

Los peligros de Deepfake en la nueva fuerza laboral híbrida
Los ciberdelincuentes se han hecho pasar por los correos electrónicos de la empresa durante décadas a través de ataques de phishing diarios. Pero ahora, los ciberdelincuentes han ido un paso más allá con el engaño de voz y video. Un ejemplo clásico de deepfake es cuando una persona influyente solicita algún tipo de donación monetaria. Aparentemente, un ejecutivo puede enviar un mensaje de voz por correo electrónico a un empleado solicitando una donación para su organización benéfica solo para descubrir que la grabación period falsa y que el dinero se entregó a una cuenta en el extranjero. Es fácil que el empleado reaccione de inmediato en lugar de verificar si es verdad.

Si tu jefe te pide que hagas algo, por lo standard te sientes presionado a cumplir. Y en la period del trabajo híbrido, es más difícil confirmar estas interacciones, ya que muchas organizaciones dependen menos de la comunicación cara a cara. Las superficies de ataque de las comunicaciones digitales se están disparando, y la tecnología de engaño sigue el ritmo, lo que la convierte en una combinación muy peligrosa y propicia para los ataques deepfake.

Cómo la IA puede combatir las amenazas de deepfake
Afortunadamente, la IA ha logrado avances significativos en el análisis de video y audio. Por ejemplo, YouTube genera automáticamente subtítulos a partir de audio y tiene procesamiento de texto como un sistema de IA que busca palabras clave y categoriza el contenido. Este mismo tipo de tecnología se puede utilizar para descifrar movies de phishing. Si un director ejecutivo pide a los empleados que donen a su organización benéfica, un sistema de ciberseguridad de IA puede convertir y analizar el texto y reconocer si la solicitud es por dinero y si el pago debe enviarse a través de Zelle, en lugar de un sitio world-wide-web de caridad.

Un sistema de IA también podría abstraer estos datos e ingresarlos en un marco de cumplimiento legal para el pago aprobado, lo que provocaría que un humano apruebe el pago o intervenga. La IA puede ser una primera capa de defensa y puede señalar irregularidades más rápidamente que el ojo humano. Por ejemplo, un sistema de IA también puede comparar rápidamente el mensaje de audio/video con el metraje unique conocido existente para asegurarse de que el mensaje no se genere a partir de una cantidad de clips manipulados y empalmados, eliminando una tarea que requiere mucho tiempo para un ser humano. Hay más avances en este tipo de detección, y varios sistemas de IA son capaces de procesar video clip y audio para contexto y pueden transmitir esta información a un humano o pueden detectarse automáticamente.

La autenticidad combate las falsificaciones profundas
Cada vez es más importante que las organizaciones determinen la designación del certificado de autenticidad de forma handbook o automática para videos y contenido colaborativo. Los métodos de autenticación, incluida la cadena de bloques, podrían ser un factor clave para combatir los ataques de falsificación profunda. Blockchain se puede usar en una variedad de aplicaciones, desde legales hasta votaciones para autenticar la identidad. Blockchain se puede usar de varias maneras. Se puede utilizar para pedirle a un usuario que proporcione una prueba de su identidad antes de que pueda difundir contenido bajo su nombre. Las aplicaciones de cadena de bloques también se pueden usar para verificar si el contenido de un archivo determinado ha sido falsificado o manipulado desde su versión initial.

Ya sea que se foundation en blockchain u otros métodos de autenticación, se pueden implementar esquemas de autenticación para determinar la legitimidad de un archivo de audio o video clip. La descentralización de la autenticación es essential para que una entidad no tenga la autoridad full para validar el contenido. Además de blockchain, el uso de firmas o autenticación multifactor son formas viables de aumentar la seguridad en torno a la autenticación.

Si bien las organizaciones pueden usar la cadena de bloques y la IA para luchar contra las falsificaciones profundas, uno de los métodos más importantes puede implicar la capacitación en concientización sobre seguridad cibernética. Más organizaciones están capacitando a sus empleados para protegerse mejor a sí mismos y a la organización contra una variedad de ataques cibernéticos. Las organizaciones deben implementar capacitación de concientización sobre seguridad cibernética que enseñe a las personas a verificar si las comunicaciones son auténticas. A medida que surgen nuevos ataques cibernéticos falsos profundos, la capacitación de concientización es un paso importante a corto plazo para combatir una variedad de ataques.



Enlace a la noticia authentic