Lectura oscura | Seguridad | Proteja el negocio


Se sabe que las tecnologías emergentes causan histeria masiva injustificada. Dicho esto, y con el riesgo de sonar hiperbólico, las preocupaciones sobre los efectos potenciales de los deepfakes están absolutamente justificadas. Como señaló la división cibernética del FBI en su reciente notificación de la industria privada, los actores malintencionados ya han comenzado a incorporar audio y movie deepfake en sus campañas existentes de ingeniería social y pesca submarina. Con las tecnologías deepfake cada día más accesibles y convincentes, los medios sintéticos se extenderán, lo que podría tener como resultado graves consecuencias geopolíticas.

Estado actual de los deepfakes
Al igual que el computer software de edición de fotos y video clips para el consumidor, las tecnologías deepfake no son inherentemente buenas ni malas, y eventualmente se convertirán en la corriente principal. De hecho, ya existe una gran cantidad de aplicaciones populares listas para usar, incluidas FaceApp, FaceSwap, Avatarify y Zao. Aunque muchas de estas aplicaciones vienen con descargos de responsabilidad, este contenido sintético está completamente protegido por la Primera Enmienda. Es decir, hasta que el contenido se utilice para promover esfuerzos ilegales y, por supuesto, ya estamos viendo que esto sucede. En los foros de la Darkish Website, las comunidades deepfake comparten inteligencia, ofrecen deepfakes como servicio (DaaS) y, en menor medida, comprar y vender contenido.

Por el momento, el audio deepfake es posiblemente más peligroso que el video clip deepfake. Sin señales visuales en las que confiar, los usuarios tienen dificultades para reconocer el audio sintético, lo que hace que esta forma de deepfake sea particularmente eficaz desde el punto de vista de la ingeniería social. En marzo de 2019, los ciberdelincuentes realizaron con éxito un ataque de audio deepfake, engañando al director ejecutivo de una empresa de energía con sede en el Reino Unido para que transfiriera 243.000 dólares a un proveedor húngaro. Y el año pasado en Filadelfia, un hombre fue atacado por un ataque de suplantación de audio. Estos ejemplos muestran que los malos actores están utilizando activamente audio deepfake en la naturaleza para obtener ganancias monetarias.

No obstante, el miedo a los ataques de online video deepfake está superando a los ataques reales. Aunque inicialmente se informó que los políticos europeos fueron víctimas de video clip deepfake llamadas, como resulta, los ataques fueron realizados por dos Bromistas rusos, uno de los cuales comparte un parecido noteworthy con Leonid Volkov, jefe de gabinete del político anti-Putin Alexei Navalny. Sin embargo, este incidente geopolítico, y la reacción al mismo, muestra cuán temerosos nos hemos vuelto de las tecnologías deepfake. Titulares como Los ataques deepfake están a punto de surgir y Las imágenes de satélite deepfake plantean serios desafíos militares y políticos son cada vez más comunes. De hecho, se siente como si el miedo a los deepfakes estuviera superando a los ataques reales sin embargo, esto no significa que la preocupación sea injustificada.

Algunos de los deepfakes más famosos todavía requieren mucho esfuerzo y un alto nivel de sofisticación. El viral Tom Cruise deepfake fue una colaboración entre el especialista en efectos de movie de Bélgica Chris Ume y el actor Miles Fisher. Aunque Ume usó DeepFaceLab, la plataforma deepfake de código abierto responsable del 95% de los deepfakes creados actualmente, advierte a la gente que este movie no fue fácil de hacer. Ume entrenó su modelo basado en IA durante meses, luego incorporó los gestos de Fisher y las herramientas CGI.

deepfake.jpg

Crédito: freshidea a través de Adobe Stock

Dado que los deepfakes se utilizarán como una extensión de las campañas de ingeniería social y de spear-phishing existentes, es important mantener a los empleados atentos y conscientes de tales ataques. Es importante tener un escepticismo saludable del contenido de los medios, especialmente si la fuente de los medios es cuestionable.

Es importante buscar señales diferentes, incluido el espaciamiento de los ojos demasiado constante problemas de sincronización entre los labios de un sujeto y su rostro y, según el FBI, distorsiones visuales alrededor de las pupilas y los lóbulos de las orejas del sujeto. Por último, los fondos borrosos, o las partes borrosas de un fondo, son una señal de alerta. Como advertencia, estos indicadores cambian constantemente. Cuando los deepfakes circularon por primera vez, los patrones de respiración extraños y los ojos parpadeantes eran los signos más comunes. Sin embargo, la tecnología mejoró posteriormente, haciendo que estos indicadores sean obsoletos.

Qué hay en la tienda
Hemos visto algunas iniciativas de detección de deepfake de la gran tecnología, a saber, Microsoft herramienta de autenticación de video y de Fb desafío de detección de deepfake sin embargo, se está realizando un gran trabajo prometedor en el ámbito académico. En 2019, los académicos notaron que las discrepancias entre movimientos de la cabeza y expresiones faciales podría usarse para identificar deepfakes.

Más recientemente, los académicos se han centrado en formas de boca Al no lograr coincidir con los sonidos adecuados, y quizás el más innovador, un proyecto reciente se ha centrado en señales del generador. Este enfoque propuesto no solo separa los films auténticos de los deepfakes, sino que también intenta identificar los modelos generativos específicos detrás de los movies falsos.

En tiempo genuine, estamos viendo un intercambio entre quienes usan redes generativas de confrontación para el bien y quienes las usan para hacer daño. En febrero, los investigadores encontraron que los sistemas diseñados para identificar deepfakes puede ser engañado. Por lo tanto, no para insistir en el punto, pero las preocupaciones sobre los deepfakes están bien fundadas.

Protéjase y proteja a su empresa
Como ocurre con cualquier nueva tecnología, los sistemas regulatorios y legales no pueden moverse tan rápido como la tecnología emergente. Al igual que Photoshop antes que ellos, las herramientas deepfake eventualmente se convertirán en la corriente principal. A corto plazo, todos tenemos la responsabilidad de permanecer vigilantes y conscientes de los ataques de ingeniería social con tecnología deepfake.

A más largo plazo, las agencias reguladoras deberán intervenir. Algunos estados, California, Texas y Virginia, ya han aprobado leyes penales contra ciertos tipos de deepfakes, y las empresas de redes sociales también se han dedicado a la autorregulación.

En enero de 2020, Fb emitió una política de medios manipulada, y al mes siguiente, Twitter y YouTube siguieron su ejemplo con sus propias políticas. Dicho esto, estas empresas no tienen los mejores antecedentes en lo que respecta a la autorregulación. Hasta que las herramientas de detección de deepfake se generalicen y se promulguen las leyes federales de ciberseguridad, es aconsejable mantener un escepticismo saludable sobre ciertos medios, especialmente si la fuente de los medios es sospechosa o si esa solicitud de llamada telefónica no suena del todo bien.



Enlace a la noticia initial