Deepfakes – el bot me obligó a hacerlo


A medida que aumenta el fraude que involucra medios sintéticos altamente creíbles, ¿qué puede hacer para evitar ser estafado?

Interpretaciones profundamente falsas de seres queridos que dicen que han sido secuestrados pintan una imagen sombría de qué futuro deepfakes – videos especialmente construidos a partir de datos reales – pretenden acercar la tecnología. Después de que el aprendizaje automático ingiere la gran cantidad de imágenes que se crean todos los días a la manera de los selfies de Instagram, puede pintar una voz, una imagen y un movie muy claros de una persona en cuestión, pero con una comunicación falsa especialmente diseñada que imita que la persona está en serios problemas.

No se suponía que la tecnología hiciera esto, se suponía que debía ayudar.

Comenzando con llamadas telefónicas falsas, sintetizadas mediante el procesamiento de clips de audio de su jefe que le piden que transfiera grandes sumas de dinero, la próxima generación de deepfakes promete voces demasiado claras y convincentes para ser discutidas.

Ingrese suficientes datos en un sistema de aprendizaje automático y esa voz se acercará terriblemente a la realidad, como se vio en 2019 en un audaz ataque basado en audio en tiempo authentic en un país con sede en el Reino Unido. empresa de energia, engañándolos con US $ 243.000.

Presentando sobre el tema en Black Hat Usa 2021, El Dr. Matthew Canham, profesor de investigación de ciberseguridad en el Instituto de Simulación y Capacitación de la Universidad de Florida Central, declaró que ha habido un aumento del 820% en los ataques de bots de tarjetas de regalo electrónicas desde que comenzó el bloqueo de COVID-19, a menudo haciéndose pasar por el jefe que instruye un trabajador para ordenar las tarjetas. El ataque comienza con una apertura genérica, «¿Estás ocupado?», Y cuando la víctima responde, el perpetrador mueve la discusión a otro canal, como el correo electrónico, lejos de la automatización del bot.

El ejemplo de las tarjetas de regalo y los mensajes de texto y correo electrónico representa un ataque de ingeniería social cuando se combina con tecnología deepfake que permite al actor malintencionado falsificar video clip y audio para hacerse pasar por un jefe o un colega, solicitar una acción puede causar un problema más importante. La perspectiva de un ataque de suplantación de identidad [phishing] que tome la forma de una conversación de online video con algo que usted cree que es genuine. alguien se está convirtiendo en una perspectiva muy actual. Lo mismo ocurre con un online video deepfake de un ser querido supuestamente secuestrado.

El Dr. Canham también señaló que la tecnología deepfake también se puede usar para acusar a las personas de algo que nunca hicieron. Un movie que muestre a alguien comportándose de manera inapropiada podría tener consecuencias para la persona a pesar de ser falsificado. Think about un escenario en el que un colega hace una acusación y la respalda con evidencia de video clip o voz que parece ser convincente. Puede resultar difícil demostrar que no es real.

Esto puede parecer fuera del alcance de una persona usual y hoy en día puede ser un desafío crearlo. En 2019 periodista Timothy B. Lee, por Ars Technica, gastó US $ 552 creando un video clip deepfake razonable a partir de imágenes de Mark Zuckerberg testificando ante el Congreso, reemplazando su rostro con el del teniente comandante Info de Star Trek: la próxima generación.

¿Confía en sus propios ojos y oídos?

El Dr. Canham sugirió algunos pasos proactivos muy útiles que todos podemos tomar para evitar este tipo de estafas:

  • Cree una palabra secreta compartida con personas en las que pueda necesitar confiar: por ejemplo, un jefe que puede dar instrucciones a los empleados para que transfieran dinero podría tener una palabra comunicada verbalmente que solo ellos y el departamento de finanzas conocen. Lo mismo para aquellos en riesgo de secuestro… una palabra o frase de prueba de vida que indica que el video es serious.
  • Acuerde con los empleados acciones que nunca les pedirá que hagan Si pedir tarjetas de regalo es una acción que «nunca se debe hacer», asegúrese de que todos lo sepan y de que cualquier solicitud de este tipo es un fraude.
  • Utilice canales de autenticación multifactor para verificar cualquier solicitud. Si la comunicación comienza por mensaje de texto, valide comunicándose con la persona usando un número o correo electrónico que sepa que tiene y que no se le solicitó en el contacto inicial.

La tecnología que se utiliza para crear movies o audios deepfake maliciosos es una oportunidad que es poco probable que los ciberdelincuentes se pierdan y, como lo demuestra el ejemplo de la compañía de energía con sede en el Reino Unido, puede ser muy gratificante desde el punto de vista financiero. Las acciones proactivas sugeridas anteriormente son un punto de partida Al igual que con toda la ciberseguridad, es importante que todos estemos atentos y comencemos con un elemento de desconfianza al recibir instrucciones, hasta que las validemos.



Enlace a la noticia first