Deepfakes: cuando ver no es creer


¿Está el mundo tal como lo conocemos, listo para el impacto true de los deepfakes?

Los Deepfakes se están volviendo cada vez más fáciles y rápidos de crear y están abriendo una puerta a una nueva forma de delito cibernético. Aunque los movies falsos todavía se consideran principalmente dañinos o incluso humorísticos, esta locura podría dar un giro más siniestro en el futuro y ser el centro de escándalos políticos, delitos cibernéticos o incluso escenarios inimaginables que involucran films falsos, y no solo dirigidos al público figuras

UNA deepfake es la técnica de síntesis de imágenes humanas basada en inteligencia synthetic para crear contenido falso ya sea desde cero o usando online video existente diseñado para replicar la apariencia y el sonido de un humano real. Tales movies pueden parecer increíblemente reales y actualmente muchos de estos video clips involucran a celebridades o figuras públicas que dicen algo escandaloso o falso.

Nuevo investigación muestra un gran aumento en la creación de videos profundos, con el número en línea casi duplicándose solo en los últimos nueve meses. Los deepfakes también están aumentando su calidad a un ritmo rápido. Este movie muestra Bill Hader La transformación sin esfuerzo entre Tom Cruise y Seth Rogan es solo un ejemplo de cuán auténticos se ven estos films, así como de cómo suenan. Si busca en YouTube el término «deepfake», se dará cuenta de que estamos viendo la punta del iceberg de lo que está por venir.

De hecho, ya hemos visto la tecnología deepfake utilizada para el fraude, donde, según los informes, se utilizó una voz deepfake para estafar a un CEO con una gran suma de efectivo. Se cree que el CEO de una firma británica no identificada pensó que estaba hablando por teléfono con el CEO de la empresa matriz alemana y siguió las órdenes de transferir inmediatamente € 220,000 (aproximadamente US $ 244,000) a la cuenta bancaria de un proveedor húngaro. Si fue tan fácil influir en alguien simplemente pidiéndole que lo haga por teléfono, entonces seguramente necesitaremos una mejor seguridad para mitigar esta amenaza.

Engañando a very simple vista

También hemos visto aplicaciones que hacen que los desnudos profundos conviertan las fotos de cualquier persona vestida en una foto en topless en segundos. Aunque, por suerte, una aplicación en specific, DeepNude, ahora ha sido desconectado, ¿qué pasa si esto vuelve en otra forma con una venganza y es capaz de crear movies convincentemente auténticos?

También hay evidencia de que la producción de estos films se está convirtiendo en un negocio lucrativo, especialmente en la industria de la pornografía. los BBC dice que «el 96% de estos video clips son de celebridades femeninas que tienen sus imágenes intercambiadas en video clips sexualmente explícitos, sin su conocimiento o consentimiento».

UNA reciente factura californiana ha dado un salto de fe y ha hecho ilegal crear una falsificación pornográfica de alguien sin su consentimiento con una multa de hasta $ 150,000. Pero es probable que ninguna legislación sea suficiente para disuadir a algunas personas de fabricar los films.

Para estar seguro, un artículo de la Economista discute que para hacer una fake profunda lo suficientemente convincente necesitaría una gran cantidad de video clip y / o grabaciones de voz para hacer incluso un clip corto de pretend profundo. Quería desesperadamente crear una imitación profunda de mí mismo, pero lamentablemente, sin muchas horas de filmación de mí mismo, no pude hacer una imitación profunda de mi cara.

Dicho esto, en un futuro no muy lejano, puede ser posible tomar solo unas pocas historias cortas de Instagram para crear una imitación profunda que la mayoría de los seguidores en línea o cualquier otra persona que las conozca. Podemos ver algunos movies inimaginables que muestran a personas más cercanas a su hogar: el jefe, nuestros colegas, nuestros compañeros, nuestra familia. Además, los deepfakes también pueden usarse para intimidar en las escuelas, la oficina o incluso más lejos.

Además, los cibercriminales definitivamente usarán esta tecnología más para Spearphish víctimas Las falsificaciones profundas se vuelven cada vez más baratas de crear y se vuelven casi imposibles de detectar con el ojo humano solo. Como resultado, toda esa falsificación podría enturbiar fácilmente el agua entre la realidad y la ficción, lo que a su vez podría llevarnos a no confiar en nada, incluso cuando se nos presenta lo que nuestros sentidos nos dicen que creamos.

Enfrentando la amenaza muy actual

Entonces, ¿qué se puede hacer para prepararnos para esta amenaza? Primero, necesitamos educar mejor a las personas sobre la existencia de falsificaciones profundas, cómo funcionan y el daño potencial que pueden causar. Todos tendremos que aprender a tratar incluso los video clips más realistas que vemos que podrían ser fabricaciones totales.

En segundo lugar, la tecnología necesita desesperadamente desarrollar una mejor detección de deepfakes. Ya hay investigando en ello, pero aún no está cerca de donde debería estar. Aunque el aprendizaje automático está en el centro de su creación en primer lugar, debe existir algo que actúe como el antídoto capaz de detectarlos sin depender únicamente de los ojos humanos.

Finalmente, las plataformas de redes sociales deben darse cuenta de que existe una gran amenaza potencial con el impacto de las falsificaciones profundas porque cuando se mezcla un online video impactante con las redes sociales, el resultado tiende a extenderse muy rápidamente y podría tener un impacto perjudicial en la sociedad.

No me malinterpretes Disfruto enormemente el desarrollo de la tecnología y veo cómo se desarrolla frente a mis ojos, sin embargo, debemos estar conscientes de cómo la tecnología a veces puede afectarnos negativamente, especialmente cuando el aprendizaje automático está madurando a un ritmo más rápido que nunca. De lo contrario, pronto veremos que los deepfakes se convierten en deepnorms con efectos de largo alcance.








Enlace a la noticia unique