Clasificación de crímenes futuros habilitados por IA: Deepfakes, spearphishing y más


Un estudio explora el posible alcance y el riesgo de ataques de robots militares y drones de ataque autónomos al acecho asistido por IA. Aquí están los 5 primeros.

recopilación-de-datos-en-línea-data-data-privacy.jpg

IMAGEN: iStock / MaksimTkachenko

Las organizaciones están adoptando la transformación electronic para mejorar las operaciones. La inteligencia synthetic (IA) en specific está revolucionando las formas en que las empresas colaboran y realizan negocios. Sin embargo, a medida que estas tecnologías se difunden entre industrias, estos sistemas dan lugar a nuevos puntos de ataque y vulnerabilidades especialmente para actividades delictivas.

UNA estudiar publicado en la revista Crime Science analizó un amplio espectro de delitos habilitados por IA en los próximos años, desde robots militares y drones de ataque autónomos hasta acecho asistido por IA. Para evaluar los riesgos asociados con estos diversos escenarios criminales potenciales, la revisión incluyó un taller de dos días de personas del sector público y privado, académicos, agencias policiales y más.

A estos delegados se les pidió que «catalogaran las amenazas criminales y terroristas potenciales que surgen del aumento de la adopción y el poder» y luego clasificaran las amenazas según el daño anticipado, la viabilidad typical, las ganancias criminales y el nivel de dificultad asociado con derrotar una amenaza en certain. A continuación, enumeramos los cinco principales delitos habilitados por IA con el riesgo más alto en los próximos años, según el estudio.

Más sobre inteligencia artificial

Audio y video clip falsos

La suplantación realista de audio y movie falsos encabezó la lista de delitos de alto riesgo habilitados por la IA del futuro. En los últimos años, los films y fotos falsos realistas conocidos como «deepfakes» han aumentado en sofisticación. La capacidad de producir medios falsos excepcionalmente realistas crea un camino completamente nuevo para la desinformación. Con avances continuos, estas personificaciones podrían evocar una amplia gama de actividades delictivas incluida la explotación de «la confianza implícita de la gente en estos medios», según el estudio.

Hay otras aplicaciones potenciales además de erosionar la confianza en fuentes de noticias confiables.

Han aparecido en línea falsificaciones realistas de líderes políticos como Vladamir Putin, Donald Trump, George Bush, Barack Obama y otros. También se podrían utilizar imágenes y audio falsos realistas y ampliamente difundidos para socavar el proceso democrático en sí. Los movies de deepfake podrían representar «figuras públicas hablando o actuando de manera reprensible para manipular el apoyo».

En otro escenario, los delegados anticiparon que los delincuentes utilizarían una «suplantación de niños ante padres ancianos a través de videollamadas para obtener acceso a los fondos». El audio falso realista también podría usarse para otorgar a los delincuentes acceso a activos e información.

Ataques de vehículos no tripulados

Hay numerosos casos de personas que utilizan vehículos motorizados para llevar a cabo ataques violentos. Actualmente, varios fabricantes de todo el mundo están trabajando en Vehículos autónomos controlados por IA. El peligro inherente radica en la capacidad de permitir un ataque vehicular sin la necesidad de reclutar conductores como parte del ataque, según el estudio. Situacionalmente, un perpetrador personal podría orquestar un ataque a escala uniforme desde lejos. Los autores del informe señalan que los vehículos autónomos podrían permitir que una sola persona coordine un ataque utilizando múltiples vehículos al mismo tiempo.

VER: Calendario editorial de TechRepublic Premium: políticas de TI, listas de verificación, kits de herramientas e investigación para descargar (TechRepublic Quality)

Un nuevo tipo de phishing dirigido

El phishing puede convertirse en un riesgo mayor en los últimos años con un impulso adicional de IA. Como señala el informe, los ataques de phishing comunes, como las campañas de spearphishing, carecen de escalabilidad, ya que se adaptan individualmente a un objetivo específico. Los autores del informe explican que la IA podría usarse para recopilar información de las redes sociales o imitando «el estilo de una parte de confianza» para crear estafas de phishing dirigidas más exitosas. A diferencia de los intentos genéricos de phishing a gran escala, estos mensajes podrían «adaptarse para aprovechar las vulnerabilidades específicas inferidas para cada individuo, automatizando de manera efectiva el enfoque de spear-phishing».

Ataques a sistemas controlados por IA

Como se mencionó anteriormente, las organizaciones de todas las industrias están utilizando IA para mejorar las operaciones y optimizar los flujos de trabajo. Sin embargo, como señalan los autores del informe, «cuanto más complejo es un sistema de manage, más difícil puede ser defenderlo por completo». El estudio identificó una serie de amenazas potenciales que surgen de ataques dirigidos a sistemas de inteligencia synthetic que van desde ataques a la purple eléctrica hasta actividades diseñadas para interrumpir la logística del suministro de alimentos. El estudio encontró que la capacidad de derrota de estos tipos particulares de ataques era alta.

VER: Procesamiento del lenguaje purely natural: una hoja de trucos (TechRepublic)

Chantaje a gran escala

El chantaje a gran escala completó la cima de los delitos de alto riesgo habilitados por la IA del futuro. El chantaje generalmente sigue un marco de extorsión bastante básico que aprovecha información condenatoria o vergonzosa. Si una persona no paga una cierta cantidad de dinero, se divulgará dicha información condenatoria.

Sin embargo, agregar esta información own requiere tiempo y el delito solo paga si alguien está dispuesto a desembolsar el dinero para ocultar la información. Como señalan los autores del informe, la IA se puede utilizar para abordar estos factores limitantes mediante la recopilación de información y víctimas potenciales a gran escala. Los delincuentes podrían aprovechar la inteligencia synthetic para recopilar posibles chantajes de cuentas de redes sociales, registros de correo electrónico, contenido del teléfono, datos del navegador y más. Luego, identifique «vulnerabilidades específicas para una gran cantidad de objetivos potenciales y adapte los mensajes de amenazas a cada uno».

Ver también



Enlace a la noticia initial