Los bots automatizados están recortando datos y …



La participación del tráfico de bots en sitios en línea disminuye, pero las empresas están viendo un aumento general en el raspado automático de datos, intentos de inicio de sesión y otras actividades perjudiciales.

El volumen de tráfico de Web debido a computer software automatizado, los bots, ha disminuido a su punto más bajo en al menos seis años, pero la proporción del tráfico debido a la actividad automatizada no deseada – bots «malos» – ha aumentado a su nivel más alto en el mismo período, según la firma de ciberseguridad Imperva en un informe publicado el 21 de abril.

En 2019, los bots defectuosos representaron el 24% de todo el tráfico de Internet visto por los clientes de Imperva, 5.5 puntos más que su nivel más bajo en 2015, declaró la compañía en su «Informe Negative Bot 2020». Los bots defectuosos son programas de computer software automatizados que realizan actividades no deseadas, como raspar datos de precios o información de disponibilidad de sitios net, o realizar actividades maliciosas, como intentos de toma de cuenta o fraude con tarjetas de crédito.

La actividad de bot aceptable ha disminuido en casi dos tercios al 13% de todo el tráfico en 2019, frente al 36% en 2014, según el informe. El cambio a una economía basada en datos ha creado un incentivo para más bots al tiempo que hace que sus actividades sean menos aceptables, dice Kunal Anand, director de tecnología de Imperva.

«La transformación electronic y el movimiento de información a la World wide web es un motor importante que hace que la ejecución de bots sea más lucrativa», dice. «También existe una mayor conciencia, y las empresas controlan qué bots permiten a través de la lista blanca o permiten lo que se consideran buenos bots».

Los bots son una evolución purely natural de la conexión de computadoras y application a World-wide-web, pero son problemáticos para las empresas que tienen que exponer su propiedad intelectual en línea como parte de su negocio. Las aerolíneas, por ejemplo, necesitan proporcionar información sobre los vuelos y precios a los clientes, pero al mismo tiempo, un competidor que united states of america bots puede obtener esa información y obtener información valiosa.

Las empresas que ven disminuir la eficiencia de World wide web, como las bajas tasas de conversión, el contenido que aparece en otros sitios o el aumento de inicios de sesión fallidos, probablemente hayan sido blanco de bots, según Informe de Imperva.

«Los dos mayores problemas de los bots defectuosos son el relleno de credenciales para atacar los inicios de sesión de cuentas y el raspado de datos (como) precios y / o contenido», dice Anand. «Casi todos los sitios net sufren de ambos».

Aproximadamente una cuarta parte de los bots se consideran simples, con tráfico que proviene de una sola dirección IP y no utiliza un encabezado de agente de navegador para pretender que su tráfico es legítimo. Los bots más complejos usan software de emulación de navegador, como Selenium, para hacerse pasar por un visitante legítimo. Selenio es un proyecto de código abierto que se united states comúnmente para probar vulnerabilidades en sitios internet. Los robots más sofisticados mueven el mouse para imitar el comportamiento humano, afirma Imperva en el informe.

Más del 55% de los bots suplantaron el navegador Chrome de Google, el porcentaje más alto hasta el momento, encontró la compañía.

Diferentes industrias ven diferentes niveles de mala actividad de bot. La industria financiera encontró muy poco tráfico «bueno» de bots, con un poco menos del 48% del tráfico debido a bots malos y un poco más del 51% del tráfico de humanos. Del mismo modo, los sectores de educación y servicios de TI están viendo alrededor del 45% de su tráfico representado por robots defectuosos.

Las empresas de datos en línea y las empresas de servicios empresariales encontraron la mayor proporción de tráfico de buenos bots, que representaron el 51% y el 54% de su tráfico, respectivamente.

Casi el 46% del tráfico de bots no deseado provino de los Estados Unidos en 2019, y en muchos casos, la actividad del bot es probablemente lawful. En septiembre, un tribunal de apelaciones de los Estados Unidos confirmó la capacidad de HiQ Labs, un proveedor de inteligencia sobre empleados, para eliminar LinkedIn y otros servicios para compilar perfiles de profesionales.

«Nuestra definición de buen bot es típicamente una herramienta que la empresa está dispuesta a permitir que esté en su sitio: los motores de búsqueda y las herramientas de Seo entran en esta lista», dice Anand. «Las empresas también suelen incluir en la lista blanca otras herramientas que utilizan, como un escáner de vulnerabilidad que controlan cuando se implementa. Los bots defectuosos se clasifican como aquellas solicitudes que no provienen de un navegador reconocido y están ahí por otra razón que no period t autorizado por la empresa «.

contenido relacionado

Revisa El borde, La nueva sección de Darkish Looking through para características, datos de amenazas y perspectivas en profundidad. La historia principal de hoy: «¿Cómo puedo ayudar a mis usuarios a detectar desinformación?«

Periodista de tecnología veterano de más de 20 años. Ex ingeniero de investigación. Escrito para más de dos docenas de publicaciones, incluidas CNET News.com, Darkish Reading through, MIT&#39s Technologies Critique, Popular Science y Wired News. Cinco premios para el periodismo, incluyendo Mejor fecha límite … Ver biografía completa

Más strategies





Enlace a la noticia authentic