Los raspadores net tienen un impacto mayor que el percibido en …


El impacto económico del tráfico de bots puede ser inesperadamente sustancial, según un estudio encargado por PerimeterX.

Un nuevo estudio sugiere que los bots automatizados que recopilan contenido, descripciones de productos, precios, datos de inventario y otra información pública de sitios web tienen un mayor impacto económico y de rendimiento de lo que muchas organizaciones podrían darse cuenta.

La empresa de mitigación de bots PerimeterX recientemente encargó a la firma de inteligencia de mercado Aberdeen Team que analizara cómo los bots de raspado de web podrían estar afectando los ingresos de las empresas digitales.

El estudio descubrió que los bots representan entre el 40% y el 60% del tráfico complete del sitio web en ciertas industrias y pueden afectar a las empresas de múltiples maneras, incluida la sobrecarga de su infraestructura, sesgando los datos analíticos y disminuyendo el valor de sus inversiones en IP, advertising and marketing y Search engine marketing. El impacto en los ingresos de tales factores es significant, según PerimeterX.

«El desguace internet perjudica sus ingresos en más formas de las que usted sabe», dice Deepak Patel, evangelista de seguridad en PerimeterX. Para el sector del comercio electrónico, el raspado de sitios world wide web puede diluir la rentabilidad general anual del sitio world wide web hasta en un 80%, según el estudio.

«Para el sector de los medios, el impacto comercial anual medio del raspado de sitios website es de hasta un 27% de la rentabilidad general del sitio world-wide-web», agrega Patel.

Muchas organizaciones no ven los bots de raspado web como una amenaza de seguridad porque no violan la pink ni explotan una falla de seguridad. Sin embargo, representan una gran amenaza para la lógica empresarial o el contenido propietario esencial para mantener una ventaja competitiva.

«Los robots maliciosos de raspado de la world-wide-web pueden robar su contenido e imágenes exclusivos con derechos de autor», dice Patel, y agrega que también puede dañar la clasificación Search engine optimisation de un sitio cuando los motores de búsqueda detectan páginas con contenido duplicado.

Las organizaciones usan rutinariamente scrapers world wide web para buscar información sobre su competencia, para construir servicios basados ​​en datos de terceros, o por una variedad de otras razones. Los bots recorren los sitios world wide web, de la misma manera que lo hacen los rastreadores de motores de búsqueda, y recopilan cualquier información que el operador haya publicado públicamente y que sea útil para la organización que united states los bots.

Aunque hay algunas preguntas sobre la legalidad de la práctica, hay numerosos productos y servicios disponibles que permiten a las organizaciones obtener el sitio internet de otra empresa para obtener información que está disponible públicamente. En una demanda que involucró a la firma asesora de gestión de talentos hiQ Labs y LinkedIn, el Tribunal de Apelaciones del Noveno Circuito sostuvo el año pasado que el robo de datos disponibles al público no viola las leyes de fraude informático de los Estados Unidos. LinkedIn quería que hiQ dejara de raspar los datos disponibles públicamente de su sitio, que este último estaba utilizando para crear herramientas de análisis para ayudar a las empresas a lidiar con los problemas de retención de empleados.

«Como cuestión técnica, el raspado website es simplemente navegación net automatizada por máquina y accede y registra la misma información, que un visitante humano del sitio podría hacer manualmente», agregó. Fundación Electronic Frontier había tomado nota con agrado de la decisión del tribunal de apelaciones.

Bots malos
El estudio muestra que si bien los humanos y los «buenos robots», como los utilizados por los motores de búsqueda, representaban una proporción sustancial del tráfico world wide web, los «malos robots» también representaban una proporción significativa. Casi el 17% de todo el tráfico en los sitios internet de comercio electrónico, por ejemplo, estaba compuesto por robots defectuosos. En los sitios de viajes, la proporción fue más cercana al 31% y en los sitios de medios alrededor del 9,5%.

Patel dice que los bots malos son bots que rastrean sitios world-wide-web para realizar acciones abusivas o maliciosas, incluida la toma de cuenta y el plagio de contenido. Tales bots a menudo imitan el comportamiento humano y usan múltiples IP para evadir la detección.

También pueden extraer contenido que otros sitios podrían haber invertido sustancialmente para desarrollar, como descripciones de productos optimizados para Search engine optimisation o contenido de marketing and advertising, por ejemplo. Para las empresas que están haciendo el scraping, dicho contenido puede ayudar a reducir o incluso eliminar la necesidad de desarrollar su propio contenido. Por el contrario, para las empresas digitales que son el objetivo, el raspado world wide web puede erosionar el valor de sus inversiones, según el estudio. Del mismo modo, la información que las empresas necesitan poner en sus sitios, como la información de precios o la disponibilidad del producto, podría ayudar a los rivales a obtener información valiosa para tomar sus propias decisiones.

El tráfico de bot también puede sobrecargar la infraestructura website al enviar millones de solicitudes a una ruta específica, como páginas de inicio de sesión o pago, lo que provoca una desaceleración de los usuarios, dice Patel. Según él, el 80% de los inicios de sesión de la cuenta provienen de bots defectuosos.

«Eliminar los bots puede afectar significativamente el rendimiento del sitio net, ya que tienen que recopilar una gran cantidad de datos rápidamente», dice Patel. En los sitios minoristas, por ejemplo, el tráfico de los robots que intentan mantenerse al día con las nuevas listas de productos o los cambios de precios puede degradar el rendimiento.

Muchas herramientas están disponibles comercialmente y están diseñadas para ayudar a las empresas digitales a lidiar con los raspadores web.

«Pero los bots de hoy, a diferencia de los bots básicos más crudos del pasado, se están volviendo más expertos en imitar a los usuarios reales y disfrazando su verdadero propósito «, dice Patel».Ataques de raspado hiperdistribuidos, logrado mediante el uso de muchos agentes de usuario diferentes, IP y (números de sistema autónomos) son aún más peligrosos, lo que resulta en un mayor volumen y una mayor dificultad de detección «.

Contenido relacionado:

Aprenda de los expertos de la industria en un entorno propicio para la interacción y la conversación sobre cómo prepararse para eso «realmente mal día «en ciberseguridad. Haga clic para más información y para registrarse.

Jai Vijayan es un experimentado reportero de tecnología con más de 20 años de experiencia en periodismo comercial de TI. Recientemente fue editor sénior en Computerworld, donde cubrió temas de seguridad de la información y privacidad de datos para la publicación. En el transcurso de sus 20 años … Ver biografía completa

Lectura recomendada:

Más thoughts





Enlace a la noticia first