El objetivo del proyecto es desenmascarar bots de desinformación


BotSight, un proyecto de investigación de aprendizaje automático, califica a los usuarios de Twitter en función de la probabilidad de que haya un humano detrás del teclado. ¿Podría tal tecnología mitigar el impacto de las campañas de desinformación?

Con el objetivo de combatir la desinformación en las redes sociales, un equipo de investigación publicó complementos para los principales navegadores world wide web el jueves que dan a los usuarios una puntuación en cuanto a la probabilidad de que un usuario de Twitter sea un bot o un humano.

Apodado BotSight, el proyecto es una creación de investigadores de aprendizaje automático de la empresa de seguridad NortonLifeLock, anteriormente una subsidiaria de Symantec, cuyo objetivo es ayudar a los usuarios a determinar qué cuentas son válidas y cuáles no. La herramienta utiliza 4 TB de datos recopilados por los investigadores durante los últimos seis meses y analiza 20 características, desde la aleatoriedad del identificador de Twitter hasta la tasa de adquisición de seguidores, para clasificar el identificador como un bot o humano.

A través del proyecto, los investigadores esperan ayudar a las personas a comprender cuándo pueden encontrar bots, dice Daniel Kats, investigador principal del Grupo de Investigación NortonLifeLock (NRG).

«La gente tiene la strategy de que existen bots», dice. «Pero … cuando vas en tu línea de tiempo y miras a tu alrededor, las personas no tienen una plan de dónde es más possible que encuentren bots. Queremos darles a las personas ese sentido intuitivo de dónde viven y qué son los bots». «

La herramienta es el último intento de aplicar técnicas de aprendizaje automático e inteligencia synthetic al espinoso problema de la propagación a menudo viral de información falsa en las redes sociales. Si bien Fb, Twitter y otras redes sociales tienen su propia tecnología para marcar publicaciones, tweets y mensajes para un mayor escrutinio, es importante brindar a los usuarios su propia capacidad para evaluar mensajes, dice Chris Meserole, subdirector de Inteligencia Synthetic y Tecnología Emergente. Iniciativa en la Brookings Establishment en Washington, DC.

«Mientras más usuarios de Twitter sepan que existen redes de bot, más conscientes podrán saber si las cuentas con las que interactúan son humanas o bot, más entenderán cuán confiable puede ser la información que encuentran», dice. . «También proporciona un servicio al proporcionar a los usuarios herramientas para evaluar las reclamaciones de figuras públicas que están retuiteando información errónea de las cuentas de bot».

los Complementos de BotSight inserte un icono humano o bot junto a cada identificador de Twitter, junto con un colour que indique si el algoritmo cree que la cuenta es humana (verde) o bot (rojo), así como una medida de confianza. (BotSight ha clasificado a este reportero, tal vez, no de manera inexacta, como solo el 88% humano).

Una función beta permite a los usuarios ver también algunos de los criterios, actualmente, algo crípticos, para la determinación del modelo de aprendizaje automático.

La tecnología utiliza 20 atributos y metadatos diferentes de tweets y cuentas de usuario para determinar si es más possible que el usuario sea humano o un bot. Si bien la tecnología se enfoca en detectar bots que retuitean y amplifican ciertos mensajes y desinformación, el sistema también puede detectar ciertos tipos de redes de desinformación operadas por humanos, como títeres de calcetines, dice Kats.

«Tienes estas cuentas centrales que reúnen muchos seguidores, son personas influyentes en la crimson», dice. «Y luego tienes una purple más grande de cuentas de amplificadores. La purple más grande, la purple de amplificación, es lo que apunta específicamente BotSight. Sin embargo, también es capaz de capturar algunas de las cuentas de influencers».

Las redes de bots en Twitter son responsables de amplificar la información de cuentas específicas de «influenciadores». A menudo, se incluyen ciertos hashtags para impulsar un determinado problema político. Durante la epidemia true, Twitter ha sido muy cuidadoso al encontrar y eliminar información incorrecta sobre síntomas y tratamientos para COVID-19, pero la compañía ha tenido un enfoque menos centrado en la actividad de bot en la plataforma en normal.

«Hay una radiación de fondo de, oh, alrededor del 6% de la actividad de bot en basic en Twitter», dice Kats. «Pero cuando miras ciertos hashtags de tendencia, puede subir hasta un 20% cuando observas algunos problemas importantes, pero realmente depende del problema».

Sin embargo, identificar bots de Twitter no es lo mismo que identificar las fuentes de desinformación, ya que los bots normalmente solo transmiten o amplifican información. Bot Sentinel, un proyecto que intenta identificar cuentas de Twitter y «trollbots» no confiables utilizando un modelo de aprendizaje automático creado a partir de unos 5 millones de tweets.

Dichas herramientas pueden ayudar a los usuarios a evaluar mejor qué información en línea se puede confiar, dice Meserole de la Brookings Establishment.

«En este momento, todo lo que estamos haciendo es bailar por los márgenes y poner curitas en las cosas», dice. «La pregunta es cómo aseguramos la credibilidad de nuestro discurso político. Para eso, este tipo de herramientas pueden ser útiles».

Los investigadores de NortonLifeLock tienen la intención de agregar más funciones a la herramienta, pero tratar de clasificar el contenido de la publicación en función del análisis de aprendizaje automático no es actualmente un enfoque, dice Kats.

«No queremos impedir que las personas accedan a cierto contenido», dice. «Queremos proporcionar a las personas información suficiente para ayudarlas a tomar decisiones más sabias por sí mismas».

Contenido relacionado:

Aprenda de los expertos de la industria en un entorno propicio para la interacción y la conversación sobre cómo prepararse para eso «realmente mal día «en ciberseguridad. Haga clic para más información y para registrarse.

Periodista de tecnología veterano de más de 20 años. Ex ingeniero de investigación. Escrito para más de dos docenas de publicaciones, incluidas CNET News.com, Dark Examining, MIT&#39s Technology Overview, Common Science y Wired News. Cinco premios para el periodismo, incluyendo Mejor fecha límite … Ver biografía completa

Lectura recomendada:

Más ideas





Enlace a la noticia authentic