Facebook no puede detener la desinformación de coronavirus


El gigante de las redes sociales en abril colocó etiquetas de advertencia en 50 millones de piezas de contenido

Como Mark Zuckerberg detalló esta semana los resultados de la última compañía Informe de cumplimiento de normas comunitarias, también reveló que Facebook está siendo inundado con desinformación y desinformación por coronavirus, y que la compañía ha estado luchando por detenerlo.

Zuckerberg, quien dijo que estaba orgulloso del trabajo realizado por los equipos de moderación de contenido de Fb, también reconoció que no está deteniendo suficiente información errónea de COVID-19.

«Ciertamente, nuestra efectividad se ha visto afectada por tener menos revisión humana durante COVID-19, y lamentablemente esperamos cometer más errores hasta que podamos volver a aumentar todo», dijo.

El informe, publicado el martes, dice que las mejoras en los sistemas de aprendizaje automático de la compañía ayudaron a Facebook a eliminar un 68% más de publicaciones de odio en los primeros tres meses de 2020 que de octubre a diciembre de 2019. Estos mismos sistemas son responsables de detectar el 90% del odio. las publicaciones de discurso antes de que sean publicadas por usuarios de Fb, afirma la compañía. Entre los moderadores humanos y los sistemas automatizados de la compañía, Facebook dice que actuó en 9.6 millones de piezas de contenido odioso en el primer trimestre de 2020, en comparación con 5.7 millones de piezas de contenido odioso en el cuarto trimestre de 2019.

En Instagram, la tasa de detección aumentó de 57.6% en el cuarto trimestre de 2019 a 68.9% en el primer trimestre de 2020, con 175,000 piezas de contenido eliminadas, 35,200 más que el trimestre anterior.

La compañía también publicó una publicación de blog separada que detalla cómo ha manejado la información errónea de COVID-19 hasta ahora: en abril, colocó etiquetas de advertencia en 50 millones de piezas de contenido, basadas en 7.500 artículos de 60 organizaciones independientes de verificación de hechos y desde el 1 de marzo, Facebook ha eliminado más de 2.5 millones de piezas de contenido por intentar vender fraudulentamente máscaras faciales, desinfectante de manos, toallitas desinfectantes y kits de prueba COVID-19.

Pero debido a que Facebook no permite a sus moderadores de contenido humano (que acaba de ganar una demanda de $ 52 millones por problemas de salud psychological desarrollada a partir de la revisión de ese contenido) para acceder a datos de Facebook potencialmente confidenciales desde las computadoras de su hogar, la compañía ha estado confiando en sistemas de inteligencia synthetic más que antes.

Los números de Facebook son imposibles de verificar ya que la compañía no permite auditorías independientes de sus sistemas. Y en la period de COVID-19, eso adquiere una importancia adicional, dicen los expertos, ya que desinformación médica puede alentar a las personas a asumir riesgos para la salud que ponen en riesgo sus vidas.

No busque más allá de la propagación viral de la «Video de Plandemic «, que afirma una narrativa falsa de COVID-19, y se ha vuelto a publicar en YouTube casi tan rápido como la compañía puede eliminarlo por violar sus estándares de información errónea de COVID-19. Fb explicó en una publicación de blog site de su equipo de inteligencia artificial lo que hace detección automática de información errónea desafiante, una afirmación que Bhaskar Chakravorti, decano asociado senior de negocios y finanzas internacionales en la Escuela Fletcher de la Universidad de Tufts, estuvo de acuerdo en una declaración por correo electrónico.

«Facebook ha hecho más que las otras compañías de medios sociales para controlar la información errónea al recurrir a las organizaciones de verificación de hechos», escribió, pero advirtió que la compañía aún falta «alrededor del 40 por ciento de la información errónea» en su plataforma.

Una forma de reducir el impacto de la desinformación y la desinformación organizada de fuentes políticas sería etiquetar anuncios y publicaciones de organizaciones políticas, dice Pablo Breuer, cofundador y vicepresidente de Cognitive Stability Collaborative. La información errónea se destaca porque a menudo es promovida casi simultáneamente por cuentas sin conexión, y por la atención que recibe: las noticias legítimas tienen una señal de referencia que «alcanza su punto máximo» porque es noticia, luego «se degrada» porque la gente la ha visto, dice.

«Lo que sucede con mucha información errónea es que obtienes múltiples picos, y obtienes esos picos porque hay bots que lo están ofreciendo a diferentes audiencias», dice Breuer. «Hemos sabido durante mucho tiempo que la propagación de información errónea es diferente de la información normal».

En última instancia, el desafío que enfrenta Fb es existencial: sus servicios dependen de que los usuarios compartan información, y cuanto más comparten, más anuncios puede mostrarle la crimson social, señala.

«Cualquier cosa que te haga reaccionar de una manera visceral y emocional, en lugar de cognitiva, es bueno para el tráfico y bueno para el resultado last de estas empresas. Es perjudicial para ellos limitar esto».

Aprenda de los expertos de la industria en un entorno propicio para la interacción y la conversación sobre cómo prepararse para eso «realmente mal día «en ciberseguridad. Haga clic para más información y para registrarse.

Contenido relacionado:

Seth es editor en jefe y fundador de The Parallax, una revista de noticias de privacidad y ciberseguridad en línea. Ha trabajado en periodismo en línea desde 1999, incluidos ocho años en CNET News, donde dirigió la cobertura de seguridad, privacidad y Google. Con sede en San Francisco, él también … Ver biografía completa

Lectura recomendada:

Más strategies





Enlace a la noticia authentic