Facebook prohíbe las falsificaciones profundas pero no todo el contenido alterado


Se permitirán imágenes definidas como parodia o sátira, ya que la pink social no está cerrando la puerta en todo tipo de medios manipulados.

Facebook está implementando un nuevo conjunto de reglas destinadas a frenar la difusión de los medios manipulados a medida que el espectro de movies falsos altamente convincentes se cierne sobre las elecciones presidenciales de EE. UU.

Un anuncio por la vicepresidenta de gestión de políticas globales de la plataforma, Monika Bickert revela que Facebook está implementando un enfoque múltiple para hacer frente a la creciente amenaza de los medios manipulados que se crean para difundir la desinformación y influir en la opinión pública.

Por un lado, Fb eliminará el contenido manipulado que cumple estos dos cuadros:

  • se ha «editado o sintetizado, más allá de los ajustes por claridad o calidad, de maneras que no son evidentes para una persona promedio y que probablemente inducirán a error a alguien a pensar que un sujeto del video clip dijo palabras que en realidad no dijo», y
  • es «el producto de la inteligencia artificial o el aprendizaje automático que combina, reemplaza o superpone contenido en un online video, haciéndolo parecer auténtico».

De ello se deduce que la política más estricta se aplica a la tecnología deepfake, que es un ejemplo de una forma en que aprendizaje automático Los algoritmos se pueden implementar con fines nefastos. (Deepfakes también fueron seleccionados por los expertos de ESET como uno de los tendencias de ciberseguridad a tener en cuenta en 2020.)

Hasta ahora todo bien, pero la prohibición no se extenderá a otros tipos de medios manipulados. Más precisamente, la pink social no desterrará el «video clip que ha sido editado únicamente para omitir o cambiar el orden de las palabras» o contenido alterado por el bien de la parodia y la sátira.

Un problema que a veces puede surgir es, ¿dónde trazas la línea y decides que algo debe ser puramente humorístico?

ARTÍCULO RELACIONADO: Deepfakes: cuando ver no es creer

Sin embargo, Facebook promete no quedarse en sus manos cuando se trata de medios que están alterados, incluso con métodos menos avanzados, y no cumplen con los criterios de eliminación. Tal contenido aún puede estar sujeto a una verificación de hechos independiente y, en última instancia, regulado, por así decirlo.

«Si un verificador de hechos califica una foto o un video como falso o parcialmente falso, reducimos significativamente su distribución en News Feed y lo rechazamos si se está publicando como un anuncio. Y críticamente, las personas que lo ven, intentan compartirlo, o ya lo han compartido, verán advertencias que los alertarán de que es falso «, dijo Bickert.

Argumentó que eliminar esos films no evitaría que las personas los vean en otro lugar, sin darse cuenta de que los videos son falsos. Dejarlos y etiquetarlos como falsos en su lugar proporcionará a las personas información y contexto cruciales, dijo.

El especialista en seguridad de ESET, Jake Moore, reconoció el movimiento de Facebook, pero también señaló que las prohibiciones solo pueden llegar tan lejos y que debemos ser más exigentes y estar preparados para lo que vendrá. «No solo necesitamos un mejor program para reconocer estos videos manipulados digitalmente, sino que también debemos hacer que las personas sean conscientes de que estamos avanzando hacia un momento en el que no siempre debemos creer lo que vemos», dice Moore.








Enlace a la noticia initial