IA y comentarios falsos: Schneier sobre seguridad


IA y comentarios falsos

Este mes, el fiscal normal del estado de Nueva York emitió una informe en un esquema de «U.S. Empresas y partisanos [para] piratear la democracia «. Este no fue otro intento de los republicanos de dificultar el voto de los negros y los residentes urbanos. Fue un ataque concertado contra otro elemento central de la democracia estadounidense: la capacidad de los ciudadanos para expresar su voz a sus representantes políticos. Y se llevó a cabo generando millones de comentarios falsos y correos electrónicos falsos que supuestamente provenían de ciudadanos reales.

Este ataque se detectó porque period relativamente crudo. Pero las tecnologías de inteligencia synthetic están haciendo posible generar comentarios aparentemente genuinos a escala, ahogando las voces de ciudadanos reales en una ola de falsos comentarios.

Como han hecho científicos políticos como Paul Pierson señaló, lo que sucede entre elecciones es importante para la democracia. Los políticos dan forma a las políticas y hacen leyes. Y los ciudadanos pueden aprobar o condenar lo que están haciendo los políticos, contactando a sus representantes o comentando las reglas propuestas.

Eso es lo que debería suceder. Pero como muestra el informe de Nueva York, a menudo no es así. Las grandes empresas de telecomunicaciones pagaron millones de dólares a empresas especializadas en “AstroTurf” para generar comentarios públicos. Luego, estas empresas robaron los nombres y las direcciones de correo electrónico de las personas de archivos antiguos y de volcados de datos pirateados y los adjuntaron a 8,5 millones comentarios públicos y medio millón de cartas a miembros del Congreso. Todos dijeron que apoyaban la posición de las corporaciones en algo llamado «neutralidad de la pink, ”La strategy de que las empresas de telecomunicaciones deben tratar todos los contenidos de Online por igual y no priorizar ninguna empresa o servicio. Tres compañías de AstroTurf, Fluent, Decide-Intelligence y React2Media, acordaron pagar casi $ 4 millones en multas.

Las falsificaciones fueron burdas. Muchos de ellos eran idénticos, mientras que otros eran parches de simples variaciones textuales: sustituyendo “Comisión Federal de Comunicaciones” y “FCC” entre sí, por ejemplo.

La próxima vez, sin embargo, no tendremos tanta suerte. Las nuevas tecnologías están a punto de hacer que sea mucho más fácil generar una enorme cantidad de comentarios y cartas personalizados convincentes, cada uno con su propia elección de palabras, estilo expresivo y ejemplos concisos. Las personas que crean organizaciones de base falsas siempre han sido entusiastas en adoptar la tecnología, utilizando cartas, faxes, correos electrónicos y comentarios en la Net como armas para fabricar la apariencia de apoyo público o indignación pública.

Tomemos como ejemplo el Transformer 3 preentrenado generativo, o GPT-3, un modelo de inteligencia synthetic creado por OpenAI, una empresa emergente con sede en San Francisco. Con un mínimo de indicaciones, GPT-3 puede generar una apariencia convincente artículos del periódico, reanudar cartas de presentación, incluso supporter fiction de Harry Potter en el estilo de Ernest Hemingway. Es trivialmente fácil utilizar estas técnicas para redactar un gran número de comentarios públicos o cartas a los legisladores.

OpenAI restringe el acceso a GPT-3, pero en un experimento reciente, los investigadores utilizaron un programa de generación de texto diferente para enviar 1,000 comentarios en respuesta a una solicitud del gobierno de aportes públicos sobre un tema de Medicaid. Todos sonaban únicos, como personas reales que abogan por una posición política específica. Engañaron a los administradores de Medicaid.gov, quienes los aceptaron como preocupaciones genuinas de seres humanos reales. Posteriormente, los investigadores identificaron los comentarios y pidieron que se eliminaran, de modo que ningún debate político real estuviera injustamente sesgado. Otros no serán tan éticos.

Cuando se abren las compuertas, el discurso democrático corre el peligro de ahogarse bajo una marea de cartas y comentarios falsos, tuits y publicaciones de Fb. El peligro no es solo que se pueda generar apoyo falso para posiciones impopulares, como sucedió con la neutralidad de la crimson. Es que los comentarios públicos quedarán completamente desacreditados. Esta sería una mala noticia para las empresas especializadas en AstroTurf, que no tendrían un modelo de negocio si no hubiera un público al que fingir representar. Pero empoderaría aún más a otros tipos de cabilderos, que al menos pueden demostrar que son quienes dicen ser.

Es posible que tengamos una breve ventana para apuntalar las paredes de la inundación. La respuesta más eficaz sería common lo que el sociólogo de UCLA Edward Walker ha descrito como «de foundation para contratar”Industria. Las organizaciones que fabrican deliberadamente voces ciudadanas no solo deberían estar sujetas a multas civiles, sino a sanciones penales. Las empresas que contratan a estas organizaciones deben ser responsables de las fallas de supervisión. Es imposible probar o refutar si las empresas de telecomunicaciones sabían que sus subcontratistas crearían voces ciudadanas falsas, pero un estándar de responsabilidad al menos les daría a estas empresas un incentivo para averiguarlo. Sin embargo, es possible que esto sea políticamente difícil de implementar, ya que muchos actores poderosos se benefician del status quo.

Este ensayo fue escrito con Henry Farrell, y aparecido previamente en el El Correo de Washington.

EDITADO PARA AÑADIR: CSET publicado un excelente informe sobre contenido partidista generado por IA. Breve resumen: es bastante bueno y seguirá mejorando. Renee DeRista también escrito sobre esto.

Esto papel se trata de una versión de baja tecnología de esta amenaza. También esto.

Publicado el 24 de mayo de 2021 a las 6:20 a. M. •
9 comentarios





Enlace a la noticia first