Personas artificiales y discurso público


Personas artificiales y discurso público

La temporada de campaña presidencial es oficialmente, oficialmente, sobre nosotros ahora, lo que significa que es hora de confrontar las formas extrañas e insidiosas en que la tecnología está deformando la política. Una de las mayores amenazas en el horizonte: están llegando personajes artificiales y están listos para asumir el debate político. El riesgo surge de dos hilos separados que se unen: generación de texto impulsada por inteligencia synthetic y chatbots de redes sociales. Estas «personas» generadas por computadora ahogarán las discusiones humanas reales en World-wide-web.

El software program de generación de texto ya es lo suficientemente bueno como para engañar a la mayoría de las personas la mayor parte del tiempo. Está escribiendo noticias, particularmente en Deportes y Finanzas. Está hablando con clientes en sitios net de comerciantes. Esta escribiendo artículos de opinión convincentes sobre temas en las noticias (aunque hay limitaciones) Y se está utilizando para aumentar el volumen del «periodismo de baba rosa» – ref = «https://www.cjr.org/tow_center_reviews/hundreds-of-pink-slime-neighborhood-news-shops-are-distributing-algorithmic- tales-conservative-conversing-details.php «> sitios web destinados a aparecer como medios locales de noticias legítimos, pero que publican propaganda en su lugar.

También hay un registro de contenido algorítmico que finge ser de individuos. En 2017, la Comisión Federal de Comunicaciones tuvo un período de comentarios públicos en línea para sus planes de derogar la neutralidad de la pink. Se recibieron 22 millones de comentarios asombrosos. Muchos de ellos, tal vez la mitad fueron falso, usando identidades robadas. Estos comentarios también fueron crudos 1.3 millones fueron generado a partir de la misma plantilla, con algunas palabras alteradas para que parezcan únicas. Ni siquiera resistieron el escrutinio superficial.

Estos esfuerzos solo se volverán más sofisticados. En un experimento reciente, el estudiante de último año de Harvard, Max Weiss, utilizó un programa de generación de texto para crear 1,000 comentarios en respuesta a una llamada del gobierno sobre un problema de Medicaid. Todos estos comentarios fueron únicos y sonaron como personas reales que abogan por una posición política específica. Engañaron a los administradores de Medicaid.gov, quienes los aceptaron como preocupaciones genuinas de los seres humanos reales. Al tratarse de una investigación, Weiss identificó posteriormente los comentarios y solicitó que se eliminen, para que ningún debate político authentic se vea injustamente sesgado. El próximo grupo que intente esto no será tan honorable.

Los chatbots han estado sesgando las discusiones en las redes sociales durante años. Acerca de una quinto de todos los tweets Los bots publicaron sobre las elecciones presidenciales de 2016, según una estimación, al igual que sobre un tercero de todos los tweets sobre el voto Brexit de ese año. Un instituto de Online de Oxford reporte Desde el año pasado se encontraron pruebas de que los bots se utilizan para difundir propaganda en 50 países. Estos tendían a ser simples programas que repetían eslóganes sin pensar: un cuarto de millón pro-saudita «Todos confiamos en Mohammed bin Salman» tweets después del asesinato de Jamal Khashoggi en 2018, por ejemplo. Detectar muchos bots con pocos seguidores cada uno es más difícil que detectar algunos bots con muchos seguidores. Y medir la efectividad de estos bots es difícil. los mejores análisis indican que no afectaron las elecciones presidenciales de EE. UU. de 2016. Lo más probable es que distorsionen el sentido del sentimiento público de las personas y su fe en el discussion político razonado. Todos estamos en medio de un nuevo experimento social.

Con los años, los robots algorítmicos han evolucionado para tener personas. Tienen nombres falsos, biografías falsas y fotos falsas, a veces generado por AI. En lugar de arrojar propaganda sin parar, publican solo ocasionalmente. Los investigadores pueden detectar que estos son bots y no personas en función de sus patrones de publicación, pero la tecnología bot está mejorando todo el tiempo, superando los intentos de seguimiento. Los grupos futuros no se identificarán tan fácilmente. Se integrarán mejor en los grupos sociales humanos. Su propaganda será sutil y se entrelazará en tweets sobre temas relevantes para esos grupos sociales.

Combina estas dos tendencias y tendrás la receta de la charla no humana para abrumar el discurso político real.

Pronto, las personas impulsadas por la inteligencia artificial podrán escribir cartas personalizadas a periódicos y funcionarios electos, enviar comentarios individuales a los procesos públicos de elaboración de normas y debatir inteligentemente cuestiones políticas en las redes sociales. Podrán comentar en publicaciones de redes sociales, sitios de noticias y en otros lugares, creando personajes persistentes que parecen reales incluso para alguien que los examina. Podrán hacerse pasar por individuos en las redes sociales y enviar textos personalizados. Se replicarán en millones y se ocuparán de los problemas durante todo el día, enviando miles de millones de mensajes, largos y cortos. Al juntar todo esto, podrán ahogar cualquier discussion actual en World-wide-web. No solo en las redes sociales, sino en todas partes hay comentarios.

Tal vez estos robots personales sean controlados por actores extranjeros. Quizás sean grupos políticos nacionales. Quizás sean los propios candidatos. Lo más possible es que sean todos. La lección más importante de las elecciones de 2016 sobre información errónea no es que haya ocurrido información errónea es lo barato y fácil que period desinformar a las personas. Las futuras mejoras tecnológicas harán que todo sea aún más asequible.

Nuestro futuro consistirá en un bullicioso discussion político, en su mayoría bots discutiendo con otros bots. Esto no es lo que pensamos cuando elogiamos el mercado de concepts o cualquier proceso político democrático. La democracia requiere dos cosas para funcionar correctamente: información y agencia. Las personas artificiales pueden matar de hambre a las personas de ambos.

Las soluciones son difíciles de imaginar. Podemos regular el uso de bots — un ley propuesta de California requeriría que los bots se identifiquen, pero eso es efectivo solo contra campañas de influencia legítimas, como la publicidad. Las operaciones de influencia subrepticia serán mucho más difíciles de detectar. La defensa más obvia es desarrollar y estandarizar mejores métodos de autenticación. Si las redes sociales verifican que una persona authentic está detrás de cada cuenta, entonces pueden eliminar a las personas falsas. Pero las cuentas falsas ya se crean regularmente para personas reales sin su conocimiento o consentimiento, y el discurso anónimo es esencial para un debate político robusto, especialmente cuando los hablantes son de comunidades desfavorecidas o marginadas. No tenemos un sistema de autenticación que proteja la privacidad y se ajuste a miles de millones de usuarios.

Podemos esperar que nuestra capacidad para identificar personas artificiales se mantenga al día con nuestra capacidad para disfrazarlos. Si la carrera armamentista entre falsificaciones profundas y detectores falsos profundos es una guía, eso también será difícil. Las tecnologías de ofuscación siempre parecen estar un paso por delante de las tecnologías de detección. Y las personas artificiales serán diseñadas para actuar exactamente como personas reales.

Al closing, cualquier solución tiene que ser no técnica. Tenemos que reconocer las limitaciones de la conversación política en línea y nuevamente priorizar las interacciones cara a cara. Estos son más difíciles de automatizar, y sabemos que las personas con las que estamos hablando son personas reales. Esto sería un cambio cultural lejos de World-wide-web y el texto, retrocediendo de las redes sociales y los hilos de comentarios. Hoy eso parece una solución completamente poco realista.

Los esfuerzos de desinformación son ahora común en todo el mundo, realizado en más de 70 países. Esta es la forma normal de impulsar la propaganda en países con inclinaciones autoritarias, y se está convirtiendo en la forma de llevar a cabo una campaña política, ya sea para un candidato o un problema.

Las personas artificiales son el futuro de la propaganda. Y aunque pueden no ser efectivos para inclinar el discussion hacia un lado u otro, fácilmente ahogan el debate por completo. No sabemos el efecto de ese ruido en la democracia, solo que será pernicioso y que es unavoidable.

Este ensayo apareció previamente en TheAtlantic.com.

EDITADO PARA AGREGAR: Jamie Susskind escribió Un ensayo related.

Publicado el 13 de enero de 2020 a las 8:21 a.m.

comentarios



Enlace a la noticia first