Gartner: el futuro de la IA no es tan optimista como algunos podrían pensar


Un informe de Gartner predice que las consecuencias de segundo orden de la IA generalizada tendrán impactos sociales masivos, hasta el punto de hacernos inseguros de si podemos confiar en nuestros propios ojos y cuándo hacerlo.

Vector de una cara hecha de partículas digitales como símbolo de la inteligencia artificial y el aprendizaje automático

Imagen: iStockphoto / Feodora Chiosea

Más sobre inteligencia synthetic

Gartner ha lanzado una serie de Predice los informes de investigación de 2021, incluido uno que explain los problemas éticos y sociales serios y de amplio alcance que predice que la inteligencia artificial (IA) causará en los próximos años. En Predicts 2021: Synthetic Intelligence and its Effect on Folks and Society, cinco analistas de Gartner informan sobre diferentes predicciones que creen que se harán realidad para 2025. El informe llama especialmente la atención sobre lo que denomina consecuencias de segundo orden de la inteligencia artificial que surgen como no intencionales. resultados de las nuevas tecnologías.

VER: Calendario editorial de TechRepublic Top quality: políticas de TI, listas de verificación, kits de herramientas e investigación para descargar (TechRepublic Premium)

La IA generativa, por ejemplo, ahora puede crear fotografías increíblemente realistas de personas y objetos que en realidad no existen Gartner predice que para 2023, el 20% de las adquisiciones de cuentas utilizarán deepfakes generados por este tipo de IA. «Las capacidades de inteligencia artificial que pueden crear y generar contenido hiperrealista tendrán un efecto transformador en la medida en que las personas pueden confiar en sus propios ojos», dijo el informe.

El informe aborda cinco predicciones diferentes para el mercado de la IA y ofrece recomendaciones sobre cómo las empresas pueden abordar esos desafíos y adaptarse al futuro:

  • Para 2025, los modelos de IA previamente entrenados se concentrarán en gran medida entre el 1% de los proveedores, lo que hará que el uso responsable de la IA sea una preocupación social.
  • En 2023, el 20% de los ataques de adquisición de cuentas exitosos utilizarán deepfakes como parte de los ataques de ingeniería social.
  • Para 2024, el 60% de los proveedores de inteligencia synthetic incluirán la mitigación de daños / uso indebido como parte de su application.
  • Para 2025, el 10% de los gobiernos evitarán las preocupaciones por la privacidad y la seguridad mediante el uso de poblaciones sintéticas para entrenar la IA
  • Para el 2025, el 75% de las conversaciones en el lugar de trabajo se grabarán y analizarán para su uso en la adición de valor organizacional y la evaluación de riesgos

Cada uno de esos análisis es suficiente para hacer que los observadores de la IA se sientan y tomen nota, pero cuando se combinan, crean una imagen de un futuro sombrío plagado de preocupaciones éticas, posible uso indebido de la IA y pérdida de privacidad en el lugar de trabajo.

Cómo pueden responder las empresas

Las preocupaciones sobre el efecto de la IA en la privacidad y la verdad seguramente serán temas importantes en los próximos años si los analistas de Gartner son precisos en sus predicciones, y las empresas exitosas deberán estar preparadas para adaptarse rápidamente a esas preocupaciones.

Un tema recurrente en el informe es el establecimiento de juntas de ética en empresas que dependen de la IA, ya sea como un servicio o un producto. Esto se menciona particularmente para las empresas que planean grabar y analizar las conversaciones en el lugar de trabajo: deben establecerse juntas con representación de los empleados para garantizar el uso justo de los datos de las conversaciones, dijo Gartner.

VER: Procesamiento del lenguaje purely natural: una hoja de trucos (TechRepublic)

Gartner también recomienda que las empresas establezcan criterios para el consumo responsable de IA y den prioridad a los proveedores que «puedan demostrar un desarrollo responsable de la IA y claridad al abordar las preocupaciones sociales relacionadas».

En cuanto a las preocupaciones de seguridad relacionadas con los deepfakes y la IA generativa, Gartner recomienda que las organizaciones programen la formación sobre deepfakes. «Ahora estamos entrando en un mundo de confianza cero. No se puede confiar en nada a menos que esté certificado como autenticado mediante firmas digitales criptográficas», dice el informe.

Hay mucho que digerir en este informe, desde cifras que dicen que el mejor program de detección de deepfake alcanzará una tasa de identificación del 50% a largo plazo, hasta la predicción de que en 2023 una importante corporación de EE. UU. Adoptará el análisis de conversaciones para determinar la compensación de los empleados. . Hay mucho de qué preocuparse en estos análisis, pero también se incluyen posibles antídotos. El informe completo está disponible en Gartner, pero las partes interesadas deberán pagar por el acceso.

Ver también



Enlace a la noticia initial