¿Deberíamos utilizar la IA en ciberseguridad? Sí, pero con precaución y ayuda humana.


La inteligencia synthetic es una herramienta poderosa, y un experto dice que es mejor que nos aseguremos de que se mantenga así: una herramienta útil.

mano robótica tomando decisiones

Imagen: iStock / Blue Earth Studio

La inteligencia artificial se está convirtiendo rápidamente en la gracia salvadora cuando se trata de ciberseguridad. En una publicación reciente, Dependencia de la IA en respuesta a los ciberataques 2019, por país, en Statista, Shanhong Liu dijo: «A partir de 2019, alrededor del 83% de los encuestados con sede en los Estados Unidos creían que su organización no podría responder a los ciberataques sin IA».

VER: Política de respuesta a incidentes de seguridad (TechRepublic High quality)

Más sobre inteligencia artificial

Esa sorprendente estadística captó la atención de Martin Banking companies, quien, en su artículo Robotics Tomorrow, ¿Qué privilegios de seguridad debemos otorgar a la IA?, hizo las siguientes preguntas:

  • ¿Hay límites a lo que deberíamos permitir que controle la IA?
  • ¿Qué privilegios de seguridad deberíamos confiar a la IA?

¿Cuánta ciberseguridad es segura de automatizar?

Banking institutions dijo que la IA es una herramienta excelente para:

  • Autenticar y autorizar usuarios
  • Detectar amenazas y posibles vectores de ataque
  • Tomando acciones inmediatas contra eventos cibernéticos
  • Aprender nuevos perfiles y vectores de amenazas a través del procesamiento del lenguaje all-natural.
  • Asegurar puntos de acceso condicional
  • Identificación de virus, malware, ransomware y código malicioso

La conclusión es que la IA puede ser una potente herramienta de ciberseguridad. La tecnología de IA no tiene igual cuando se trata de monitoreo en tiempo genuine, detección de amenazas y acción inmediata. «Las soluciones de seguridad de IA pueden reaccionar más rápido y con más precisión que cualquier ser humano», dijo Banking institutions. «La tecnología de inteligencia artificial también libera a los profesionales de la seguridad para que se centren en operaciones de misión crítica».

Aquí está la parte complicada

Para que la IA sea eficaz, la tecnología necesita acceso a los datos, incluidos los documentos internos confidenciales y la información del cliente. Banks dijo que entiende que la tecnología de inteligencia artificial no tiene valor sin este acceso.

Dicho esto, Banking institutions expresó su preocupación. La tecnología de IA tiene limitaciones que se derivan de cualquiera de los siguientes: falta de recursos del sistema, potencia de cálculo insuficiente, algoritmos mal definidos, algoritmos mal implementados o reglas y definiciones débiles. «La inteligencia synthetic diseñada por humanos también muestra varios sesgos, a menudo imitando a sus creadores, cuando se suelta en conjuntos de datos», dijo.

VER: Cómo administrar las contraseñas: mejores prácticas y consejos de seguridad (PDF gratuito) (TechRepublic)

Esto habla de la preocupación de Financial institutions sobre los privilegios de seguridad que se le confían a la tecnología de inteligencia synthetic. La tecnología de IA puede acercarse a la perfección, pero nunca la alcanzará por completo. Las anomalías están siempre presentes y no olvidemos Ciberdelincuentes inteligentes con inteligencia artificial y su capacidad para subvertir las debilidades en los sistemas de inteligencia artificial.

Hay más argumentos para otorgar privilegios a la IA en ciberseguridad que no. El truco, según Financial institutions, es lograr un equilibrio entre la entrada de inteligencia synthetic (precisa) y la humana (matizada).

La IA con interacción humana es la mejor solución

Banking institutions dijo que las decisiones críticas, especialmente las relacionadas con los usuarios, deben confiarse a un analista humano que tiene la última palabra sobre cómo proceder o qué cambiar. «¿Qué pasa si un usuario es legítimo y fue marcado como infame por un malentendido?» Banks preguntó. «Ese usuario podría perder el trabajo de un día entero o más, según el tiempo que lleve identificar lo que sucedió».

Los autores del site Immuniweb.com, Los 7 errores más comunes al implementar sistemas de aprendizaje automático e inteligencia artificial en 2021, acordado. «La IA tiene ciertos límites &#39&#39, dijeron los autores.» En typical, los sistemas de IA se pueden utilizar como una herramienta adicional o un asistente inteligente, pero no como un reemplazo para los especialistas con experiencia en ciberseguridad que, entre otras cosas, también comprenden el contexto empresarial subyacente. . «

Banks, para defender la intervención humana y el manage de los procesos de inteligencia artificial, utilizó un ejemplo de seguridad física: puertas de seguridad automáticas para restringir el tráfico no autorizado. «Las rejas y las puertas mantienen alejadas a las partes no deseadas y permiten el acceso del own autorizado a una propiedad», dijo Banks. «Sin embargo, la mayoría de los lugares de alta seguridad incluyen guardias humanos como medida adicional de precaución y disuasión».

«Los sistemas de puerta pueden analizar las credenciales de identificación de los empleados y proveedores y tomar una decisión en una fracción de segundo sobre si proporcionar acceso o no», dijo. «Pero todo se basa en datos y algoritmos. Los guardias humanos apostados cerca pueden ayudar a garantizar que el sistema no sea explotado o que no se tomen decisiones equivocadas basadas en una lógica defectuosa».

El argumento de los bancos no es si la tecnología de inteligencia synthetic debe implementarse o no. Su preocupación es la base sobre la que descansa la tecnología. Si la base se construye correctamente con salvaguardias, todos nos beneficiaremos.

Ver también



Enlace a la noticia primary