La inteligencia artificial ha capturado la imaginación humana desde la invención de la primera computadora moderna en el mediados del siglo XX. Y el último hito en inteligencia synthetic, ChatGPT, ha revitalizado nuestro interés generalizado en la capacidad de la IA para simplificar la forma en que trabajamos.
Los avances de ChatGPT en el aprendizaje automático son impresionantes: sus resultados de alta calidad se parecen a los humanos. Los avances que representa para los sistemas de IA indican que logros aún más notables están cerca de la realidad. Pero mientras ChatGPT sugiere que todo el potencial de la IA se está acercando, la realidad es que todavía no está del todo aquí. En este momento, existen grandes oportunidades para que el aprendizaje automático aumente la inteligencia humana, pero aún no puede reemplazar a los expertos humanos.
Los obstáculos entre ChatGPT y el futuro que promete
Una confianza overall en la IA solo puede ocurrir si se demuestra que una tecnología de IA dada es más efectiva que todas las demás herramientas utilizadas para cumplir el mismo propósito. y la IA aún no se ha desarrollado para funcionar de forma totalmente autónoma. AI estrecho (AÑO) a menudo explain la IA que vemos hoy: IA diseñada para una sola tarea, como un chatbot o un generador de imágenes. ANI aún requiere supervisión humana y alguna configuración guide para funcionar y no siempre se ejecuta y entrena con los últimos datos e inteligencia. En este caso, Aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF)que permite que el modelo aprenda de las respuestas correctas e incorrectas a las solicitudes, ayudó a entrenar a ChatGPT.
Nuestros aportes humanos a los sistemas de IA también plantean un desafío importante. Los modelos de aprendizaje automático pueden verse afectados por nuestras opiniones personales, cultura, educación y perspectivas del mundo, lo que limita nuestra capacidad para crear modelos que eliminen por completo los sesgos. Si se utiliza y entrena de forma inadecuada, ANI puede arraigar aún más nuestros prejuicios en nuestro trabajo, sistemas y cultura. Incluso hemos visto recompensas de errores dedicadas a eliminar el sesgo de la IA, lo que subraya estos desafíos. La dependencia full sería problemática a menos que podamos identificar cómo construir sistemas de IA más robustos que mitiguen el sesgo humano.
Es una tontería confiar completamente en la IA para la ciberseguridad
El creciente panorama de amenazas, la diversificación de los vectores de ataque y los grupos de delincuentes cibernéticos con muchos recursos requieren un enfoque múltiple que aproveche las fortalezas de la inteligencia humana y de las máquinas. A encuesta realizada en 2020 encontró que el 90% de los profesionales de ciberseguridad creían que la tecnología de ciberseguridad no es tan efectiva como debería ser y es parcialmente responsable del éxito continuo de los atacantes. Confiar plenamente en la IA solo exacerbará los problemas ya significativos de muchas organizaciones. confianza excesiva en estas herramientas ineficaces de automatización y escaneoy los informes de vulnerabilidad generados por IA con falsos positivos «confiadamente incorrectos» pueden incluso agregar fricción a los esfuerzos de remediación.
La tecnología tiene su lugar, pero nada se compara con lo que puede producir un humano habilidoso con mentalidad de hacker. El tipo de vulnerabilidades de alta gravedad encontradas por muchos piratas informáticos requiere creatividad y una comprensión contextual del sistema afectado. Un informe de vulnerabilidad escrito por ChatGPT comparado con uno desarrollado de principio a fin por un pirata informático demuestra esta brecha en la competencia. Cuando se probó, el informe del primero era repetitivo, carecía de especificidad y no brindaba información precisa, mientras que el segundo ofrecía un contexto completo y una guía detallada de mitigación.
AI puede potenciar su equipo de seguridad
Hay un término medio. Inteligencia synthetic puede realizar tareas más rápido y más eficientemente que cualquier persona. Eso significa que la IA puede facilitar mucho el trabajo de los profesionales de la ciberseguridad.
Los piratas informáticos éticos ya utilizan las herramientas de inteligencia synthetic existentes para ayudar a escribir informes de vulnerabilidad, generar ejemplos de código e identificar tendencias en grandes conjuntos de datos. El diverso conjunto de habilidades de la comunidad de hackers llena los vacíos de capacidad de la IA. Donde la IA realmente ayuda es en proporcionar a los piratas informáticos y a los equipos de seguridad el componente más crítico para la gestión de vulnerabilidades: la velocidad.
Con casi la mitad de las organizaciones carecen de la confianza para cerrar tsus brechas de seguridad, la IA puede desempeñar un papel essential en la inteligencia de vulnerabilidades. La capacidad de AI para reducir el tiempo de remediación al ayudar a los equipos a procesar grandes conjuntos de datos más rápido podría potenciar la rapidez con la que los equipos internos analizan y categorizan vastas franjas de su superficie de ataque desconocida.
La IA estrecha podría ayudar a abordar los principales desafíos de la industria
Ya estamos viendo que los gobiernos reconocen el potencial de la IA estrecha: la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA) enumera a la IA como una posible solución de inteligencia de vulnerabilidad para seguridad de la cadena de suministro de software package. Cuando se eliminan las minucias diarias del trabajo importante de seguridad cibernética, los humanos detrás de la tecnología quedan libres para prestar más atención a su superficie de ataque, remediar mejor las vulnerabilidades y desarrollar estrategias más sólidas para defenderse de los ataques cibernéticos.
Pronto, ANI podría desbloquear aún más potencial de los piratas informáticos y los profesionales de ciberseguridad que lo utilizan. En lugar de preocuparse de que la IA les pretty el trabajo, los profesionales de la seguridad deben cultivar un conjunto de habilidades diverso que complemente las herramientas de la IA y, al mismo tiempo, mantener una gran conciencia de sus limitaciones actuales. La IA está lejos de reemplazar el pensamiento humano, pero eso no significa que no pueda ayudar a crear un futuro mejor. Para una industria con un importante brecha de habilidadesla IA podría marcar la diferencia en la construcción de una Net más segura.