**El Desafío de la Ciberseguridad en la Era de la Inteligencia Artificial: La Necesidad de un Enfoque de Confianza Cero**
En la última década, los expertos en ciberseguridad del gobierno federal han enfatizado la importancia de la confianza, o la falta de ella, como un factor clave en la formulación de políticas de seguridad eficaces para los sistemas y datos de las agencias. Sin embargo, la situación actual ha cambiado drásticamente con el auge de los cibercriminales y los hackers patrocinados por estados que utilizan inteligencia artificial (IA) para desarrollar y lanzar ciberataques de manera más rápida y eficiente. Este cambio en el panorama cibernético ha colocado a gobiernos y empresas bajo una presión creciente para adoptar defensas de ciberseguridad impulsadas por IA, así como arquitecturas de seguridad que deleguen decisiones críticas de seguridad a agentes de IA.
Jennifer Franks, directora del Centro para la Ciberseguridad Mejorada de la Oficina de Responsabilidad Gubernamental de EE. UU., comentó que las agencias federales están actualmente lidiando con cómo implementar este enfoque dual. “Estamos teniendo que considerar un enfoque de dos en uno”, declaró Franks durante la Cumbre del Sector Público de Elastic presentada por FedScoop. “No es algo que debamos considerar como una herramienta que sería agradable tener; es una necesidad en este momento para realmente examinar las mejores prácticas y anticipar a los adversarios que podrían atacar nuestro entorno”.
El modelo de "Confianza Cero" (Zero Trust) representa un conjunto de principios de seguridad que se remonta a conceptos más antiguos de ciberseguridad, como el “acceso al menor privilegio”. Este enfoque sostiene que los defensores deben tratar todo en su red como un activo potencialmente comprometido. Por lo tanto, todo requiere una verificación constante de identidad, acceso y autorización para protegerse de hackers, filtraciones de datos y amenazas internas.
Sin embargo, los investigadores de amenazas han informado que los hackers maliciosos han logrado aprovechar la automatización impulsada por IA y la escalabilidad para aumentar significativamente la velocidad de sus ataques. Esto hace que sea cada vez más difícil para los operadores humanos en el lado defensivo mantenerse al día o tomar decisiones en tiempo real. En el mismo evento, Mike Nichols, gerente general de soluciones de seguridad en Elastic, mencionó que su empresa y otros grupos de investigación de amenazas han encontrado que las herramientas de IA han reducido el tiempo necesario para ejecutar un ataque y acceder a la red de una organización a aproximadamente 11 minutos.
Otros datos del último año indican que la barrera de entrada para los hackers maliciosos se ha reducido, con una disminución del 80-90% en el costo de desarrollar malware personalizado y un aumento del 42% en la explotación de vulnerabilidades de día cero antes de su divulgación pública. Nichols advirtió que los defensores de la ciberseguridad deberán adoptar la IA para defenderse a velocidades similares, llegando a afirmar que “si no la estás utilizando, vas a ser comprometido… eso es una garantía en este punto”.
A pesar de lo que algunos “vendedores deshonestos” puedan prometer, Nichols indicó que actualmente no existe tecnología o proceso que pueda proporcionar a una organización operaciones de ciberseguridad genuinas, agenticas y autónomas. Los operadores humanos aún pueden controlar decisiones críticas tomadas por los agentes de IA a través de una planificación adecuada. “La conclusión es que estas herramientas están ejecutando tus procesos existentes y añadiendo un poco de razonamiento a ello”, explicó. “Por lo tanto, necesitas tener un proceso bien engrasado y documentado”.
El veterano de ciberseguridad y autor Chase Cunningham, conocido como “Dr. Confianza Cero” por su defensa de estos principios, comentó a CyberScoop que la IA agentica puede “absolutamente” coexistir dentro de una arquitectura de seguridad de Confianza Cero, siempre y cuando se traten a los agentes como cualquier otra identidad no humana en una empresa. Indicó que la microsegmentación de redes, controles de cuentas estrictos y el registro continuo se alinean con los principios de Confianza Cero y limitarían el daño potencial que podría causar un agente de IA.
“Es simplemente otra entidad en la red que necesita ser explícitamente conocida, verificada, restringida, monitoreada y gobernada”, afirmó. “Si no sabes qué modelo es, qué datos puede acceder, qué sistemas puede invocar, qué acciones puede realizar y en qué condiciones puede hacer esas cosas, entonces has introducido ambigüedad en el entorno. Y la ambigüedad es exactamente lo que se supone que debe eliminar la Confianza Cero”.
A pesar de esto, Nichols subrayó que los humanos siempre deben estar involucrados en el proceso de toma de decisiones que realicen los agentes en su nombre. Asimismo, los proveedores de IA tienen la responsabilidad de ofrecer mayor transparencia sobre los productos que venden. “Ya no puedes tener una caja negra; no puedes tener una IA que diga ‘hey, lo hemos arreglado, no voy a explicar por qué es así’”, expresó Nichols. “Por diseño, necesitas encontrar un proveedor que tenga API abiertas [y que pueda proporcionar] explicabilidad, el trabajo que debe estar presente”.
La transformación que la inteligencia artificial está generando en el ámbito de la ciberseguridad plantea un desafío crítico. La adopción de la IA no solo es una cuestión de modernización, sino una necesidad imperiosa para adaptarse a un entorno en el que la rapidez y la eficiencia son determinantes. Sin embargo, la implementación de estas tecnologías debe hacerse con cautela, asegurando que se mantenga un equilibrio entre la automatización y la supervisión humana, así como la transparencia en los procesos. Solo así se podrá construir un futuro en el que la ciberseguridad se mantenga firme frente a las amenazas emergentes.