🛡 MALWARE 🛡

¿Puede el modelo Zero Trust sobrevivir a la era de la IA?

🛡CyberObservatorio
Idioma

¿Puede el modelo Zero Trust sobrevivir a la era de la IA?

Fuente: CyberScoop

**El Desafío de la Ciberseguridad en la Era de la Inteligencia Artificial: La Necesidad de un Enfoque de Confianza Cero**

En la última década, los expertos en ciberseguridad del gobierno federal han enfatizado la importancia de la confianza, o la falta de ella, como un factor clave en la formulación de políticas de seguridad eficaces para los sistemas y datos de las agencias. Sin embargo, la situación actual ha cambiado drásticamente con el auge de los cibercriminales y los hackers patrocinados por estados que utilizan inteligencia artificial (IA) para desarrollar y lanzar ciberataques de manera más rápida y eficiente. Este cambio en el panorama cibernético ha colocado a gobiernos y empresas bajo una presión creciente para adoptar defensas de ciberseguridad impulsadas por IA, así como arquitecturas de seguridad que deleguen decisiones críticas de seguridad a agentes de IA.

Jennifer Franks, directora del Centro para la Ciberseguridad Mejorada de la Oficina de Responsabilidad Gubernamental de EE. UU., comentó que las agencias federales están actualmente lidiando con cómo implementar este enfoque dual. “Estamos teniendo que considerar un enfoque de dos en uno”, declaró Franks durante la Cumbre del Sector Público de Elastic presentada por FedScoop. “No es algo que debamos considerar como una herramienta que sería agradable tener; es una necesidad en este momento para realmente examinar las mejores prácticas y anticipar a los adversarios que podrían atacar nuestro entorno”.

El modelo de "Confianza Cero" (Zero Trust) representa un conjunto de principios de seguridad que se remonta a conceptos más antiguos de ciberseguridad, como el “acceso al menor privilegio”. Este enfoque sostiene que los defensores deben tratar todo en su red como un activo potencialmente comprometido. Por lo tanto, todo requiere una verificación constante de identidad, acceso y autorización para protegerse de hackers, filtraciones de datos y amenazas internas.

Sin embargo, los investigadores de amenazas han informado que los hackers maliciosos han logrado aprovechar la automatización impulsada por IA y la escalabilidad para aumentar significativamente la velocidad de sus ataques. Esto hace que sea cada vez más difícil para los operadores humanos en el lado defensivo mantenerse al día o tomar decisiones en tiempo real. En el mismo evento, Mike Nichols, gerente general de soluciones de seguridad en Elastic, mencionó que su empresa y otros grupos de investigación de amenazas han encontrado que las herramientas de IA han reducido el tiempo necesario para ejecutar un ataque y acceder a la red de una organización a aproximadamente 11 minutos.

Otros datos del último año indican que la barrera de entrada para los hackers maliciosos se ha reducido, con una disminución del 80-90% en el costo de desarrollar malware personalizado y un aumento del 42% en la explotación de vulnerabilidades de día cero antes de su divulgación pública. Nichols advirtió que los defensores de la ciberseguridad deberán adoptar la IA para defenderse a velocidades similares, llegando a afirmar que “si no la estás utilizando, vas a ser comprometido… eso es una garantía en este punto”.

A pesar de lo que algunos “vendedores deshonestos” puedan prometer, Nichols indicó que actualmente no existe tecnología o proceso que pueda proporcionar a una organización operaciones de ciberseguridad genuinas, agenticas y autónomas. Los operadores humanos aún pueden controlar decisiones críticas tomadas por los agentes de IA a través de una planificación adecuada. “La conclusión es que estas herramientas están ejecutando tus procesos existentes y añadiendo un poco de razonamiento a ello”, explicó. “Por lo tanto, necesitas tener un proceso bien engrasado y documentado”.

El veterano de ciberseguridad y autor Chase Cunningham, conocido como “Dr. Confianza Cero” por su defensa de estos principios, comentó a CyberScoop que la IA agentica puede “absolutamente” coexistir dentro de una arquitectura de seguridad de Confianza Cero, siempre y cuando se traten a los agentes como cualquier otra identidad no humana en una empresa. Indicó que la microsegmentación de redes, controles de cuentas estrictos y el registro continuo se alinean con los principios de Confianza Cero y limitarían el daño potencial que podría causar un agente de IA.

“Es simplemente otra entidad en la red que necesita ser explícitamente conocida, verificada, restringida, monitoreada y gobernada”, afirmó. “Si no sabes qué modelo es, qué datos puede acceder, qué sistemas puede invocar, qué acciones puede realizar y en qué condiciones puede hacer esas cosas, entonces has introducido ambigüedad en el entorno. Y la ambigüedad es exactamente lo que se supone que debe eliminar la Confianza Cero”.

A pesar de esto, Nichols subrayó que los humanos siempre deben estar involucrados en el proceso de toma de decisiones que realicen los agentes en su nombre. Asimismo, los proveedores de IA tienen la responsabilidad de ofrecer mayor transparencia sobre los productos que venden. “Ya no puedes tener una caja negra; no puedes tener una IA que diga ‘hey, lo hemos arreglado, no voy a explicar por qué es así’”, expresó Nichols. “Por diseño, necesitas encontrar un proveedor que tenga API abiertas [y que pueda proporcionar] explicabilidad, el trabajo que debe estar presente”.

La transformación que la inteligencia artificial está generando en el ámbito de la ciberseguridad plantea un desafío crítico. La adopción de la IA no solo es una cuestión de modernización, sino una necesidad imperiosa para adaptarse a un entorno en el que la rapidez y la eficiencia son determinantes. Sin embargo, la implementación de estas tecnologías debe hacerse con cautela, asegurando que se mantenga un equilibrio entre la automatización y la supervisión humana, así como la transparencia en los procesos. Solo así se podrá construir un futuro en el que la ciberseguridad se mantenga firme frente a las amenazas emergentes.

Can Zero Trust survive the AI era?

Source: CyberScoop

For the past decade, cybersecurity experts in the federal government have argued that trust, or a lack of it, was key to developing effective security policies for agency systems and data. But today, cybercriminals and state-sponsored hackers are using artificial intelligence to develop and launch cyberattacksmore quickly and efficiently. Governments and businesses are facing pressure to adopt AI-powered cybersecurity defenses, along with security architectures that delegate key security decisions to AI agents. Jennifer Franks, Director of the Center for Enhanced Cybersecurity at the Government Accountability Office, said federal agencies were currently grappling with how to do both. “We’re having to consider a two-in-one approach,” Franks said Thursday at the Elastic Public Sector Summit presented by FedScoop. “It’s not something that we have to consider as a tool that’s nice to have, it’s a needed necessity right now in an environment to really look at the best practices for really anticipating the adversaries that could target your environment.” Zero Trust – a set of security principles with roots in older cybersecurityconceptslike “least privilege access” — essentially argues that defenders should treat everything on their network as a potential compromised asset. Thus, everything requires constant verification of identity, access, and authorization to protect from hackers, data breaches and insider threats. But threat researchers are reporting that malicious hackers have been able to leverage AI-driven automation and scaling to significantly increase the speed of their attacks, making it increasingly difficult for human operators on the defensive side to keep up or make decisions in real time. At the same event Mike Nichols, general manager for security solutions at Elastic, said his company and other threat research firms have found that AI tools have helped drive down the time it takes to execute an attack and gain access to an organization’s network to around 11 minutes. Other metrics over the past year point to a lowered barrier for malicious hackers, including an 80-90% decrease in the cost to develop custom malware and a 42% increase in exploitation of zero days before public disclosure. He argued that cybersecurity defenders will need to embrace AI to defend at similar speeds, going so far as to say “if you’re not using it, you are going to be compromised…like that is a guarantee at this point.” Nichols said that despite what “disingenuous vendors” may promise, there is currently no technology or process that can provide an organization with genuine, agentic, autonomous cybersecurity operations. Human operators can still control critical decisions made by AI agentsthrough planning on the front end. “The bottom line is these things are executing your existing processes and adding some reasoning to it,” he said. “And so…you have to have a well-oiled process and documented process.” Cybersecurity veteran and author Chase Cunningham — who has earned the nickname “Dr. Zero Trust” for his advocacy of the principles – told CyberScoop that agentic AI can “absolutely” co-exist within a Zero Trust security architecture, as long as you treat agents like any other non-human identity in an enterprise. He said that network microsegmentation, strict account controls, and continuous logging all align with Zero Trust principles and would limit the potential damage an AI agent could cause. “It is just another entity on the network that needs to be explicitly known, verified, constrained, monitored, and governed,” he said. “If you do not know what model it is, what data it can access, what systems it can call, what actions it can take, and under what conditions it can do those things, then you have introduced ambiguity into the environment. And ambiguity is exactly what Zero Trust is supposed to remove.” But Nichols said humans should always be in the loop when agents make decisions on their behalf, and said AI vendors had an equal responsibility to provide more transparency behind the products they’re selling. “You can’t have a black box anymore, you can’t have an AI that says ‘hey, we fixed it, I’m not going to explain why that’s the case,’” said Nichols. “By design you need to find a vendor that’s open API [and who can provide] explainability, the work that has to be there.” The postCan Zero Trust survive the AI era?appeared first onCyberScoop.