Confianza cero

¿Qué es la confianza cero?

La confianza cero constituye un enfoque de la gestión del acceso y la identidad que asume que no se confía en ningún usuario ni software de forma predeterminada. Todos los usuarios, los dispositivos y las aplicaciones deben demostrar sus identidades y su nivel de autenticación antes de poder acceder a los recursos.

¿En qué se diferencia la confianza cero de la seguridad tradicional?

A diferencia de los enfoques tradicionales basados en la seguridad del extremo, las arquitecturas de seguridad de confianza cero modernas reconocen la confianza como una vulnerabilidad. Asumen que no se debe confiar de manera predeterminada en ningún usuario, incluso aunque se haya permitido su acceso a la red, porque dicho usuario puede estar comprometido. De este modo, se exige la comprobación y la autenticación del dispositivo y la identidad en toda la red. Cada componente individual de la red debe establecer, de forma independiente, su fiabilidad y ser autenticado por cualquier otro componente con el que interactúe, incluso las medidas de seguridad de puntos existentes.

 

Soluciones, productos o servicios relacionados de HPE

¿Cómo establecen los usuarios su fiabilidad?

Demostrar la fiabilidad exige la confirmación de que cada uno de los componentes del sistema, inclusive el hardware, es quien dice ser, que no se ha visto comprometido por un delincuente cibernético y que los mensajes enviados desde el mismo tampoco se han visto comprometidos.

¿Cuáles son las ventajas de una arquitectura de confianza cero?

Los modelos de seguridad tradicionales, con autenticación única y donde la confianza se mantiene de manera indefinida, ya no responden a las necesidades de las empresas que operan en un entorno híbrido y dinámico. Mientras que, en un tiempo pasado, los extremos y cortafuegos se consideraron adecuados para proteger los datos de amenazas externas, un mundo edge-to-cloud abarca dispositivos en el extremo y servicios en la nube que nunca deben ser merecedores de una confianza absoluta y requieren confirmación constante.

Muchos sistemas de TI presentan lagunas entre las capas de la cadena de suministro, el silicio, los sistemas operativos, los hipervisores, el software de plataforma y las cargas de trabajo de las aplicaciones, donde los delincuentes cibernéticos pueden ocultar el malware y otros tipos de ataque. Todo ello, expone la red a todo tipo de vulnerabilidades, tal y como quedó demostrado con el ataque a SolarWinds en 2020. De acuerdo con los principios de confianza cero, la actualización comprometida no se habría instalado hasta que haber recibido el aval íntegro dentro del marco de confianza cero, aunque procediera de un proveedor de confianza.

Con comprobaciones y confirmaciones constantes, las arquitecturas de seguridad de confianza cero detectan rápidamente muchos tipos de ciberataques y, con frecuencia, evitan los accesos no autorizados antes de que tengan lugar. Un modelo de confianza cero admite la microsegmentación, que habilita a la TI para segregar recursos de red, de tal forma que las amenazas potenciales se puedan contener con facilidad. Las organizaciones pueden aplicar políticas granulares mediante un acceso basado en roles a fin de proteger los datos y sistemas confidenciales.

La confianza cero no solo mejora la seguridad, sino que lo hace de manera rentable y, además, agiliza y flexibiliza la seguridad tanto como lo exija el entorno de una organización. Debido a que un sistema de seguridad de confianza cero intenta comprender lo que los usuarios están tratando de hacer mientras lo hacen e introduce las políticas de seguridad adecuadas en función del contexto de esa acción, también puede mejorar la experiencia del usuario.

¿En qué se diferencian la confianza cero y SASE?

La confianza cero y el extremo de servicio de acceso seguro (SASE, pronunciado «sassi») son dos enfoques para mejorar la seguridad en un momento en que las plantillas están cada vez más distribuidas y alejadas, y la superficie de ataque de una organización se amplía. Aunque ambos enfoques tienen objetivos similares, son diferentes e independientes entre sí.

SASE describe los componentes necesarios para proporcionar un acceso seguro en el extremo. Combina redes de área amplia definidas por software (WAN) con otros servicios y funciones de red para construir una red segura basada en la nube. Una solución SASE debe poder identificar datos confidenciales, además de cifrar y descifrar contenido con supervisión constante de los niveles de riesgo y confianza. Este enfoque resulta especialmente útil para aquellas organizaciones con múltiples oficinas remotas y sucursales, implementaciones del Internet de las cosas (IoT) y en el extremo, además de plantillas muy distribuidas.

La confianza cero es un modelo y una filosofía que tienen por objetivo reducir los riesgos de seguridad en toda la empresa. Abarca, no solo el acceso seguro, sino también la supervisión de las amenazas cibernéticas para la organización, los requisitos de cumplimiento y gobernanza de los datos y el mantenimiento del entorno de red. Las arquitecturas de confianza cero eliminan la confianza de todas las comunicaciones de red y buscan obtener la seguridad de que las comunicaciones son legítimas. SASE proporciona un medio de lograrlo a través de su tecnología de componentes de núcleo. Por eso, aunque la confianza cero y SASE tengan principios que se solapan, implementar una solución SASE no significa que una organización tenga una arquitectura de seguridad de confianza cero total.

¿Cuáles son los principios centrales de la confianza cero?

La Agencia de Seguridad Nacional de EE. UU. describió tres principios rectores para las estrategias de seguridad de confianza cero.

No confiar nunca, verificar siempre.

Tratar cada usuario, dispositivo, aplicación, carga de trabajo y flujo de datos como no digno de confianza. Autenticar y autorizar explícitamente cada uno de ellos sobre la base del privilegio más básico requerido utilizando políticas de seguridad dinámicas.

Asumir un acceso no autorizado

Gestionar y defender los recursos de manera consciente con la asunción de que un adversario ya está presente en el interior del entorno. Denegar de manera predeterminada e inspeccionar de cerca todos los usuarios, dispositivos, flujos de datos y solicitudes de acceso. Registrar, inspeccionar y supervisar de manera constante todos los cambios de configuración, los accesos a los recursos y el tráfico de red para detectar actividad sospechosa.

Verificar de manera explícita

El acceso a todos los recursos debería realizarse de una forma uniforme y segura utilizando atributos múltiples (dinámicos y estáticos) para derivar niveles de confianza que permitan tomar unas decisiones de acceso a los recursos contextuales.

El principio del mínimo privilegio (POLP) indicado en el primer principio anterior establece que los usuarios deberían estar limitados a aquellos privilegios (lectura, escritura o ejecución) necesarios para acceder únicamente a los recursos requeridos para que desempeñen sus trabajos, y dichos privilegios deberían concederse para el periodo de tiempo más breve posible. Este principio también es conocido como el principio del control de accesos.

El periodo de tiempo para el cual se concede el privilegio es un elemento clave de POLP. Los desarrolladores de software tienden a añadir gradualmente más derechos de acceso a sus aplicaciones de los que son necesarios para que los usuarios desempeñen sus tareas. Esta práctica, conocida como «agregado de privilegios», puede provocar un riesgo de ciberseguridad adicional para la organización, pues las acumulaciones innecesarias de derechos podrían resultar en pérdidas o robos de datos.

¿Cómo puede HPE ayudar a lograr una arquitectura de confianza cero?

El Proyecto Aurora es la arquitectura de confianza cero edge-to-cloud de HPE para ayudar a proteger a los clientes de algunos de los ataques de malware actuales más sofisticados. Apoyándose en la raíz de confianza de silicio de HPE, el Proyecto Aurora lo mide todo antes de su habilitación y liberación para su ejecución, y repite constantemente esta medición durante el tiempo de ejecución.

En lugar de ser una solución puntual, el Proyecto Aurora aborda la seguridad integral para implementaciones edge-to-cloud, con nuevas soluciones de seguridad integradas a partir de la capa de silicio. Incorpora tecnologías de seguridad integradas en el diseño con verificación y certificación automatizadas para establecer un enfoque de protección absoluta que empieza en la capa fundamental más baja: el silicio.

Mediante la integración de la seguridad en una cadena de confianza segura, desde el silicio hasta la carga de trabajo, el Proyecto Aurora hará posible que las organizaciones refuercen la seguridad de sus sistemas de software distribuidos, lo que permite mayor agilidad y flexibilidad para comercializar unas soluciones rentables y diferenciadoras.

El Proyecto Aurora sentará las bases para prestar más servicios de confianza cero en HPE GreenLake y en otras ofertas HPE. Inicialmente, se integrará en HPE GreenLake Lighthouse para comprobar, de manera automática y permanente, la integridad del hardware, el firmware, los sistemas operativos, las plataformas y las cargas de trabajo, incluyendo también cargas de trabajo de proveedores de seguridad. Esto permite minimizar la pérdida y el cifrado no autorizado (y la corrupción) de datos empresariales valiosos y la propiedad intelectual.

En el futuro, el Proyecto Aurora también se incorporará a los servicios de nube HPE GreenLake para brindar una forma independiente de la plataforma de definir, crear e implementar una arquitectura de confianza cero distribuida desde el extremo hasta la nube.