Soluciones de ecosistema de almacenamiento de servidores de Big Data

Elección de la infraestructura correcta para su organización basada en datos

Acelere su tiempo de obtención de beneficios a partir de los datos

La generación y recopilación de datos está creciendo de manera exponencial. Los clientes de sectores de todo tipo están analizando y minando estas recopilaciones de datos de Big Data crecientes para obtener la información que les permitirá optimizar sus operaciones y reducir los costes, adaptar productos y servicios a clientes que los necesitan de forma más eficiente y eficaz, y crear la próxima generación de productos y servicios para cubrir las necesidades que la competencia no es capaz de cubrir.

El Ecosistema de almacenamiento de servidores de Big Data de HPE une la experiencia en soluciones de los partners del ecosistema con la experiencia de HPE y los Sistemas HPE Apollo y los servidores ProLiant para permitir a los clientes sacar el mayor provecho de sus datos con soluciones completas, probadas y comprobadas.

HPE ha optimizado los sistemas de almacenamiento de servidores Apollo para las nuevas tecnologías que están impulsando la revolución de los Big Data: análisis basados en Hadoop y NoSQL, soluciones de almacenamiento de objetos y la convergencia de High Performance Computing (HPC) y Big Data.

Almacenamiento de objetos

Soluciones optimizadas para densidad de bajo coste/GB para sistemas de almacenamiento de objetos a escala como colaboración, distribución de contenido, repositorios de contenido, archivos activos, repositorios de copia de seguridad y almacenamiento en frío, y mucho más.

¿Por qué nos importa?

Las soluciones de almacenamiento de objetos son:

  • Ideales para: archivos de Big Data de todos los tipos que se han creado y a los que se accede, pero que raramente se modifican
  • Escalables: capacidad prácticamente ilimitada de hasta cientos de petabytes y más. El rendimiento aumenta casi de forma lineal a medida que el clúster crece.
  • Disponibles: desde cualquier lugar, en cualquier momento y en cualquier dispositivo. Disponibilidad de múltiples ubicaciones con tantos «nueves» como sea necesario.
  • Seguras: diseño de multiinquilino con seguridad ajustable por el usuario. Borrado de protección de codificación.
  • Eficientes: ofrecen un TCO mucho menor para Big Data a escala de petabyte que las soluciones de sistemas de archivos tradicionales, ahorrando en CAPEX y OPEX.
  • Sencillas: utilizan APIs RESTful que permiten espacio de nombre accesible plano a escala de petabyte para el volumen y la variedad crecientes de tipos de archivos de Big Data.

Hadoop

Obtenga información empresarial de sus Big Data con análisis basados en la minería de datos paralela de Hadoop para desarrollar una visión global de los clientes, mejorar las ventas de comercio electrónico, mejorar la fidelización y la satisfacción de los clientes, y mucho más. También puede analizar volúmenes de datos generados por máquinas para optimizar y automatizar las operaciones y aumentar así la eficiencia y la rentabilidad.

¿Por qué nos importa?

Soluciones de análisis de Big Data basadas en Hadoop:

  • Herramienta innovadora: saque conclusiones de datos mexclados que no estaban disponibles anteriormente.
  • Impulsando la revolución de los Big Data: el sistema de gestión de datos que crece más rápido desde RDBMS.
  • Conocimiento empresarial: encuentre las conexiones entre diferentes fuentes de datos desestructurados (como compras de clientes, compra en línea, redes sociales).
  • A escala de big data: análisis rentable en paralelo. Añada más servidores de almacenamiento para aumentar la capacidad y mejorar el rendimiento.
  • Eficiencia basada en datos: aproveche los datos generados por máquinas y la monitorización para probar y automatizar la capacidad de respuesta.

Convergencia de HPC y Big Data

El análisis de Big Data cada vez tiene mayor intensidad de procesamiento. High Performance Computing funciona con volúmenes de datos mucho mayores. Los problemas y las soluciones están empezando a tener muchos elementos en común. ¿Es Big Data o es HPC? Al final, no importará si la solución resuelve el problema y trata la escala y la necesidad de hacer mucho más con menos de forma eficiente.

¿Por qué nos importa?

  • HPC necesita datos más grandes: desde las ciencias biológicas y la genómica hasta la predicción climática en tiempo real y el diseño de productos de sistemas complejos, HPC tiene que gestionar conjuntos de datos cada vez más grandes y con más repeticiones.
  • El Big Data necesita HPC: el análisis basado en Hadoop ahora se realiza donde se necesitan las estructuras de almacenamiento a procesamiento de alta velocidad y el procesamiento de alto rendimiento como CPUs rápidas, aceleradores computacionales y E/S de alta velocidad comunes en HPC.
  • Nuevas arquitecturas y progreso más rápido: donde HPC y Big Data se unen. El descubrimiento más avanzado es la promesa de romper los cuellos de botella anteriores para conseguir escalación y utilización de recursos rentables. Esto proporcionará la hoja de ruta para hacer frente a la próxima generación de complejidad de análisis y simulación.

Casos prácticos y resúmenes de soluciones

BIGLOBE construye un entorno de almacenamiento escalable de alta densidad y bajo coste

Como proveedor de servicio de Internet y nube líder en Japón, BIGLOBE está migrando a un sistema de almacenamiento de correo más sólido para sus 3 millones de clientes de banda ancha. Anticipándose a las crecientes necesidades de almacenamiento de sus clientes, BIGLOBE eligió el servidor HPE ProLiant SL4540 Gen8 con procesadores Intel® Xeon® de la familia E5-2400, que utiliza el paquete de software Scality RING. BIGLOBE consiguió el rendimiento y la fiabilidad necesarios para gestionar datos desestructurados a largo plazo, además de reducir los costes en dos tercios en comparación con los entornos de almacenamiento convencionales.

RTL II consigue hiperescala para el archivo de vídeos con HPE y Scality

El canal de televisión alemán RTL II necesitaba una forma de escalar más eficiente ya que su archivo de vídeos activo estaba creciendo 200 terabytes al año. Mediante la implementación de los servidores HPE ProLiant SL4540 Gen8 con el software de almacenamiento de objetos Scality RING, el canal consiguió escalabilidad a nivel de petabyte y aceleró las velocidades de transferencia de vídeo de entre 60 y 70 minutos a solo 6,5 minutos. Esto permite al canal ofrecer el material más actualizado para la emisión y satisfacer la creciente demanda del consumidor de más contenido en línea.

 

Almacene Big Data a escala de petabyte

Los datos generados por máquinas, aplicaciones y usuarios están aumentando hasta el tamaño de petabytes y exabytes, de forma que es difícil almacenar, procesar y acceder a datos mediante bases de datos y sistemas de almacenamiento tradicionales. Los servidores HPE ProLiant con Scality RING forman una plataforma de almacenamiento definido por software que fue diseñada para las necesidades actuales de almacenamiento de objetos a escala de petabytes. Utiliza una arquitectura distribuida shared nothing con capas integradas para una configuración de almacenamiento flexible y ofrece baja latencia, resiliencia insuperable y acceso de datos de alto rendimiento.