¿Qué es el análisis de análisis de Big Data?

El análisis de Big Data incluye el análisis de conjuntos de datos grandes y complejos y, a menudo, carentes de estructura, para detectar información útil y tendencias.

Definición de análisis de Big Data

La expresión "análisis de Big Data" se ha utilizado tanto que se ha vuelto incomprensible. No obstante, consiste básicamente en explorar conjuntos de datos grandes y atípicos a fin de detectar tendencias e información previamente invisibles para lograr otros objetivos empresariales. Consigue ir más allá de lo que resulta posible con sistemas de bases de datos estándar de tipo "celda y columna", por ejemplo, observar publicaciones en redes sociales no estructuradas e inmensos registros automáticos para revelar las preferencias de marcas ocultas de los clientes. Hadoop y SAP HANA se utilizan con frecuencia.

¿Por qué optar por análisis de Big Data?

Los análisis de Big Data aportan a las empresas una ventaja competitiva mediante conocimientos únicos. Se trata de un paso adelante de la inteligencia de negocios básica y trasciende los "cubos" de datos tradicionales desde un RDBMS. Los análisis de Big Data permiten a las empresas extraer «lagos de datos» independientes procedentes de diversas fuentes no estructuradas en la búsqueda de ventajas estratégicas. En este contexto, se incrementa el valor de los activos de datos de los negocios. Sin embargo, a menudo, la mejor información se encuentra en repositorios de datos desconectados de terceros.

Productos y servicios de análisis de Big Data HPE

Los análisis de Big Data pueden pasar factura a su infraestructura. Inmensos volúmenes de datos y consultas pueden ralentizar el funcionamiento de los recursos informáticos y de almacenamiento. HPE ofrece a los usuarios de herramientas de análisis de Big Data como Hadoop un conjunto dinámico de opciones de plataforma. Las soluciones de infraestructura de Big Data de HPE incluyen la plataforma HPE Haven, que permite establecer estrategias de datos integrales, unificar los datos anteriores y los nuevos, adaptarse a las necesidades cuando surjan y utilizar grupos de datos relevantes para informar sobre personalización, previsión y monetización.

HPE Moonshot

HPE Moonshot

Potencia de cargas de trabajo ultraconvergentes que aplica el procesamiento a la escala más pequeña para lograr acceso instantáneo y un procesamiento muy eficiente.

Más información

El HPE Apollo 4000

El HPE Apollo 4000

Diseñado para Big Data, análisis y almacenamiento de objetos, con especial atención a los datos con minería de datos basada en Hadoop y análisis basados en NoSQL.

Más información

HPE ConvergedSystem para SAP HANA

HPE ConvergedSystem para SAP HANA

Optimizado para las cargas de trabajo con el fin de proporcionar agilidad y fiabilidad incomparables para el análisis empresarial en tiempo real y SAP HANA de misión crítica, escalable.

Más información

HPE 3PAR StoreServ 20000

HPE 3PAR StoreServ 20000

Almacenamiento de datos analizados que aborda las demandas de las cargas de trabajo actuales y el crecimiento futuro.

Más información

Recursos para el análisis de Big Data

Publicación en blog : ¿Está jugando con su infraestructura de seguridad?

BigDataAnalytics_Resources01_2x-md
Publicación en blog

A diferencia del mencionado ejemplo de Blackjack, aumentar sus oportunidades de ganar en seguridad no requiere superpoderes.

Artículo: : 10 principales predicciones de Big Data y análisis para 2017

BigDataAnalytics_Resources02_2x-md
Artículo:

No deje que los análisis le causen problemas Desarrolle técnicas de análisis integrales y obtenga herramientas avanzadas para analizar con más precisión los datos que se generan.

Artículo: : El rol de la TI híbrida y por qué importa

BigDataAnalytics_Resources03_2x-md
Artículo:

Craig Partridge, director de consultoría de plataformas de centros de datos de HP Enterprise, comenta las lecciones que ha aprendido de la interacción con los clientes en materia de TI híbrida.