Solutions de réseau de stockage pour serveurs Big Data

Choisir une infrastructure adaptée à votre exploitation des données

Accélérer les délais de rentabilisation de vos données

La production et la collecte de données augmentent de façon exponentielle. Dans toutes sortes de secteurs, les clients analysent et extraient ces collections grandissantes de Big Data afin d’acquérir les connaissances leur permettant de rationaliser leurs opérations, réduire leurs coûts, cibler plus efficacement les produits et les services des clients qui les requièrent, concevoir avant la concurrence la prochaine génération de produits et services non pourvus.

L’écosystème de stockage de serveurs Big Data HPE réunit l’expertise des partenaires en matière de solution et l’expérience de HPE dans des systèmes HPE Apollo et des serveurs ProLiant afin que les clients puissent obtenir une valeur maximale de leurs données à l’aide de solutions éprouvées, testées et complètes.

HPE a optimisé les systèmes de stockage serveur Apollo pour les nouvelles technologies qui dynamisent la révolution Big Data, à savoir les analyses fondées sur Hadoop et NoSQL, les solutions de stockage d’objets et la convergence entre le calcul de haute performance (HPC) et le Big Data.

Stockage d'objets

Solutions à coût réduit par Go et à densité optimisée pour les systèmes de stockage d'objets à l’échelle comme la collaboration, la distribution de contenu, les référentiels de contenu, les archives actives, les référentiels de sauvegarde, le stockage à froid...

Quelle importance nous concernant ?

Les solutions de stockage d'objets sont :

  • Idéales pour tous les types de fichier Big Data créés, accessibles, mais rarement modifiés
  • Évolutives : offrent une capacité quasi illimitée, pouvant atteindre 100 pétaoctets voire plus. La performance évolue de façon presque linéaire à mesure que le cluster se développe.
  • Disponibles : n'importe où, n’importe quand, sur tout appareil. Disponibles sur autant de sites que vous le souhaitez, dénombrables par dizaines, centaines, milliers, etc.
  • Sécurisées : multitenant par conception avec un niveau de sécurité ajustable par l’utilisateur. Protection par code d’effacement.
  • Efficaces : avec un coût total de possession pour le Big Data largement inférieur, de l’ordre du pétaoctet, à celui des solutions classiques à systèmes de fichiers, ils génèrent une économie de CAPEX et d’OPEX.
  • Simples : utilisation d’interfaces de programmation RESTful permettant un espace de noms plat, adressable, à l’échelle du pétaoctet pour traiter le volume et la variété croissants de fichiers de type Big Data.

Hadoop

Exploitez les connaissances commerciales extraites de votre Big Data par des analyses fondées sur une exploration Hadoop en parallèle de vos données pour obtenir une vue de votre clientèle à 360°, améliorer les ventes sur le Web, fidéliser votre clientèle, mieux la satisfaire et davantage encore. Ou analysez des volumes de données générées par la machine, pour rationaliser et automatiser vos opérations, et ainsi gagner en efficacité et rentabilité.

Quelle importance nous concernant ?

Solutions d’analyse de Big Data fondées sur Hadoop :

  • Un outil de pointe : analysez des données mixtes qui étaient auparavant inaccessibles.
  • Appui à la révolution Big Data : le système de gestion de données à la plus forte croissance depuis le SGBDR.
  • Perspectives commerciales : établissez des connexions entre différentes sources de données non structurées (comme les achats en boutique, les achats en ligne, les médias sociaux...).
  • À l’échelle du Big Data : des analyses économiques en parallèle ; possibilité d’ajouter des serveurs de stockage pour améliorer vos capacités et votre performance.
  • Une efficacité centrée sur les données : utilisez les données et la surveillance générées par ordinateur pour tester et automatiser la réactivité.

Convergence entre HPC et le Big Data

Les analyses de Big Data nécessitent toujours plus de calculs. Le calcul haute performance opère sur des volumes de données largement plus élevés. Les défis et les solutions commencent à présenter beaucoup de points communs. Est-ce dû au Big Data ou à HPC ? En définitive, il importe peu si la solution parvient à résoudre le problème, à gérer l’échelle et le besoin d’en faire bien plus avec bien moins.

Quelle importance nous concernant ?

  • Le calcul haute performance (HPC) a besoin de données plus volumineuses. Qu’il s’agisse de génomes en sciences de la vie, de prévisions météo en temps réel ou encore de conception de produit fondé sur un système complexe, HPC doit traiter plus rapidement des ensembles de données toujours plus vastes et avec plus d’itérations.
  • Le Big Data a besoin du HPC. Des analyses fondées sur Hadoop vont maintenant là où il faut des structures (fabrics) de stockage vers un calcul très rapide et un traitement haute performance comme les unités centrales à traitement rapide, les accélérateurs informatiques et les entrées-sorties communes ultrarapides dans le HPC.
  • De nouvelles architectures et une évolution plus rapide : point de rencontre du HPC et du Big Data. La découverte la plus perfectionnée donne à espérer une élimination des précédents goulots d’étranglement et une exploitation des ressources avec économie d’échelle. Elle fournira la feuille de route pour la génération suivante de complexité en matière de simulation et d’analyse.

Études de cas et présentations des solutions

BIGLOBE construit un environnement de stockage évolutif à haute densité, à moindre coût

BIGLOBE, un des plus gros fournisseurs d’accès à Internet et de services cloud du Japon, est en train de migrer vers un système de stockage des courriels plus robuste pour ses 3 millions d’usagers haut débit. En prévision des besoins croissants en stockage de ces usagers, BIGLOBE a choisi le serveur HPE ProLiant SL4540 Gen8 alimenté par un processeur Intel® Xeon® de la gamme de produits E5-2400 exécutant le progiciel Scality RING. BIGLOBE a atteint des performances et une fiabilité dans la gestion à long terme des données non structurées, et réduit de deux tiers ses coûts par rapport à ceux des environnements de stockage classiques.

RTL II a transféré ses archives vidéo vers une architecture HyperScale avec HPE et Scality

Avec une croissance de l’ordre de 200 téraoctets par an de ses archives vidéo actives, la chaîne de télévision allemande RTL II avait besoin d’une économie d’échelle plus efficace. En déployant des serveurs HPE ProLiant SL4540 Gen8 avec un logiciel de stockage d’objets Scality RING, la chaîne a gagné une extensibilité à l’échelle du pétaoctet tout en multipliant par dix sa vitesse de transfert vidéo, qui passe ainsi de 60–70 minutes à quelques 6,5 minutes. La chaîne peut ainsi fournir un matériel le plus actuel possible et satisfaire la demande croissante des usagers pour davantage de contenu en ligne.

 

Enregistrement de Big Data à l’échelle du pétaoctet

Les données machine, les données d’application et les données générées par l’utilisateur augmentent rapidement, atteignant l’échelle du pétaoctet voire de l’exaoctet, ce qui rend difficile leur stockage, traitement et accès avec les bases de données et les systèmes de stockage classiques. Les serveurs HPE ProLiant avec Scality RING constituent une plate-forme de stockage définie par logiciel, conçue pour les besoins actuels en stockage d’objets en pétaoctets. Cette plate-forme utilise une architecture distribuée dite sans partage (SN), avec une hiérarchisation intégrée permettant une configuration de stockage flexible, et offre une faible latence, une résilience exceptionnelle et un accès aux données haute performance.