Qu’est-ce que l’hyperscale ?
Définition de l’hyperscale
Comme son nom l’indique, l’objectif principal de l’hyperscale est de parvenir à un traitement informatique massif, généralement pour le big data ou le cloud computing. L’infrastructure hyperscale a été conçue pour une évolutivité horizontale et induit de hauts niveaux de performance, de rendement, ainsi que de redondance pour assurer une tolérance aux pannes et une disponibilité élevée. L’informatique hyperscale dépend souvent d’architectures de serveurs hautement évolutifs et d’un réseau virtuel.
-
Pourquoi choisir l’hyperscale ?
Il existe un grand nombre de raisons pour lesquelles une entreprise peut adopter une informatique hyperscale. L’hyperscale peut offrir la meilleure voire la seule possibilité d’atteindre un objectif spécifique comme fournir des services de cloud computing. En général, les solutions hyperscale offrent l’approche la plus économique pour traiter un ensemble de demandes exigeantes. Par exemple, un projet d’analyse de big data peut se révéler le plus économique avec l’évolutivité et la densité informatique disponible dans l’hyperscale.
-
HPE hyperscale
La gamme de serveurs haute densité HPE Apollo est la solution d’informatique hyperscale proposée par HPE. Chaque serveur haute densité HPE Apollo a été conçu pour assurer les plus hauts niveaux de performance et d'efficacité. Optimisée pour les environnements à forte densité, la gamme Apollo permet aux entreprises de parvenir à l’hyperscale dans des infrastructures physiques relativement petites. Les serveurs offrent une approche progressive vers l’hyperscale.
-
Portefeuille HPE Apollo complet
Découvrez tous les composants de la gamme complète de serveurs haute densité HPE Apollo pour explorer et comparer les informations.
Une solution refroidie par air et aux performances optimisées pour tirer le meilleur parti de votre infrastructure et de vos investissements.
- 20 % de performance supplémentaire pour les applications à thread unique
- 60 % d'espace en moins que pour une lame de calcul
- Coût total de possession réduit de 3 millions de dollars sur 3 ans pour 1 000 serveurs
Systèmes Apollo 4000 pour big data et stockage HPC
Spécialement conçu pour prendre en charge Hadoop® ainsi que d'autres systèmes d’analyse de big data et de stockage d'objets.
- Optimisation de la densité de disque avec 68 disques à grand facteur de forme dans un format 4U
- Exploration de données Hadoop et analyses NoSQL
- Mise en place d’un stockage d'objets avec des volumes de données en pétaoctets
Pour passer à une architecture à évolutivité horizontale avec des datacenters traditionnels. Haute densité et grandes capacités en matière de performances et de charges de travail, le tout avec un encombrement réduit.
- Quatre serveurs HPE Apollo 2000 indépendants enfichables à chaud dans un seul 2U
- 2 fois la densité de performance des serveurs 1U standard à un coût comparable