Was ist Hyperscale?

Hyperscale bezieht sich auf die vollständige Kombination von Hardware und Einrichtungen, mit denen sich eine verteilte Computing-Umgebung auf bis zu Tausende von Servern erweitern lässt.

Definition von Hyperscale

Bei Hyperscale geht es darum, im Computing eine massive Skalierung zu erzielen – in der Regel für Big Data oder Cloud Computing. Eine Hyperscale-Infrastruktur ist auf horizontale Skalierbarkeit ausgelegt, mit der sich ein Hochmaß an Leistung, Durchsatz und Redundanz erzielen lässt, das für Fehlertoleranz und Hochverfügbarkeit sorgt. Häufig kommen beim Hyperscale-Computing massiv skalierbare Serverarchitekturen und virtuelle Netzwerke zum Einsatz.

Welche Gründe sprechen für Hyperscale?

Unternehmen führen das Hyperscale-Computing aus ganz verschiedenen Gründen ein. Hyperscale bietet zuweilen die beste oder einzige Methode für die Umsetzung eines bestimmten Unternehmensziels, z. B. Anbieten von Services für das Cloud Computing. Im Allgemeinen stellen Hyperscale-Lösungen allerdings die kostengünstigste Möglichkeit dar, um eine Reihe anspruchsvoller Anforderungen zu erfüllen. So könnte sich Hyperscale durch die damit verbundene Skalierbarkeit und Computing-Dichte vom wirtschaftlichen Standpunkt her z. B. für ein Big-Data-Analyseprojekt am besten eignen.

HPE Hyperscale

Die HPE Apollo Serverfamilie mit hoher Dichte ist die HPE Lösung für das Hyperscale Computing. Jeder HPE Apollo Server mit hoher Dichte wurde für höchste Leistung und Effizienz konzipiert. Durch die optimierte Dichte bietet die Apollo Familie Unternehmen die Möglichkeit, Hyperscale auf physisch relativ kleinem Raum umzusetzen.  Außerdem verfolgt sie bei Hyperscale ein mehrstufiges Konzept.

Das gesamte HPE Apollo Portfolio

Sehen Sie sich alle Komponenten in der gesamten HPE Apollo Serverfamilie mit hoher Dichte an, um sich ausführlicher zu informieren und Details zu vergleichen.

HPE Apollo 6000 – Effizienz im Rack-Format

HPE Apollo 6000
Effizienz im Rack-Format

 

Leistungsoptimierte, luftgekühlte Lösung, mit der Sie das Potenzial Ihrer Infrastruktur – und Ihre Investition – voll ausschöpfen können.

  • 20 Prozent mehr Leistung für Single-Thread-Anwendungen6
  • 60 Prozent weniger Platzbedarf als ein Computing-Blade7
  • Eingesparte Gesamtbetriebskosten in Höhe von 3 Mio. US-Dollar über einen Zeitraum von drei Jahren mit 1.000 Servern8
HPE Apollo 4000 – Speicherdichte

HPE Apollo 4000
Speicherdichte

 

Auf die Ausführung von Hadoop® und anderer Big Data-Analysen sowie von Objektspeicher -Systemen ausgelegt.

  • Maximieren Sie die Laufwerkleistung mit 68 LFF Laufwerken in einem 4U Formfaktor
  • Hadoop-basierte Datengewinnung und NoSQL-basierte Analysen
  • Implementieren Sie eine Objektspeicherung mit Datenvolumen im Petabyte-Bereich.
HPE Apollo 2000 – Skalierbarer Multi-Node

HPE Apollo 2000
Skalierbarer Multi-Node

 

Brücke zur Scale-Out-Architektur für traditionelle Rechenzentren. Stark verdichtet, ermöglicht eine hohe Leistungsfähigkeit und Workload-Leistung auf kleinstem Raum.

  • Vier unabhängige Hot-Plug-fähige HPE Apollo 2000 Server in einem einzigen 2U-Rack
  • Doppelte Leistungsdichte im Vergleich zu 1U-Standardservern – zu einem vergleichbaren Preis

Lassen Sie uns über Hyperscale Computing sprechen

Sprechen Sie mit einem HPE Hyperscale Experten, um zu erfahren, wie die HPE Apollo Serverfamilie mit hoher Dichte Ihnen helfen kann, Ihre Ziele beim Hyperscale Computing zu erreichen.

Ressourcen zu Hyperscale