Big Data-Serverspeicher-Ökosystemlösungen

Die Wahl der richtigen Infrastruktur für Ihr datenorientiertes Unternehmen

Ziehen Sie schneller Nutzen aus Ihren Daten

Die Datengenerierung und -erfassung nimmt exponentiell zu. Durch die Analyse und Auswertung dieser wachsenden Big Data-Volumen wollen Kunden in sämtlichen Branchen Einblicke gewinnen, um ihre Betriebsabläufe zu optimieren und Kosten zu senken. Außerdem möchten Sie Produkte und Services effizienter und effektiver den Kunden anbieten, die diese auch benötigen, und so die nächste Generation an Produkten und Services schaffen, mit denen sie bisher nicht erfüllte Kundenanforderungen vor den Mitbewerbern erfüllen können.

Das HPE Big Data-Serverspeicher-Ökosystem vereint das Lösungs-Know-how von Ökosystem-Partnern mit der Erfahrung von HPE, mit HPE Apollo Systemen sowie ProLiant Servern, damit Kunden dank bewährter, getesteter, vollständiger Lösungen aus ihren Daten den maximalen Nutzen ziehen können.

HPE hat Apollo Serverspeichersysteme für die neuen Technologien optimiert, die die Big Data-Revolution voranbringen – Hadoop- und NoSQL-basierte Analysen, Objektspeicherlösungen sowie die Konvergenz aus High Performance Computing (HPC) und Big Data.

Objektspeicher

Diese Lösungen mit optimierter Speicherdichte und niedrigen Kosten pro GB eignen sich für Objektspeicherlösungen beliebiger Größe, z. B. in den Bereichen Zusammenarbeit, Verteilung von Inhalten, Inhaltsrepositorys, aktive Archive, Backup-Repositorys, Offlinespeicherung und alle Zwischenaspekte.

Warum ist uns das wichtig?

Objektspeicherlösungen sind:

  • Ideal für – Big Data-Dateien jeder Art, die erstellt und abgerufen, jedoch selten geändert werden.
  • Skalierbar – nahezu grenzenlose Kapazität bis zum dreistelligen Petabyte-Bereich und sogar darüber hinaus. Die Leistung zeigt beim Wachstum des Clusters eine nahezu lineare Skalierung.
  • Verfügbar – von überall aus, jederzeit und auf beliebigen Geräten. Verfügbarkeit an mehreren Standorten mit so vielen „Neunen“, wie Sie benötigen.
  • Sicher – von Grund auf mandantenfähig mit anpassbarer Sicherheit pro Benutzer. Erasure Coding-Schutz.
  • Effizient – sorgen für deutlich niedrigere TCO für Big Data im Petabyte-Bereich als herkömmliche Dateisystemlösungen und senken sowohl Investitions- als auch Betriebskosten.
  • Einfach – setzen RESTful APIs ein, sodass ein nicht hierarchischer adressierbarer Namespace im Petabyte-Bereich für das wachsende Volumen und die wachsende Vielzahl von Big Data-Dateitypen unterstützt wird.

Hadoop

Gewinnen Sie mithilfe von Big Data-Analysen, die auf parallelem Hadoop-Data-Mining basieren, Einblicke in Ihren Geschäftsbetrieb. Verschaffen Sie sich dadurch ein umfassendes Bild von Ihren Kunden, erhöhen Sie Ihre Web-Commerce-Umsätze, steigern Sie die Kundenbindung und die Kundenzufriedenheit und noch vieles mehr. Oder analysieren Sie maschinengenerierte Daten zur Optimierung und Automatisierung von Betriebsabläufen und Steigerung von Effizienz und Rentabilität.

Warum ist uns das wichtig?

Hadoop-basierte Big Data-Analyselösungen:

  • Hochmodernes Tool – ziehen Sie Rückschlüsse aus gemischten Daten, die bislang nicht zugänglich waren.
  • Fördern der Big Data-Revolution – das Datenmanagementsystem mit dem schnellsten Wachstum seit RDBMS.
  • Geschäftseinblicke – finden Sie die Verbindungen über verschiedene unstrukturierte Datenquellen hinweg (zum Beispiel Kundeneinkäufe, Online-Einkauf, Social Media).
  • Auf Big Data-Niveau – kosteneffiziente parallele Analysen; fügen Sie weitere Speicherserver hinzu, um Kapazität und Leistung zu steigern.
  • Datenorientierte Effizienz – nutzen Sie maschinell generierte Daten und Monitoring zum Testen und Automatisieren der Reaktionsfähigkeit.

HPC und Big Data-Konvergenz

Big Data-Analysen werden rechenintensiver. High Performance Computing arbeitet mit deutlich größeren Datenvolumen. Die Herausforderungen und die Lösungen beginnen viele gleiche Elemente aufzuweisen. Ist es Big Data oder HPC? Letztendlich spielt es keine Rolle – solange die Lösung das Problem behebt, umfangreiche Datenmengen effektiv verarbeitet und die Anforderung erfüllt, mit weniger mehr zu erreichen.

Warum ist uns das wichtig?

  • HPC benötigt größere Datenmengen – ob im Bereich Genomik/Biowissenschaften, Klimaprognosen in Echtzeit oder komplexes Systemproduktdesign, HPC muss immer größere Datensätze und mehr Iterationen verarbeiten.
  • Big Data braucht HPC – Hadoop-basierte Analysen werden nun da eingesetzt, wo High-Speed-Fabrics zwischen Speicher- und Computingressourcen sowie leistungsstarke Verarbeitung wie schnelle CPUs, Rechenbeschleuniger und für HPC übliches High-Speed-E/A benötigt werden.
  • Neue Architekturen und schnellere Fortschritte – wo HPC und Big Data zusammentreffen. Die neuesten Entwicklungen tragen höchstwahrscheinlich dazu bei, dass die früheren Engpässe hinsichtlich kosteneffektiver Skalierung und Ressourcennutzung der Vergangenheit angehören. Damit entsteht eine Roadmap, auf deren Basis die nächste Generation von Simulations- und Analysekomplexität angegangen werden kann.

Fallstudien und Lösungsübersichten

BIGLOBE richtet kostengünstige, skalierbare Speicherumgebung mit hoher Speicherdichte ein

BIGLOBE stellt als führender japanischer Anbieter für Internet- und Cloud-Services auf ein stabileres Mailspeichersystem für seine 3 Millionen Breitbandkunden um. In Erwartung steigender Speicheranforderungen der Kunden entschied sich BIGLOBE für einen HPE ProLiant SL4540 Gen8 Server mit Intel® Xeon®-Prozessor E5-2400, auf dem das Scality RING-Softwarepaket ausgeführt wird. BIGLOBE erreichte die Leistung und Zuverlässigkeit, die langfristig für die Verwaltung unstrukturierter Daten erforderlich sind, und reduzierte im Vergleich zu üblichen Speicherumgebungen gleichzeitig die Kosten um 2/3.

RTL II verlagert Videoarchiv mit HPE und Scality in den Hyperscale-Bereich

Aufgrund des Wachstums des aktiven Videoarchivs um jährlich 200 Terabyte benötigte der deutsche Fernsehsender RTL II eine effizientere Lösung für die Skalierung. Durch die Bereitstellung von HPE ProLiant SL4540 Gen8 Servern mit Scality RING-Objektspeicher-Software erzielte der Sender eine Skalierbarkeit im Petabyte-Bereich und konnte gleichzeitig die Videoübertragungsgeschwindigkeit um das Zehnfache beschleunigen – so dauern Übertragungen nicht mehr 60-70 Minuten, sondern nur noch 6,5 Minuten. Dadurch kann der Sender brandaktuelles Material für die Ausstrahlung bereitstellen und der wachsenden Kundennachfrage nach mehr Online-Inhalten nachkommen.

 

Speichern von Big Data auf Petabyte-Niveau

Maschinen-, anwendungs- und benutzergenerierte Daten wachsen schnell auf Petabyte- und Exabyte-Größe an und erschweren es so, Daten unter Verwendung herkömmlicher Datenbanken und Speichersysteme zu speichern, zu verarbeiten und auf diese zugreifen. HPE ProLiant Server mit Scality RING ist eine softwaredefinierte Speicherplattform, die für die Objektspeicheranforderungen im Petabyte-Bereich der heutigen Zeit konzipiert wurde. Sie verwendet eine verteilte Shared-Nothing-Architektur mit integriertem Tiering für eine flexible Speicherkonfiguration und sorgt für geringe Latenz, einzigartige Stabilität und sehr schnelle Datenzugriffe.