Big Data-Serverspeicher-Ökosystemlösungen

Die Wahl der richtigen Infrastruktur für Ihre datenfokussierte Organisation

Verkürzen Sie Ihre Wertschöpfungszeit

Datengenerierung und Datenerfassung wachsen exponentiell schnell an. Kunden in Branchen jeder Art analysieren diese wachsenden Mengen an Big Data und werten sie aus, um das Potenzial von Erkenntnissen zu nutzen, durch die Betriebsabläufe optimiert, Kosten gesenkt und Produkte und Services effizienter und effektiver für die Kunden eingesetzt werden können, die diese benötigen. So entsteht die nächste Generation aus Produkten und Services, um bisher nicht erfüllte Kundenanforderungen vor den Mitbewerbern zu erfüllen.

Das HPE Big Data-Serverspeicher-Ökosystem vereint die Lösungskompetenz der Ökosystem-Partner mit der HPE Erfahrung, HPE Apollo Systemen und ProLiant Servern, damit Kunden dank bewährter, getesteter, vollständiger Lösungen aus ihren Daten den maximalen Nutzen ziehen können.

HPE hat Apollo Serverspeichersysteme für die neuen Technologien optimiert, die die Big Data-Revolution antreiben – Hadoop- und NoSQL-basierte Analysen, Objektspeicherlösungen sowie die Konvergenz aus High Performance Computing (HPC) und Big Data.

Objektspeicher

Dichteoptimierte Lösungen mit geringen Kosten/GB für umfangreiche Objektspeichersysteme für Zusammenarbeit, Inhaltsverteilung, Inhaltsrepositorys, aktive Archive, Backup-Repositorys und Offlinespeicher und vieles mehr.

Warum ist uns das wichtig?

Objektspeicherlösungen sind:

  • Ideal für – Big Data-Dateien jeder Art, die erstellt und abgerufen, jedoch selten geändert werden.
  • Skalierbar – nahezu grenzenlose Kapazität bis zum dreistelligen Petabyte-Bereich und sogar darüber hinaus. Die Leistung zeigt beim Wachstum des Clusters eine nahezu lineare Skalierung.
  • Verfügbar – von überall aus, jederzeit und auf beliebigen Geräten. Verfügbarkeit an mehreren Standorten mit so vielen Neunen, wie Sie benötigen.
  • Sicher – von Grund auf mandantenfähig mit anpassbarer Sicherheit pro Benutzer. Erasure Coding-Schutz.
  • Effizient – sorgen für deutlich niedrigere TCO für Big Data im Petabyte-Bereich als herkömmliche Dateisystemlösungen und senken sowohl Investitions- als auch Betriebskosten.
  • Einfach – setzen RESTful APIs ein, sodass ein nicht hierarchischer adressierbarer Namespace im Petabyte-Bereich für das wachsende Volumen und die wachsende Vielzahl von Big Data-Dateitypen unterstützt wird.

Hadoop

Gewinnen Sie durch Analysen, die auf parallelem Hadoop-Data-Mining basieren, aus Ihren Big Data Einblicke in Ihren Geschäftsbetrieb – so verschaffen Sie sich ein umfassendes Bild Ihrer Kunden, verbessern Ihre Web-Commerce-Umsätze, steigern die Kundenbindung und Kundenzufriedenheit und vieles mehr. Oder analysieren Sie maschinengenerierte Datenmengen zur Optimierung und Automatisierung von Betriebsabläufen und Steigerung von Effizienz und Rentabilität.

Warum ist uns das wichtig?

Hadoop-basierte Big Data-Analyselösungen:

  • Hochmodernes Tool – ziehen Sie Rückschlüsse aus gemischten Daten, die bislang nicht zugänglich waren.
  • Fördern der Big Data-Revolution – das Datenmanagementsystem mit dem schnellsten Wachstum seit RDBMS.
  • Geschäftseinblicke – finden Sie die Verbindungen über verschiedene unstrukturierte Datenquellen hinweg (zum Beispiel Kundeneinkäufe, Online-Einkauf, Social Media).
  • Auf Big Data-Niveau – kosteneffiziente parallele Analysen; fügen Sie weitere Speicherserver hinzu, um Kapazität und Leistung zu steigern.
  • Datenorientierte Effizienz – nutzen Sie maschinell generierte Daten und Überwachung zum Testen und Automatisieren der Reaktionsfähigkeit.

HPC und Big Data-Konvergenz

Big Data-Analysen werden rechenintensiver. High Performance Computing arbeitet mit deutlich größeren Datenvolumen. Die Herausforderungen und die Lösungen beginnen viele gleiche Elemente aufzuweisen. Ist es Big Data oder HPC? Letztendlich spielt es keine Rolle – solange die Lösung das Problem behebt, umfangreiche Datenmengen effektiv verarbeitet und die Anforderung erfüllt, mit weniger mehr zu erreichen.

Warum ist uns das wichtig?

  • HPC benötigt größere Datenmengen – ob im Bereich Genomik/Biowissenschaften, Klimaprognosen in Echtzeit oder komplexes Systemproduktdesign, HPC muss immer größere Datensätze und mehr Iterationen verarbeiten.
  • Big Data braucht HPC – Hadoop-basierte Analysen werden nun da eingesetzt, wo High-Speed-Fabrics zwischen Speicher- und Computingressourcen sowie leistungsstarke Verarbeitung wie schnelle CPUs, Rechenbeschleuniger und für HPC übliches High-Speed-E/A benötigt werden.
  • Neue Architekturen und schnellere Fortschritte – wo HPC und Big Data zusammentreffen. Die neuesten Entwicklungen sehen vielversprechend aus und werden frühere Engpässe hinsichtlich kosteneffektiver Skalierung und Ressourcennutzung eliminieren. Damit entsteht eine Roadmap, auf deren Basis die nächste Generation von Simulations- und Analysekomplexität angegangen werden kann.

Fallstudien und Lösungsübersichten

BIGLOBE richtet kostengünstige, skalierbare Speicherumgebung mit hoher Speicherdichte ein

BIGLOBE stellt als führender japanischer Anbieter für Internet- und Cloud-Services auf ein stabileres Mailspeichersystem für seine 3 Millionen Breitbandkunden um. In Erwartung steigender Speicheranforderungen der Kunden entschied sich BIGLOBE für einen HPE ProLiant SL4540 Gen8 Server mit Intel® Xeon®-Prozessor E5-2400, auf dem das Scality RING-Softwarepaket ausgeführt wird. BIGLOBE erreichte die Leistung und Zuverlässigkeit, die langfristig für die Verwaltung unstrukturierter Daten erforderlich sind, und reduzierte im Vergleich zu üblichen Speicherumgebungen gleichzeitig die Kosten um 2/3.

RTL II verlagert Videoarchiv mit HPE und Scality in den Hyperscale-Bereich

Aufgrund des Wachstums des aktiven Videoarchivs um jährlich 200 Terabyte benötigte der deutsche Fernsehsender RTL II eine effizientere Lösung für die Skalierung. Durch die Bereitstellung von HPE ProLiant SL4540 Gen8 Servern mit Scality RING-Objektspeicher-Software erzielte der Sender eine Skalierbarkeit im Petabyte-Bereich und konnte gleichzeitig die Videoübertragungsgeschwindigkeit um das Zehnfache beschleunigen – so dauern Übertragungen nicht mehr 60-70 Minuten, sondern nur noch 6,5 Minuten. Dadurch kann der Sender aktuellstes Material für die Ausstrahlung bereitstellen und der wachsenden Kundennachfrage nach mehr Online-Inhalten nachkommen.

 

Speichern von Big Data auf Petabyte-Niveau

Maschinen-, anwendungs- und benutzergenerierte Daten wachsen schnell auf Petabyte- und Exabyte-Größe an und erschweren es so, Daten unter Verwendung herkömmlicher Datenbanken und Speichersysteme zu speichern, zu verarbeiten und auf diese zugreifen. HPE ProLiant Server mit Scality RING ist eine softwaredefinierte Speicherplattform, die für die Objektspeicheranforderungen im Petabyte-Bereich der heutigen Zeit konzipiert wurde. Sie verwendet eine verteilte Shared-Nothing-Architektur mit integriertem Tiering für eine flexible Speicherkonfiguration und sorgt für geringe Latenz, einzigartige Stabilität und sehr schnelle Datenzugriffe.