High Performance Computing

Was ist High Performance Computing?

High Performance Computing (HPC) umfasst Lösungen, die mit einem Tempo Daten verarbeiten und Berechnungen durchführen können, das die Fähigkeiten anderer Computer in den Schatten stellt. Mithilfe dieser geballten Rechenleistung können verschiedene Organisationen aus Wissenschaft, Wirtschaft und Technik große Probleme lösen, die sonst nicht zu bewältigen wären.

HPC in der richtigen Perspektive

Ein durchschnittlicher Desktop-Computer kann mehrere Milliarden Berechnungen pro Sekunde durchführen. Im Vergleich zur Geschwindigkeit, mit der Menschen komplexe Berechnungen anstellen, ist das zwar enorm beeindruckend, doch HPC-Lösungen können in einer einzigen Sekunde Quadrillionen von Berechnungen durchführen.

Zugehörige HPE Lösungen, Produkte oder Services

Supercomputing ist eine HPC-Lösung

Eine der am häufigsten genannten HPC-Lösungen ist das Supercomputing, worunter man die Lösung hochkomplexer oder datenintensiver Probleme mithilfe von konzentrierten Rechenressourcen mehrerer, parallel arbeitender Computersysteme versteht. Um die Leistungsfähigkeit von Supercomputing zu verdeutlichen, lohnt sich ein Blick darauf, welche Arten von Problemen Supercomputer lösen können. 

Beispiel für ein HPC-System

Die Universität von Leicester nutzt ein HPC-System für Berechnungen in der theoretischen Physik, Astrophysik, Teilchenphysik, Kosmologie und Kernphysik. Durch die Möglichkeit, diese komplexen Berechnungen schneller durchzuführen, kann das Team Fragen zur Geburt von Sternen sowie zur Entstehung und Entwicklung von Planeten nachgehen. Auf diese Weise ermöglicht High Performance Computing ein tieferes Verständnis unseres Universums.

Wie funktioniert High Performance Computing?

HPC funktioniert nicht immer auf die gleiche Art und Weise. Es gibt ein weit verbreitetes System, das von Unternehmen eingesetzt wird, um High-Performance-Funktionen ohne die Kosten eines Supercomputers nutzen zu können. Dabei werden Gruppen kleinerer Computer in Clustern gebündelt, die dann als Nodes zusammenarbeiten. Diese Nodes verfügen jeweils über mehrere Prozessoren, die für bestimmte Computing-Aufgaben eingesetzt werden. In diesem Szenario bilden die miteinander verbundenen Cluster das HPC-System. Da solche Systeme keine benutzerdefinierte Software erfordern, sind sie für kleinere Unternehmen leichter zu implementieren.

Seit einigen Jahren gibt es noch ein weiteres HPC-System, das eine kosteneffiziente Lösung für Unternehmen sein kann, die nicht in eigene Infrastruktur investieren möchten: HPC-as-a-Service. Bei HPC-as-a-Service hosten Technologieanbieter HPC-Lösungen auf ihrer Infrastruktur und ermöglichen anderen Unternehmen den Zugriff darauf über die Cloud. So erhalten diese Unternehmen alle benötigten Ressourcen und können diese bei Bedarf schnell erweitern, bezahlen dabei aber nur für die tatsächlich genutzte Kapazität.

Warum ist High Performance Computing wichtig?

High Performance Computing ist deshalb so wichtig, weil damit Daten zur Lösung von Problemen genutzt werden können, die für den Menschen selbst unlösbar sind.

Neben der Erforschung des Universums unterstützt HPC auch wichtige Anwendungen für unseren Alltag. Nachfolgend einige Beispiele:

  • Betrugserkennung – Um Betrug im Finanzdienstleistungssektor zuverlässig zu erkennen, muss ein Algorithmus Millionen von Transaktionen in Echtzeit analysieren und gleichzeitig durch die Auswertung von Informationen über diese Transaktionen den nötigen Kontext liefern. HPC kann diese Aufgabe automatisch erledigen, wodurch die Unternehmen viel Geld sparen.
  • Verwaltung von Krankenakten – Durch die Verbreitung elektronischer Gesundheitsakten (eGA) im medizinischen Bereich haben Ärzte und Pflegepersonal Zugang zu einer beispiellosen Fülle an Patientendaten, die theoretisch eine Erstellung besserer Diagnosen und Behandlungspläne ermöglichen. HPC-Systeme können diese Daten viel besser und effizienter verarbeiten als herkömmliche Computing-Systeme. Dadurch verringert sich der Zeitaufwand für die Eingabe und Organisation von Daten, wodurch das medizinische Personal mehr Zeit für die Arbeit am Patienten hat.
  • Wettervorhersage – Eine Herausforderung bei der Wettervorhersage ist die Menge an Computing-Ressourcen, die für genaue Prognosen benötigt wird. Mit High Performance Computing lassen sich die komplexen partiellen Differentialgleichungen in der Wetterphysik zusammen mit der riesigen Menge an Wetterdaten verarbeiten, die von Satelliten gesammelt werden.
  • Optimierung von Rennwagen – Ein wichtiger Bestandteil der Formel 1 ist der technische Wettbewerb zwischen den Konstruktionsteams. Bereits kleine technische Verbesserungen können einen großen Unterschied auf der Rennstrecke ausmachen. Diese Teams nutzen HPC für ihre hydrodynamischen Analysen und Verbesserungen, um herauszufinden, wo ihre Fahrzeuge weiter optimiert werden können, ohne die von der FIA auferlegten Regeln zu brechen.

Beschleunigung von HPC-Innovationen für Unternehmen jeder Größe

In der dynamischen Weltwirtschaft von heute beginnt der Erfolg im Rechenzentrum. Vom Kleinbetrieb über den Mittelständler bis zum globalen Großkonzern nutzen Unternehmen heute die neuesten Technologien, um das Potenzial ihrer Daten optimal auszuschöpfen.

Innovationsfähigkeit ist entscheidend für herausragende Leistung, mehr Intelligenz und die Ergebnisse, die Unternehmen auf die nächste Stufe bringen. Rechenzentren verändern sich drastisch, da die Nachfrage nach High Performance Computing und künstlicher Intelligenz in einer Vielzahl verschiedener Branchen rapide ansteigt.

 

HPC-Anwendungen in der Vergangenheit

Das Konzept des High Performance Computing wurde in den 1960er Jahren zur Unterstützung der staatlichen und akademischen Forschung entwickelt. In den 1970er Jahren hielt HPC schließlich Einzug in die Großindustrie, um die Entwicklung komplexer Produkte in der Automobilindustrie, in der Luft- und Raumfahrt, im Öl- und Gassektor, im Finanzdienstleistungsbereich und in der Pharmaindustrie zu beschleunigen.

Im Jahr 2019 hatten fast die Hälfte bzw. 49 % des weltweiten Umsatzes mit HPC-Serversystemen von 13,7 Milliarden USD ihren Ursprung im privaten Sektor.1 Die Ausgaben für das gesamte HPC-Ökosystem – einschließlich Servern, Datenspeichern, Software und Support – verdoppelten die Gesamtsumme der Serversysteme.

Bislang wurden die meisten HPC-Systeme im privaten Sektor in dedizierten HPC-Rechenzentren für die Produktentwicklung oder andere vorgelagerte Aufgaben in Forschung und Entwicklung installiert. In den letzten Jahren integrierten jedoch immer mehr große und kleinere Unternehmen – viele davon HPC-Einsteiger – diese Systeme in ihren Rechenzentren, um komplexe Geschäftsabläufe zu unterstützen, die ihre Serversysteme alleine nicht effektiv bewältigen konnten.

 

HPC-Anwendungen heute

HPC- und KI-Anforderungen sorgen inzwischen für deutliche Verbesserungen bei der Datenverarbeitung und Rechenleistung und damit für laufende Fortschritte bei einer Vielzahl von wissenschaftlichen, industriellen und gesellschaftlichen Herausforderungen. Da HPC- und KI-Workloads weiter an Größe und Komplexität zunehmen, haben viele Unternehmen Lösungen für beschleunigtes Computing (Accelerated Computing) implementiert, die mehr Rechenleistung und Speicherbandbreite für besonders datenintensive Workloads bieten.

Accelerated Computing verbessert die Geschwindigkeit und Leistung insgesamt und unterstützt damit HPC, KI und Datenanalysen im großen Maßstab. Diese zuverlässigen Plattformen ermöglichen das Management wachsender Datenmengen und die Ausführung komplexer Modellierungs- und Simulationsanwendungen sowie enorm umfangreicher Trainings- und Inferenz-Jobs in rasanter Geschwindigkeit.

 

HPC im Unternehmen

Der Beginn des neuen Exascale-Zeitalters führt vor allem zu einem dramatischen Wandel hin zu datenorientiertem Computing im Unternehmensbereich. Allen Erwartungen nach wird Exascale-Computing immens hohe Anforderungen an die IT-Infrastruktur stellen, die riesige Datenmengen für KI in extremem Umfang verarbeiten muss. Hochkomplexe Workloads erfordern maximale Beständigkeit, größere Bandbreite und Hochgeschwindigkeitsverbindungen, damit Datenengpässe vermieden werden können. Unternehmen müssen sich schnell auf die Exascale-Ära vorbereiten, indem sie kompatible Technologien entwickeln, die ihre digitale Transformation vereinfachen und effizientere, kostengünstigere Lösungen ermöglichen.

Accelerated Computing ist die ideale Grundlage für HPC- und KI-Verfahren wie maschinelles Lernen und Deep Learning (DL), die dank ihrer unerreichten Geschwindigkeit, Präzision und Einblicke ganze Branchen transformieren.

Eine Reihe von Geschäftszweigen profitiert von diesen revolutionären Fortschritten und nutzt die Leistung und Geschwindigkeit von HPC, um Aufgaben jeglicher Art zu vereinfachen. HPC-Anwendungen sind in fast allen Branchen zu finden, beispielsweise im Gesundheitswesen, in den Biowissenschaften, in der Energiewirtschaft, im Fertigungssektor sowie in Behörden und im Bereich der Finanzdienstleistungen. %20Technology%20Spotlight%3A%20CIOs%20nutzen%20High%20Performance%20Computing%20zur%20Verbesserung%20der%20Produktivit%C3%A4t%20und%20Wettbewerbsf%C3%A4higkeit%2C%20Hyperion%20Research%2C%20August%202020.

HPE HPC beschleunigt den digitalen Fortschritt mit On-Demand-Innovation

Der digitale Fortschritt ist heute nicht länger eine Frage, sondern eine Voraussetzung. Wie gut und wie schnell sich Unternehmen anpassen und neu erfinden können, entscheidet zwischen Erfolg und Misserfolg. Doch die bestehenden Methoden reichen nicht mehr aus, um die drängenden Probleme von heute zu lösen – die Weltgemeinschaft braucht einen grundlegend anderen Ansatz.
 
Supercomputing spielt bei diesem neuen Ansatz weiter eine entscheidende Rolle, entwickelt sich aber rasant weiter, um den stark veränderten Anforderungen gerecht zu werden. So geht es heute beim Supercomputing nicht mehr nur um ein paar exklusive, geschwindigkeitsoptimierte Systeme. Es geht um die dringende Notwendigkeit, aus riesigen Datenmengen Einblicke und Werte zu gewinnen, um ein besseres Verständnis dieser Rechenanforderungen zu erlangen und beschleunigte Funktionen bereitzustellen, damit die Lösung jeder Ebene von Forschung und Wirtschaft unabhängig von der Größe zugänglich wird.
 
Moderne KI-Workloads erweitern bereits jetzt die Grenzen von Supercomputing. Kluge Unternehmen suchen nach innovativen Lösungen, mit denen sie das volle Potenzial von KI ausschöpfen, einen Wettbewerbsvorteil erreichen und einige der weltweit größten Probleme lösen können. Angesichts des großen Wissens, das es zu gewinnen gilt, ist die nächste Phase des Supercomputing entscheidend für die Nutzung der Ausweitung von KI. Diese bahnbrechenden Innovationen werden nicht nur bestehende Standards für I/O, Sicherheit und Management erfüllen, sondern auch höhere Verarbeitungsleistung im großen Maßstab in Verbindung mit einer schnelleren, zuverlässigeren Datenübertragung zur Optimierung anspruchsvoller Workloads bereitstellen.

 
Willkommen im Zeitalter des Exascale-Computing

High Performance Computing von HPE definiert, unterstützt und beschleunigt das nächste Computing-Zeitalter – wann, wo und wie es die Unternehmen brauchen.
 
In einer Welt, in der die Anpassung nicht mehr von Generation zu Generation sondern in Echtzeit erfolgt, müssen Unternehmen den digitalen Fortschritt mit Einblicken und On-Demand-Innovation beschleunigen. HPE unterstützt Sie dabei.
 
HPE ist seit vier Jahrzehnten führend im Bereich Supercomputing und entwickelt Systeme und Technologien für die größten Denker und Macher der Welt. Basierend auf dieser Erfahrung definiert und begleitet HPE das nächste Zeitalter des Computing. Mit dieser Art von Innovation kann jedes Unternehmen Unsicherheiten in Chancen verwandeln.
 
Exascale ist nicht nur ein Meilenstein bei der Geschwindigkeit oder eine Systemgröße. Es steht für neue Workloads aufgrund neuer Fragen an der Schnittstelle zu neuen Computing-Funktionen, die zu einem bedeutenden technologischen Wandel führen. HPE vereint die technischen Anforderungen in Lösungen, die Exascale-Computing-Funktionen für alle zugänglich machen.

HPE bietet HPC-Systeme, die für das Exascale-Zeitalter – sowie kommende Generationen – gerüstet sind. Diese Systeme sind leistungsfähig wie ein Supercomputer und funktionieren ähnlich wie die Cloud, unterstützen ein breites Spektrum zukünftiger Prozessoren und Beschleunigerarchitekturen und lassen sich an jeden Bedarf und jedes Rechenzentrum anpassen.