Lesezeit: 4 Minuten | Veröffentlicht: 03. März 2025

KI-Supercomputing Was ist KI-Supercomputing?
Beim KI-Supercomputing verwenden Organisationen ultraschnelle Prozessoren, die aus Hunderttausenden leistungsstarken Maschinen bestehen, um mithilfe von Modellen der künstlichen Intelligenz (KI) riesige Datenmengen zu verwalten und zu interpretieren.


- Wie funktionieren KI-Supercomputer?
- KI-Supercomputing und Analyse-Workloads
- Beispiele für KI-Supercomputer
- HPE und KI-Supercomputing
Wie funktionieren KI-Supercomputer?
KI-Supercomputer bestehen typischerweise aus fein abgestimmter Hardware aus Hunderttausenden von Prozessoren, einem spezialisierten Netzwerk und einer riesigen Menge an Datenspeicher.
Die Supercomputer teilen die Workloads auf verschiedene Prozessoren auf, sodass jeder Prozessor einen kleinen Teil der Arbeit übernimmt. Während sie ihre einzelnen Arbeitsschritte ausführen, kommunizieren die Prozessoren untereinander – oft ziemlich häufig. Jeder Prozessor sendet eine Nachricht über ein Kommunikationsnetz, sodass die Informationen in vielen Dimensionen ausgetauscht werden: nach oben, unten, links, rechts, vor und zurück, je nach Problem. Dieser mehrdimensionale Prozess hilft dabei, die Workloads besser aufeinander abzustimmen, und ermöglicht so eine höhere Verarbeitungsgeschwindigkeit.
Überraschenderweise laufen auf KI-Supercomputern ziemlich normale Betriebssysteme, und sie verwenden Linux-Software für die Ausführung von Anwendungen, Netzwerk und Scheduling. Die ausgeführten Analyseprogramme sind normalerweise in C oder Fortran geschrieben und leiten Nachrichten über eine Kommunikationsbibliothek namens MPI weiter, die auf mehreren Geräten verwendet werden kann.
Durch die kompakteren und dichter auf den Platinen angeordneten Schaltkreise kann ein KI-Supercomputer zwar schneller laufen, er erwärmt sich dabei jedoch auch stärker. Das liegt daran, dass die Energiezufuhr zum und vom Chip noch nicht effizient genug ist, sodass die Chips sehr heiß werden. Und da Supercomputer Hunderttausende dieser Multi-Core-Knoten umfassen, besteht ein enormer Kühlungsbedarf. Um dieses Problem zu reduzieren, werden die Schaltkreise aus Kupferdrähten hergestellt, da diese Energie mit einer sehr hohen Leistungsdichte übertragen können. Der Supercomputer nutzt außerdem Druckluft zur Wärmeableitung und zirkuliert Kühlmittel durch das gesamte System.
Wie kann KI-Supercomputing analytische Workloads bewältigen?
Es gibt mehrere Gründe, warum KI-Supercomputer komplexe analytische Workloads bewältigen können.
Knoten
KI-Supercomputer verfügen über mehrere CPUs, um extrem schnelle Rechengeschwindigkeiten zu ermöglichen. Innerhalb dieser CPUs oder Knoten gibt es 10 bis 12 Kerne, die Aufgaben ausführen. Und weil die Architektur eines Supercomputers oft Tausende von Knoten gruppiert, bedeutet das, dass pro Tausend 12.000 Kerne arbeiten. Wenn also ein einziger Supercomputer nur über tausend Knoten verfügt, liegt seine Arbeitsleistung bei Billionen von Zyklen pro Sekunde.
Leitungen
Sie verfügen außerdem über sehr kleine Kabelverbindungen, sodass die Platine mit mehr Strom versorgt werden kann als die Platinen herkömmlicher Computer. Diese beiden Fortschritte ermöglichen die sequentielle Interpretation und Ausführung komplexer arithmetischer und logischer Operationen.
Verarbeitung
Außerdem arbeiten Supercomputer mit Parallelverarbeitung, so dass mehrere Workloads gleichzeitig ausgeführt werden können. Insbesondere weil Tausende von Aufgaben gleichzeitig verarbeitet werden, ist die Arbeit in Millisekunden erledigt. KI-Supercomputer ermöglichen es der Industrie, größere, bessere und genauere Modelle zu trainieren. Mit mehr Präzision können Teams Informationen schneller analysieren, wichtige Erkenntnisse in Prozesse einfließen lassen, mehr Quellen nutzen und mehr Szenarien testen – und so Fortschritte in der Branche beschleunigen.
Beispiele für KI-Supercomputer
NVIDIA DGX SuperPOD: Dies ist ein leistungsstarker KI-Supercomputer von NVIDIA. Er besteht aus mehreren miteinander verbundenen NVIDIA DGX-Systemen, um außergewöhnliche Rechenleistung für die KI-Forschung und -Entwicklung bereitzustellen. Der DGX SuperPOD wird zum Trainieren großer KI-Modelle, zum Durchführen komplexer Simulationen und zum Beschleunigen verschiedener Deep-Learning-Aufgaben verwendet.
Summit: Summit wurde von IBM und HPE entwickelt und steht im Oak Ridge National Laboratory in den USA. Er ist einer der schnellsten Supercomputer der Welt. Er integriert KI-Funktionen mit High Performance Computing (HPC), um die wissenschaftliche Forschung zu beschleunigen. Summit verwendet IBM POWER9-CPUs und NVIDIA Tesla V100-GPUs und ist daher hocheffizient für KI-Workloads wie Deep Learning und Datenanalyse.
Fugaku: Fugaku ist ein japanischer Supercomputer, der von RIKEN und Fujitsu entwickelt wurde. Er befindet sich im RIKEN Center for Computational Science und gilt als einer der schnellsten Supercomputer der Welt. Fugaku ist für eine breite Palette von Anwendungen konzipiert, darunter KI und maschinelles Lernen. Seine Architektur ermöglicht es ihm, Aufgaben wie Bilderkennung, Natural Language Processing und andere KI-gestützte Simulationen mit hoher Geschwindigkeit auszuführen.
Diese KI-Supercomputer sind aufgrund ihrer immensen Rechenleistung von entscheidender Bedeutung für Fortschritte in verschiedenen Bereichen, von der wissenschaftlichen Forschung bis hin zu industriellen Anwendungen.
HPE und KI-Supercomputing
HPE verfügt über HPC/KI-Lösungen, die Sie bei der Verwaltung einer breiten Palette von Workload- und Skalierungsanforderungen unterstützen. Unsere Lösungen sind Teil eines umfassenden modularen Softwareportfolios für HPC/KI-Workloads, die für HPC/KI-Anwendungen und Leistung im großen Maßstab optimiert sind, mit der Dichte und Zuverlässigkeit, die Sie zur Unterstützung leistungsstarker CPUs und GPUs benötigen.
Darüber hinaus bietet HPE HPC-Hardware für umfangreiche Bereitstellungen an, die vollständig für Implementierungen jeder Größenordnung integriert ist und über erweiterte Kühlungsoptionen für kompakte Plattformen verfügen.
HPE Cray Supercomputer stellen eine ganz neue Form von Supercomputer mit revolutionären Funktionen dar. Sie sind mit einer Auswahl an Infrastrukturen ausgestattet, um eine optimale Lösung für Zehn- bis Hunderttausende von Knoten bereitzustellen. Ein kompakter 8-Wege-GPU-Server bietet eine konsistente, vorhersehbare und zuverlässige Leistung und gewährleistet so eine hohe Produktivität bei groß angelegten Workflows. Slingshot Interconnect und Cray Software ermöglichen zusammen mit HPE Performance Cluster Manager für ein umfassendes Systemmanagement für Cloud-ähnliche Benutzererlebnisse.
