Infrastruktur für neuronale Netze

Deep Learning ist ein Teilbereich der künstlichen Intelligenz, bei dem es darum geht, auf Computern die Grundlagen dafür zu schaffen, aus unformatierten Daten neue Konzepte zu erlernen – ähnlich dem menschlichen Gehirn. Ein Deep Learning-System kann z. B. den Unterschied zwischen einer Blume und einem Baum erkennen, nachdem jeweils Tausende von Bildern hierzu angezeigt wurden. Deep Learning erfordert eine extrem hohe Verarbeitungs-, E/A- und Netzwerkleistung sowie Möglichkeiten zur exponentiellen Skalierung. Herkömmliche IT-Infrastrukturen eignen sich hierfür nicht. Benutzer benötigen optimale Plattformen und Fachwissen, um Deep Learning-Lösungen erfolgreich einzusetzen.

Die Notwendigkeit für Effizienz im Deep Learning-Bereich

Deep Learning muss effizient sein, um die gewünschten geschäftlichen Ziele zu erreichen: es geht nicht nur darum, die Betriebskosten auf der gesamten Plattform niedrig zu halten, sondern auch darum zu gewährleisten, dass die Benutzer Deep Learning-Anwendungen schnell einsetzen können. Es müssen genügend Hardwareressourcen für die Zusammenstellung großer Datenmengen zur Verfügung stehen, damit aufschlussreiche Maßnahmen vorangebracht werden.  

 

80 %

Anteil der jüngsten Weiterentwicklungen im Bereich künstliche Intelligent, die der Verfügbarkeit von mehr Rechenleistung zugeschrieben werden1 .

36 Mrd. USD

Prognostizierter Umsatz weltweit mit AI-Lösungen bis 20252 .

16.000

Zahl der verwendeten Prozessorcores beim Deep Learning-Projekt zur Bilderkennung von Google 3 .

Ein speziell entwickeltes Deep Learning-Portfolio 

HPE bietet zahlreiche Innovationen, um Deep Learning in allen Unternehmen zu beschleunigen. Diese Innovationen beziehen sich auf das Systemdesign, die Zusammenarbeit im Partnernetzwerk und das Fachwissen, einschließlich flexibler Nutzungsmodelle von HPE Pointnext Services. Sie ergänzen das bestehende HPE Apollo-Portfolio und stärken das gesamte HPE Leistungsspektrum, von den zentralen Komponenten im Rechenzentrum bis zum Intelligent Edge.

Leistung durch  erstklassige GPUs

HPE Deep Learning-Lösungen beinhalten die leistungsfähigsten GPUs im Rahmen einer GPU-zu-CPU-Konfiguration mit großer E/A-Bandbreite pro Knoten.

Skalierbarkeit bis hin zu Systemumgebungen der Petaflop-Klasse

Unsere neuen Deep Learning-Systeme können auf bis zu Tausende von Knoten skaliert werden und bieten eine Vielzahl von Umgebungsgrößen und flexibel einsetzbare Kosten/Leistungs-Merkmale.

Energieeffizienz und Produktivität

Wir entwickeln Lösungen, die sich durch ein hohes Maß an Energieeffizienz und Produktivität auszeichnen. Wir begrenzen den Energieverbrauch auf Rack- und Knotenebene und ermöglichen dank erstklassiger Systemtools die schnelle Entwicklung von Lösungen.

Investitionen in GPUs für Umgebungen der Petaflop-Klasse

Wir haben in verschiedenste Deep Learning-Plattformen investiert: von GPU PCIe-fähigen Einstiegsservern bis hin zu Plattformen mit den neuesten SXM2 NVLink GPUs.

Skalierung mit unbegrenzter Infrastrukturkapazität

Hinzufügen von Kapazität in Minuten statt Monaten. Vermeiden Sie lange Beschaffungszyklen und sparen Sie Kosten für die Bereitstellung von übermäßig viel Kapazität, indem Sie die vorhandene Kapazität gemeinsam mit dem Account-Team verwalten.

Sie bezahlen nur, was Sie tatsächlich nutzen

Stimmen Sie die Kosten monatlich durch erweiterte Messungen auf die Nutzung ab, ohne Vorabzahlungen leisten zu müssen. Dieses Konzept basiert auf Prognosen von Analysten, nach denen bis 2020 80 % der Hardware- und Softwareanschaffungen für IT-Infrastrukturen mit  nutzungsabhängiger Bezahlung bereitgestellt werden.

Kosten für Hardware, Software und Services miteinander kombinieren

Sie bezahlen einen einzigen Preis für Hardware, Software und Services. Das bezieht sich auf Server, softwaredefinierten und herkömmlichen Speicher, Netzwerke, Converged Systems und Software sowie auf Support von HPE und mehreren anderen Anbietern.

„Durch die Zusammenarbeit mit SGI, und jetzt mit HPE, konnte das Tokyo Institute of Technology erfolgreich eine konvergente, weltweit führende HPC- und Deep Learning-Plattform bereitstellen, die unsere Anforderungen und die unseres Landes erfüllt. Über den NVIDIA Tesla P100 SXM2-Knoten kann das GPU-basierte Deep Learning-Funktionsspektrum auf die gesamte Größe unseres TSUBAME 3.0 Systems skaliert werden.“

Mehr erfahren

Satoshi Matsuoka
Professor und Leiter von TSUBAME, Tokyo Institute of Technology

Erkenntnisse in Echtzeit für Kunden

„Die erweiterte Zusammenarbeit zwischen HPE und NVIDIA im Bereich Deep Learning ist auf die Verwendung automatisierter intelligenter Funktionen ausgerichtet, die dem Kunden Erkenntnisse in Echtzeit liefern sollen.“

Steve Conway, Hyperion Research

HPE Partnernetzwerk im Bereich Deep Learning

Wir haben ein Netzwerk für die Entwicklung innovativer Lösungen und Angebote aufgebaut, das auf die Anforderungen unserer Kunden im Bereich Deep Learning abgestimmt ist.

Entwicklung von Lösungen 

Mit unseren Lösungen können Sie geschäftliche Probleme mithilfe von Deep Learning-Funktionen lösen, z. B. mit der HPE Fraud Detection Solution mit Kinetica.

 

Technologische Innovation

Wir bieten die Einbindung von Leitfäden für Systeme der nächsten Generation, Zusammenarbeit bei der Entwicklung neuer Produkte und Tests zur Interoperabilität.

 

Angebote zur Einführung von Technologie

Die Mitarbeiter in unseren Center of Excellence helfen Ihnen bei der Planung und Implementierung von Deep Learning-Lösungen und bei der Modernisierung des vorhandenen Codes.

 

HPE Deep Learning Services

Weiterentwicklung von Deep Learning-Lösungen mit HPE Pointnext

Weiterentwicklung von Deep Learning-Lösungen mit HPE Pointnext

Nutzen Sie unsere kürzlich verbesserten Pointnext Advisory, Professional und Operational Support-Services für Deep Learning, einschließlich eines neuen HPE Flexible Capacity-Angebots für Deep Learning.

Jetzt anzeigen

Vorlage für den künftigen Status erstellen

Vorlage für den künftigen Status erstellen

Im Rahmen unserer Beratungs-, Design-, Implementierungs- und Integrationsservices können Sie den zukünftigen Status Ihrer Systemumgebung darstellen und Innovationen sowie Erweiterungsmöglichkeiten konzipieren.

Jetzt anzeigen

Reibungslose Implementierung von Deep Learning-Lösungen

Reibungslose Implementierung von Deep Learning-Lösungen

Mithilfe unserer Professional und Operational Services bewältigen Sie die Implementierung von Deep Learning-Lösungen rechtzeitig, im Rahmen des vorgesehenen Budgets und reibungslos. Nutzen Sie die kreativen Konfigurationen, um Ihre Deep Learning-Software und -Hardware optimal zu nutzen.

Jetzt anzeigen

Flexible Nutzung einer Deep Learning-Infrastruktur

Flexible Nutzung einer Deep Learning-Infrastruktur

Nutzen Sie Ihre Deep Learning-Infrastruktur mit einem flexiblen, bedarfsorientierten Nutzungsmodell. Sie erhalten nach Bedarf skalierbare Kapazität und zahlen nur für das, was Sie wirklich nutzen. Dies umfasst auch Server, Speicher, Netzwerke, Software und Services.

Jetzt anzeigen

Teilnahme am Early Access-Programm anfordern

Nehmen Sie am HPE Early Access-Programm für 8-Wege SXM2 GPU Volta teil. Dies umfasst Konfiguration, Benchmarking und Anleitungen für die Auswahl der Technologie.

Ressourcen

Best Practice-Leitfaden : Mit Objektspeicher zur Datenverwaltung im Petabyte-Maßstab

Erfahren Sie, wie sich mit Objektspeichern Daten im Petabyte-Maßstab verwalten lassen
Best Practice-Leitfaden | PDF | 5,98 MB

Erfahren Sie, wie Objektspeicherlösungen mit neuen, bahnbrechenden Funktionen verwaltet werden, die einfach, kostengünstig und skalierbar sind und sich schnell bereitstellen lassen.

Best Practice-Leitfaden : Innovation mit ANSYS und High Performance Computing beschleunigen

PUB-Ready_PUB-9129_DeepLearning_resourceLandscape-2_2x.md
Best Practice-Leitfaden | PDF | 4,57 MB

Ingenieurteams, die Ergebnisse aus CAE-Simulationen innerhalb von Stunden - und nicht von Tagen oder Wochen - benötigen, können mit High Performance Computing und die ANSYS-Software ihr bahnbrechendes Produktdesign schneller entwickeln. Erfahren Sie, wie Sie die Designzyklusdauer um 40 %* senken können, wenn Sie mehrfache, gleichzeitig laufende komplexe Simulationen für Prototypen unterstützen. Registrieren Sie sich, um einen Leitfaden zu HPC-Best-Practices für CAE zu erhalten. Erfahren Sie, wie HPE Apollo 2000 Systeme höhere Dichte und Skalierbarkeit als die Konkurrenz mit unabhängiger Wartbarkeit der Netzwerkmodule bieten und so die Produktivität der Ingenieure erhöhen und einen Wettbewerbsvorteil für Ihr Unternehmen bringen. Erfahren Sie, wie Rechenzentrumslösungen, wie etwa High Performance Computing, zusammen mit der ANSYS-Software die computergestützte Simulation und die Markteinführung beschleunigen und gleichzeitig die Betriebskosten senken.

Whitepaper : Trends bei der digitalen Transformation bei IT-Services

Analyst Technology Spotlight zu Trends bei der digitalen Transformation
Whitepaper

Trends bei der digitalen Transformation bei IT-Services

Artikel : Was ist Deep Learning?

Finden Sie die Antwort auf die Frage: Was ist Deep Learning?
Artikel

Was ist Deep Learning?