HPE、生成AIのエンド・ツー・エンドを網羅するAIネイティブなポートフォリオを発表

HPEとNVIDIA共同設計のエンタープライズクラスのソフトウェアおよびハードウェアソリューションで生成AIアプリケーションの開発と展開を加速

2024年3月28日

  • ※本リリースは、ヒューレット・パッカード エンタープライズ(本社:米国テキサス州ヒューストン、以下:HPE)が、2024年3月18日(現地時間)に発表した英文リリースに基づいて作成した日本語抄訳です。原文(全文)はこちらをご参照ください。

  • 概 要

    • 本日より提供するHPEの包括的な生成AIポートフォリオには、AIプロジェクトの加速に必要なコンピュート、ストレージ、ソフトウェア、ネットワーキング、コンサルティングサービスのすべてを網羅する2つのソリューションが含まれます。
    • 生成AIの概念実証の本番アプリケーション移行を支援する、HPE Machine Learning Inference Softwareのテクノロジーのプレビューおよび既に提供中のエンタープライズRAGリファレンスアーキテクチャを紹介します。
    • HPE は、NVIDIA Blackwell アーキテクチャに基づく製品を将来的に開発します。

  • HPEは、NVIDIA GTCイベントにおいて、生成AI、ディープラーニング(深層学習)、機械学習アプリケーションの実装を促進する、業界で最も包括的なAIネイティブポートフォリオのアップデートを発表しました。

    アップデートは以下のとおりです:

    • HPEとNVIDIAが共同開発した2つのフルスタック生成AIソリューションの提供開始
    • HPEによる機械学習推論のためのHPE Machine Learning Inference Softwareのプレビュー
    • エンタープライズRAG(検索拡張生成)リファレンスアーキテクチャ
    • 新しいNVIDIA Blackwellプラットフォームをベースとした将来の製品開発のサポート
  • HPEの社長兼CEOであるアントニオ・ネリ(Antonio Neri)は次のように述べています。

    「生成AI に対する期待に応え、AIのライフサイクル全体を効果的に網羅するためには、ソリューションはその設計がハイブリッド(ハイブリッド・バイ・デザイン)である必要があります。AI モデルのトレーニングやチューニングはオンプレミス、コロケーション施設、パブリッククラウドで実行し、エッジで推論を実行するので、AI はハイブリッドクラウドのワークロードです。HPEとNVIDIAは、長年にわたり共にイノベーションに取り組んできた歴史があり、お客様による生成AIの開発から導入に至る取り組みの加速を支援する、共同設計のAIソフトウェアとハードウェアソリューションの提供を継続します」

  • NVIDIA社 の創業者/CEO であるジェンスン フアン (Jensen Huang)氏 は、次のように述べています。

    「生成AIは、コネクテッドデバイス、データセンター、クラウドからのデータをインサイトに変え、様々な業界のブレークスルーを促進することができます。HPEとの拡大するコラボレーションは、エンタープライズが事業の変革に向けた新しいAIアプリケーションの開発と実装によって卓越した生産性の実現を可能にします。」

  • 本日より提供する2つの包括的な生成AIポートフォリオ

  • エンタープライズクラスの生成AIチューニングと推論

    HPEがDiscover Barcelona 2023イベントでプレビューを発表した、生成AIのためのエンタープライズコンピューティングソリューションの提供を開始しました。HPE GreenLakeを通じた柔軟で拡張性に優れた従量課金制または通常の購入形態で導入することもできます。NVIDIAとの共同エンジニアリングによる事前設定済みのファインチューニングおよび推論のための本ソリューションは、生成AIアプリケーションの構築に必要なコンピュート、ストレージ、ソフトウェア、ネットワーキング、コンサルティングサービスを提供するもので、立ち上げにかかる時間とコストの削減に寄与するよう、設計されています。


    HPEとNVIDIAの高性能AIコンピュートクラスタとソフトウェアで構成される本ソリューションは、モデルの軽微なファインチューニング、RAG、スケールアウト推論に最適です。本ソリューションでは、ファインチューニングにかかる時間は、ノード数に応じてリニアに短縮され、700億パラメータのLlama 2モデルのファインチューニングは、16ノードのシステムでは6分で完了%E5%88%9D%E6%9C%9F%E3%81%AB%E7%A4%BE%E5%86%85%E3%81%A7%E5%AE%9F%E6%96%BD%E3%81%97%E3%81%9F%3Ca%20href%3D%22https%3A%2F%2Fgithub.com%2Fmeta-llama%2Fllama-recipes%2Fblob%2Fmain%2Fsrc%2Fllama_recipes%2Ffinetuning.py%22%20target%3D%22_blank%22%20external-link%3D%22true%22%20data-analytics-region-id%3D%22footnote_tip%7Clink_click%22%3Ellama-recipes%0Afinetuning.py%3C%2Fa%3E%E3%82%92%E4%BD%BF%E7%94%A8%E3%81%97%E3%83%99%E3%83%B3%E3%83%81%E3%83%9E%E3%83%BC%E3%82%AF%E3%81%A7%E3%83%95%E3%82%A1%E3%82%A4%E3%83%B3%E3%83%81%E3%83%A5%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0%E3%81%AB%E3%81%8B%E3%81%8B%E3%82%8B%E5%B9%B3%E5%9D%87%E3%82%A8%E3%83%9D%E3%83%83%E3%82%AF%E3%82%BF%E3%82%A4%E3%83%A0%E3%82%92%E8%BF%BD%E8%B7%A1%E3%81%97%E3%81%9F%E7%B5%90%E6%9E%9C%E3%80%818%E3%83%8E%E3%83%BC%E3%83%89%E3%81%A7%E3%81%AF%20594%E7%A7%92%E3%80%8116%E3%83%8E%E3%83%BC%E3%83%89%E3%81%A7%E3%81%AF369%E7%A7%92します。このスピードとパフォーマンスにより、バーチャルアシスタント、インテリジェントなチャットボット、エンタープライズ検索などのAIアプリケーションによるビジネスの生産性向上の価値実現までの時間を短縮することができます。


    HPE ProLiant DL380a Gen11サーバーを基盤とする本ソリューションは、NVIDIA GPU、NVIDIA Spectrum-X Ethernetネットワーキングプラットフォーム、NVIDIA BlueField-3 DPUで事前構成されています。本ソリューションは、HPEの機械学習プラットフォームとアナリティクス用ソフトウェア、および生成AIモデルの推論を最適化する新しいNVIDIA NIMマイクロサービスを備えたNVIDIA AI Enterprise 5.0ソフトウェア、NVIDIA NeMo RetrieverおよびデータサイエンスとAIライブラリによって強化されています。


    AIのスキルギャップへの対応にあたって、HPE Servicesのエキスパートが、適切なモデルチューニング技術の適用を含むソリューションの設計、導入、管理を支援します。本ソリューションの詳細は、HPEの生成AI向けエンタープライズコンピューティングソリューションをご覧ください。

  • スーパーコンピューティングを活用した生成AIのトレーニングとチューニング

    HPEがHPCの国際会議SC23で発表した、生成AI向けスーパーコンピューティングソリューションの受注を開始しました。本ソリューションは、大規模なAIモデルの開発とトレーニングのための事前設定と検証済みのフルスタックソリューションで、最大168個のNVIDIA GH200 Grace Hopper Superchipを搭載でき、生成AIおよびディープラーニングプロジェクトの加速を支援します。


    本ソリューションは、大手企業、研究機関や政府機関が、AI/MLソフトウェアスタックを使用してモデル開発プロセスを効率化し、LLM、レコメンダーシステム、ベクターデータベースなどの生成AIおよびディープラーニングプロジェクトの加速を支援します。設置およびセットアップのサービスとともに提供される本ターンキーソリューションは、AI研究機関や大手企業での利用を想定して設計されており、Time-to-Valueの向上および トレーニングにかかる時間を2~3倍速めることが可能です。詳細は、HPEの生成AI向けスーパーコンピューティングソリューションをご覧ください。

  • 生成AIの概念実証の本番アプリケーション移行を支援するソフトウェア

    HPEとNVIDIAは、エンタープライズがAIとMLの概念実証を実稼働アプリケーションに発展させ、次のステップに進む支援につながるソフトウェアソリューションに取り組んでいます。HPEのお客様にテクノロジープレビューとして提供される新しいHPE Machine Learning Inference Softwareにより、MLモデルを迅速かつセキュアに大規模展開できるようになります。新しいソフトウェアはNVIDIA NIMと統合され、事前に構築されたコンテナを使用してNVIDIAに最適化された基盤モデル(ファウンデーションモデル)を提供します。


    HPEは、プライベートデータ(公開不可のデータ)を使用する生成AIアプリケーションの迅速な構築と展開を支援する、NVIDIA NeMo RetrieverマイクロサービスアーキテクチャをベースとするエンタープライズRAGリファレンスアーキテクチャを、本日より提供開始します。新しいリファレンスアーキテクチャは、HPE Ezmeral Data Fabric SoftwareHPE GreenLake for File Storageによる包括的なデータ基盤で構成され、カスタマイズされたチャットボット、ジェネレーター、コパイロットを作成するためのブループリントを提供します。


    データの準備、AIのトレーニング、推論を支援するにあたって、本ソリューションには、HPE Ezmeral Unified Analytics Softwareのオープンソースツールおよびソリューションと、HPEのAIソフトウェアであるHPE Machine Learning Data Management SoftwareHPE Machine Learning Development Environment Software、新しいHPE Machine Learning Inference Softwareが含まれます。HPEのAIソフトウェアは、生成AI向けのHPEのスーパーコンピューティングおよびエンタープライズコンピューティングソリューションの両方で利用でき、生成AIワークロードを管理するための一貫した環境を提供します。

  • NVIDIA Blackwellプラットフォーム上に次世代の製品を構築

    HPEが開発する将来の製品は、生成AIワークロードを高速化する第2世代のTransformer Engineが使用される、新たに発表されたNVIDIA Blackwellプラットフォームをベースにします。NVIDIA GB200 Grace Blackwell Superchip、HGX B200、およびHGX B100を搭載した今後のHPE製品の詳細と提供時期は、今後発表される予定です。

■ヒューレット・パッカード エンタープライズ(HPE)について

Hewlett Packard Enterprise (NYSE: HPE) は、グローバルEdge-to-Cloudカンパニーとして、あらゆる場所に蓄積される全てのデータの価値を解き放ち、事業の成果を加速させる支援をします。人々の生活そして働き方の向上を目指し、数十年にわたって未来の再考とイノベーションを重ね、HPEは独自でありながら、オープンでインテリジェントなテクノロジーソリューションをas a Serviceで提供しています。クラウドサービス、コンピュート、HPC & AI、インテリジェントエッジ、ソフトウェア、ストレージを全てのクラウドとエッジにわたって一貫したエクスペリエンスで提供することで、お客様が新たなビジネスモデルを創出し、新たなエンゲージメントを展開し、運用のパフォーマンスを最大化できるようサポートしています。詳細はhttps://www.hpe.com でご確認ください。

Recommended for you