ハイパースケール

ハイパースケールとは

ハイパースケールとは、ハードウェアとファシリティを完全に組み合わせて、分散コンピューティング環境を数千台のサーバーにまで拡張できるようにする手法です。その名前が示すように、ハイパースケールは、通常、ビッグデータやクラウドコンピューティング用に、コンピューティングで大規模なスケールを実現するためのすべての事柄を指します。ハイパースケールインフラストラクチャは水平方向のスケーラビリティを念頭に置いて設計され、高レベルのパフォーマンス、スループット、および冗長性が確保されるため、フォールトトレランスと高可用性を実現できます。ハイパースケールコンピューティングでは、多くの場合、大規模な拡張が可能なサーバーアーキテクチャと仮想ネットワーキングが利用されます。

ハイパースケールの利点

組織がハイパースケールコンピューティングを採用する理由は数多くあります。ハイパースケールは、クラウドコンピューティングサービスの提供といった特定のビジネス目標を実現するために最適な方法であるか、または唯一の方法である場合があります。しかし、一般的にハイパースケールソリューションは、厳しい要件に対応するための最も費用対効果の高いアプローチとなります。たとえば、ビッグデータ分析プロジェクトでは、ハイパースケールで利用可能なスケールとコンピューティング密度を利用すると、最も低コストで処理できる可能性があります。

関連するHPEのソリューション、製品、サービス

HPEハイパースケール

HPE Apollo高密度サーバー製品ラインのすべてのコンポーネントを参照して、詳細を確認および比較できます。

HPE Apollo 6000シャーシ

パフォーマンスが最適化された空冷ソリューションで、お使いのインフラストラクチャおよびお客様の投資から最大限の価値を引き出します

  • シングルスレッドアプリケーションのパフォーマンスが20%向上
  • 設置面積をブレードサーバーより60%削減
  • 1,000台のサーバーにより3年間でTCOを300万ドル削減

 

ビッグデータとHPCストレージをサポートするApollo 4000 System

Hadoop®やその他のビッグデータ分析およびオブジェクトストレージシステムを提供する目的で設計されています。

  • 4Uフォームファクターに68個のLFFディスクを搭載することにより、ディスク密度を最大化
  • HadoopベースのデータマイニングとNoSQLベースの分析に最適
  • ペタバイト規模のデータボリュームを活用してオブジェクトストレージを実装。

 

HPE Apollo 2000システム

従来のデータセンターに対してスケールアウトアーキテクチャーへの移行を促進する、高パフォーマンスと大量のワークロード容量をコンパクトに収めた高密度設計です。

  • 1つの2Uに4台の独立したホットプラグ対応のHPE Apollo 2000サーバー。
  • 標準的な1Uサーバーで2倍のパフォーマンス密度を同等のコストで実現