2020年1月10日

統計情報から見るハイパフォーマンスコンピューティングの実態

商用コンピューターの開発の流れを受けて、究極の速度とデータ処理性能を目指したハードウェアが設計されてきました。この統計を見れば、HPCの性能がどれほど向上したかが一目瞭然です。

ほとんどのビジネスにおいては、個人用パソコンや部門のサーバーはもとより、企業のデータセンターであっても、通常のコンピューターシステムで用が足ります。しかし、一部のユースケースでは、「普通」や「一般」を超えるコンピューティング性能が求められます。

そのように限界を目指した、個人向けのシステムは、クリエイティブなタスクやマルチメディアのタスク、ゲームといった用途に使用されます。一方、エンタープライズ向けのハイパフォーマンスコンピューティング (HPC) は、コンピューターの性能を集約したもので、科学、エンジニアリング、ビジネスにおける大規模な課題を解決するために使用されます。

コンピューティング性能が着実に向上しているため、そうした大規模な課題に相当するものは何か、また、HPC (と費用) を何に使用するべきかが、絶えず議論が交わされています。専用のHPCハードウェアは、きわめて高い処理能力を必要とするコンピューティングタスクに常に対応していますが、そうした能力を実現できるのは、最新 (その時点での最新) の上位システムの中でもほんのわずかです。自動車の世界では、こうした状況を、技術レベルにかかわらず「最速の車」と呼びます。かつて、想像を絶するほどの速度で走行することを、「時速100キロで走っているようだ」と表現しましたが、これは今では驚くほどの速度ではありません。

そこで、HPCの現状をまとめて、速度を比較してみました。

 

HPCは、それぞれの時代を象徴するハードウェアで分類できる


HPCはさまざまな方法で区分できますが、まず次のように歴史をたどってみましょう。

  • 1940年~1960年: 最初のスーパーコンピューターの登場
  • 1975年~1990年: クレイの時代
  • 1990年~2010年: クラスターの時代
  • 2000年~現在: GPUとハイブリッドの時代

 

また、InsideHPCのサマリーに従って、「設計、新しい技術、当時の経済状況における根本的な変化」を基に時代を区分することもできます。

 

  • 1980年より前: スーパーコンピューターは、浮動小数点演算を1秒間に何回実行できるか (FLOPS) で評価されました。
  • 2005年頃まで: マルチコアとメニーコアが急増したのはこの時期です。InsideHPCに「2005年11月には、TOP500コンピューターリストの大半 (70%) をx86サーバーのクラスターが占めている」と述べられています。
  • 現在: エクサスケールの時代が始まっています。さまざまな方面で、エクサスケールコンピューティングが2020年の初めに登場すると予想されています (量子コンピューティングがそれより早く実用化される可能性もあります)。

 

速さは、測定する基準によって決まる


iPhoneと、人類を月に送り込んだコンピューターの処理能力を比較するのは大変興味深いことですが、結局のところ、これらは誤った統計情報です。実際に数字を見るとそれがわかるでしょう。「アポロ誘導コンピューターはどうかと言うと、たったの1MHzで動作しています。つまり、(2014年の) iPhoneに搭載された2つのプロセッサーコアのそれぞれが、誘導コンピューターのシングルプロセッサーよりも1,270倍速く動作します」。

歴史上で「最速コンピューティング」を比較すると、誤った情報を与えてしまいます。HPCで重要なのは、CPUではなくシステムパフォーマンスだからです。HPCの性能を測定する基準は、もはやFLOPSではありません。プログラマがアセンブリ言語を使用してアクセスできるレジスタの数でもありません。CPUの速度と効率性は、システムの速度を表す1つの要素に過ぎないのです。

ストレージは、HPCシステムの速度に、ある程度影響を与える要素です。なぜなら、コンピューティング性能は、取り込めるデータ量、分析可能なトランザクション数、シナリオを正確にモデリングできる妥当な反復回数などに左右されるからです。超高速のコンピューターエンジンでも、ストレージ容量が小さければ、科学で使用する高性能センサーネットワークの管理や、クレジットカードの不正使用の特定を行ったり、その日のうちに患者に検査結果を渡したりする場合に、性能を発揮できません。

そうしたストレージの性能は、データを保存できる容量だけでなく、プロセッサーまでの距離によっても測定されます。「ストレージデバイスまでの距離は、プロセッサーのクロックによって測定され、容量に比例して長くなります」と、『Software Optimization for High Performance Computing: Creating Faster Applications』の著者である、Kevin R. Wadleigh氏は述べています。プロセッサーの一連のレジスタはCPUに最も近い位置にあります。また、キャッシュ、メインメモリシステム、データストレージの順にCPUまでの距離が長くなります。同氏の言葉を借りれば、「ストレージデバイスが大きくなると、通常、プロセッサーまでの距離も長くなります。そうなると、ストレージまでのパスが狭くなり、複雑さが増すこともあります」。

 

TOP500リストで見る 究極の最速システム


パフォーマンスを比較する際によく参考にされるのは、Linpack Benchmarkレポートに基づくTOP500リストです。このレポートでは、商用システムの性能を、Linpack Fortran、Linpack n、Linpack Highly Parallel Computingベンチマークを使用して測定しています。500のシステムはどれも、High Performance Linpackベンチマークでペタフロップスかそれ以上という究極の速度を示しています。2019年6月時点で最速のコンピューターは、コア数2,414,592と、200,794.9テラフロップスの論理ピークパフォーマンスを記録した、Summit IBM Power System AC922 (IBM POWER9 22C 3.07 GHz、NVIDIA Volta GV100、デュアルレールMellanox EDR InfiniBand) です。

10年前 (2009年6月) の最速システムは、IBM社のRoadrunner (BladeCenter QS22/LS21クラスター、PowerXCell 8i 3.2 GHz、Opteron DC 1.8 GHz、Voltaire InfiniBand (コア数129,600、1,456.7テラフロップス)) でした。20年前 (1999年6月) には、サンディア国立研究所で使用されていたインテル社のASCI Redが、コア数9,472、3,154.0テラフロップスという当時では驚くべき数字を残し、商用システムとして最速を記録しました。

こうした数字だけでも、表にすると、スーパーコンピューターがどれだけ速くなったかが十分伝わってきます。現在最も速いコンピューターは、理論上、20年前に最速だったHPCシステムの63倍速いのです。

  スーパーコンピューター コア数 テラフロップス
2019年 Summit 2,414,592 200,794
2009年 Roadrunner 129,600 1,456
1999年 ASCI Red 9,472 3,154

これらの最速コンピューターはすべて利用できるものであっても、通常のデータセンターでは見られません (ただし、このうち1つは一般的なHPCのニーズに特化しています)。しかし、これは、現在最速のレースカーの速度を、平均的な自家用車の0-100km/h加速時間と比較するのと同じようなものです。

次に比較するなら、「量子コンピューティングを先駆的に手がける、注目すべき12のスターアップ企業」にあるような量子コンピューターがよいかもしれません。

 

HPCが最も利用されている分野は データモデリング、AI、分析


スーパーコンピューターは、その他のビジネスシステムと比較しても、きわめて高額なのが現実です。そのため、HPCシステムが主に使用されるのは、AIや大容量・高負荷のデータ分析など、ずば抜けて効率的かつ強力なコンピューティング性能が必要とされる業務や、優れた結果をより高速に得られることで確実に投資を回収できる分野です。

ユースケースは、その時代に「困難な課題」とされるものによって変わります。たとえば2006年では、HPCを主に導入する、技術的な顧客と企業顧客は、数値を処理する必要のある科学者やエンジニアでした。「例として、気象予測、タンパク質の折りたたみのシミュレーション、石油・ガスの発見、航空宇宙・防衛に関する業務、自動車設計、財務予測などが挙げられます。最後の例には、顧客記録、在庫管理、従業員の詳細を保存する、企業のデータセンターも含まれています」。

今や、分析対象となるデータ量は膨大なものとなり、数値やデータの処理は、特定分野のみで必要とされるものではなくなりました。「世界のデータの90%が、過去2年間で生成されました」。Rackspace社で製品マーケティングのシニアディレクターを務めるBecky Trevino氏はそのように述べています。

しかも、この数字には、収集され、分析を待つ膨大な量のIoTデータが含まれていません。

結果として、HPCの利用が増加しています。2017年のHyperion Researchの予測では、HPCサーバーベースのAIの世界市場規模が、複合年間成長率29.5%で拡大し、2021年には12億6,000万ドル以上に達すると述べられています。2016年の3億4,600万ドルと比較すると3倍以上の伸びです。同調査チームの担当者によれば、「HPC AI市場は、高パフォーマンスデータ分析市場の一部と位置づけられており、これには、機械学習、ディープラーニングや、HPCサーバーで稼働するその他のAIワークロードが含まれます」。2019年、Hyperion Researchは、HPC市場の5年間予測を上方修正し、2023年には440億ドルの規模になるとしました。

TOP500によると、1993年の時点で、HPCは、主に学術研究、航空宇宙、地球物理学に使用されており、それらが応用分野の約3分の1を占めていました。2018年には、学術研究、航空宇宙、エネルギーが最も利用される分野になりました。ただ、残念なことに、この2018年の結果はデータ分類が細かいとは到底言えません。

それよりも有用なのは、Hyperion Researchが2016年に実施した市場調査の結果です。これによると、ユースケース (顧客別に大きく分類) の上位を占めたのは、順に、行政機関 (20億5,900万ドル)、大学・教育機関 (19億3,400万ドル)、コンピューター支援エンジニアリング (CAE) (12億5,100万ドル)、防衛 (11億2,500万ドル) の各事業分野でした。 

 

HPC導入の成否は 何よりもROIによって簡単に測定できる


ソフトウェア最適化に携わった人なら誰でも、アプリケーションの高速化がいかに大変かをよく知っています。結果を出すまでに1日かかる分析を1時間で終えられれば、大抵のビジネス環境で喜ばれるでしょう。しかし、1日待つ余裕があるなら、HPCにこだわる必要はありません。何しろ、HPCを活用しようとすると、使用方法の習得にも、ソフトウェア開発にも相当な労力がいるのです。さらに、すべておいて莫大な費用がかかります。

HPCを購入する価値があるのは、その技術によって、より大きな課題を同じ時間内で解決できるか、同じ規模の課題をより早く解決できる場合です。

とは言え、2015年のIDCの報告によると、HPCに投資した企業や行政機関ではROIが大幅に 向上していました。

  • 最新のデータによると、HPCへの投資1ドルあたりの収益は平均551ドル
  • HPCへの投資1ドルあたりの利益 (またはコスト削減) は平均52ドル

 

報酬面で有利な職に就きたいならHPCに注目


このように、多くの企業がHPCに投資する中で、専門技術者の需要が高まっています。ハードウェアの管理や、データと分析用のソフトウェア開発を行う技術者のほか、超高速アプリケーションに関わる業務を把握する技術者も求められています。とりわけ、機械学習とデータサイエンスのエンジニアは希少な人材であり、LinkedInのデータによると、最も需要が高くなっています。

HPC関連の仕事には、AIやIoTなど、アルゴリズムに重点を置くものや、特定の市場に向けたものがあります。場合によっては、投資できる組織によってそうした仕事が決まります。たとえば、2017年にIDCがHPC User Forumで行ったプレゼンテーションによると、行政機関はHPCを使用して、地球温暖化、代替エネルギー、財政危機のモデリング、ヘルスケア、国家防衛といった重要な課題に対処しようとしています。

結局、いつの時代も、進歩を続けるHPCが、次の時代に普及するテクノロジーの先駆けになっています。現代のHPCは、デスクで使えるようになるでしょう。もしかすると、10年から15年後には、持ち歩けるサイズになっているかもしれません。

この記事/コンテンツは、記載されている個人の著者が執筆したものであり、必ずしもヒューレット・パッカード エンタープライズの見解を反映しているわけではありません。

enterprise.nxt

ITプロフェッショナルの皆様へ価値あるインサイトをご提供する Enterprise.nxt へようこそ。

ハイブリッド IT、エッジコンピューティング、データセンター変革、新しいコンピューティングパラダイムに関する分析、リサーチ、実践的アドバイスを業界の第一人者からご提供します。