2020年1月17日
次世代スーパーコンピューティングのインフラストラクチャを刷新するCatalyst UK
Catalyst UKプログラムが、AIとハイパフォーマンスコンピューティング向けARM CPUアーキテクチャーをどのように進化させ、そのソフトウェアエコシステムの活性化に貢献しているかをご紹介します。
[編集者注: このポッドキャストは、2019年9月5日に初めて公開されたものです。]
ハイパフォーマンスコンピューティングは、プロセッサーの選択肢が多ければ多いほど性能も向上します。これが特に当てはまるのは、まったく新しい世代の人工知能とスーパーコンピューティングのユースケースが見られるようになったときです。そうしたケースでは、より一層目的に特化したコンピューティング環境が求められます。
そのような状況を受けて、2018年4月にCatalyst UKプログラムが発足しました。3年間実施されるこのプログラムは、ARM CPUアーキテクチャーの開発を目的として、3つの大学と多数の大企業が共同でイノベーションのきっかけを作り、HPCに新しい選択肢を設けようというものです。
「現在の目的に最も合うタイプのプロセッサーが必要です」。エジンバラ大学のEdinburgh Parallel Computing Centre (EPCC) でセンター長を務めるMark Parsons氏はそう述べています。同校は、4,000コアARMプロセッサーベースのシステムを研究用に稼働させている大学の1つです。この大学は「コードをARMに移植するのがいかに難しいか、いや、実はいかに簡単かを多くの人が学べる」場所であるとも同氏は述べています。
このポッドキャストでは、Parsons氏、ヒューレット・パッカード エンタープライズのEng Lim Goh博士とともに、さまざまなトピックを取り上げます。たとえば、Catalyst UKプログラムの概要や、スーパーコンピューターの初公開から60年になろうとする今日でもスーパーコンピューティングが初期段階にあるとみられる理由のほか、異なるプラットフォームでのシームレスな開発とコード移植が「退屈」であることの重要性について意見を交わします。
Dana Gardner: こんにちは。お客様向けポッドキャストシリーズ、BriefingsDirect Voiceへようこそ。Interarbor Solutionで主席アナリストを務めるDana Gardnerです。これから、ホスト兼進行役として、ハイパフォーマンスコンピューティング (HPC) のトレンドとイノベーションについてディスカッションを進めてまいります。
今回のポッドキャストでは、あるプログラムを取り上げます。このプログラムの目的は、スーパーコンピューターと人工知能 (AI) に特化したワークロードをサポートするさまざまなCPUを生み出すことです。UKで進められているこのCatalystプログラムが、どのように、HPC向けARM CPUアーキテクチャー開発の呼び水となり、ソフトウェアエコシステムの活性化を促しているかをご紹介します。
では、次世代のスーパーコンピューティングにおいて、選択肢の幅を広げ、イノベーションを進める方法について伺っていきましょう。ゲストをご紹介します。ヒューレット・パッカード エンタープライズでHPCとAIのバイスプレジデントとCTOを兼任するEng Lim Goh博士です。ようこそ。
Eng Lim Goh博士: お招きいただき、ありがとうございます。
Gardner: もう一人のゲストをご紹介しましょう。エジンバラ大学、Edinburgh Parallel Computing Centre (EPCC) のセンター長、Mark Parsons教授です。ようこそ。
Mark Parsons教授: こんにちは。
Gardner: Mark、今なぜ、HPC、AI、スーパーコンピューティングなどのユースケースで使用するCPUアーキテクチャーに、より多くの選択肢が必要なのですか。
Parsons教授: ある意味、その質問は少し奇妙に聞こえるかもしれません。スーパーコンピューティングのプロセッサーにおける選択肢は、この数年来、大きく広がってきたからです。インテルx86アーキテクチャーを搭載したスーパーコンピューターの大半が構築されたのは、ほんの5年前か8年前です。
スーパーコンピューティングは常に最先端のテクノロジーであるべきですし、そのためには、プロセッサーの種類を増やすことが非常に重要です。さまざまなプロセッサー設計を追求して、AIやスーパーコンピューティング向けワークロードのパフォーマンスを向上させるのは大変意義のあることです。私たちは、今日の需要に応える最適なプロセッサーを追求しています。
Gardner: Catalystプログラムとはどのようなものですか。なぜそれを始めたのですか。このプログラムによって、そうした課題にどのように対処できるのでしょう。
Parsons教授: Catalyst UKプログラムは、多数の大企業と、ブリストル大学、レスター大学、エジンバラ大学の3校が共同で策定しました。英国に集中しているのは、Arm Holdingsが英国を拠点としており、英国には、新たなプロセッサーテクノロジーを追求してきた長い歴史があるからです。
Catalystを通じて、3校はそれぞれで、4,000コアARMプロセッサーベースのシステムを稼働させています。私たちは、このシステムをサービスとして運用しています。たとえば、私の大学では、多くのスタッフがこのシステムを使用するようになりました。外部の研究者も使用しており、今後徐々に、その他のユーザーにも公開していく予定です。
Catalystを通じてプロセッサーに大きな変化をもたらす
このポッドキャストでは、できるだけ多くの人に、ARMへのコード移植がいかに難しいか、いや、むしろいかに簡単かを理解してもらおうと考えています。
壊さなければ、学べないことがありますよね。それで、たとえば、ソフトウェアツール連鎖のどの部分に移植作業が必要かを把握していきます。それを行うのは、ARMプロセッサーは、最近まで主に携帯電話に搭載されており、スーパーコンピューティングとAIの世界は、このプロセッサーにとってこれまでとは異なる動作環境だからです。
Gardner: Eng Lim、このプログラムが、HPEの興味を引いたのはなぜですか。このプログラムによって、AIなどのユースケースで、どのように新たな機会を獲得したり、パフォーマンスベンチマークを向上させたりできるのでしょうか。
Goh博士: Markは、重要な点をいくつも挙げましたね。何よりもまず、私たちは、企業として、お客様の間でHPCが広く普及することを強く望んでいます。当社の顧客ベースを見ると、その大半が、商用HPCのサイト、小売業者、銀行、その他の金融業界のお客様であることがわかります。新しいタイプのHPCをご利用いただくための支援が重要であり、さまざまなサービス・製品があれば、お客様も利用しやすくなります。
次に重要なのは、最近、多数のAIアプリケーションが再登場していることです。これも、ユーザーベースの拡大につながります。また、プロセッサー性能の特定の領域で、専門化がさらに求められています。この場合、ARMプロセッサーがAIの時代に数多くの新たな選択肢をもたらすと私たちは考えています。このプロセッサーによって、さまざまな企業が、豊富なバリエーションの革新的なプロセッサーを設計できているからです。
Gardner: Mark、ARMアーキテクチャーで重要なのはどのような点ですか。特に、Marvell ThunderX2 ARMプロセッサーについて教えてください。このプロセッサーは、そのようなAIワークロードに非常に適していますよね。
将来を見据えたメモリ帯域幅の向上
Parsons教授: AI、スーパーコンピューティング、デスクトップでのテクニカルコンピューティングといった数値計算はどれも、メモリ帯域幅に左右されます。この点で重要なのは、データがプロセッサーに転送され、それをプロセッサーコアが処理していることです。
現在、または将来のイテレーションで、ThunderX2プロセッサーに期待できるのは、非常に広いメモリ帯域幅の実現です。あまり知られていませんが、プロセッサーコアは、データを長時間待っています。データをプロセッサーに速く転送できれば、その分、多くのデータを処理させることができます。とりわけARMアーキテクチャーが優れているのはその点です。
Goh博士: 確かに、メモリ帯域幅は重要ですね。スーパーコンピューティングアプリケーション以外にもそれが当てはまります。とりわけ、機械学習 (ML) では、予測や推論の前に学習を始めたばかりの段階において、メモリ帯域幅が重要になります。
機械が完了しなければならないこの学習プロセスでは、データが集中的に処理されます。適切な予測を行えるモデルに調整するには、膨大な量の履歴データとサンプルを処理する必要があります。そのため、使用するメモリ帯域幅がMLシステムのトレーニング段階で最大になるのです。
これに関連して言えば、ARMプロセッサーコアの知的財産権 (IP) は、多くの企業でイノベーションに利用できるようになっています。そのため、IPを活用して、広メモリ帯域幅のイノベーションを設計できると認識する企業が増えています。そうした企業が、新しいプロセッサーを考案できるわけです。さまざまな企業がこのようにイノベーションを行えることには、非常に価値があります。
Gardner: これは、HPEが推進している、メモリを多用する大規模なコンピューティング全般にも適していますか。ARMプロセッサーは、より規模の大きいHPEの戦略に見合うものでしょうか。
Goh博士: もちろんです。ARMプロセッサーは、その他のプロセッサーとともに、エッジ中心型、クラウド対応、データ主導といった、HPEの戦略においても選択肢になります。
そうした戦略全体で共通して重視されているのはデータ転送です。ですから、ARMプロセッサーを通じて、多彩な企業がイノベーションを行い、そうしたさまざまな部門の要件を満たすプロセッサーが製造されることは非常に価値があり、それがHPEの戦略を支えると私たちは考えています。
Gardner: Mark、Arm Holdings社は、IPを管理する一方、IPを活用するプロセッサー設計とソフトウェア開発の両方で、新しいエコシステムを築いていますよね。このエコシステムについて詳しくお話しください。また、Catalyst UKプログラムでは、なぜエコシステムの活性化を進めているのですか。
設計と構築を分担するエコシステム
Parsons教授: Arm社についての話はどれも大変興味深いですね。Arm Holdings社の創業は、30年か40年前、家庭用コンピューティングを手がけることから始まっています。非常に興味深いのは、同社が結局IPの会社になったことです。同社はプロセッサーを製造するのではなく、プロセッサーを設計して、そうした設計を販売し、ほかの会社が製造できるようにしています。
この素晴らしいエコシステムのおかげで、多彩な企業が、独自のARMプロセッサーを製造したり、顧客向けのプロセッサーを製造したりできています。そうしたさまざまなARMプロセッサーが携帯電話などに使用されているのを見ると、今日、世界で最も普及しているプロセッサーであることも不思議ではありません。
x86プロセッサーが市場を占有しているように思われがちですが、そうではありません。現在最も一般的なプロセッサーは、ARMプロセッサーなのです。その結果、Arm社と開発コミュニティの双方から多数の開発ツールが提供されるようになり、プロセッサーコードの開発を目指す人たちを支えています。
Catalyst UKに携わる中で、Arm社とやり取りするとわかるのは、明らかに、同社のツールの多くが、今日優勢な携帯電話市場に合うように設計されていることです。ハイエンドコンピューティング寄りのツールでは、コンパイラが最適化されていない場合、プログラムで問題が生じる可能性があります。たとえば、特定のライブラリはコンパイルが難しく、そうした問題が発生することもあります。しかし、だからこそ、Catalystプログラムは私をわくわくさせるのです。最先端のテクノロジーを楽しみながら開発に取り組み、そうしたテクノロジーにさまざまな技術を応用できることを示すのですから。
Gardner: ARM CPUは高負荷のワークロード向けに設計されていますが、ほかにも多くの用途が見込まれそうです。x86からARMへのアプリケーションの移植はどのように進められていますか。その難易度と、そうした移植にCatalyst UKプログラムがどのように役立っているかを教えてください。
Parsons教授: 3校とも、普段使用するさまざまなアプリケーションを移植しています。EPCCでは、ARCHERと呼ばれる、英国国内向けのHPCサービスを運用しています。ARCHERサービスの一環として、1994年から、スーパーコンピューティングサービスを国内で提供していますが、ARCHERでは、科学向けのさまざまな共通アプリケーションモジュールを初めて提供することにしました。
ユーザーは、必要なモジュールを簡単に要求できます。以前は、ユーザーが自分のコードをコピーしてコンパイルしていたため、多数のコピーが存在し、その中には正確にコンパイルされたものと、適切にコンパイルされていないものがありました。
それで、約40のコードを事前にコンパイルしてARCHERで提供するモデルを運用しているのです。これらのコードには、アップデートやパッチ適用などを行っており、EPCCの100人のスタッフがコードの保守にあたっています。スタッフには、Catalystシステムのアカウントを取得して、取り出したコードを午後コンパイルするように依頼しました。コンパイルと実行を簡単に行えるユーザーもいますが、問題を抱えているユーザーもいます。私たちが、ARMとHPEに導いて解決策を伝えたいのはまさにそのような人たちです。
とは言え、重要なのは、そのような問題のあるプログラムがほとんどないとわかったことです。大半のコードは非常にスムーズに再コンパイルできます。
Gardner: そうした取り組みをHPEではどのようにサポートしていますか。企業としての支援と、ITシステムそのものによる支援の両方について教えてください。
ARMプロセッサーの利用範囲
Goh博士: 私たちは、MarkとCatalystプログラムの取り組みに非常に関心を寄せています。Markが述べたように、ARMプロセッサーは、携帯電話の分野など、HPEが進めるエッジ中心の戦略で利用されることが多くなりました。
こうしたARMシステムがどれほど発展するかが非常に楽しみになりました。HPEでは、米国エネルギー省のサンディア国立研究所に、Astraという大規模なARMプロセッサーベースのスーパーコンピューターを出荷済みです。こうした取り組みが、HPCアプリケーションの分野で続いています。このプロセッサーとそのコンパイラが、英国と米国のさまざまなHPCアプリケーションで利用されることを大いに期待しています。
Gardner: エッジとAIといった、成長著しい大規模な市場に目を向けると、何十年も経つにもかかわらず、スーパーコンピューティングがまだ成熟していないように感じます。まったく新しいイノベーションの時代が始まったばかりのように思えるのです。
Mark、あなたはスーパーコンピューティングの成熟度をどう見ていますか。この技術は、全盛期、晩年、それとも、まだまだ初期段階にあるのでしょうか。
Parsons教授: 私は初期段階に過ぎないと見ています。世の中には、スーパーコンピューターでモデリングやシミュレーションを行ったり、理解を深めたりしようという検討すらされていない対象が数多くあります。にもかかわらず、不思議なことに、スーパーコンピューティングによって何もかも解決されたと考えられがちです。これは正しくありません。非常にわかりやすい例を挙げましょう。
数年前、あるヨーロッパのプロジェクトで、多孔質岩を流れる水をきわめて正確にシミュレーションして、賞をいただきました。前述の国内サービス全体を1日以上使用して、シミュレーションを実行しました。1立方センチメートルの岩のかけらをシミュレーションしただけで、賞をいただいたのです。
スーパーコンピューターなら、とてつもなく大きな問題を解決できると思われています。確かに、それは可能ですが、あらゆるものを含めて世界は非常に複雑です。モデリングやシミュレーションはほんのわずかな対象にしか行われていません。
そのため、現在は、AIとスーパーコンピューティングにとって意義のある時期です。私たちは、データ分析の多くで、誰にも分析されていない膨大な量のデータをすぐに利用できます。それらは、さまざまなソースから得られた非常に価値あるデータです。スーパーコンピューターでは、そうした大規模なデータソースの処理能力がさらに向上しています。
AIのトピックがどれも非常に注目され、多くの人がAIに関わっている理由は、実はAIそのものではなく、さまざまな場所から収集したデータを使用してAIアルゴリズムをトレーニングできる点にあります。私たちがスーパーコンピューティングに直接接続できるのは、現在、大量のデータをさまざまな場所から簡単に収集したり転送したりできるからです。スーパーコンピューティングとAIの相乗効果は、そうした技術そのものではなく、データから生まれるようになったのです。
Gardner: Eng Lim、スーパーコンピューティングの進歩についてどのように考えていますか。ほんの初期段階にあるというMarkと同じ意見でしょうか。
トップダウンとボトムアップのデータ処理
Goh博士: まったくそのとおりだと思います。ようやく始まったばかりの段階です。例を挙げてお話ししましょう。
ゲームの対戦は、サイバーセキュリティの方法や戦略を開発する際に重要な意味を持ちます。機械が人間に勝った、最近の囲碁の対戦を思い出してください。可能な手の組み合わせの数を考えると、囲碁はチェスよりもはるかに複雑です。対戦での組み合わせをすべて調べたとすると、その数は10の171乗です。
その数の大きさがわかりますか。では例を挙げます。世界中のコンピューター、スーパーコンピューター、データセンターのコンピューター、インターネットプロバイダーのコンピューターすべてを100年稼働させたとしても、処理できる数は10の30乗であり、10の171乗とはかけ離れています。1つのゲームを例として考えただけですから、スーパーコンピューティングがいかに初期段階にあるかがわかりますね。
2つ目の例は、スーパーコンピューターの新しい使い方に関するものです。MLからAIに至るまで、新しい種類のアプリケーションが登場し、スーパーコンピューターの使用方法も変わってきています。これまでは、スーパーコンピューターの大部分が、シミュレーションに使用されていました。私は、それをトップダウンモデリングと呼んでいます。この場合、物理学の方程式または公式からモデルを作成して、それをスーパーコンピューターで実行し、予測させます。
新しい予測方法では、MLのアプローチをとります。まず、物理学ではなく、空のモデルを使用して、モデルにデータ、結果の履歴、過去のサンプルを与えます。新しいデータを与えるたびにモデルに書き込まれるように、データを与え続けます。そのようにして、次の予測を行います。あまり正確でない場合は、モデルを微調整します。数千、数十万、さらには数百万時間をかけて、モデルを微調整し、予測の精度を上げます。私はこれをボトムアップアプローチと呼んでいます。
今ではこの両方のアプローチがとられています。従来、トップダウンシミュレーションに使用されていたスーパーコンピューターで、ボトムアップのMLアプローチも採用されているのです。2つのアプローチを組み合わせれば、高精度の予測をより速く行えます。
そのため、今日のスーパーコンピューターは、従来のシミュレーションや、主要な標準シミュレーションに連動させた新しい種類のアプリケーションに採用されつつあります。
Gardner: Mark、スーパーコンピューティングの大衆化も進んでいますよね。こうしたアプリケーションやその利用は拡大できるでしょうか。現在の動向は、この技術のコスト削減や、価値の向上につながりますか。また、その結果、こうしたシステムで、ユースケース数が増加し、より多くの問題を解決できるようになるでしょうか。
クラウドがアクセスの問題を解決
Parsons教授: クラウドコンピューティングが、日常生活のあらゆる面に大きな影響を与えています。たとえば、私たちは、クラウドに数多くの写真や音楽を保存しています。そのため、EPCCでは昨年、ファイルサーバーを廃止しました。EPCCの運営に実際に使用されるデータはすべて、クラウドに保存されています。
こうしたクラウドモデルは非常に便利です。なぜなら、大規模システムの操作や運用に膨大な時間を割きたくない場合、これまで不可能だった方法で、そうした技術を利用できるからです。
その一方で、5年前にはなかった、AI向けの素晴らしいソフトウェアフレームワークが登場しており、シミュレーションを行えるオープンソースが数多く存在しています。
スーパーコンピューティングセンターであるEPCCのような組織が、大規模システムのホスティングをやめるというわけではありません。私たちは今でも需要の集約に大きな役割を果たしており、非常に大規模なコンピューターを稼働させています。お伝えしたかったのは、さまざまなクラウドプロバイダーを通じて、企業、小規模な研究グループ、大学が、コスト効率の高い方法で、適切なレベルのリソースにアクセスできるようになったのは、これが初めてだということです。
Gardner: Eng Lim、HPCの価値と優れた経済性という点で、HPEがそのほかに提供できるものはありますか。固定課金制ではなく従量制によって利用することで、何かが大きく変わるでしょうか。
選択肢が増えるとイノベーションも進む
Goh博士: 非常によい質問ですね。アプリケーションや組織におけるプロセスは、クラウドに非常に適したものもあれば、そうでないものもあります。両方を受け入れる理由の1つはその点にあります。実際にHPEでは、お客様向けに、Catalyst UKプログラムで利用されているようなクラウドを採用する一方、オンプレミスソリューションも構築しています。
その2つを組み合わせたようなソリューションもあります。HPEではそれをHPE GreenLakeと呼んでいます。このソリューションでは、必要なシステムがお客様のオンプレミス環境に導入されますが、課金は使用量に応じて行われます。つまり、従量制による優れた経済性を土台にして、ソフトウェア デファインドのエクスペリエンスを創出しているのです。
お客様が選択できるオプションもいくつかご用意しています。ニーズやプロセスがお客様によって異なるからです。たとえば、お客様が、リソースの取得方法において固定費用を重視される場合もあれば、運用費用を重視される場合もあります。
Gardner: Catalystプログラムの成果と、エコシステムによるアプローチの利点が、アプリケーション、ユースケース、実際のイノベーションにつながった例を挙げていただけますか。
Parsons教授: 私たちが目指しているのは、ARMの利用がいかに簡単かを示すことです。EPCCでは、大規模な国内向けサービスで毎日実行されている非常に強力で重要なコードのいくつかを、ARMに移植しました。ユーザーは、コードが異なるシステムで実行されていることをまったく理解していませんし、理解する必要もありません。移植は退屈なことです。
私たちは、x86バージョンに存在したと思われるコードの問題を少し修正しました。新しいプロセッサーで実行したときに、多くの問題が発生しないように、そうしたコードを修正しています。このような場にはまったくふさわしくない表現になりますが、概して、こうした作業は非常に退屈です。こう表現したのは、退屈であることが非常に重要だからです。私たちが、移植の簡単さを示さなければ、ユーザーはARMを利用しようとは思わないでしょう。コードの移植は非常に難しく、大きなトラブルを招くと考えるからです。
ジョークで説明したように、Catalystの目的の1つは「非常に退屈」であることです。結果として、今のところ成果を得られています。
ところで、Catalystの目的には、ストレージに注目するという興味深い点があります。今でも世界中のARMシステムで、x86システムのストレージが使用される傾向にあります。こうしたストレージは、LustreやBeeGFSのサーバーで稼働しており、いずれにもx86マシンが使用されています。
私たちは、可能な限り、すべてをARMで稼働させることにしました。現時点では、ARMサービスで稼働する、Ceph、Lustre 、BeeGFSなどのさまざまなストレージソフトウェアに注目しています。なぜなら、ARMでエコシステムを築くことができなければ、x86やPOWERのような普遍的なソリューションとは見なされないからです。
退屈さがもたらす利点
Goh博士: 確かにこの場合、退屈な方がよいですね。異なるプラットフォーム間のシームレスな移植は重要な意味を持ち、良好なエコシステムを築く鍵にもなります。プロセッサーのコード開発と移植は簡単でなければなりません。HPEの商用HPCシステムで、顧客ベースを拡大するためにもそうした点が重要になります。
お客様が独自のコードを開発してコンパイルし、ARMに簡単に移植できることに加え、独立系ソフトウェアベンダー (ISV) が簡単にエコシステムに参加したり、エコシステムを改善したりできるようにすることが私たちの目標です。
Parsons教授: それは、私たちの今後6か月間の目標としても、重要な点の1つです。HPEと同じように、私たちも規模を問わず多数のISVと良好な関係を築いています。ISVには、新しいシステム構築に参加して、独自のコードをコンパイルすることで、私たちを支援してほしいと考えています。ISVのコードをARMで問題なく実行できるようになることが非常に重要だからです。
Gardner: 今が、なくてはならない「退屈」な期間だとすれば、その次のわくわくするような段階には何が起こるのでしょう。どのようになると予測していますか。また、スーパーコンピューターのどのようなユースケースが、事業、商業、公共サービス、公共衛生に影響を与えるでしょうか。
Goh博士: 必ずしも「退屈」な時期ではなく、大きな成果が得られました。スーパーコンピューティングに豊富な選択肢ができます。それは非常に重要なことです。スーパーコンピューティングとHPCには、顧客ベースの拡大が必要であり、HPCチームはそれを社内の目標にしています。
私たちは、金融業界や小売業界などを対象に、商業面での拡大を長年進めてきましたが、今度は、HPCによるボトムアップアプローチを通じて新たな機会を得られそうです。このアプローチでは、物理学を基にモデルを構築するのではなく、サンプルデータでモデルをトレーニングします。HPCのこうした新しい利用方法を通じて、さらに多くのユーザーに働きかけることができます。
つまり、スーパーコンピューティング業界で成功するには、さまざまな分野で、数多くのユーザーに関わってもらうことが重要です。
Gardner: Mark、どのような素晴らしい成果を期待していますか。
Parsons教授: 私たちは、ARMの知識や経験を深めるにつれ、ARMを成功の鍵と見なすようになります。今日、世界に目を向けると、たとえば日本には、運用開始の時期にエクサスケールに近いレベルにまで達する、ARMベースの大規模なスーパーコンピューターを新たに稼働させる計画があります。
私は、今後3年から4年以内に、ARMプロセッサーを搭載し、エクサスケールにまで性能を高めたスーパーコンピューターが登場すると見ています。こうしたプロセッサーの次世代版によって、非常にエキサイティングな時期が訪れると聞いていますから。
Gardner: さて、そろそろ時間がまいりました。このポッドキャストでは、スーパーコンピューターとAIを支えるCPUに、さまざまな選択肢をもたらすプログラムをご紹介しました。お二人のお話から、Catalyst UKプログラムが、HPC向けARM CPUアーキテクチャーを進化させる足掛かりとなり、ソフトウェアエコシステムの活性化にもつながっていることが大変よくわかりました。
HPEでHPCとAIのバイスプレジデントとCTOを兼任するEng Lim Goh博士に感謝申し上げます。ありがとうございました。
Goh博士: こちらこそ。
Gardner: エジンバラ大学、EPCCセンター長のMark Parsons教授にもお礼を申し上げます。ありがとうございました。
Parsons教授: お招きいただき、ありがとうございました。
Gardner: お聞きいただいた皆様にも感謝いたします。今回のBriefingsDirect Voiceでは、お客様向けHPCの動向とイノベーションについて意見を交わしました。HPE主催のディスカッションシリーズである、このポッドキャストは、Interarbor Solutionsの主席アナリストである私、Dana Gardnerがお送りしました。
ご清聴どうもありがとうございました。BriefingsDirect Voiceを皆様のITコミュニティにもご紹介ください。次回もどうぞお楽しみに。
次世代スーパーコンピューティングのインフラストラクチャ刷新につながるプログラム: リーダーのためのアドバイス
- Catalyst UKプログラムの目的は、HPC、AI、スーパーコンピューティングに、新たなプロセッサーの選択肢をもたらすことです。
- ARM CPUがこれらのワークロードに非常に適している主な理由は、メモリ帯域幅の大幅な向上にあります。
- このプログラムによってHPC向けARMアーキテクチャーが進歩すると、ソフトウェアエコシステムもさらに活性化されます。
この記事/コンテンツは、記載されている個人の著者が執筆したものであり、必ずしもヒューレット・パッカード エンタープライズの見解を反映しているわけではありません。

Dana Gardner
Interarbor Solutions社主席アナリスト、51件の記事
1999年以来、Dana Gardnerは、エンタープライズソフトウェアソリューション、戦略、パートナーシップ、市場機会、新しいITビジネス機会などの分野を専門とするアナリストとして活躍しています。Danaは、The New York Times、The Wall Street Journal、The Boston Globe、The Washington Post、Businessweek、San Francisco Chronicle、Reuters、Associated Press、MSNBC.com、CNN.comなどの主要なニュースやIT業界出版物においてソートリーダーとしてたびたび取り上げられています。また、熟練したマルチメディアコミュニケーターおよびエバンジェリストとして、ITおよびインターネットのイノベーションが、生産性の向上、従業員の効率化、総ITコストの削減などにもたらすビジネスメリットについて、数多くの業界レポートを発表してきました。Interarbor Solutions社の創業者兼社長として、ITベンダー、通信事業者、および一般企業向けのコンサルティングサービスの提供に実績を有し、さらにインターネットのソーシャルメディアを中核とする新しいコミュニケーション機能の提供にも力を入れています。今日ではあらゆる種類の企業が、教育、コミュニケーション、口コミでの情報拡散などを目的として、ブログ、ポッドキャスト、ビデオポッドキャストなどの積極活用を進めています。Danaは自身が推奨したことを自ら実践しようと、ZDNetや個人ブログで活発に情報発信しているほか、Gillmor Gangの創設メンバーの1人として、2005年にポッドキャストの配信を開始して以来、ポッドキャスターとしても活躍しています。
enterprise.nxt
ITプロフェッショナルの皆様へ価値あるインサイトをご提供する Enterprise.nxt へようこそ。
ハイブリッド IT、エッジコンピューティング、データセンター変革、新しいコンピューティングパラダイムに関する分析、リサーチ、実践的アドバイスを業界の第一人者からご提供します。
関連リンク