メモリ主導型コンピューティング
メモリ主導型コンピューティングとは
メモリ主導型コンピューティングは、従来のシステムよりはるかに少ない時間とエネルギーであらゆるコンピューティングタスクを完了できる、ほぼ無限の柔軟性と拡張性を備えたアーキテクチャーです。
メモリ主導型コンピューティングが必要とされている理由
私たちは、過去の総量を超えるデータを2年ごとに生成していますが、このようなデータの急増はソースの急増に伴うものであり、現在ではデータを意味のあるアクションに変える時間がほとんどないのが実情です。トランジスタのスケーリングに鈍化や行き詰まりが見られる中、達成しなければならない目標と達成できる目標のギャップは広がりつつあり、私たちの要求はコンピューターの性能の向上を超えるスピードで増大しています。
また、サステナビリティの問題もあります。今日のITインフラストラクチャは、全世界で生産されるエネルギーの10%以上を消費していますが、エネルギーの生産量は少しずつしか増やせないため、抜本的な対策を講じなければ、エネルギーギャップの問題も抱えることになります。こうした状況から、新たな種類のコンピューターが必要なのは明らかです。
メモリ主導型コンピューティングの仕組み
メモリ主導型コンピューティングのパフォーマンスが実現したのは、プロセッサー、メモリ、アクセラレータなどのコンピューティング要素を組み合わせて可能な限り速く、メモリのスピードで構成や通信を行えるようになったためです。
現在では、CPUベンダーがアーキテクチャーを定義していますが、これはCPUを更新して初めて新しいテクノロジーを導入できるということを意味します。CPU 1基分のレーン数を超えて何かを接続する場合は2基目のCPUを追加し、それらのCPU間の複雑で時間のかかる通信を処理しなければなりませんが、メモリ主導型コンピューティングはこのような制約を解消します。コンポーネント同士は、(「ファブリック」と呼ばれる) 超高速の相互接続網によって任意の組み合わせで自由に接続できます。これにより、シンプルで効率的なコマンドを使用してメモリの速度で通信が行えるようになるため、「メモリ主導型コンピューティング」という呼び名が付けられているのです。
HPEのメモリ主導型コンピューティングアーキテクチャー
詳細については、labs.hpe.com/memory-driven-computing (英語) をご覧ください。