まったく新しいコンピューティングのアプローチが、がんの治療、不正の検出、交通渋滞の防止に役立つ可能性があります。

Derek Slater

精密医療は、がんのような複雑な疾患を治療するための新しいアプローチであり、医師は患者の症状だけでなく、遺伝的特徴、体型、生活環境に基づいて治療をカスタマイズすることができます。

 

このアプローチは、さまざまなテクノロジートレンドが重なり合うことで可能になります。医師や病院、研究者が収集する健康データの量は年々増加しています。コンピューターはますます強力になっており、データ量の増加に対応できるようになっています。また、分析テクノロジーの進歩により、医療従事者は収集された健康データすべてをふるい分けてパターンを特定することができます。

ここで問題となるのはメモリです。最も洗練されたコンピューターであっても、このような計算を効率的に実行するのに十分な量のメモリがありません。

「メモリの速度、コスト、容量の実用面でのトレードオフは、常に従来のアーキテクチャーの制約になっていました」とHewlett Packard LabsのHPEフェロー兼チーフアーキテクトであるKirk Bresniker氏は語ります。「私たちは1年おきに、以前に作成された量の2倍のデータを手にしています。しかし、そのデータをどのように活用すればいいのでしょうか。このような素晴らしい機会に恵まれていても、既存のテクノロジーでは目標を達成することはできません」。

Bresniker氏とHewlett Packard Labsの同僚達は、コンピューティングにはまったく新しいアーキテクチャーが必要だと考えているため、システムの中心にほぼ無制限のメモリプールを配置した、いわゆるメモリ主導型コンピューターを開発しています。

今日のコンピューターはすべて、60年以上前に開発された基本アーキテクチャーを採用しています。プロセッサーによる計算では、メモリ内のデータが使用されます。そのメモリは高速なアクセスが可能で、プロセッサーに非常に近い位置にありますが、サイズは限られています。そのため、プロセッサーがさらに大量のデータに対応できるようになると、容量が大きい低速なストレージシステムからデータを取得し、新しいデータをメモリに入れ換えて計算を続行します。

  • 「私たちは1年おきに、以前に作成された量の2倍のデータを手にしています。しかし、そのデータをどのように活用すればいいのでしょうか。このような素晴らしい機会に恵まれていても、既存のテクノロジーでは目標を達成することはできません」

    Kirk Bresniker

処理能力が増加するにつれて、コンピューターが一度に実行できる計算の数は指数関数的に増加しています。しかし、メモリがボトルネックになりました。今日の一般的なメモリテクノロジーであるDRAMは高価なので、精密医療のような新しい用途で必要とされる100テラバイト以上の規模にスケールアップすることは困難です。

その結果、大規模で複雑な問題に取り組んでいるときにコンピューターが一度に調査できるのは、問題の1つのセグメントに限られるため、各セグメントの計算を独立して実行し、その結果を集めて完全な回答を得ることになります。問題を分割して複数のプロセッサーで同時に実行することで、並列処理が役立つこともありますが、プロセッサーがメモリへのアクセスを調整する必要が生じるため、そのぶん作業に時間がかかるようになります。

日常的な使用の大半では、パフォーマンスの遅れは目立つほどではなく、処理速度の向上によって補うことができます。それでも、精密医療のように大量のデータを処理するタスクに取り組んだり、金融詐欺を発見したり、大規模な交通システムの停止に対応したりすることは、ジグソーパズルのピースを1つずつ見て、その全体像を把握しようとするようなものです。このアプローチでは、非実用的と言えるほど時間がかかります。

このような課題に加えて、ムーアの法則が示すような着実で確かな処理能力の成長は終わりに近づいています。トランジスタは、現在の材料を使用したものよりサイズを大幅に縮小することはできません。

「私たちは皆、生活を一変させる可能性のあるデータに興味を持っていますが、そのようなデータを活用する準備ができていても、ここまで私たちを導いてきたテクノロジーにはもはや頼ることができません」とBresniker氏は言います。

今日の野心的なデータ問題には、異なるコンピューティングアーキテクチャーが必要です。

「制限を受けるのは、アルゴリズムを分析して実行するために一度にメモリに格納できるデータの量です」とジョージア工科大学のコンピューター理工学部長であるDavid Bader氏は説明します。

 

メモリ主導型の処理

Bader氏は、計算生物学やゲノミクスなどの分野で大規模な分析の問題について研究しています。「大容量のメモリシステムがあれば、新しいデータが絶え間なく入ってくるような状況であっても最善の決定を下せるようになるでしょう」と彼は言います。

この新しいアーキテクチャーの重要な特徴は、各メモリブロック間の光子による直接の相互接続です。対照的に、従来のメモリブロックは銅線のグリッドによって接続されており、データを電子の形で伝送します。この場合、一部のブロックからのデータ取得は、他のブロックからよりも時間がかかります。

Labsでの新しいアプローチでは、ブロック単位のデータ転送をはるかに高速なシステムに置き換えます。この基盤となるのは、すべてのメモリブロックから他のすべてのブロックへの直接ファイバー接続です。データは、電子ではなく光子、つまり光の形でこのファイバー上を移動します。

プロセッサーはメモリ内のどのデータにも、同じ速度で効率的にアクセスすることができ、システムはこれまでよりはるかに高速に計算を実行できるようになります。その他のメリットとして、多くの専用プロセッサーを個々のコンピューティングタスクに集中させて、すべてのタスクが同じ共有データプールにアクセスできる点が挙げられます。

それでも、Labsの研究者には、克服すべき障害がいくつかあります。メモリ主導型システムが大規模な環境で実用的であるためには、マシンの電源がオフになっても情報が保持される不揮発性メモリを使用する必要があります。現在、不揮発性メモリは、生産規模で製造するのがDRAMよりもはるかに困難です。

Labsの研究者は基礎テクノロジーの開発を続ける一方で、今日の機器に基づいたシミュレーターを使用して、メモリ主導型コンピューティングで解決できる問題の種類を示しています。以降では、この新しいアプローチによる変革の力を示す4つの例について説明します。

 

スマートシティ

都市は複雑なエコシステムです。道路の穴を修復するような簡単なことでも、一連のイベントが連鎖的に発生する可能性があります。誰かが作業員のスケジュールを組んで資材を確保します。この修復作業は下水管路や私有の設備に影響を与える場合があります。また、交通信号を一時的に変更することになり、都市の他部門の作業員が注意を払う必要が生じることもあります。

「混乱を最小限に抑えるように作業をスケジュールすることはできますが、それでも、いくつかの影響について推測することになります」と、HPEのMachineプロジェクトのソフトウェアおよびアプリケーション担当責任者であるSharad Singhal氏は言います。

  • 「私たちは皆、生活を一変させる可能性のあるデータに興味を持っていますが、そのようなデータを活用する準備ができていても、ここまで私たちを導いてきたテクノロジーにはもはや頼ることができません」

    Kirk Bresniker

このような問題は、相互に関連する多数のエンティティがさまざまな関係で互いに影響を及ぼす、グラフ分析の問題として知られています。コンピューターサイエンスの用語では、各エンティティはノードであり、ノード間の関係はエッジと呼ばれます。

グラフ分析の問題はスマートシティだけに限りません。Facebookなどのソーシャルネットワークでは、ネットワーク上の各人物がノードを表すという考え方も示されます。このようなノード間のエッジ (接続) は非常に多様であり、予測不能です。

一方、従来のコンピューターは、構造化された行と列に格納されたデータを処理するように設計されています。「今日のシステムが対象とするコンピューティング上の問題は、多くの場合、データをメモリ内に1行ずつ系統的に配置していくものです」とBader氏は言います。

このようなシーケンシャルプロセスを高速化するために、ディスクから次のセグメントのデータを「プリフェッチ」したり、プロセッサーが実際に必要とする直前にデータをメモリに書き込んだりするなど、パフォーマンスを向上させる現行の手法が開発されました。

しかし、それらの手法はグラフ推論の問題には適していません。たとえば、都市の居住者、企業、部門が相互に関連している状況のランダムな性質は、必要となる「次のデータ」がデータベースの次の行や列のようにメモリ内で近接していない傾向にあることを意味します。

グラフデータを処理する最適な方法は、Singhal氏によれば、グラフ全体を一度にメモリに格納し、メモリのすべての物理ブロックへのアクセスを均等に高速化することです。メモリ主導型コンピューティングでは、このような方法が、以前より大幅に実現可能なものになります。

その結果得られるメリットは、工事区域の効率化という例をはるかに超えたものです。たとえば、ある都市では、ライフスタイル、オープンスペース、手頃な価格の住宅など、市民が価値あるものと考える物事を把握することから始めることができます。その後、プランナーは、多数の変数やデータポイントをメモリ内に保持するコンピューターを使用して、各種のシナリオをテストし、戦術的な決定による大きな影響を確認できます。

「新しい高層ビルの建設を許可したり、土地区画法を商業地域から住宅地に変更したりすると、都市全体にどのような影響があるでしょうか」 とSinghal氏は問いかけます。彼によると、人々は今日、経験に基づく推測や、少数の変数のみを考慮したシミュレーション (計算に使用できるメモリや時間によって常に制限されます) に基づき、これらの決定を下します。

メモリ主導型コンピューティングでは、アナリストが指数関数的に増加する変数を考慮して、各決定によって生じる影響をより正確かつ広範に把握することが可能になります。

 

音声認識

制御された特定の状況下では、スマートフォンと同じくらい小さなコンピューターが音声認識で十分に役立ちます。AppleのSiriやMicrosoftのCortanaなどの音声アシスタントでは、個々の単語を認識する際に95パーセントの精度を達成していると主張しています。

この精度でも、ドライバーのナビゲーションを提供するようなタスクではうまく動作しますが、その理由の一部として、関連する語彙が比較的少ないことが挙げられます。通りの名前が頻繁に変更されることはなく、皮肉のように複雑な言葉は通常、使用されません。

この一見単純なケースにも、音声認識の実用的な価値を制限する、かなり複雑な仕組みが隠されています。ほとんどの音声認識は、いわゆる教師あり学習によって実現されます。これは、システムに対して何百万もの単語やフレーズをその意味と共に与えて、言語の運用モデルを構築できるようにする手法です。このモデルでは、これまでに聞いたことのない言葉が話されても、システムが正常に解釈できるようになることが期待されています。

教師あり学習でモデルを作成するのは計算コストが高いプロセスであり、場合によっては6週間かかります。「音素を単語に組み立てて、文法を評価し、言語のあいまいさを処理することは、膨大なトレーニング上の課題です」とBresniker氏は言います。

結果として、これらのシステムは現在のところ、ニュースサイクル、流行語、その他の急速に進化するトレンドに対応することができません。

言語を処理して意味を決定するために、コンピューターは言葉を数式に変換して一連の数学的な演算を適用し、さまざまなモデルを確認して最も正確な意味を得られるモデルを見つけ出します。

Labsの研究マネージャーであるNatalia Vassilieva氏は、これらの演算の基礎となる主な計算タスクは行列の乗算であると述べています。1つの行列 (つまり数値の列) に他の行列が乗算され、どの乗数が最も正確な出力を生成するかを確認します。

このような行列は、大規模なグラフの関係よりもはるかに予測可能です。通常は、変換で必要となる次のデータセットを予測できるため、コンピューターはシステムメモリの関連領域に事前にアクセスできます。

より大きな課題として、システム内のすべてのプロセッサーをビジー状態に保って、発話をタスクに分割し、作業を分散し、結果を再構築するために必要な通信のオーバーヘッドが挙げられます。

Labsでメモリノードを相互接続するために取り組んでいる超高速ファブリックは、このようなトレーニングを既存のテクノロジーよりもはるかに高速に実行できます。「6週間のトレーニング期間が6時間まで短縮することを期待しています」とBresniker氏は言います。

そうなると、音声認識テクノロジーは、新しい言葉を迅速に学習し、以前は知られていなかった人物や用語を含むニュース速報のイベントを処理し、急速に変化するインターネットミームの語彙を解析することが可能になるでしょう。

センサーデータの分析から、より安全で効率的な交通システムが構築されます。写真: Steven Vance

交通システム

誰もが経験した出来事でしょう。飛行機は定刻に到着しましたが、別の飛行機がゲートを出ていないので、滑走路で待機するために座っていなければなりません。その間、飛行機の窓からは隣のゲートが空いているのが見えます。到着ゲートを1つ右にずらすのが難しいのはなぜでしょうか。

その理由は、人が賢くないからではなく、変数を追加していくと急速に複雑化する計算モデルの制約があるからです。今日の交通管理システムでは、スケジュールをその場で変更することができません。鉄道やトラック輸送、その他の交通システムが相互に関連している性質を考慮すると、関与する変数が多すぎるのです。

この種のシステムには多くの制約があります。飛行機は何人の乗客と、どれくらいの荷物を運べるでしょうか。どのくらいの燃料が必要で、給油車の容量とスケジュールはどうなっているでしょうか。車両や地上、ターミナルやゲートでは、どのクルーを確保できるでしょうか。

交通システムには、従来のコンピューティングシステムが即座に評価できない非常に多くの変数があります。そのため、1つのシステムが予約を処理し、別のシステムが手荷物の扱いを管理し、さらに3つ目のシステムがゲートやクルーの割り当てを処理しています。

単一のメモリプールに関連データのすべてが同時に保存されている場合、交通システムは全く異なる方法で管理できるでしょう。大容量の不揮発性メモリプールを利用できれば、運送会社や政府機関は仮説シナリオを実行し、よくある混乱に対して最適な対処法を特定できるようになります。

不揮発性メモリは理論上、ほぼ無制限に拡張でき、継続的な電力消費を必要としないため、このようなシナリオを無期限にメモリに格納できます。システムは、フライトのキャンセルや雷雨の際に、事前計算された適切なソリューションを引き出して、乗客、フライト、積み荷の経路を変更するために必要な各種のリソースすべてを管理することができます。

完全に一致する既存のシナリオがない場合でも、事前計算されたシナリオがあれば、「解決の糸口をつかむことができ、最適な解決策に関するヒントが得られます。その後は、正確な回答を数秒で計算できます。解決策を得るのに45分待たねばならず、その間に問題が他のシステムで連鎖的に障害を引き起こすようなことはありません」とBresniker氏は説明します。

このようにイレギュラーな出来事を処理することは、少ないマージンで経営していることが多いロジスティクス企業にとって重要な前進になります。Bresniker氏によると、メモリ主導型システムは、乗客により効率的で快適な体験をもたらすためにも役立ちます。

「イレギュラーな対応は、時代遅れになっていることが多い独立したシステムから移行する最初の一歩に過ぎず、あらゆる出来事にリアルタイムで対応できるようになります」と彼は言います。

 

医療

この10年間に、健康データのデジタル化が進みました。現在、MRI画像、ゲノムデータ、臨床試験、患者の履歴、あらゆる種類の電子健康記録がコンピューティングシステム内に存在しています。

しかし、私たちはまだそのようなデータをすべて活用しているわけではありません。「医療は経済の20パーセントを占めているにもかかわらず、私たちはわずか数千人の患者のみを調査して平均的な人にとって適切な事柄を決定するという方法を使用しています」とSuermondt氏は言います。今日のコンピューターでは、これより大規模な分析を十分に効率的に実行することはできません。

メモリ主導型コンピューティングであれば、医療従事者は、関連するすべての患者、診療所、病院、医師、または疾患のデータを調査して、何が行われてどのような結果になり、何がうまくいって何がうまくいかなかったかを正確に確認できるようになります。

共有メモリプールを備えたコンピューティングシステムは、このような情報を十分に高速に精査できるため、医師は、複雑な症状を呈する患者を含め、あらゆる患者に対する診断および治療計画を、入院して数時間や数分以内に作成することができます。たとえ困難な症例であっても、数週間や数か月待つ必要はありません。

「ゲノムや大量の画像を扱う場合、アルゴリズムが単純であっても、比較作業には非常に手間がかかり、メモリを大量に消費します」とBresniker氏は言います。

 

オンラインで稼働

2016年11月に、完全に機能するメモリ主導型コンピューターの最初のハードウェアプロトタイプがオンラインになったことをLabsが発表しました。The Machine研究プロジェクトにおけるこの重要な成果では、光通信、不揮発性メモリ、システムアーキテクチャー、および新しいプログラミングモデルの各領域でチームが成し遂げたブレークスルーが、単一のメモリ主導型コンピューティングアーキテクチャーに統合されたことが示されました。HPEはこのプロトタイプを活用して、この新しいコンピューターアーキテクチャーと将来のシステムデザインの主要な機能面について評価、テスト、検証できるようになります。

進行中の研究活動において重要な点の1つは、広範なソフトウェアコミュニティでアーキテクチャーとシミュレーションツールを利用できるようにすることです。これにより、外部の関係者は新しいアプリケーションを設計することが可能になります。

「開発チームには「このシミュレーターから開始すれば、最終的に規模や速さが10倍の成果が得られるでしょう」と言っています」とBresniker氏は語ります。

この種の高速で大容量のメモリアーキテクチャーは、今までコンピューティングで対応できなかった問題に取り組む可能性を広げます。Bresniker氏が「現実規模の問題」と呼んでいる例には、企業ITシステムでのマルウェア検出、交通の流れのリアルタイム最適化、国家情報データの分析などがあります。

このような規模でのデータの関係を把握するには厳密な調査が欠かせませんが、メモリに制約のある現在のコンピューターにとっては困難です。この制約を取り除くことで、膨大な量のデータを調査し、社会レベルの問題に取り組むことができるようになります。

Bresniker氏によれば、そのアプローチが「都市、経済、企業が問題にリアルタイムで対応できるようになるための方法」となるのです。

enterprise.nxt

ITプロフェッショナルの皆様へ価値あるインサイトをご提供する Enterprise.nxt へようこそ。

ハイブリッド IT、エッジコンピューティング、データセンター変革、新しいコンピューティングパラダイムに関する分析、リサーチ、実践的アドバイスを業界の第一人者からご提供します。