トランスフォーマーモデル
トランスフォーマーモデルとは

トランスフォーマーモデルは、テキストなどのシーケンシャルデータを処理するために設計されたニューラルネットワークアーキテクチャーの一種ですが、その他のタイプのデータにも適用できます。RNNなどの以前のモデルとは異なり、トランスフォーマーはシーケンス全体を同時に処理できるため、処理速度と効率が向上します。生成AIの分野において、トランスフォーマーは、テキスト生成、翻訳、要約などのタスクに革命をもたらしています。

笑顔を浮かべながらオフィスの職場でコンピューターを使用している、眼鏡をかけたITプログラマーの男性の写真。
  • トランスフォーマーとRNN
  • トランスフォーマーモデルの仕組み
  • トランスフォーマーモデルの仕組み - パート2
  • HPEとのパートナーシップ
トランスフォーマーとRNN

トランスフォーマーとRNNの違い

トランスフォーマーとリカレントニューラルネットワーク (RNN) の主な違いは、アーキテクチャー、データ処理のメカニズム、シーケンシャルデータの長距離依存関係の処理の有効性にあります。

1. 順次処理と並列処理

RNN: 入力シーケンスを一度に1つの要素ずつ処理し、前のステップの出力を使用して次のステップに情報を伝達します。これによってRNNは本質的にシーケンシャルになるため、計算を簡単に並列化できません。

トランスフォーマー: セルフアテンションと呼ばれるメカニズムを使用して、シーケンス全体を一度に確認できるようにします。これにより、トランスフォーマーはシーケンスのさまざまな部分を並行して処理することが可能になり、特に長いシーケンスの場合はトレーニング時間が大幅に短縮されます。

2. 長距離依存関係の処理

RNN: 勾配消失/爆発問題に起因する長距離依存関係に苦慮します。シーケンスの前の部分の情報は時間の経過とともに消えてしまう可能性があるため、RNNが長いシーケンスで重要なコンテキストを保持することが難しくなります。

トランスフォーマー: セルフアテンションを使用してシーケンスのすべての単語間の関係を同時に計算するため、長距離依存関係をより効果的にモデル化できます。アテンションメカニズムは、段階的な処理を必要とすることなく距離の離れた単語を直接結び付けます。

3. アーキテクチャー

RNN: アーキテクチャーは再帰的であり、ネットワークには前のタイムステップからの情報を伝える「隠れ状態」を維持するループがあります。LSTM (長期記憶) やGRU (ゲート付き回帰型ユニット) などのバリアントは、従来のRNNの問題を軽減するために開発されましたが、シーケンシャルな性質は残っています。

トランスフォーマー: 再帰構造のない、マルチヘッドセルフアテンションとフィードフォワードニューラルネットワークのレイヤーで構成されます。セルフアテンションメカニズムによってシーケンス内の任意の2つの位置間の直接接続が可能になるため、あるタイムステップから次のタイムステップに隠れ状態が渡されるという概念はありません。

4. トレーニング効率

RNN: RNNはデータを順次処理するため、一般的にトレーニングに時間がかかります。また各タイムステップは前のステップに依存するため、並列化は困難です。

トランスフォーマー: 並列処理機能により、トランスフォーマーは、特にGPUやTPUなどの最新のハードウェアでより効率的にトレーニングできます。大規模なデータセットや長いシーケンスをより高い計算効率で処理することが可能です。

5. メモリと計算の複雑さ

RNN: 一度に1つのタイムステップを処理するため、メモリ要件が低くなります。ただし、そのシーケンシャルな性質により、非常に長いシーケンスを効率的に処理する能力が制限されます。

トランスフォーマー: すべてのトークンペア間のアテンションの重みを保存するため、特にトレーニング中は非常に多くのメモリが必要になります。アテンションメカニズムにより、計算の複雑さはシーケンスの長さの2乗のオーダーで増大します。

6. ユースケース

RNN: これまで、音声認識、言語モデリング、時系列予測などのタスクに使用されていました。LSTMとGRUは、一般的に長いシーケンスの記憶を必要とするタスクに使用されていました。

トランスフォーマー: 自然言語処理 (NLP)、機械翻訳、テキスト生成などの多くのタスクで優勢を占めています。BERT、GPT、T5などのモデルはすべて、幅広いNLPのタスクで新たなパフォーマンスのベンチマークを打ち立ててきたトランスフォーマーアーキテクチャーをベースとしています。

トランスフォーマーモデルの仕組み
トランスフォーマーモデルの仕組みのスキーマ。
トランスフォーマーモデルの仕組みのスキーマ。
画像をタップして拡大する

トランスフォーマーモデルの仕組み

トランスフォーマーは、セルフアテンションメカニズム、位置エンコーディング、およびフィードフォワードネットワークの組み合わせを活用することで機能します。このアーキテクチャーにより、シーケンシャルデータを効率的に処理して入力のさまざまな部分間の長距離依存関係をキャプチャーできます。以下にトランスフォーマーの仕組みの詳細を示します。

1. 入力埋め込みと位置エンコーディング

入力埋め込み: トランスフォーマーでは、(文中の単語のシーケンスなどの) 入力は最初に固定サイズの密なベクトルである埋め込みに変換され、これらの埋め込みはトークン (単語またはサブワード) の意味論的意味を表します。

位置エンコーディング: トランスフォーマーアーキテクチャーには、(RNNとは違って) シーケンスの順序をキャプチャーするためのメカニズムが組み込まれていないため、位置エンコーディングは入力埋め込みに追加されます。これらのエンコーディングは、シーケンス内の各トークンの位置に関する情報を挿入します。それらは多くの場合、位置によって変化する正弦関数か学習された埋め込みです。

これにより、モデルはトークンの相対位置と絶対位置を把握できます。

2. セルフアテンションメカニズム

セルフアテンションメカニズムは、トランスフォーマーのコアコンポーネントです。これにより、モデルは入力シーケンス内のその他すべてのトークンとの関連で各トークンの重要性を評価できます。各トークンについて、セルフアテンションは他のどのトークンに注意を払うべきなのかを決定します。

トランスフォーマーモデルの仕組み - パート2
トランスフォーマーモデルの仕組みの2つ目のスキーマ。
トランスフォーマーモデルの仕組みの2つ目のスキーマ。
画像をタップして拡大する

トランスフォーマーモデルの仕組み

セルフアテンションの仕組み:

1. 入力変換: 入力シーケンス内の各トークンに関して、モデルはトークンの埋め込みから派生した3つのベクトル (クエリ (Q)、キー (K)、値 (V)) を計算します。これらのベクトルは線形変換を通じて学習されます。

  • クエリ (Q): 他のトークンにどれだけ重点を置くのかを決定します。
  • キー (K): 重点を置く他のトークンの内容を表します。
  • 値 (V): 抽出される情報、またはアテンションメカニズムに渡される情報が含まれます。

2. アテンションスコア: トークン間のアテンションスコアは、あるトークンのクエリと別のトークンのキー間のドット積として計算されます。これにより、あるトークンの別のトークンに対する関連度または「注意度」が測定されます。

このスコアは、勾配を安定させるためにキーベクトルdkd_kdkの次元の平方根でスケーリングされます。

3. 加重合計: アテンションスコアはソフトマックス関数に渡され、合計が1になる確率に変換されます。これらのスコアは、値ベクトルを重み付けするために使用され、各トークンの他のトークンに対する重要性を反映した加重合計を生成します。

マルチヘッドアテンション:

トランスフォーマーは、単一のセルフアテンションメカニズムではなく、マルチヘッドアテンションを使用します。クエリ、キー、値ベクトルの複数のセットが作成され (各セットはアテンション「ヘッド」になり)、各ヘッドは入力の異なる側面に対応します。すべてのアテンションヘッドの結果は連結され、線形レイヤーに渡されます。

これにより、モデルはトークン間のさまざまなタイプの関係を同時にキャプチャーできます。

3. フィードフォワードニューラルネットワーク

セルフアテンションメカニズムの後、各トークン表現はフィードフォワードニューラルネットワーク (FFN) に渡されます。これは通常、ReLU活性化関数を備えた2層のニューラルネットワークです。FFNは各位置に独立して適用され、同じ重みセットがすべての位置で共有されます。

arduino

Copy code

\[

\text{FFN}(x) = \text{ReLU}(xW_1 + b_1)W_2 + b_2

\]

FFNによってトークン表現のさらなる変換が可能になり、非線形性が導入されてモデルの表現力が向上します。

4. 残差接続とレイヤー正規化

トレーニングを安定させて勾配フローを支援するために、(スキップ接続とも呼ばれる) 残差接続がセルフアテンション層とフィードフォワード層の両方で使用されます。つまり、各サブレイヤーへの入力は、次のサブレイヤーに渡される前にそのサブレイヤーの出力に追加されます。

各残差接続の後にレイヤー正規化が行われ、出力が正規化されることで内部共変量シフトが減ってトレーニングの安定性が向上します。

5. エンコーダーとデコーダーのアーキテクチャー

元のトランスフォーマーアーキテクチャーは、エンコーダーとデコーダーという2つの主要コンポーネントで構成されています。ただし、BERTなどの一部のモデルはエンコーダーのみを使用し、GPTなどの他のモデルはデコーダーのみを使用します。

エンコーダー:

エンコーダーは複数の同一レイヤー (通常は6~12) で構成されます。各レイヤーには、次の2つの主要コンポーネントがあります。

  • マルチヘッドセルフアテンション
  • フィードフォワードニューラルネットワーク

エンコーダーは入力シーケンスを受け取って各レイヤーで処理し、シーケンス内の他のトークンのコンテキストを使用して入力トークンをエンコードする出力を生成します。

デコーダー:

デコーダーも複数の同一レイヤーで構成されていますが、別のメカニズムを備えています。

マスク付きマルチヘッドセルフアテンション: トークンがシーケンス内の将来のトークンに対応しないようにします (これはテキスト生成などの自己回帰タスクで重要となります)。

デコーダーには、エンコーダーの出力を追加の入力として受け取って生成プロセスをガイドするクロスアテンションレイヤーも含まれています。

6. 出力 (言語モデル用)

言語モデリングや機械翻訳などのタスクの場合、デコーダーはトークンごとに出力シーケンスを生成します。最後のレイヤーでは、デコーダーからの出力がソフトマックス関数に渡されて語彙の確率が生成され、モデルが次のトークンを予測したり、翻訳を生成したりできるようになります。

7. トレーニングの目的

マスク付き言語モデリング (MLM): BERTなどのモデルで使用されます。入力シーケンス内のランダムトークンはマスクされ、モデルはそれらを予測するようにトレーニングされます。

因果言語モデリング (CLM): GPTなどのモデルで使用されます。モデルは前のトークンに基づいてシーケンス内の次のトークンを予測します。

Seq2Seqの目的: 機械翻訳などのタスクで使用されます。モデルは入力シーケンスを出力シーケンスにマッピングするようになります (英語からフランス語への文の翻訳など)。

HPEとのパートナーシップ

HPEとのパートナーシップ

HPEは、マルチモーダルモデルの作成、実装、実行を支援する製品とサービスを提供しています。

HPE Cray XD670

HPE Cray XD670を活用すればAIのパフォーマンスを向上させることができます。スーパーコンピューティングを使ってLLM、NLPやマルチモーダルモデルをトレーニングする方法をご確認ください。

HPE生成AI実装サービス

HPE機械学習開発ソフトウェア

トランスフォーマーとRNNの違い

内容
RNN (LSTM、GRUを含む)
トランスフォーマー

処理方法

順次

並列

長いシーケンスの処理

長期依存関係に苦慮

セルフアテンションを使用するため優れている

アーキテクチャー

回帰型、隠れ状態

マルチヘッドセルフアテンション

トレーニング効率

時間がかかる、並列化が難しい

高速、高度な並列化が可能

メモリ効率

メモリ要件が低い

メモリ使用率が高い

一般的な用途

時系列、初期のNLPタスク

NLP、翻訳、テキスト生成など

トランスフォーマーのコンポーネントの概要:

コンポーネント
説明

入力埋め込み

トークンを固定サイズのベクトルに変換します。

位置エンコーディング

シーケンス内のトークンの位置に関する情報を追加します。

セルフアテンション

依存関係をキャプチャーするためにすべてのトークン間のアテンションスコアを計算します。

マルチヘッドアテンション

複数のアテンションヘッドを使用してさまざまな関係をキャプチャーします。

フィードフォワードニューラルネットワーク

トークン表現に非線形変換を適用します。

残差接続

トレーニングの安定化をサポートして勾配流を改善します。

エンコーダー

入力シーケンスを処理してコンテキスト表現を生成します。

さまざまなタイプのトランスフォーマー:

トランスフォーマーにはどのようなタイプがあるのでしょうか。

以下に示すトランスフォーマーモデルは、顧客サービス、コンテンツ生成、翻訳、仮想アシスタント、レコメンデーションシステムなど、さまざまな業界の商用アプリケーションに広く導入されています。

モデルタイプ
注目モデル
主な特徴

アプリケーション

エンコーダーベース

BERT、RoBERTa、XLNet、ELECTRA

テキストの理解に重点を置いている (分類、NERなど)

テキスト理解を必要とするNLPタスク

デコーダーベース

GPT (1、2、3、4)、CTRL、OPT

生成タスク (テキスト生成、対話) に最適化

テキスト生成、対話型AI

エンコーダーデコーダー

T5、BART、mT5、Pegasus

理解と生成 (機械翻訳、要約) を組み合わせる

要約、翻訳、質問応答

マルチモーダル

CLIP、DALL-E、FLAVA

複数のデータタイプ (テキスト + 画像) を処理

画像生成、ビジュアルテキストタスク

HPE Machine Learning Development Environment Software

世界各地に分散しているチームが、Alモデルをセキュアかつ効率的に開発、トレーニング、最適化できるよう支援します。

関連トピック

ディープラーニング

AIスーパーコンピューティング