用語集一覧へ
— Glossary
Attention
読み: アテンション
短い定義
Attention (アテンション) は、入力の中で'どこに注目すべきか'を学習する機構です。Transformer の核心で、Self-Attention により文中の任意の単語間の関係を並列計算できます。
詳細解説
Attention は 2014 年に Bahdanau et al. が翻訳タスクで提唱、2017 年の Transformer で Self-Attention が一般化しました。Query / Key / Value の 3 つのベクトルから、各位置の重み付き和を計算します。これにより 'this it that' のような代名詞が何を指すかを学習でき、長距離依存関係を捉えられます。Multi-Head Attention で複数の注目パターンを並列学習するのが現代の標準。
実装例 / 使い方
- 01Self-Attention: 文中の単語同士の関係
- 02Cross-Attention: 翻訳元 → 翻訳先
- 03FlashAttention で高速化された実装
— IMPLEMENT
Attentionを、実際に活用する
用語の意味は分かった。次は実装。EXBANK の無料診断で、貴社で具体的にどう活用できるかをご提案します。
営業時間 平日10-18時 / 通常24時間以内に返信
