メインコンテンツへスキップ
EXBANK
用語集一覧へ
— Glossary

Attention

読み: アテンション
短い定義

Attention (アテンション) は、入力の中で'どこに注目すべきか'を学習する機構です。Transformer の核心で、Self-Attention により文中の任意の単語間の関係を並列計算できます。

詳細解説

Attention は 2014 年に Bahdanau et al. が翻訳タスクで提唱、2017 年の Transformer で Self-Attention が一般化しました。Query / Key / Value の 3 つのベクトルから、各位置の重み付き和を計算します。これにより 'this it that' のような代名詞が何を指すかを学習でき、長距離依存関係を捉えられます。Multi-Head Attention で複数の注目パターンを並列学習するのが現代の標準。

実装例 / 使い方

  • 01Self-Attention: 文中の単語同士の関係
  • 02Cross-Attention: 翻訳元 → 翻訳先
  • 03FlashAttention で高速化された実装
IMPLEMENT

Attentionを、実際に活用する

用語の意味は分かった。次は実装。EXBANK の無料診断で、貴社で具体的にどう活用できるかをご提案します。

営業時間 平日10-18時 / 通常24時間以内に返信