メインコンテンツへスキップ
EXBANK
用語集一覧へ
— Glossary

LoRALow-Rank Adaptation

読み: ローラ
短い定義

LoRA (Low-Rank Adaptation) は、LLM の全パラメータを更新せず、小さな低ランク行列のみを学習する効率的な fine-tuning 手法です。GPU メモリ要件が大幅に下がります。

詳細解説

LoRA は 2021 年 Microsoft 発の論文で提案され、現在 Stable Diffusion / Llama / Mistral 等の OSS モデルの fine-tuning では事実上のスタンダードです。元モデルの重みを凍結し、特定層に低ランクのアダプタ行列 (r=8〜64) を追加して学習します。学習パラメータが本体の 0.1% 程度になり、コンシューマ GPU (RTX 3090 等) でも数億パラメータモデルの fine-tune が可能。LoRA で作ったアダプタは数 MB と軽く、配布も容易です。

実装例 / 使い方

  • 01Stable Diffusion の画風 LoRA (Civitai 等で配布)
  • 02Llama 3 70B を 1 GPU で日本語 fine-tune
  • 03Hugging Face PEFT ライブラリで実装
IMPLEMENT

LoRAを、実際に活用する

用語の意味は分かった。次は実装。EXBANK の無料診断で、貴社で具体的にどう活用できるかをご提案します。

営業時間 平日10-18時 / 通常24時間以内に返信