用語集一覧へ
— Glossary
Hallucination
読み: ハルシネーション
短い定義
Hallucination (ハルシネーション) は、LLM が事実でない内容を自信たっぷりに生成してしまう現象です。LLM の最大の弱点で、業務利用では事実検証が必須になります。
詳細解説
Hallucination は LLM が学習データに無い情報を「もっともらしく」生成してしまう現象で、引用元の捏造、存在しない人物・論文の言及、嘘の URL 等が典型例です。原因は LLM が「次に来る単語を予測する」設計のため。RAG で検索結果を渡す、Chain-of-Thought で推論を明示する、出典 URL を必ず確認させる等の対策で軽減可能ですが完全には消せません。業務利用では人間レビューを前提とした運用が必須です。
実装例 / 使い方
- 01存在しない論文の引用を生成
- 02古い情報を最新と偽る (学習データのカットオフ後の出来事)
- 03RAG で軽減: 検索結果に基づいた回答に制約
— IMPLEMENT
Hallucinationを、実際に活用する
用語の意味は分かった。次は実装。EXBANK の無料診断で、貴社で具体的にどう活用できるかをご提案します。
営業時間 平日10-18時 / 通常24時間以内に返信
