RAG

RAG は、LLM に外部資料を参照させてから答えさせる構成です。

RAG のアイキャッチ図解
まずは、こう考えるとつかみやすいです。

回答前に社内資料棚を見に行って、必要な書類を手元に置いてから返答するアシスタントのような仕組みです。

ひとことで言うと

RAG は、AI が自分の記憶だけで答えるのではなく、その都度資料を引いてから答えるようにするやり方です。

どんな場面で使うか

  • 社内マニュアルに沿って回答したい時
  • 商品仕様やFAQを参照させたい時
  • 最新に近い資料をもとに答えさせたい時
  • 出典候補を一緒に見せながら回答させたい時

なぜ便利なのか

LLM 単体だと、学習済みの傾向だけで答えます。RAG を入れると、その場で必要な文書を引っ張ってこられるので、社内固有情報や更新済み情報に寄せやすくなります。

実務で気にするポイント

  • 参照元の文書整備が甘いと回答も不安定になる
  • 検索精度と回答精度は別なので両方評価する
  • 古い文書を混ぜると誤案内の原因になる
  • 出典表示の仕方まで運用ルールに入れる

注意: RAG を入れても誤答はなくなりません。資料検索と最終回答は別工程なので、両方の品質を見ないと期待外れになります。