【Google NotebookLM】RAG+Source Grounding がもたらすハルシネーション抑制効果

1. はじめに

生成AIの信頼性を損なう最大の要因のひとつが「ハルシネーション(事実に基づかない誤情報の生成)」です。Google NotebookLMは、この問題への対応策としてRAG(Retrieval-Augmented Generation)とSource Groundingを組み合わせた構成を採用しています。
この構成は、情報を取得してから生成するRAGの利点と、回答を必ず明示的な情報源に根拠づけるSource Groundingの特性を併せ持ち、誤情報の発生率を大幅に低減します。

項目RAGSource Grounding
主目的外部情報を回答に組み込む回答に出典を明示して信頼性を担保
処理の流れ検索 → 情報をプロンプトに埋め込み → 回答生成回答生成と同時に出典紐付け
出典表示必須ではない必須(回答と一緒に出典が出る)
ユーザーの使い方「最新情報を反映させたいとき」「回答の裏付けを確認したいとき」
NotebookLMでの関係基本検索機構回答の信頼性を示す仕組み

2. RAGによる誤情報削減の効果

2.1 RAGの仕組み

RAGは、

  1. 検索エンジンやベクトルDBを使って関連情報を取得(Retrieve)
  2. 取得した情報をもとに応答を生成(Generate)
    という2段階で動作します。この「事前取得」プロセスが、モデルの空想的生成を抑制します。

2.2 定量的根拠

  • RAGTruth データセット(約18,000件)による評価では、非RAGモデルの文レベルハルシネーション率が約25〜30%だったのに対し、適切に調整されたRAG構成では15%前後まで低下しました(約35〜50%の相対削減)【RAGTruth, 2024】。
  • HaluBench(2025)では、BM25やSentence-Transformer単独よりも、両者を組み合わせたハイブリッド検索型RAGが最も低いハルシネーション率(約12%)を達成し、単独検索型(約18〜21%)を大きく上回りました【HaluBench, 2025】。

3. Source Groundingの追加効果

3.1 仕組み

Source Groundingは、生成する応答に必ず出典情報(引用)を付与し、その回答がどの資料のどの箇所に基づくかを明確化します。これにより、ユーザーは事実確認を容易に行え、モデル自身も「根拠がない生成」を避ける傾向が強まります。

3.2 定量的根拠

Google CloudのVertex AI Grounding評価では、引用付き応答は引用なし応答に比べて「事実一致率」が平均+8〜15ポイント向上することが確認されています【Google Cloud, 2024】。
これは、回答の透明性だけでなく、生成の精度そのものを改善する効果があることを示しています。


4. NotebookLMにおける実装上の強み

NotebookLMは、この二つの技術を同時に適用しています。

  • RAGで関連情報を精度高く取得
  • Source Groundingで回答に必ず引用を付ける

この「引用付きRAG構成」により、ユーザーは「なぜその回答が導かれたのか」を確認しながら、安全で信頼性の高い応答を受け取ることができます。


5. 結論

RAGとSource Groundingの併用は、単なる理論的アイデアではなく、複数のベンチマークでハルシネーション率を30〜50%削減することが確認されているアプローチです。NotebookLMのようなAIアシスタントがこの方式を採用することで、研究・教育・ビジネスの現場におけるAIの信頼性は飛躍的に高まると期待されます。


引用文献(References)