RAGシステムの比較ポイントを徹底解説!業務で使えるRAGの選び方とは?

業務効率化のために生成AIツールの導入を検討されている皆様にとって、「RAG (ラグ)」という言葉を耳にする機会が増えているのではないでしょうか。
ChatGPTに代表される生成AIは非常に強力ですが、そのままでは自社の専門知識や最新データに基づいた回答を得るのが難しいという課題があります。そんな中、生成AIに検索機能を組み合わせてこの課題の解決する画期的な手法が RAG(Retrieval-Augmented Generation) です。
このように、RAGは非常に有用な技術ですが、それゆえ、RAGシステムが世の中にあふれかえっているのが現状です。こうした状況の中でRAGシステムを導入したいと考えても、どう選べばよいのか分からない・・・という方も多いのではないでしょうか?
そこで本記事では、まず基本的なRAGの仕組みを端的に解説したうえで、数あるRAGシステムの中から自社の業務に適した高度なシステムを選定するためにチェックすべき「比較ポイント」についてご紹介します。
この記事をお読みいただくことで、自社の業務に最適なRAGシステムを見極めるヒントになれば幸いです。今話題のAIエージェントの文脈も踏まえた記事になっていますので是非最後までご覧ください。
RAGの概要と基本的な仕組み
RAG(Retrieval-Augmented Generation) とは、生成AIに対し、外部のデータ検索機能を組み合わせて回答精度を高める技術です。日本語では「検索拡張生成」とも呼ばれ、生成AIが回答を生成する前に関連情報を検索して取り込み、その情報を踏まえて回答を作成します。簡単に言えば、RAGは生成AIに“調べものをする能力”を与えるようなものです。
通常、生成AIに新しい知識を学習させるには、専用の追加学習(ファインチューニング)を行う必要がありますが、これは簡単には不可能です。これに対しRAGの仕組みでは、大量の内部データをAIに学習させるのではなく、質問のたびに必要な情報を検索で補うというアイデアによって、最新かつ自社固有の情報に基づいた回答を簡単に引き出せます。
例えば、営業担当者が「製品Xの最新仕様を教えて」とAIに尋ねたとします。通常の生成AIは社内カタログや技術資料の内容を知らないため、正しく説明できません。しかしRAGを使えば、営業資料フォルダから最新版のカタログ情報を検索して参照し、「製品Xの最新版では重量が従来比10%軽量化されています」といった具体的で正確な回答が可能になります。
このようにRAGは、生成AIの知識の不足を外部データで補強し、回答の正確さと業務適用性を高めるためのアプローチです。
では、RAGは具体的にどのような仕組みで動作しているのでしょうか。基本的なプロセスは次のとおりです。
- ユーザーからの質問入力:
ユーザーがRAG対応のチャットボットやアプリケーションに質問(プロンプト)を入力します。「○○の手続き方法を知りたい」など社内業務に関する問いが例として挙げられます。- 関連情報の検索・取得:
質問内容に基づき、システムは事前に構築された社内データベースやナレッジベースを検索し、関連する情報(文章や資料の一部)を見つけ出します。この検索処理は、キーワード検索やベクトル検索などにより行われ、質問に適した社内文書の該当箇所を取得します。- 生成AIによる回答生成:
検索で得られた情報とユーザーの質問をセットで、大規模言語モデルなどの生成AIに渡します。AIは自身がもともと持つ一般知識に加え、与えられた社内情報を参照しながら回答を作成します。まるでAIが社内資料を参照して回答を書いているようなイメージです。- ユーザーへの回答提示:
最後に、生成AIが生成した回答がユーザーに表示されます。必要に応じて、回答とともに参照した社内資料の出典やリンクが提示されることもあります。
この一連の流れにより、ユーザーは通常のチャットAIに質問するのと同じ感覚で、社内情報に根ざした回答を得られます。
RAGシステムの精度を決める事前準備「チャンキング」
上記のプロセスは、あくまでユーザーが質問をした後のRAGシステムの振る舞いですが、RAGを実現するには事前準備も欠かせません。
まずは、社内の規程類や業務マニュアル、ナレッジデータなど独自の情報を蓄積するためのデータベースを用意し、ファイルを事前にアップロードする必要があります。
このとき、アップロードされたファイルをそのまま検索に利用するのは難しいため、内部的には、適切な単位に分割されたうえでデータベースに蓄積します。例えば長大なPDFマニュアルも章や段落ごとに分割しておけば、「どの部分がユーザーの質問と関連するか」を精度良く見つけられます。
このように、長い文章や資料を、意味が通じる適切な長さの断片に分割する処理を「チャンキング」と言い、各断片を「チャンク」と呼びます。

◼ なぜチャンキングが必要か:
生成AIには、入力できるトークン数(文字数相当)の上限があり、一度に扱えるテキスト量に限りがあります。また検索でも、ドキュメント全体を丸ごと検索エンジンに渡すより、小分けにした方が関連部分をヒットしやすくなるという利点もあります。そこで文脈や段落ごとに文書をスライスしてつつ、索引化するという前処理が重要になります。
<参考:トークンとは>
https://aitc.dentsusoken.com/column/what-is-a-token-in-generative-ai/
◼ チャンキングが精度を左右する:
適切に分割されたチャンクは検索ヒット率と回答精度の向上に直結します。チャンクが大きすぎると不要な情報まで含むため、小さすぎると文章の意味が失われるため、精度が落ちしまいます。例えば、技術報告書を章や見出し単位でチャンクにしておけば、ユーザー質問に関連する章だけを抽出できます。一方、文脈を無視して機械的に500文字ごとに切るような方法では、肝心のキーワードが分断され検索漏れを起こす恐れがあります。
このように、事前準備(前処理)はRAGの精度を大きく左右するため、各社のRAGシステムはチャンキング手法や検索アルゴリズムに様々な工夫が凝らされています。検討中のRAGシステムがどのような前処理を行っているかは必ず確認するようにしましょう。
業務で使える優れたRAGシステムを選ぶための比較ポイント
ここまで、RAGの基本的な仕組みについて整理してきました。こうした仕組みを元にした様々なRAG対応システムやサービスが各社から提供されていますが、これらを比較・検討する際にどのような点に注目すべきでしょうか?
ここでは、上記で説明してきたような基本的なRAGのプロセスが実装できていることは当然と考え、本当に優れたRAGシステムを選ぶための主なポイントを体系的に整理します。
1. 図表を含む非構造データの適切なチャンキング
まず重要なのは、社内の様々なデータを適切にチャンキングできるかという点です。特に企業の社内資料には、文章だけでなく表やグラフ、画像付きマニュアルなど非構造的なデータが数多く存在します。これらを上手く扱えないRAGシステムでは、該当情報があっても検索で見つけ出せず、誤った回答をしてしまうリスクがあります。
ところが、"テキスト"の扱いを得意とする生成AIをコアとする以上、これは技術的難易度が高く、実現は簡単ではありません。そのため、ファイル内の表や画像を解釈して適切に回答できるRAGシステムは多くありません。
逆に言えば、テキストだけでなく表や画像情報も含めて適切にチャンキングし、活用できるRAGシステムは、高度なRAGシステムであると言えます。
特に、図表を含む非構造データを活用できるか否かは、標準的なチャットボット利用を超え、専門業務に特化した利用を志した際、成功するか失敗するかを分けるポイントでもあります。
導入を検討する際は、扱う予定の社内データ(PDF, Office文書, 画像など)に対して、対象のRAGシステムがどこまで対応できるかを確認しましょう。

2. ハルシネーション対策と信頼性の高いUI設計
生成AIの課題である「ハルシネーション(事実無根の回答をそれらしく生成してしまう現象)」への対策も見逃せません。RAG自体にも、外部の正確な情報を参照することでハルシネーションを減らす効果はありますが、ユーザーが安心して利用するためには、ユーザーが回答の根拠を確認できる画面設計になっているかどうかがポイントです。
具体的には、回答と一緒に参照元の文書名や該当箇所の引用が表示され、ユーザーがワンクリックで原文に当たれるようなインターフェースが望ましいと言えます。
根拠が明示されていれば、回答に対する納得感が高まり、万一AIの回答内容に不明点があってもユーザー自身で裏付けを取れます。社内規程のように正確性が求められる質問に生成AIを使うなら、回答の信頼性を担保できるシステムかどうかを必ず確認しましょう。

3. データの管理と更新性
RAGの実力は検索手法だけでなく、裏側のデータ管理と更新の仕組みでも大きく変わります。
現場の変更点(PDFの版更新、新しい手順、組織改編、品番差し替えなど)が検索対象へタイムリーに反映されるように設計しておくことが重要です。
理想は、更新検知からチャンキングまでが自動化され、増減分が素早く反映される状態です。
また、普段利用しているストレージサービス(SharePoint、Box等)とのシームレスな連携も重要です。
上記のように、以下にストレージに格納されているデータを意識せずにRAGの情報源にできるかも、実務では重要なポイントです。

4. 権限管理とセキュリティへの配慮
企業で利用する以上、機密データを扱う際の権限管理やセキュリティ対策は必須です。
RAGシステムに社内文書を取り込む場合、ユーザーごとに閲覧・検索できる情報を制限できる機能が求められます。たとえば、人事部門だけがアクセスできるデータは人事担当者の質問にしか使われないようにする、というようなアクセスコントロールができなければ、情報漏洩のリスクにつながります。
また、クラウド型の生成AIサービスを利用する際には、入力した社内データが外部に蓄積・学習されない仕組みになっているか(利用するAI基盤の利用規約やオプトアウト設定など)も確認すべきポイントです。
信頼できるRAGソリューションは、社内認証システムとの連携や細かな権限設定が可能であり、さらにデータの送受信や保管においても暗号化や分離環境など厳重なセキュリティ対策を講じています。

5. RAG機能のAPI提供と他システムとの連携性 (AIエージェントに組み込む前提か?)
社内で生成AIを幅広く活用するには、コアとなるRAG機能を他の業務システムと統合できるかも重要です。
現時点ではQ&Aチャットボットとしての利用が検討の中心だとしても、ゆくゆくは既存の業務システムにコアのRAGアルゴリズムを組み込む形で、自律的にタスクをこなすAIエージェントへと発展していく可能性が高いです。
そうした場合に、API経由で導入したRAGシステムの機能を呼び出せることは大きなアドバンテージです。
既存の社内ポータルやワークフローシステムに組み込むことが容易になり、例えば、社内の問い合わせ管理システムや営業支援ツールと連携させ、そこでRAGによる回答支援が行えるようにするといった拡張が可能です。
導入を検討中のRAGシステムがAIエージェントへの拡張性を重視した製品なのかや、提供されるAPIの種類やドキュメントの充実度、サポート体制を確認し、自社のシステムとスムーズに繋げられるか評価しましょう。

6. マルチRAGエージェント (RAG機能自体のAIエージェント化)
従来のような単一のデータソースを前提としたRAGには、下記のような課題がありました。
- 回答ソースとしてふさわしいデータソースを、複数の候補から事前にユーザー自身で選択する必要があるため、手間や迷いが発生し、ユーザー負担が大きい
- 部署やプロジェクト単位で個別管理されたデータソースに対し、横断的な検索や複合的な回答生成が困難
この結果として、中々RAGの活用が進まないといった悩みは実際に多く聞かれます。
しかし、最新の動向として、こうした課題を解決できる手段が登場しました。それがマルチRAGエージェントです。
マルチRAGエージェントとは、ユーザー自身ではなく、RAGシステムの中のAIエージェントが質問内容に応じて自動で検索戦略を立て最適なデータソース選択を選択、時には横断し、情報を組み合わて回答する仕組みです。
このような仕組みによって、利用者の負担がゼロに近づき、分断された知見が統合された高精度な回答が可能になり、結果として中々社内のRAG活用が進まないといった悩みも改善が見込めます。
検討対象のRAGシステムが上記のような高度で最新の仕組みを有し、従来のRAGシステムの課題を乗り越えられているかチェックしてみてください。

まとめ
ここまで、RAGの基本的な仕組みと優れたRAGシステムを選ぶためのポイントについて紹介させていただきました。RAGは生成AIの回答精度と信頼性を飛躍的に高め、自社業務への適用範囲を広げるための重要な技術です。
さらにAIエージェントの文脈でも、意思決定前の「根拠集め」と「検証」の役割を担い、社内データや最新情報への安全なアクセス・ハルシネーション抑制など、RAGはコア技術として活躍します。
優れたRAG基盤を持つことで、結果としてエージェントの自律タスク実行を“信頼できる形”で推進できるようになるのです。
電通総研では、業務特化型RAGソリューションのKnow Narrator Search(ノウナレーター サーチ)を自社開発しています。Know Narrator Searchは本稿で述べたポイントを踏まえたシステムとなっており、高精度 かつ 現場で実際に利用されるRAGをご提供可能です。単体でのご利用はもちろん、各機能をAPIとして提供しているため既存システムとの連携やAIエージェント文脈でのご相談にも対応可能です。
さらに電通総研では、本記事でご紹介したマルチRAGエージェントの仕組みを2025年内に提供開始予定です。
電通総研のマルチRAGエージェントの詳細はぜひ下記のページをチェックしてみてください。
その他の詳細や希望される方、導入を検討されている方は、お気軽にこちらのお問い合わせフォームからご連絡ください。
最後までお読みいただきありがとうございました。
執筆
AIコンサルティンググループ
田辺佑太



