ローカルDeep Research
2025-08-29
西尾さん、結論から。
要点(2025年8月時点)
「Deep Research 的」= 企画立案レベルの多段推論+出典付き要約。OpenAI版は多数ソースを読み込み、計画→収集→要約→必ず引用のレポートを返す設計です(最近はビジュアルブラウザ併用)。ローカルでも要件は同じ:高精度パース → ハイブリッド検索 → リランキング → 多段推論 → 厳密な引用。(
OpenAI,
OpenAI Help Center)
推奨アーキテクチャ(用途別の最良解)
A. 研究ノート/論文系に強い「厳密引用」特化
PaperQA2(PDF/テキストを跨ぐ高精度RAG、段落・ページ出典つき)+好みのLLM/埋め込み
ローカルPDF群を対象に、質問→証拠抽出→回答→ページ番号付き引用まで自動化。科学系だが一般文書にも有効。(
GitHub,
arXiv)
使い方は
Docs.add(path) →
query() の極小API。OpenAI/llama.cpp/Ollama等を選べる。(
PyPI)
こんな時に:論文・計画書・議事録を確証つきで横断照会したい。
B. コーパス全体像の把握+発見に強い「構造化探索」
GraphRAG(知識グラフ+コミュニティ要約)+ LlamaIndex/LangGraph(エージェント化)
こんな時に:大量資料の論点抽出・地図化、調査設計の反復。
C. GUIで手っ取り早く「自炊した知識ベースに質問」
AnythingLLM / PrivateGPT / Danswer のいずれか+ローカルLLM
こんな時に:構築コスト最小で試したい、チームに配りたい。
共通の“最良”レシピ(部品の指名買い)
1. パース(PDF/Office)
2. インデクシング(ハイブリッド)
BM25(SQLite-vec か Tantivy系)+ 埋め込みの二段。SQLite運用なら
sqlite-vec が軽量。(
GitHub)
3. 埋め込み(日本語+英語)
OSS重視:Jina-embeddings-v3 は多言語MTEBで好成績。(
jina.ai)
4. リランキング(品質の要)
5. 多段推論オーケストレーション
6. 引用・検証
出典必須なら PaperQA2を最終生成器に据える/あるいはCitekit系を併用。(
GitHub,
arXiv)
7. 長文対策(コンテキスト圧縮)
8. ローカル実行基盤
すぐ動く最小構成(CLI志向)
目的:ローカルPDF群に深掘り質問→ページ引用つき回答
構成:Docling → LanceDB or Qdrant → Jina v3埋め込み → bge-reranker-v2-m3 → PaperQA2
評価と運用
迷ったらこの二択