UNIDOC-BENCH: A Unified Benchmark for Document-Centric Multimodal RAG

  • UNIDOC-BENCH: A Unified Benchmark for Document-Centric Multimodal RAG [82.8]
    マルチモーダル検索拡張生成(MM-RAG)は,大規模言語モデルを現実世界の知識ベースに適用するための重要なアプローチである。 UniDoc-Benchは、70万の現実世界のPDFページから構築されたMM-RAGのための最初の大規模で現実的なベンチマークである。 実験により,マルチモーダルテキスト画像融合RAGシステムは,非モーダルおよび共同マルチモーダル埋め込みに基づく検索において一貫して優れていた。
    論文  参考訳(メタデータ)   (Thu, 09 Oct 2025 05:30:23 GMT)
  • マルチモーダルなRAGのためのベンチマーク。下記のように包括的で大規模(リポジトリの記載より引用)
    • 70,000 real-world PDF pages across 8 diverse domains
    • 1,600 multimodal QA pairs with 20% expert validation
    • Four query types: factual retrieval, comparison, summarization, and logical reasoning
    • Unified evaluation protocol with standardized candidate pools, prompts, and metrics
  • リポジトリはGitHub – SalesforceAIResearch/UniDoc-Bench

VeriCite: Towards Reliable Citations in Retrieval-Augmented Generation via Rigorous Verification

  • VeriCite: Towards Reliable Citations in Retrieval-Augmented Generation via Rigorous Verification [107.8]
    証拠を厳格に検証し,回答の帰属性を高めるために設計された,VeriCiteと呼ばれる新しいフレームワークを紹介する。 我々は,5つのオープンソースLCMと4つのデータセットを対象とした実験を行い,VeriCiteが回答の正しさを維持しつつ,引用品質を大幅に向上できることを実証した。
    論文  参考訳(メタデータ)   (Mon, 13 Oct 2025 13:38:54 GMT)
  • RAGにおける引用品質を高めるための「 initial answer generation, supporting evidence selection, and final answer refinement」からなるフレームワークの提案。
  • リポジトリはGitHub – QianHaosheng/VeriCite: Repo for VeriCite: Towards Reliable Citations in Retrieval-Augmented Generation via Rigorous Verification

LLM-Specific Utility: A New Perspective for Retrieval-Augmented Generation

  • LLM-Specific Utility: A New Perspective for Retrieval-Augmented Generation [110.6]
    Retrieval-augmented Generation (RAG)は、外部知識を取り入れた大規模言語モデル(LLM)を強化する。 既存の研究はしばしばユーティリティをジェネリック属性として扱い、異なるLLMが同じ通路から異なる利益をもたらすという事実を無視している。
    論文  参考訳(メタデータ)   (Mon, 13 Oct 2025 12:57:45 GMT)
  • 「(1) We highlight the new perspective of utility for RAG, i.e., LLM-specific utility. (2) We introduce the LLM-specific utility judgment task, propose a benchmarking procedure, and provide a comprehensive empirical analysis of various LLMs and methods.(3) We identify the key direction in achieving more effective LLM-specific utility judgment: known queries should reject all passages, while unknown ones must identify useful ones, which need to be analyzed further.」とのこと。そうだよねという印象で、RAGの特性を整理するうえでも参考になる。
  • リポジトリはAnonymized Repository – Anonymous GitHub

A Survey on Retrieval And Structuring Augmented Generation with Large Language Models 

  • A Survey on Retrieval And Structuring Augmented Generation with Large Language Models [29.7]
    大規模言語モデル(LLM)は、テキスト生成と推論において顕著な能力を持つ自然言語処理に革命をもたらした。 しかし、これらのモデルは、時代遅れの知識や限られたドメインの専門知識を含む、現実世界のアプリケーションにデプロイする際の重要な課題に直面します。 Retrieval And Structuring (RAS) Augmented Generationは、動的情報検索と構造化知識表現を統合することで、これらの制限に対処する。
    論文  参考訳(メタデータ)   (Fri, 12 Sep 2025 21:25:25 GMT)
  • 「This survey (1) examines retrieval mechanisms including sparse, dense, and hybrid approaches for accessing external knowledge; (2) explore text structuring techniques such as taxonomy construction, hierarchical classification, and information extraction that transform unstructured text into organized representations; and (3) investigate how these structured representations integrate with LLMs through prompt-based methods, reasoning frameworks, and knowledge embedding techniques.」とのこと。
  • RAGの対比は「While RAG provides the foundation for connecting LLMs with external information, RAS extends this capability by incorporating knowledge structuring techniques that transform unstructured text into organized representations such as taxonomies, hierarchies, and knowledge graphs」としているが、RASという用語が流行るかは謎。。

InfoGain-RAG: Boosting Retrieval-Augmented Generation via Document Information Gain-based Reranking and Filtering 

  • InfoGain-RAG: Boosting Retrieval-Augmented Generation via Document Information Gain-based Reranking and Filtering [17.3]
    Retrieval-Augmented Generation (RAG) は,Large Language Models (LLMs) の重要な限界に対処する,有望なアプローチとして登場した。 本稿では,検索した文書のコントリビューションを定量化し,回答生成の精度を高めるために,文書情報ゲイン(Document Information Gain, DIG)を提案する。 本稿では,DIGスコアを利用した特殊リランカの学習フレームワークInfoGain-RAGを紹介する。
    論文  参考訳(メタデータ)   (Tue, 16 Sep 2025 07:28:07 GMT)
  • 「We introduce a novel metric called Document Information Gain (DIG), to quantify each retrieved document’s impact on the LLM’s generation confidence.」というメトリックの提案。rerankerとしての有効性を確認。

MMORE: Massive Multimodal Open RAG & Extraction

Beyond Chunks and Graphs: Retrieval-Augmented Generation through Triplet-Driven Thinking 

  • Beyond Chunks and Graphs: Retrieval-Augmented Generation through Triplet-Driven Thinking [31.7]
    Retrieval-augmented Generation(RAG)は、幻覚を減らし、外部知識をLarge Language Models(LLM)に組み込むために重要である。 T$2$RAGは、原子三重項の単純でグラフのない知識ベースで動作する新しいフレームワークである。 実験結果から,T$2$RAGは最先端のマルチラウンド法とグラフRAG法を著しく上回ることがわかった。
    論文  参考訳(メタデータ)   (Mon, 04 Aug 2025 13:50:44 GMT)
  • 「We introduce a novel RAG framework that leverages triplets as the fundamental unit for indexing, retrieval, and reasoning, moving beyond the limitations of chunk-based and explicit graph-based approaches」とトリプレットベースのRAGアプローチの提案。グラフ構造を上回るのはやや意外だが、コンポーネントとしては「both the iterative process and the use of chunks are important. The iterative reasoning module proves to be a critical component.」ということでシンプルな構成であることも有利だったりするのだろうか。
  • リポジトリはrockcor/T2RAG: Official code of paper “Beyond Chunks and Graphs: Retrieval-Augmented Generation through Triplet-Driven Thinking”

Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs 

  • Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.1]
    Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。 逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。 この調査は両鎖を統一的推論-検索の観点から合成する。
    論文  参考訳(メタデータ)   (Wed, 16 Jul 2025 15:44:18 GMT)
  • RAGに関するサーベイ。
  • 論文リストなどはGitHub – DavidZWZ/Awesome-RAG-Reasoning: [Up-to-date] Awesome RAG Reasoning Resources

SGIC: A Self-Guided Iterative Calibration Framework for RAG

  • SGIC: A Self-Guided Iterative Calibration Framework for RAG [45.2]
    大規模言語モデル(LLM)は、頑健な文脈内推論を生かしている。 ツールとして不確実性スコアを用いる新しいフレームワークを提案する。 また、反復的な自己校正訓練セットを構築するための革新的なアプローチも導入する。
    論文  参考訳(メタデータ)   (Thu, 19 Jun 2025 09:45:13 GMT)
  • 不確実性スコアを使ってRAGの性能向上を狙うアプローチ((1) estimating the uncertainty scores of each document and the generated answers (Section 3.1); (2) iteratively utilizing the generated answers and their corresponding uncertainty scores from the validation set to perform the self-calibration process during the inference stage (Section 3.2); and (3) designing a strategy to reconstruct a new training set to fine-tune a self-guided iterative calibration LLM with uncertainty awareness (Section 3.3).)。トークンレベルで確信度的な値が取れるオープンなモデルだと効果が大きいように見える。
  • 「Our framework consistently improves performance for both open-weight and closed-source models by utilizing uncertainty scores of documents and generated answers.」とのこと

SimpleDeepSearcher: Deep Information Seeking via Web-Powered Reasoning Trajectory Synthesis 

  • SimpleDeepSearcher: Deep Information Seeking via Web-Powered Reasoning Trajectory Synthesis [90.0]
    Retrieval-augmented Generation (RAG) システムは複雑なディープ検索シナリオにおいて高度な大規模言語モデル(LLM)を持つ。 既存のアプローチでは、高品質なトレーニングトラジェクトリが欠如し、分散ミスマッチに苦しむ、重要な制限に直面しています。 本稿では,複雑なトレーニングパラダイムではなく,戦略的データエンジニアリングによるギャップを埋めるフレームワークであるSimpleDeepSearcherを紹介する。
    論文  参考訳(メタデータ)   (Thu, 22 May 2025 16:05:02 GMT)
  • 「Our approach synthesizes high-quality training data by simulating realistic user interactions in live web search environments, coupled with a multi-criteria curation strategy that optimizes the diversity and quality of input and output side.」、小規模なデータでも改善幅が大きいとのこと。
  • プロジェクトサイトはGitHub – RUCAIBox/SimpleDeepSearcher: SimpleDeepSearcher: Deep Information Seeking via Web-Powered Reasoning Trajectory Synthesis