More Documents, Same Length: Isolating the Challenge of Multiple Documents in RAG

  • More Documents, Same Length: Isolating the Challenge of Multiple Documents in RAG [15.9]
    マルチホップQAタスクから派生したカスタムデータセットの様々な言語モデルを評価する。 我々は文書数を変えながら関連情報のコンテキスト長と位置を一定に保ち、RAG設定における文書数の増加がLCMにとって大きな課題となることを発見した。
    論文  参考訳(メタデータ)   (Thu, 06 Mar 2025 12:38:17 GMT)
  • ドキュメント数とRAG性能の関係の検証。「We keep the context length and position of relevant information constant while varying the number of documents, and find that increasing the document count in RAG settings poses significant challenges for LLMs.」と文書数の増加は悪影響を与えるとのこと。「The effects of adding non-related documents When adding irrelevant documents, LLMs’ performance improves.」はFugu-MT 論文翻訳(概要): The Power of Noise: Redefining Retrieval for RAG Systemsと同じような話なのだろうか。
  • リポジトリはGitHub – shaharl6000/MoreDocsSameLen

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です