Refine-n-Judge: Curating High-Quality Preference Chains for LLM-Fine-Tuning

  • Refine-n-Judge: Curating High-Quality Preference Chains for LLM-Fine-Tuning [14.3]
    大規模言語モデル(LLM)は、好みに基づく微調整を通じて顕著な進歩を見せている。 本稿では、1つのLCMを精細化と判定の両方に活用し、データセットの品質を向上させる自動反復手法であるRefine-n-Judgeを紹介する。 本研究では,5つのコーパスにまたがる公開データセットにまたがるRefine-n-Judgeの有効性を示す。
    論文  参考訳(メタデータ)   (Sun, 03 Aug 2025 01:56:03 GMT)
  • 「Bringing these capabilities together, we propose Refine-n-Judge, a fully automated dataset curation pipeline, summarized in Figure 2. In this framework, an LLM model serves as both the refiner- generating improved outputs- and the judge-comparing the refined output against the original and selecting the preferred version.」という高品質化フレームワークの提案。
  • judge 部分なしでは十分な効果がなかったという結果が興味深い。改善とは異なるタスクとしてjudge をLLMに解かせるというのが重要なんだろうか。

Beyond Chunks and Graphs: Retrieval-Augmented Generation through Triplet-Driven Thinking 

  • Beyond Chunks and Graphs: Retrieval-Augmented Generation through Triplet-Driven Thinking [31.7]
    Retrieval-augmented Generation(RAG)は、幻覚を減らし、外部知識をLarge Language Models(LLM)に組み込むために重要である。 T$2$RAGは、原子三重項の単純でグラフのない知識ベースで動作する新しいフレームワークである。 実験結果から,T$2$RAGは最先端のマルチラウンド法とグラフRAG法を著しく上回ることがわかった。
    論文  参考訳(メタデータ)   (Mon, 04 Aug 2025 13:50:44 GMT)
  • 「We introduce a novel RAG framework that leverages triplets as the fundamental unit for indexing, retrieval, and reasoning, moving beyond the limitations of chunk-based and explicit graph-based approaches」とトリプレットベースのRAGアプローチの提案。グラフ構造を上回るのはやや意外だが、コンポーネントとしては「both the iterative process and the use of chunks are important. The iterative reasoning module proves to be a critical component.」ということでシンプルな構成であることも有利だったりするのだろうか。
  • リポジトリはrockcor/T2RAG: Official code of paper “Beyond Chunks and Graphs: Retrieval-Augmented Generation through Triplet-Driven Thinking”