Multiagent Finetuning: Self Improvement with Diverse Reasoning Chains
Multiagent Finetuning: Self Improvement with Diverse Reasoning Chains [114.8] 大規模言語モデル(LLM)は近年顕著なパフォーマンスを達成しているが、基礎となるトレーニングデータによって根本的に制限されている。 本稿では,言語モデルのマルチエージェント社会にファインタニングを適用した自己改善への補完的アプローチを提案する。 論文参考訳(メタデータ) (Fri, 10 Jan 2025 04:35:46 GMT)
「Instead of fine-tuning a single model, our method finetunes a multiagent set of language models from the same base model and then independently specializes each model to capture parts of a task of interest.」という自己改善アプローチの提案。Generation ModelとCritic Modelを同時にチューニングしていき、マルチエージェントなディベートを通して統合という動き。Critic modelの重要性も高そう。