- Divide-or-Conquer? Which Part Should You Distill Your LLM? [40.6]
我々は、推論タスクを問題分解フェーズと問題解決フェーズに分割する同様の戦略を考案し,この戦略が単一段階のソリューションよりも優れていることを示す。
論文 参考訳(メタデータ) (Thu, 22 Feb 2024 22:28:46 GMT) - 一回で答えを導くのではなく、問題を分解したうえでLLMに答えさせる戦略のほうが良い結果になるという報告。CoTなりToTなりSelf verificationなり、自律エージェント的動作の効果を見るとそうなんだろうと納得感がある。
- Are More LLM Calls All You Need? Towards Scaling Laws of Compound Inference Systems [80.5]
本研究では,Large Language Model (LLM) の呼び出し回数が1層投票システムの性能に与える影響について検討する。 この非単調性は,タスク内の問合せの難しさの多様性に起因すると考えられる。
論文 参考訳(メタデータ) (Mon, 4 Mar 2024 19:12:48 GMT) - この論文も面白かった。複数のAPI call(LLM利用)によって性能が上がるかはタスクに依存するという内容。ただし、並列に動作する環境を想定しているようなので上記とは使い方がかなり異なる。