Performance Law of Large Language Models

  • Performance Law of Large Language Models [58.3]
    性能法則は、LLMアーキテクチャの選択と計算資源の効率的な割り当てを導くために用いられる。 性能法則は、LLMアーキテクチャの選択と計算資源の効率的な割り当てを広範な実験なしで導くのに利用できる。
    論文  参考訳(メタデータ)   (Mon, 19 Aug 2024 11:09:12 GMT)
  • 計算式でMMLUスコアを直接予測、キーとなるのは「• The number of layers N • The hidden size h • The intermediate size d of FFN • The size of training data T (trillion tokens) • The model size S (billion parameters)」とのこと
  • 面白いけどほんまかいな
  • Large Language Monkeys: Scaling Inference Compute with Repeated Sampling [81.3]
    生成したサンプルの数を増やすことで、別の軸として推論計算を探索する。 すべての回答を自動的に検証できるコーディングや形式証明のようなドメインでは、カバレッジの増加は直接的にパフォーマンスの向上に変換される。 多くの世代から正しいサンプルを同定することは、自動検証のない領域における将来の研究にとって重要な方向である。
    論文  参考訳(メタデータ)   (Wed, 31 Jul 2024 17:57:25 GMT)
  • 計算能力という面では、推論側でのScalingという話も
  • (この辺は良質な合成データとの関係性も気になる)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です