Outcome Accuracy is Not Enough: Aligning the Reasoning Process of Reward Models 

  • Outcome Accuracy is Not Enough: Aligning the Reasoning Process of Reward Models [108.3]
    Rationale Consistencyは、モデルの推論プロセスと人間の判断のアライメントを定量化する、きめ細かい計量である。 我々のフロンティアモデルの評価では,最先端モデル間で合理的な一貫性が効果的に識別できることが示されている。 我々は、GenRMトレーニングの合理性一貫性と結果精度を組み合わせたハイブリッド信号を導入する。
    論文  参考訳(メタデータ)   (Wed, 04 Feb 2026 15:24:52 GMT)
  • 「Our evaluation of frontier models reveals that rationale consistency effectively discriminates among state-of-the-art models and detects deceptive alignment, while outcome accuracy falls short in both respects. To mitigate this gap, we introduce a hybrid signal that combines rationale consistency with outcome accuracy for GenRM training.」とのこと。前半の指摘について直観的にはそうだと思うものの興味深い。
  • リポジトリはGitHub – QwenLM/RationaleRM

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です