Deep Think with Confidence

  • Deep Think with Confidence [33.2]
    私たちはDeep Think with Conf(DeepConf)という,テスト時の推論効率とパフォーマンスを両立させる,シンプルかつ強力な手法を紹介します。 DeepConfは、生成時に低品質な推論トレースを動的にフィルタリングし、トークン生成を削減しながら精度を維持または向上させます。評価の結果、DeepConfはAIME 2025などの課題で99.9%の精度を達成し、従来の方法に比べて84.7%のトークン削減を実現しました。
    論文  参考訳(メタデータ)   (Thu, 21 Aug 2025 05:48:38 GMT)
  • モデル内の確信度を活用して推論を制御する手法の提案。シンプルだが強力とのこと。
  • リポジトリはDeep Think with Confidence

A Survey on Parallel Text Generation: From Parallel Decoding to Diffusion Language Models 

  • A Survey on Parallel Text Generation: From Parallel Decoding to Diffusion Language Models [50.0]
    トークン・バイ・トークン生成のボトルネックを突破することを目的とした並列テキスト生成技術。 既存のアプローチをARベースのパラダイムと非ARベースのパラダイムに分類する。 速度、品質、効率の観点から理論上のトレードオフを評価します。
    論文  参考訳(メタデータ)   (Tue, 12 Aug 2025 07:56:04 GMT)
  • 主として高速化を目的としたParallel Text Generationのサーベイ。
  • AR-based、Non-AR-basedの両面での調査となっている。