When Thoughts Meet Facts: Reusable Reasoning for Long-Context LMs

  • When Thoughts Meet Facts: Reusable Reasoning for Long-Context LMs [64.3]
    最近のLong-Context Language Modelsは、1つのプロンプトで数十万のトークンを処理することができる。 我々は、従来の問題解決トレースから導かれた再利用可能な思考キャッシュとして、推論をリキャストする。 本稿では,自然言語フィードバックによって学習データから得られるテンプレートを反復的に洗練する更新戦略を提案する。
    論文  参考訳(メタデータ)   (Wed, 08 Oct 2025 19:52:35 GMT)
  • 「Thought Template Augmented LCLMs (TOTAL), that equips long- context models with reusable reasoning patterns and iteratively refines them through natural language feedback.」というアプローチの提案。ロングコンテキストをうまく使う記憶というイメージだろうか。
  • リポジトリはhttps://github.com/starsuzi/ToTALとのことだが現時点では404

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です