FusAD: Time-Frequency Fusion with Adaptive Denoising for General Time Series Analysis 

  • FusAD: Time-Frequency Fusion with Adaptive Denoising for General Time Series Analysis [92.2]
    時系列分析は、金融、医療、産業、気象学などの分野において重要な役割を果たす。 FusADは多様な時系列タスク用に設計された統合分析フレームワークである。
    論文  参考訳(メタデータ)   (Tue, 16 Dec 2025 04:34:27 GMT)
  • 「we propose FusAD, a unified analysis framework designed for diverse time series tasks. FusAD features an adaptive time-frequency fusion mechanism, integrating both Fourier and Wavelet transforms to efficiently capture global-local and multi-scale dynamic features. With an adaptive denoising mechanism, FusAD automatically senses and filters various types of noise, highlighting crucial sequence variations and enabling robust feature extraction in complex environments. In addition, the framework integrates a general in- formation fusion and decoding structure, combined with masked pre-training, to promote efficient learning and transfer of multi- granularity representations」とのこと。なかなか取り扱いの難しい問題だと思うのだが、実際の性能に興味津々。
  • プロジェクトサイトはGitHub – zhangda1018/FusAD: Code for “FusAD: Time-Frequency Fusion with Adaptive Denoising for General Time Series Analysis”.

Systematic Framework of Application Methods for Large Language Models in Language Sciences 

  • Systematic Framework of Application Methods for Large Language Models in Language Sciences [23.8]
    大規模言語モデル(LLM)は言語科学を変革している。 彼らの広範な展開は、現在、方法論的な断片化と体系的な健全性の欠如に悩まされている。 本研究では,言語科学におけるLLMの戦略的かつ責任ある適用を導くための2つの包括的方法論フレームワークを提案する。
    論文  参考訳(メタデータ)   (Wed, 10 Dec 2025 11:43:17 GMT)
  • 「LLMs offer powerful capabilities for language sciences by enabling the anal- ysis of large corpora, providing quantitative measurements, and supporting investigations that were previously impractical. This study proposed two methodological frameworks for applying LLMs in the language sciences, organizing three complementary approaches: prompt-based interaction with closed-source models, fine-tuning of open-source models, and embedding- based quantitative analysis.」と整理されたサーベイ。

Rethinking Expert Trajectory Utilization in LLM Post-training

  • Rethinking Expert Trajectory Utilization in LLM Post-training [35.0]
    我々は,この景観を基盤として,プラスチック・シーリング・フレームワークを提案する。 逐次SFT-then-RLパイプラインを優れた標準として確立する。 本研究は,専門家軌道から抽出した値の最大化のための実用的なガイドラインを提供する。
    論文  参考訳(メタデータ)   (Fri, 12 Dec 2025 11:13:00 GMT)
  • Post trainingで一般的に用いられるSupervised Fine-Tuning (SFT) とRe-inforcement Learning (RL)の組み合わせに関し「1) The sequential SFT-then-RL pipeline outperforms alternative paradigms in approaching the post-training perfor- mance ceiling. (2) Within this pipeline, RL should be initiated at SFT saturation, a point reliably predicted by validation loss minimization. (3) SFT data scale primarily determines the performance ceiling, and trajectory difficulty further optimizes the ceiling when data is limited.」と報告。
  • リポジトリはGitHub – LINs-lab/RETU: [Preprint] Rethinking Expert Trajectory Utilization in LLM Post-training