コンテンツへスキップ
- The Tabular Foundation Model TabPFN Outperforms Specialized Time Series Forecasting Models Based on Simple Features [40.2]
本稿では,TabPFNと単純な特徴工学を組み合わせ,予測性能を高めるための簡単なアプローチであるTabPFN-TSを提案する。 その単純さとわずか1100万のパラメータにもかかわらず、TabPFN-TSは類似サイズのモデルであるChronos-Miniよりも優れており、65倍のパラメータを持つChronos-Largeよりもわずかに優れている。
論文 参考訳(メタデータ) (Mon, 06 Jan 2025 11:38:19 GMT)
- なかなか難しい感のあるTabular Foundation Modelの提案。「By using a simple set of timestampderived features, our approach matches or slightly outperforms Chronos-T5 (Large), which, to our knowledge, is one of the strongest time series foundation models.」とのこと。時系列データの基礎的な動きを捉えられているのかもしれないが、使う場合はそのドメインでの検証はした方が良いのだろうなと思う。
- リポジトリはGitHub – PriorLabs/tabpfn-client: ⚡ Easy API access to the tabular foundation model TabPFN ⚡
- A Survey of Transformer Enabled Time Series Synthesis [38.9]
生成AIは画像と言語領域で多くの注目を集めている。 本稿では,変換器,生成AI,時系列データの交点におけるこのギャップを明らかにする。 レビューされた研究はアプローチの多様さを示しており、ドメインがもたらす問題に対する決定的な回答にはまだ収束していない。
論文 参考訳(メタデータ) (Tue, 04 Jun 2024 13:52:42 GMT)
- Transformerと時系列データに関するサーベイ
- TNNでtransformer neural network はあまり見ない略し方
- A Survey on Diffusion Models for Time Series and Spatio-Temporal Data [92.1]
時系列データの研究は、時間とともにトレンドや異常を理解するために不可欠であり、様々な分野にわたる予測的な洞察を可能にする。 近年,拡散モデルが時系列やS時間データマイニングに広く応用されている。 時系列およびS時間データにおける拡散モデルの利用について概説し、それらをモデルカテゴリ、タスクタイプ、データモダリティ、実用的なアプリケーションドメインで分類する。 本調査は,医療,レコメンデーション,気候,エネルギー,オーディオ,交通など,さまざまな分野の応用を幅広くカバーしている。
論文 参考訳(メタデータ) (Mon, 29 Apr 2024 17:19:40 GMT)
- Diffusionモデルの時系列データへの応用に関するサーベイ。「They are called after the mathematical process of diffusion, which is commonly used to describe phenomena such as particle movement in a gas or liquid.」との記載を見ると確かに歴史的にはこの応用の方がしっくりくるのか。。
- リポジトリ GitHub – yyysjz1997/Awesome-TimeSeries-SpatioTemporal-Diffusion-Model: A list of current Diffusion Model for Time Series and SpatioTemporal Data with awesome resources (paper, application, review, survey, etc.).、も参考になる。
- Is Mamba Effective for Time Series Forecasting? [30.2]
状態空間モデル(SSM)は、シーケンス内の複雑な依存関係をキャプチャする能力によって、注目を集めている。 本稿では,時系列予測(TSF)のための2つの簡単なSSMモデルを紹介する。 S-MambaとD-MambaはGPUメモリとトレーニング時間を節約しながら優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (Sun, 17 Mar 2024 08:50:44 GMT)
- 時系列予測へのMambaの応用、「S-Mamba employs one Mamba block to process VC, while D-Mamba incorporates an additional mamba block compared to S-Mamba for VC.」(VC = variates correlations )という違いを持つ2つの構成で実験、効果を確認とのこと。
- 「The results prove Mamba possesses robust capabilities and exhibits remarkable potential to replace Transformer in the TSF tasks.」とのことだが、ほんまかいなと思わなくもなく、解釈が気になるところ。。。
- ELECRec: Training Sequential Recommenders as Discriminators [94.9]
シーケンシャルレコメンデーションは、しばしば生成タスク、すなわち、ユーザの関心事の次の項目を生成するためにシーケンシャルエンコーダを訓練すると考えられる。 我々は、ジェネレータではなく、識別器としてシーケンシャルレコメンデータを訓練することを提案する。 本手法は,サンプル項目が「現実の」対象項目であるか否かを識別するために識別器を訓練する。
論文 参考訳(メタデータ) (Tue, 5 Apr 2022 06:19:45 GMT)
- Detecting Anomalies within Time Series using Local Neural Transformations [30.7]
局所ニューラルトランスフォーメーション(Local Neural Transformations, LNT)は、データから時系列の局所変換を学ぶ方法である。 LNTは各タイムステップ毎に異常スコアを生成し、したがって時系列内の異常を検出するために使用できる。 我々の実験は,LNTがLibriSpeechデータセットから音声セグメントの異常を見つけ,サイバー物理システムへの割り込みを従来よりもより正確に検出できることを実証した。
論文 参考訳(メタデータ) (Tue, 8 Feb 2022 15:51:31 GMT)