- SAMURAI: Adapting Segment Anything Model for Zero-Shot Visual Tracking with Motion-Aware Memory [23.5]
本稿では,視覚的物体追跡に特化して設計されたSAM 2を改良したSAmuraiを紹介する。 提案した動き認識メモリ選択機構に時間的動作手がかりを組み込むことで、物体の動きを効果的に予測し、マスク選択を洗練し、トレーニングや微調整を必要とせず、堅牢で正確なトラッキングを実現する。 評価では、既存のトラッカーよりも成功率と精度が大幅に向上し、LaSOT$_ext$で7.1%、GOT-10kで3.5%向上した。
論文 参考訳(メタデータ) (Mon, 18 Nov 2024 05:59:03 GMT) - オブジェクトトラッキングに特化しSAMを改良したSAM-based Unified and Robust zero-shot visual tracker with motionAware Instance-level memory、SAMURAI。
- リポジトリはGitHub – yangchris11/samurai: Official repository of “SAMURAI: Adapting Segment Anything Model for Zero-Shot Visual Tracking with Motion-Aware Memory”
タグ: tracking
Walker: Self-supervised Multiple Object Tracking by Walking on Temporal Appearance Graphs
- Walker: Self-supervised Multiple Object Tracking by Walking on Temporal Appearance Graphs [117.7]
これは、疎結合なボックスアノテーションとトラッキングラベルのないビデオから学習する、初めてのセルフ教師付きトラッカーである。 Walker氏はMOT17、DanceTrack、BDD100Kで競争力を発揮する最初のセルフトラッカーである。
論文 参考訳(メタデータ) (Wed, 25 Sep 2024 18:00:00 GMT) - 「Remarkably, our proposal outperforms the previous self-supervised trackers even when drastically reducing the annotation requirements by up to 400x.」を主張するトラッキング手法。
- リポジトリはGitHub – mattiasegu/walker: Walker: Self-supervised Multiple Object Tracking by Walking on Temporal Appearance Graphs (ECCV 2024)