コンテンツへスキップ
- A Practitioner’s Guide to Continual Multimodal Pretraining [83.6]
マルチモーダル・ファンデーション・モデルは視覚と言語を交わす多くのアプリケーションに役立っている。 モデルを更新し続けるために、継続事前トレーニングの研究は主に、大規模な新しいデータに対する頻度の低い、差別的な更新、あるいは頻繁に行われるサンプルレベルの更新のシナリオを探求する。 本稿では,FoMo-in-Flux(FoMo-in-Flux)について紹介する。
論文 参考訳(メタデータ) (Mon, 26 Aug 2024 17:59:01 GMT)
- 継続的な学習、特にマルチモーダルなモデルに対するものベンチマーク及びガイドラインの提案。ベンチマークはFoMo-in-Flux (Foundation-Models-in-Flux)と呼ばれるデータセットで広範。
- リポジトリはGitHub – ExplainableML/fomo_in_flux
- SelEx: Self-Expertise in Fine-Grained Generalized Category Discovery [55.7]
Generalized Category Discoveryは、新しいカテゴリーを同時に発見し、既知のカテゴリを正確に分類することを目的としている。 自己超越と対照的な学習に強く依存する伝統的な手法は、細かなカテゴリーを区別する場合にしばしば不足する。 モデルが微妙な違いを認識し、未知のカテゴリを明らかにする能力を高める。
論文 参考訳(メタデータ) (Mon, 26 Aug 2024 15:53:50 GMT)
- 新たなカテゴリを見つけるための手法として「self-expertise」を提案。Semi-Supervised Kmeansの後、疑似ラベル内でのunsupervised self-expertise、疑似ラベルを用いた supervised self-expertiseでクラスタを生成。
- リポジトリはGitHub – SarahRastegar/SelEx