HighMMT(High-Modality Multimodal Transformer): 多様なモダリティに対する一般化

  • HighMMT: Towards Modality and Task Generalization for High-Modality Representation Learning [114.2]
    マルチタスクと移動学習が可能な汎用マルチモーダルモデルを設計する。 得られたモデルは、テキスト、画像、ビデオ、オーディオ、時系列、センサー、テーブルにまたがって一般化され、異なる研究領域から設定される。 コードとベンチマークを公開し、その後の理論的および経験的分析のための統一されたプラットフォームを提供したいと思っています。
    論文  参考訳(メタデータ)   (Wed, 2 Mar 2022 18:56:20 GMT)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です