- Point-BERT: Pre-training 3D Point Cloud Transformers with Masked Point Modeling [104.8]
BERTの概念を3Dポイントクラウドに一般化するための新しいパラダイムであるPoint-BERTを提案する。 提案したBERTスタイルの事前学習戦略は,標準点クラウドトランスフォーマーの性能を著しく向上することを示す実験である。
論文 参考訳(メタデータ) (Mon, 29 Nov 2021 18:59:03 GMT)- MPM(Masked Point Modeling)というBERTにインスパイアされたタスクで事前学習、ModelNet40で優れた性能を発揮とのこと。
- 点群にも進出と、BERTスタイルの処理は汎用性があるのだろうか。。
- リポジトリはGitHub – lulutang0608/Point-BERT: Pre-Training 3D Point Cloud Transformers with Masked Point Modeling
- MPM(Masked Point Modeling)というBERTにインスパイアされたタスクで事前学習、ModelNet40で優れた性能を発揮とのこと。