WebFace260M: A Benchmark for Million-Scale Deep Face Recognition [89.4] 我々は、未修正4MのID/260Mの顔(WebFace260M)とクリーン2MのID/42Mの顔(WebFace42M)を含む新しい100万スケールの認識ベンチマークに貢献する。 分散フレームワークは、性能を損なうことなく、顔認識モデルを効率的に訓練するために開発された。 提案したベンチマークは、標準、マスク付き、偏見のない顔認識シナリオにおいて大きな可能性を示している。 論文参考訳(メタデータ)参考訳(全文) (Thu, 21 Apr 2022 14:56:53 GMT)
LayoutLMv3: Pre-training for Document AI with Unified Text and Image Masking [83.1] テキストと画像のマスキングを併用した文書AIのためのマルチモーダルトランスフォーマーを事前学習するためのLayoutLMv3を提案する。 単純な統一アーキテクチャとトレーニングの目的により、LayoutLMv3はテキスト中心および画像中心のDocument AIタスクの汎用的な事前トレーニングモデルになる。 論文参考訳(メタデータ) (Mon, 18 Apr 2022 16:19:52 GMT)
SimpleBERT: A Pre-trained Model That Learns to Generate Simple Words [59.1] 本研究では,テキストの簡易化を継続する事前学習手法を提案する。 我々は、継続事前学習に小規模な単純なテキストデータセットを使用し、簡単な単語を識別するために2つの方法を用いる。 語彙単純化タスクと文簡略化タスクの両方においてBERTを超えるSimpleBERTを得る。 論文参考訳(メタデータ)参考訳(全文) (Sat, 16 Apr 2022 11:28:01 GMT)
Re-Examining Human Annotations for Interpretable NLP [80.8] 我々は、Interpretable NLPで広く使われている2つのデータセット上で、クラウドソースのウェブサイトを用いて制御実験を行う。 我々は,異なる資格レベルを満たす人材の募集から得られた注釈結果を比較した。 以上の結果から,アノテーションの品質は労働者の資格に高い影響を受けており,労働者は指示によって特定のアノテーションを提供するように指導することができることがわかった。 論文参考訳(メタデータ)参考訳(全文) (Sun, 10 Apr 2022 02:27:30 GMT)
アノテータによってアノテーションの品質が大きく変わるなどアノテーションに関する包括的な報告。「Surprisingly, providing example annotations does not increase the agreement among annotators.」など非常に参考になる。