ViT-BERT: 言語と画像の統一的基礎モデル

  • Towards a Unified Foundation Model: Jointly Pre-Training Transformers on Unpaired Images and Text [93.1]
    我々は、モダリティ固有のトークン化器、共有トランスフォーマーエンコーダ、タスク固有の出力ヘッドからなる統一型トランスフォーマーを設計する。 我々は、個別に訓練されたBERTモデルとViTモデルを教師として採用し、知識蒸留を適用して、より正確な監視信号を提供する。 実験の結果、統合基盤変換器は視覚のみのタスクとテキストのみのタスクの両方で驚くほどうまく機能することがわかった。
    論文  参考訳(メタデータ)   (Tue, 14 Dec 2021 00:20:55 GMT)
    • 画像・言語の両方を取り扱える事前学習モデル構築手法の提案。トークン化と出力部分は個別だが主要な部分は共通という構造。学習に用いる画像とテキストは対となるデータではない。画像のみのタスクCIFAR-10/100・ImageNet、自然言語のみのタスクGLUE双方で優れた結果。

A Framework for Fairness: Fair AIを実現するためのサーベイ

  • A Framework for Fairness: A Systematic Review of Existing Fair AI Solutions [4.6]
    公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。 実際には、これらの公平性ソリューションの応用例が欠如している。 このレビューでは、定義されたアルゴリズムバイアス問題と提案された公平問題解決方法の詳細な概要について述べる。
    論文  参考訳(メタデータ)   (Fri, 10 Dec 2021 17:51:20 GMT)
    • アルゴリズムバイアスとFairness awareなAIを構築するためのソリューションのサーベイ。

人間が学ぶためのAI