FLAN(Finetuned LAnguage Net): 自然言語で命令可能なモデル

  • Finetuned Language Models Are Zero-Shot Learners [67.7]
    命令チューニングは、目に見えないタスクにおけるゼロショット性能を向上することを示す。 137Bパラメータを事前訓練した言語モデルと、自然言語の命令テンプレートを介して言語化された60以上のNLPタスクにチューニングする。 FLANと呼ばれるこの命令調整モデルについて、未知のタスクタイプで評価する。
    論文  参考訳(メタデータ)   (Fri, 3 Sep 2021 17:55:52 GMT)
    • 効率的に自然言語で命令を記載可能な事前学習モデルを構築、GPT-3のFew-shotを上回る性能を出したとの報告。62個のデータセットを12種類のタスククラスタに分類、自然言語で書かれた命令を使いタスクを記述するためのテンプレートを手動で作成して学習データを構築。137BパラメータのTransformer(2.81T BPE tokenのWebドキュメント、対話データ、Wikipediaで事前学習済み、10%が英語以外)でモデルを構築したとのこと。読解タスクではprompt engneering無しでfew-shotのGPT-3を上回る結果を出している。一方で翻訳タスクではfew-shotのGPT-3を下回っているようで事前学習モデルの言語の偏りに影響されているように見える。
      • 自然言語で指示可能とか未来を感じる結果、そして規模が非常に大きい。

MultiEURLEX : ゼロショットマルチリンガルTranferのためのデータセット

  • MultiEURLEX — A multi-lingual and multi-label legal document classification dataset for zero-shot cross-lingual transfer [13.2]
    法律文書のトピック分類のための多言語データセットであるMulti-EURLEXを紹介する。 データセットは、正式に23言語に翻訳された65kの欧州連合(EU)の法律で構成され、EUROVOC分類の複数のラベルが注釈付けされている。 そこで、ある言語(ソース)の注釈付きトレーニング文書を利用して、別の言語(ターゲット)のドキュメントを分類します。
    論文  参考訳(メタデータ)  参考訳(全文)  (Thu, 2 Sep 2021 12:52:55 GMT)
    • EUの法律とその翻訳文書を活用したデータセットを作成、マルチリンガルモデルを活用してゼロショットの対応が可能か検証するデータセットとしての活用を提案。いくつかの手法を試しておりfine-tuningの効率化を狙ったadaptation strategies(https://arxiv.org/abs/1902.00751など)が多言語をゼロショットで転送する場合にも有効としている。
    • リポジトリはhttps://github.com/nlpaueb/multi-eurlex
    • マルチリンガルなゼロショットは非常に面白く実社会に対する影響が大きい(達成されると言語の壁が無くなる)ので、このようなデータセットが整備されるのは重要だと思う。adapterが効果的に機能するという報告も興味深い。

CodeT5: コード理解と生成の両方をサポートする統一フレームワーク

  • CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for Code Understanding and Generation [36.5]
    我々は、開発者が指定した識別子から伝達されるコードセマンティクスをよりよく活用する、事前訓練されたエンコーダ-デコーダ変換モデルであるCodeT5を提案する。 我々のモデルは、コード理解と生成タスクの両方をシームレスにサポートし、マルチタスク学習を可能にする統一的なフレームワークを採用している。
    論文  参考訳(メタデータ)   (Thu, 2 Sep 2021 12:21:06 GMT)
    • T5のアーキテクチャをプログラムコード用に拡張(展開)したモデルを提案、PLBARTなど先端モデルと比べても優れた性能を出したとのこと。
    • リポジトリはhttps://github.com/salesforce/CodeT5

Survey of Low-Resource Machine Translation: データが少ない言語の機械翻訳

  • Survey of Low-Resource Machine Translation [65.5]
    現在、世界中で約7000の言語が話されており、ほとんど全ての言語ペアは機械翻訳モデルのトレーニングのための重要なリソースを欠いている。 翻訳データが少ない場合に有用な翻訳モデルを作成するという課題に対処する研究への関心が高まっている。
    論文  参考訳(メタデータ)   (Wed, 1 Sep 2021 16:57:58 GMT)
    • (特に)低リソースの言語に対して機械翻訳モデルの状況を調査したサーベイ。主にパラレルコーパスのデータソース(収集・作成)、モノリンガルデータの活用、マルチリンガルデータ・モデルの活用、タグ付けや構文解析など機械翻訳以外の言語リソース活用、モデル構築・推論の改善、高度化など幅広い内容が扱われている。日英翻訳はリソースが多い言語ペアであると思うが、参考になる情報は多い。