強化学習を系列データに対するモデリングとして扱う

  • Reinforcement Learning as One Big Sequence Modeling Problem [84.8]
    強化学習(Reinforcement Learning, RL)は、通常、単一ステップポリシーや単一ステップモデルの推定に関係している。 我々は、RLをシーケンスモデリング問題とみなし、高い報酬のシーケンスにつながる一連のアクションを予測することを目標としている。
    論文  参考訳(メタデータ)   (Thu, 3 Jun 2021 17:58:51 GMT)
    • 強化学習を系列データのモデリング問題として扱うという論文。前回のものと同じ発想。前とは別グループっぽいので有用なアプローチなのかもしれない。

強化学習のタスクをTransformerで

  • Decision Transformer: Reinforcement Learning via Sequence Modeling [102.9]
    本稿では,シーケンスモデリング問題として強化学習(RL)を抽象化するフレームワークを提案する。RLを条件付きシーケンスモデルとして扱うアーキテクチャであるDecision Transformerを提案する。 その単純さにもかかわらず、Decision Transformerは、Atari、OpenAI Gym、Key-to-Doorタスク上での最先端のオフラインRLベースラインのパフォーマンスと一致または超過する。
    論文  参考訳(メタデータ)   (Wed, 2 Jun 2021 17:53:39 GMT)
    • 強化学習のタスクを言語モデル風に解くという論文。性能が良く、強化学習の一部にTransformerを使うというアーキテクチャでもないのが驚き。MLPで良いのでは?という論文も出ているが、やはりTransformerは優れた構造なのかなと思う。

レイアウト構造を利用した自然言語処理

  • Incorporating Visual Layout Structures for Scientific Text Classification [31.2]
    本研究では,VILA(Visual LAyout Structure)の新たな手法として,ページテキストをテキスト行やテキストブロックにグループ化する手法を言語モデルに導入する。 モデル入力にレイアウト構造の境界を示す特別なトークンを追加するI-VILAアプローチは、トークン分類タスクにおいて+14.5 F1のスコア改善をもたらす可能性があることを示す。
    論文  参考訳(メタデータ)  参考訳(全文)  (Tue, 1 Jun 2021 17:59:00 GMT)
    • レイアウト情報は重要な情報源であり、うまく活用できた時の効果は大きいと思う。
    • データセットとコードはhttps://github.com/allenai/VILAで公開予定とのこと。

MLP? CNN? Transformer?

  • Can Attention Enable MLPs To Catch Up With CNNs? [33.7]
    多層パーセプトロン(MLP)、畳み込みニューラルネットワーク(CNN)、トランスフォーマーなど、学習アーキテクチャの簡単な歴史を提供する。 新たに提案された4つのアーキテクチャの共通点について検討し、今後の研究への刺激を期待する。
    論文  参考訳(メタデータ)   (Mon, 31 May 2021 16:08:46 GMT)
    • 最近のアーキテクチャを概説する論文。Long distance interactions, Local semantic information, Residual connections, Reduced inductive biasなど重要要素の取り扱いが記載されており、新しいアーキテクチャは従来のMLPではなく大きな進歩があると結論している。

バイト列(トークン化なし)でのT5

  • ByT5: Towards a token-free future with pre-trained byte-to-byte models [23.5]
    最も広く使われている事前訓練言語モデルは、単語またはサブワード単位に対応するトークンのシーケンスで動作する。 標準的な Transformer アーキテクチャは,バイト列の処理に最小限の修正を加えて使用できることを示す。 また、バイトレベルのモデルはノイズに対して著しく堅牢であり、スペルや発音に敏感なタスクでも性能が向上することを示した。
    論文  参考訳(メタデータ)   (Fri, 28 May 2021 07:03:22 GMT)

機械学習を使ったバグ検出

  • Self-Supervised Bug Detection and Repair [27.5]
    本稿では,バグ検出と修復の自己教師型学習手法であるBugLabを紹介する。 BugLabのPython実装では、2374の実際のバグのテストデータセットのベースラインメソッドで最大30%改善されている。
    論文  参考訳(メタデータ)   (Wed, 26 May 2021 18:41:05 GMT)
    • 機械学習(self-supervised learning)を使ったバグ検出。OSSのソフトウェアから新たに19個のバグを発見(偽陽性率は実用的ではないとの記載あり)したとのこと。

検知しにくい自然言語処理モデル(BERTなど)のバックドア

  • Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger [48.6]
    本稿では,テキストバックドア攻撃の引き金として構文構造を用いることを提案する。 我々は、トリガーベースアタック法が同等のアタック性能を達成できることを示すため、広範囲な実験を行った。 また,本研究の結果から,テキストバックドア攻撃の重篤さと有害性も明らかとなった。
    論文  参考訳(メタデータ)   (Wed, 26 May 2021 08:54:19 GMT)
    • 単純なテキストではなく構文構造をトリガーとするバックドアを作れることを示した論文。検知・防御は非常に困難であり攻撃手法としてとても有効。
    • https://github.com/thunlp/hiddenkiller ソースコード等も公開予定とのこと(現状ではまだ未公開)

知識ベースQA、テキスト生成のサーベイ

  • A Survey on Complex Knowledge Base Question Answering: Methods, Challenges and Solutions [41.7]
    知識ベース質問応答(KBQA)は、知識ベース(KB)に関する質問に答えることを目的としている。 複雑なKBQAの典型的な課題と解決策を精巧に要約する。
    論文  参考訳(メタデータ)   (Tue, 25 May 2021 03:45:30 GMT)
    • 知識ベースを用いたQuestion Answeringタスクのおける意味解析、情報検索などのアプローチを中心としたサーベイ。カテゴリ分けなど参考になる。
  • Pretrained Language Models for Text Generation: A Survey [46.0]
    本稿では、テキスト生成のための事前学習言語モデル(PLM)のトピックにおいて達成された大きな進歩について概説する。 我々は、既存のPLMを異なる入力データに適応させ、生成したテキストの特別な特性を満たす方法について論じる。
    論文  参考訳(メタデータ)   (Tue, 25 May 2021 01:19:47 GMT)
    • 事前学習モデルをテキスト生成に使うという研究のサーベイ。この分野を概観するのによい資料。実用にはControllable Generationは非常に重要だと思うのだが道半ばという印象。

要約モデルBASS

  • BASS: Boosting Abstractive Summarization with Unified Semantic Graph [49.5]
    BASSは、統合されたセマンティックグラフに基づく抽象的な要約を促進するためのフレームワークである。 文書表現と要約生成の両方を改善するために,グラフベースのエンコーダデコーダモデルを提案する。 実験結果から,提案アーキテクチャは長期文書および複数文書要約タスクに大幅な改善をもたらすことが示された。 
    論文  参考訳(メタデータ)  参考訳(全文) (Tue, 25 May 2021 16:20:48 GMT)
    • グラフを用いた要約モデル。BARTなどと比べても悪くない結果。

単言語の翻訳メモリ利用

  • Neural Machine Translation with Monolingual Translation Memory [59.0]
    本稿では,モノリンガルメモリを用いて学習可能なメモリ検索を行う新しいフレームワークを提案する。 実験の結果,提案手法は大幅な改善が得られた。 
    論文  参考訳(メタデータ)  参考訳(全文) (Mon, 24 May 2021 13:35:19 GMT)
    • それは翻訳メモリと呼ぶのかとは思いつつ、スコアリング、ランキングに単言語翻訳メモリを用いるのは効果的そうだなと思う。