機械学習を使ったバグ検出

  • Self-Supervised Bug Detection and Repair [27.5]
    本稿では,バグ検出と修復の自己教師型学習手法であるBugLabを紹介する。 BugLabのPython実装では、2374の実際のバグのテストデータセットのベースラインメソッドで最大30%改善されている。
    論文  参考訳(メタデータ)   (Wed, 26 May 2021 18:41:05 GMT)
    • 機械学習(self-supervised learning)を使ったバグ検出。OSSのソフトウェアから新たに19個のバグを発見(偽陽性率は実用的ではないとの記載あり)したとのこと。

検知しにくい自然言語処理モデル(BERTなど)のバックドア

  • Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger [48.6]
    本稿では,テキストバックドア攻撃の引き金として構文構造を用いることを提案する。 我々は、トリガーベースアタック法が同等のアタック性能を達成できることを示すため、広範囲な実験を行った。 また,本研究の結果から,テキストバックドア攻撃の重篤さと有害性も明らかとなった。
    論文  参考訳(メタデータ)   (Wed, 26 May 2021 08:54:19 GMT)
    • 単純なテキストではなく構文構造をトリガーとするバックドアを作れることを示した論文。検知・防御は非常に困難であり攻撃手法としてとても有効。
    • https://github.com/thunlp/hiddenkiller ソースコード等も公開予定とのこと(現状ではまだ未公開)

知識ベースQA、テキスト生成のサーベイ

  • A Survey on Complex Knowledge Base Question Answering: Methods, Challenges and Solutions [41.7]
    知識ベース質問応答(KBQA)は、知識ベース(KB)に関する質問に答えることを目的としている。 複雑なKBQAの典型的な課題と解決策を精巧に要約する。
    論文  参考訳(メタデータ)   (Tue, 25 May 2021 03:45:30 GMT)
    • 知識ベースを用いたQuestion Answeringタスクのおける意味解析、情報検索などのアプローチを中心としたサーベイ。カテゴリ分けなど参考になる。
  • Pretrained Language Models for Text Generation: A Survey [46.0]
    本稿では、テキスト生成のための事前学習言語モデル(PLM)のトピックにおいて達成された大きな進歩について概説する。 我々は、既存のPLMを異なる入力データに適応させ、生成したテキストの特別な特性を満たす方法について論じる。
    論文  参考訳(メタデータ)   (Tue, 25 May 2021 01:19:47 GMT)
    • 事前学習モデルをテキスト生成に使うという研究のサーベイ。この分野を概観するのによい資料。実用にはControllable Generationは非常に重要だと思うのだが道半ばという印象。

要約モデルBASS

  • BASS: Boosting Abstractive Summarization with Unified Semantic Graph [49.5]
    BASSは、統合されたセマンティックグラフに基づく抽象的な要約を促進するためのフレームワークである。 文書表現と要約生成の両方を改善するために,グラフベースのエンコーダデコーダモデルを提案する。 実験結果から,提案アーキテクチャは長期文書および複数文書要約タスクに大幅な改善をもたらすことが示された。 
    論文  参考訳(メタデータ)  参考訳(全文) (Tue, 25 May 2021 16:20:48 GMT)
    • グラフを用いた要約モデル。BARTなどと比べても悪くない結果。

単言語の翻訳メモリ利用

  • Neural Machine Translation with Monolingual Translation Memory [59.0]
    本稿では,モノリンガルメモリを用いて学習可能なメモリ検索を行う新しいフレームワークを提案する。 実験の結果,提案手法は大幅な改善が得られた。 
    論文  参考訳(メタデータ)  参考訳(全文) (Mon, 24 May 2021 13:35:19 GMT)
    • それは翻訳メモリと呼ぶのかとは思いつつ、スコアリング、ランキングに単言語翻訳メモリを用いるのは効果的そうだなと思う。

画像で否定的表現ができるか?

  • Visual representation of negation: Real world data analysis on comic image design [9.8]
    視覚表現(写真やイラストなど)は否定を描写しないという見解が広く支持されており、例えば「列車は来ない」という文は表現できないとされてきた。一方で いくつかの漫画のイラストは背景の知識を喚起し、純粋に視覚的な要素を持つ否定を描くことができる。この画像分類は人間にとって容易であったが、すなわちディープラーニングモデル(CNN)では、同じ高い性能を達成することは困難であった。
    論文  参考訳(メタデータ)   (Fri, 21 May 2021 04:57:43 GMT)
    • 視覚表現に関する面白い結果。漫画をデータとしている点、CNNで人間の判断を再現困難だった点も面白い。自然言語処理における事前学習的な事(「常識」の推論性能強化を意図)をやれば精度は向上したりするのだろうか?

GLUEの韓国語版

  • KLUE: Korean Language Understanding Evaluation [43.9]
    韓国語理解評価(KLUE)ベンチマークを紹介する。 KLUEは、韓国の8つの自然言語理解(NLU)タスクのコレクションである。 著作権を尊重しながら、さまざまなソースコーパスから、すべてのタスクをゼロから構築します。
    論文  参考訳(メタデータ)   (Fri, 21 May 2021 05:54:22 GMT)
    • GLUEの韓国語版。XTREMEとか多言語ベンチマークで代替できる可能性はあるとはいえ、英語以外の各国語版ベンチマークの重要性は変わっていないと思う。
    • 日本語版も欲しい(作れという話もあるが)

GPTによるコードの生成

  • Measuring Coding Challenge Competence With APPS [54.2]
    コード生成のベンチマークであるAPPSを紹介する。 私たちのベンチマークには1万の問題が含まれています。 GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
    論文  参考訳(メタデータ)  参考訳(全文)  (Thu, 20 May 2021 17:58:42 GMT)
    • プログラミングの自動化(コード自動生成)を目指した論文、ベンチマークデータセット
    • GPT-NEOは一定数の問題を解いたようで今後の発展が期待される。

ユーモア認識モデル

  • Laughing Heads: Can Transformers Detect What Makes a Sentence Funny? [18.7]
    我々は、最小組の文からなるデータセット上で、トランスフォーマーに基づくユーモア認識モデルを訓練し、分析する。 一致したデータセットは以前のデータセットよりもはるかに難しいが、トランスフォーマーベースのモデルは、高精度(78%)の一致したペアでユーモラスな文を認識する。 最も顕著なことは、訓練時にこの情報にアクセスしなくても、一つの注意頭がテスト文をユーモラスにする単語を認識することを学ぶという明確な証拠を見つけることである。
    論文  参考訳(メタデータ)   (Wed, 19 May 2021 14:02:25 GMT)
    • Transformerを用いたユーモアの認識。fine tuning後のモデルにユーモアを認識するためのヘッドができたという点が興味深い。
    • 下ネタ認識(わいせつ/非わいせつ)は得意だが、善悪・暴力/非暴力なユーモアの認識に苦労するのも小学生のようで面白い。

要約用(小説、戯曲、物語)のデータセット

  • BookSum: A Collection of Datasets for Long-form Narrative Summarization [42.3]
    booksumは長文要約のためのデータセットのコレクションである。 我々のデータセットは、小説、戯曲、物語などの文学分野の資料をカバーしています。
    論文  参考訳(メタデータ)   (Tue, 18 May 2021 00:22:46 GMT)
    • 既存の要約データセットにはスタイルやレイアウトなど強力なバイアス(ヒント?)が含まれていることが多い。この問題を解決するデータセットになっているとのこと。
    • https://github.com/salesforce/booksum にデータ等が公開されている。