SeqCo (Sequence Level Contrastive Learning): 対称学習を用いた要約の改善

  • Sequence Level Contrastive Learning for Text Summarization [49.0]
    教師付き抽象テキスト要約のためのContrastive学習モデルを提案する。 3つの異なる要約データセット上で、強いシーケンスからシーケンスへのテキスト生成モデル(すなわちBART)を改善する。 また, 人的評価は, 比較対象を含まないモデルに比べて, 忠実度評価が優れていることを示す。
    論文  参考訳(メタデータ)   (Wed, 8 Sep 2021 08:00:36 GMT)
    • 画像で流行したContrastive Learningをテキスト要約に適用、BARTの性能を改善したとのこと。CNN/DailyMail でSOTAを改善しているよう。人間の評価でもBARTを上回る性能。CNN/DailyMailのR-1で45台はすごい。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です