会議要約のサーベイ

  • Abstractive Meeting Summarization: A Survey [15.5]
    本稿では,多人数会議における抽象的な要約に焦点を当てた。 このタスクに関連する課題、データセット、システムに関する調査と、今後の研究に向けた有望な方向性に関する議論を提供する。
    論文  参考訳(メタデータ)   (Mon, 8 Aug 2022 14:04:38 GMT)

AlexaTM 20B

  • AlexaTM 20B: Few-Shot Learning Using a Large-Scale Multilingual Seq2Seq Model [25.9]
    マルチリンガルな大規模シーケンス・ツー・シーケンス(seq2seq)モデルは、様々なタスクにおけるデコーダのみのモデルよりも、より効率的であることを示す。 我々は、Alexa Teacher Model (AlexaTM 20B)と呼ばれる200億のパラメータのSeq2seqモデルをトレーニングし、1ショットの要約タスクで最先端(SOTA)のパフォーマンスを達成することを示す。
    論文  参考訳(メタデータ)   (Tue, 2 Aug 2022 13:30:07 GMT)

長文要約のサーベイ

  • An Empirical Survey on Long Document Summarization: Datasets, Models and Metrics [33.7]
    本稿では,長い文書要約研究の概要について概説する。 我々は、現在の研究の進展に対する視点を広げるために、実証分析を行う。
    論文  参考訳(メタデータ)   (Sun, 3 Jul 2022 02:57:22 GMT)

NLSSum (Neural Label Search for Summarization): 多言語抽出型要約

  • Neural Label Search for Zero-Shot Multi-Lingual Extractive Summarization [80.9]
    ゼロショット多言語抽出テキスト要約では、通常、モデルは英語のデータセットに基づいて訓練され、他の言語の要約データセットに適用される。 本研究では,NLS(Neural Label Search for Summarization)を提案する。 我々はMLSUMとWikiLinguaのデータセット上で多言語ゼロショット要約実験を行い、人間と自動両方の評価を用いて最先端の結果を得る。
    論文  参考訳(メタデータ)  参考訳(全文)  (Thu, 28 Apr 2022 14:02:16 GMT)
    • MUSEを使用した単語置き換え、機械翻訳などにより英語以外の言語用にデータを拡張、抽出型要約に使うラベルを作りモデル構築を行い、Zero-shotの要約で優れた性能を達成。XLMRSumに比べてMLSUMのROUGE-Lを2pt改善している。

文書要約における知識埋め込みのサーベイ

  • Embedding Knowledge for Document Summarization: A Survey [66.8]
    従来の研究は、知識を組み込んだ文書要約器が優れた消化力、特に情報性、一貫性、事実整合性を生み出すのに優れていたことを証明した。 本稿では,知識を文書要約に組み込む最先端方法論について,初めて体系的な調査を行う。 特に,文書要約の視点で知識と知識の埋め込みを再結合する新しい分類法を提案する。 さらに、文書要約モデルの学習アーキテクチャ、特にディープラーニングモデルにおいて、埋め込みがどのように生成されるかを考察する
    論文  参考訳(メタデータ)  参考訳(全文)  (Sun, 24 Apr 2022 04:36:07 GMT)
    • 要約文中の事実を正しく扱うために用いる知識埋め込みに関するサーベイ。実質6ぺージと短いがどのようなアプローチがあるか知る上ではとても有用。

OTExtSum(Optimal Transport Extractive Summariser): 最適輸送を利用した文書要約

「Related Work」の自動生成に関するサーベイ

  • Automatic Related Work Generation: A Meta Study [5.0]
    自然言語処理では、通常「関連作業」という節で文献レビューが行われる。 自動作業生成の課題は, 「関連作業」 セクションを自動生成することである。 本稿では,問題定式化,データセット収集,方法論的アプローチ,性能評価,今後の展望の観点から,関連作業生成に関する既存の文献をメタスタディで比較する。
    論文  参考訳(メタデータ)   (Thu, 6 Jan 2022 01:16:38 GMT)
    • 論文にだいたいある「Related works」を自動生成することを目的とした研究のサーベイ。有用そう&今であれば出来そうな気もしつつ難しそうな気もするタスクであるが、サーベイからは発展途上との印象をうける。

Multi-document Summarization: サブグラフ選択として解くSgSum、Longformerを用いるPRIMER

  • SgSum: Transforming Multi-document Summarization into Sub-graph Selection [27.4]
    既存の抽出多文書要約(MDS)手法は、各文を個別にスコアし、一つずつ有能な文を抽出して要約を構成する。 サブグラフ選択問題としてMDSタスクを定式化する新しいMDSフレームワーク(SgSum)を提案する。 我々のモデルは従来のMDS法と比較して、より一貫性があり、情報的な要約を生成できる。
    論文  参考訳(メタデータ)  参考訳(全文)  (Mon, 25 Oct 2021 05:12:10 GMT)
    • グラフ構造を通してMulti-documentな要約を行う手法の提案。MultiNewsやDUC2004で優れた結果。
  • PRIMER: Pyramid-based Masked Sentence Pre-training for Multi-document Summarization [16.8]
    要約に着目した多文書表現のための事前学習モデルであるPRIMERを提案する。 具体的には,マルチドキュメント入力に適した適切な入力変換とグローバルアテンションを備えたLongformerアーキテクチャを採用する。 私たちのモデルであるPRIMERは、これらのほとんどの設定において、現在の最先端モデルを大きなマージンで上回る。
    論文  参考訳(メタデータ)  参考訳(全文)  (Sat, 16 Oct 2021 07:22:24 GMT)
    • こちらはグラフ構造ではなくLongformerを用いてマルチドキュメントに対処するアプローチ、MultiNewsなどでSoTA。
    • リポジトリはhttps://github.com/allenai/PRIMER