Fastformer: Additive Attention is All You Need [51.8] 本稿では,加法的注意に基づく効率的なトランスフォーマーモデルであるFastformerを提案する。 Fastformerでは、トークン間のペアワイズインタラクションをモデル化する代わりに、まずグローバルコンテキストをモデル化するために追加アテンションメカニズムを使用します。 このように、Fastformerは線形複雑性を伴う効果的なコンテキストモデリングを実現することができる。 論文参考訳(メタデータ)参考訳(全文) (Fri, 20 Aug 2021 09:44:44 GMT)