DeepNet: 1000層のTransformer

  • DeepNet: Scaling Transformers to 1,000 Layers [106.3]
    トランスフォーマーの残差接続を修正するための新しい正規化関数(DeepNorm)を導入する。 詳細な理論解析により、モデル更新は安定な方法でバウンドできることが示されている。 トランスフォーマーを1,000層まで拡張することに成功したが、これは従来のディープトランスフォーマーよりも1桁も深い。
    論文  参考訳(メタデータ)   (Tue, 1 Mar 2022 15:36:38 GMT)

医療画像におけるTransformerのサーベイ

  • Transformers in Medical Image Analysis: A Review [46.7]
    本稿では,医療画像解析分野におけるトランスフォーマーの意識と応用を促進するために,位置紙とプライマーの両方を提示する。 具体的には、まず、Transformerや他の基本的なコンポーネントに組み込まれたアテンションメカニズムのコア概念について概説する。 第2に,医療画像の応用に適したトランスフォーマーアーキテクチャの新しい分類法を提案し,その限界について議論する。
    論文  参考訳(メタデータ)  参考訳(全文)  (Thu, 24 Feb 2022 16:04:03 GMT)
    • 医療画像解析を対象にしたTransformerベースのモデルのサーベイ。すでに多くの事例があるが、多くの場合他分野のアーキテクチャを医療用に直接応用しており、高度な解析やモデルの問題(parallelization, interpretability, quantification and safetyが挙げられている)に焦点を当てたものは少ないとのこと。
      • ドメイン特化型のアーキテクチャは少ない?