MemoryLLM: Plug-n-Play Interpretable Feed-Forward Memory for Transformers 

  • MemoryLLM: Plug-n-Play Interpretable Feed-Forward Memory for Transformers [22.5]
    MemoryLLMは、フィードフォワードモジュールを自己アテンションから切り離すことを目的としている。 トークンの埋め込みを使って、自己注意から独立してトレーニングする。 システムは、文脈のないトークン単位の埋め込みでFFNをトレーニングすることによるパフォーマンスギャップを橋渡しする。
    論文  参考訳(メタデータ)   (Fri, 30 Jan 2026 23:25:20 GMT)
  • 新たな構造によるメモリ機構の分析、「We found that knowledge associated with lexically and semantically similar tokens are indexed across similar memory locations within FFNs. This knowledge is crucial for the performance of retrieval-based tasks.」とのこと。
  • 一般的に用いられる構造になるかは不明としてこの手の研究は面白い。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です