MLP Memory: Language Modeling with Retriever-pretrained External Memory 

  • MLP Memory: Language Modeling with Retriever-pretrained External Memory [26.0]
    そこで本研究では,事前学習可能な外部メモリを用いてデコーダから切り離すことを提案する。 私たちのアーキテクチャは、下流のタスクに強い難易度とパフォーマンスを示します。 3つの幻覚ベンチマークと9つのメモリ集約タスクにおいて優れた性能を示す。
    論文  参考訳(メタデータ)   (Sun, 03 Aug 2025 16:40:53 GMT)
  • 「In this work, we propose an external memory for LLM that is pretrained to mimic a retriever on the entire pretraining dataset. Specifically, following the RAG setting in kNN-LM [27], this memory learns to map the LLM hidden state at a certain step to a vocabulary distribution matching the output of the kNN retriever. During inference, the LLM’s native output is interpolated with the retriever-pretrained output from the external memory.」と記憶(知識)部分を切り離したアーキテクチャの提案
  • これがうまく動作するのであれば面白いなと思う一方で、知識と思考が切り離せるのかはやや疑問で思考・生成部分への影響が気になるところ。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です