Model Merging for Knowledge Editing

  • Model Merging for Knowledge Editing [53.8]
    大規模言語モデル(LLM)は、世界が進化するにつれて正確で現在の知識を維持するために継続的な更新を必要とする。 既存の知識編集アプローチは知識更新のための様々なソリューションを提供するが、しばしば連続的な編集シナリオに苦労する。 本稿では,頑健な教師付き微調整(R-SFT)とモデルマージを組み合わせた2段階のフレームワークを提案する。
    論文  参考訳(メタデータ)   (Sat, 14 Jun 2025 07:42:39 GMT)
  • SFTとmodel mergeによるknowledge editing
  • リポジトリはGitHub – Applied-Machine-Learning-Lab/MM4KE

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です