An Empirical Study of Catastrophic Forgetting in Large Language Models During Continual Fine-tuning

  • An Empirical Study of Catastrophic Forgetting in Large Language Models During Continual Fine-tuning [74.0]
    カタストロフィック・ナッシング(英: Catastrophic forgetting、CF)は、機械学習において、モデルが新しい情報を学ぶ際に学習した情報を忘れたときに発生する現象である。 本研究では,大言語モデルの知識における忘れ現象を,ドメイン知識,推論,理解という観点から実証的に評価する。 
    論文  参考訳(メタデータ)   (Thu, 17 Aug 2023 02:53:23 GMT)
  • 破壊的忘却に関する報告、デコーダonlyなBLOOMZとエンコーダ-デコーダなmT0を比較すると、BLOOMZの方が知識を維持しやすいという結果。「 diverse instruction tuning can help mitigate the CF phenomenon 」を含めとても興味深い。
  • リポジトリはhttps://github.com/LuoXiaoHeics/Continual-Tune