コンテンツへスキップ
- Continual Learning for Large Language Models: A Survey [95.8]
大規模言語モデル(LLM)は、大規模なトレーニングコストが高いため、頻繁な再トレーニングには適さない。 本稿では,LLMの連続学習に関する最近の研究について述べる。
論文 参考訳(メタデータ) (Fri, 2 Feb 2024 12:34:09 GMT)
- LLMに対する継続学習のサーベイだが、Continual Pre-training、Continual Instruction Tuning、Continual Alignment と事前学習以後の話題を扱っているのが興味深い。
- Fact, Domain, Language, Task, Skills, Values, Preferencesのどこを対象としているか表している図2も参考にある(ザックリとしているので異論もあるだろうけど)
- Continual Learning: Applications and the Road Forward [111.3]
継続的学習は、機械学習モデルが、過去に学んだことを忘れずに知識を蓄積することで、新しいデータを継続的に学習できるようにすることを目的としている。 我々は3つの主要な機械学習カンファレンスで発行された最近の連続的な学習論文を調査してステージを設定した。 機械学習における5つのオープンな問題について議論し、継続的学習が必然的にそのソリューションの一部であることを示す。
論文 参考訳(メタデータ) (Tue, 21 Nov 2023 15:17:00 GMT)
- Continual Learningのサーベイ、講演資料が基になっているからか基礎からわかりやすい印象。