Model Hemorrhage and the Robustness Limits of Large Language Models
Model Hemorrhage and the Robustness Limits of Large Language Models [119.5] 大規模言語モデル(LLM)は、自然言語処理タスク全体で強力なパフォーマンスを示すが、デプロイメント用に修正された場合、大幅なパフォーマンス低下を経験する。 この現象をモデル出血(パラメータ変更とアーキテクチャ変更によるパフォーマンス低下)と定義する。 論文参考訳(メタデータ) (Mon, 31 Mar 2025 10:16:03 GMT)
「Model Hemorrhage refers to the phenomenon where large language models (LLMs) and their extended frameworks (e g , multimodal models) experience performance degradation, robustness weakening, or adaptability failure during training, optimization, deployment, or task adaptation」と典型的にはモデルデプロイ時の量子化で生じる性能劣化などに関する研究