- A Survey of Low-bit Large Language Models: Basics, Systems, and Algorithms [34.8]
大規模言語モデル (LLM) は自然言語処理において顕著な進歩を遂げている。 しかし、高価なメモリと計算の要求は、その実践的な展開に重大な課題をもたらしている。 低ビット量子化は、モデルパラメータのビット幅を減らすことでこれらの課題を緩和するための重要なアプローチとして現れている。
論文 参考訳(メタデータ) (Wed, 25 Sep 2024 07:38:02 GMT) - A Comprehensive Evaluation of Quantized Instruction-Tuned Large Language Models: An Experimental Analysis up to 405B – arXiv最新論文の紹介 (devneko.jp) にも関連する低ビット量子化に関するサーベイ。