Optuna vs Code Llama: Are LLMs a New Paradigm for Hyperparameter Tuning?
Optuna vs Code Llama: Are LLMs a New Paradigm for Hyperparameter Tuning? [42.4] 本研究は,Code Llamaの微調整バージョンを用いて,大規模言語モデル(LLM)によるハイパーパラメータ最適化の実現可能性について検討する。 提案手法は,演算オーバーヘッドを著しく低減しつつ,ルート平均角誤差(RMSE)の点で競合的あるいは優れた結果が得られる。 結果は、LLMが効率性を超えて、相当な時間節約と同等の安定性を提供し、機械学習の進歩における価値を強調していることを確認した。 論文参考訳(メタデータ) (Tue, 08 Apr 2025 13:15:47 GMT)
「Our evaluations reveal that fine-tuned Code Llama often meets or exceeds the accuracy achieved by Optuna, a well-established hyperparameter optimization framework.」を主張する論文