- Hyper-Tune: Towards Efficient Hyper-parameter Tuning at Scale [40.4]
Hyper-Tuneは、効率的で堅牢な分散ハイパーパラメータチューニングフレームワークである。 最先端のBOHBとA-BOHBを比較し、それぞれ11.2倍と5.1倍のスピードアップを達成している。
論文 参考訳(メタデータ) (Tue, 18 Jan 2022 09:12:32 GMT)- GitHub – automl/HpBandSter: a distributed Hyperband implementation on Steroidsなどで利用可能なBOHB (Bayesian optimization (BO) and Hyperband (HB))よりも優れた性能を発揮するハイパーパラメータのチューニングフレームワークの提案。
- 著者が関わっているopen-box/README.md at master · PKU-DAIR/open-box · GitHubに実装される(されている?)と思われる。
日: 2022年1月22日
MT-GBM: マルチタスクなGBM(LightGBM実装)
- MT-GBM: A Multi-Task Gradient Boosting Machine with Shared Decision Trees [15.6]
マルチタスク学習のためのGBDT方式であるマルチタスク・グラディエント・ブースティング・マシン(MT-GBM)を提案する。 MT-GBMがメインタスクの性能を大幅に向上することを示す実験を行った。
論文 参考訳(メタデータ) 参考訳(全文) (Mon, 17 Jan 2022 06:43:14 GMT)- GBMでマルチタスク学習を実現。LightGBMをベースに各特徴量に複数のラベル列を設定できる実装が提供されている。
- GitHub – mtgbmcode/mtgbmcode: mtgbm_code