コンテンツへスキップ
- FairGBM: Gradient Boosting with Fairness Constraints [4.5]
公平性制約下での勾配向上決定木(GBDT)の学習フレームワークであるFairGBMを提案する。 オープンソース実装は、関連する作業と比較した場合のトレーニング時間の桁違いのスピードアップを示している。
論文 参考訳(メタデータ) (Mon, 19 Sep 2022 15:16:25 GMT)
- Which Tricks are Important for Learning to Rank? [21.6]
現在、最先端のLTR(Learning-to-rank)手法は、勾配型決定木(GBDT)に基づいている。 最もよく知られているアルゴリズムは10年以上前に提案されたLambdaMARTである。本稿では,これらの手法を統一的に解析する。 その結果、学習からランクへのアプローチの洞察を得て、新しい勾配アルゴリズムを得ることができた。
論文 参考訳(メタデータ) (Mon, 4 Apr 2022 13:59:04 GMT)- 実用上重要なLearning-to-rankについて比較検討した論文。YetiRank が優れているとの結論。
- (Yandexの論文でもあり)Catboostで利用可能のよう。
- MT-GBM: A Multi-Task Gradient Boosting Machine with Shared Decision Trees [15.6]
マルチタスク学習のためのGBDT方式であるマルチタスク・グラディエント・ブースティング・マシン(MT-GBM)を提案する。 MT-GBMがメインタスクの性能を大幅に向上することを示す実験を行った。
論文 参考訳(メタデータ) 参考訳(全文) (Mon, 17 Jan 2022 06:43:14 GMT)