FairGBM

Learning-to-rankとGBDT

  • Which Tricks are Important for Learning to Rank? [21.6]
    現在、最先端のLTR(Learning-to-rank)手法は、勾配型決定木(GBDT)に基づいている。 最もよく知られているアルゴリズムは10年以上前に提案されたLambdaMARTである。本稿では,これらの手法を統一的に解析する。 その結果、学習からランクへのアプローチの洞察を得て、新しい勾配アルゴリズムを得ることができた。
    論文  参考訳(メタデータ)   (Mon, 4 Apr 2022 13:59:04 GMT)
    • 実用上重要なLearning-to-rankについて比較検討した論文。YetiRank が優れているとの結論。
    • (Yandexの論文でもあり)Catboostで利用可能のよう。

MT-GBM: マルチタスクなGBM(LightGBM実装)

  • MT-GBM: A Multi-Task Gradient Boosting Machine with Shared Decision Trees [15.6]
    マルチタスク学習のためのGBDT方式であるマルチタスク・グラディエント・ブースティング・マシン(MT-GBM)を提案する。 MT-GBMがメインタスクの性能を大幅に向上することを示す実験を行った。
    論文  参考訳(メタデータ)  参考訳(全文)  (Mon, 17 Jan 2022 06:43:14 GMT)