コンテンツへスキップ
- Can Active Learning Preemptively Mitigate Fairness Issues? [66.8]
データセットバイアスは、機械学習における不公平な原因の1つです。 不確実性に基づくActive Learningで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。 また、勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。フェアネスの問題に対処しながら、彼らのインタラクションは、調査したほとんどのベンチマークやメトリクスの結果をさらに改善します。
論文 参考訳(メタデータ) (Wed, 14 Apr 2021 14:20:22 GMT)- 能動学習における公平性考慮を扱った論文。重要な観点だと思う。
- CelebHair: A New Large-Scale Dataset for Hairstyle Recommendation based on CelebA [4.1]
本稿では,セレブの顔属性データセットcelebaに基づいて,ヘアスタイル推薦のための新しいデータセットcelebhairを提案する。 私たちのデータセットは、CelebAの美容関連顔の属性と共に顔画像の大半を継承しました。
論文 参考訳(メタデータ) (Wed, 14 Apr 2021 14:26:37 GMT)- フェアを取り上げたのでヘアーを取り上げてみた。はおいておいてヘアスタイル推薦は実用的に有用な問題だとは思う。