- Fairness and Bias Mitigation in Computer Vision: A Survey [61.0]
コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。 歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。 本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
論文 参考訳(メタデータ) (Mon, 05 Aug 2024 13:44:22 GMT) - コンピュータビジョンにおける公平性のサーベイ。
- 生成モデルの流行で注目されている分野であり、研究の進展もとても速い。
タグ: Fairness
ELBERT: Equal Long-term BEnefit RaTe
- Equal Long-term Benefit Rate: Adapting Static Fairness Notions to Sequential Decision Making [43.6]
ELBERT(Equal Long-term Benefit Rate)と呼ばれる長期公正性の概念を導入する。 長期利益率の政策勾配は分析的に標準政策勾配に還元できることを示す。 3つの逐次意思決定環境の実験により,ELBERT-POはバイアスを著しく低減し,高い有効性を維持することが示された。
論文 参考訳(メタデータ) (Thu, 7 Sep 2023 01:10:01 GMT) - 長期的な公平性の概念を提案。時間の概念は重要で面白い取り組み。
- リポジトリはGitHub – Yuancheng-Xu/ELBERT: Official Implementation of the paper “Equal Long-term Benefit Rate: Adapting Static Fairness Notions to Sequential Decision Making” by Yuancheng Xu, Chenghao Deng, Yanchao Sun, Ruijie Zheng, Xiyao Wang, Jieyu Zhao and Furong Huang
バイアス修正
同日に公平性関連の論文が出ており非常に参考になった。社会実装上とても大事。
- FLAC: Fairness-Aware Representation Learning by Suppressing Attribute-Class Associations [11.2]
本研究は,属性ラベルを使わずに,モデルが抽出した特徴と保護属性との間の相互情報を最小化する手法を導入する。 理論上、保護された属性とは無関係な公正な表現につながることが示されている。
論文 参考訳(メタデータ) (Thu, 27 Apr 2023 15:10:46 GMT) - リポジトリはGitHub – gsarridis/FLAC: Fairness-Aware Representation Learning by Suppressing Attribute-Class Associations
- FairBalance: How to Achieve Equalized Odds With Data Pre-processing [33.0]
本研究は、機械学習ソフトウェアにおける等化オッズフェアネスを達成するための、単純で効果的な前処理アプローチを提供することにより、ソフトウェア工学社会の利益を目指している。 学習データに計算重みを割り当てることで,各階層群のクラス分布のバランスをとる前処理アルゴリズムであるFairBalanceを提案する。
論文 参考訳(メタデータ) (Wed, 26 Apr 2023 13:48:17 GMT) - Equalized Oddsを達成するための前処理手法の提案
- 性能を完全に維持できているわけではないが優秀そうな方法
- リポジトリはGitHub – hil-se/FairBalance
Fairness in Graph Mining
- Fairness in Graph Mining: A Survey [36.3]
グラフマイニングアルゴリズムは、人間中心のアプリケーションで悪用された場合、特定の人口に対する差別につながる可能性がある。 グラフ上の公平性の概念の新たな分類法を提案し,その関係や相違点に光を当てる。 本稿では,グラフマイニングにおける公正性を促進する既存手法について概説する。
論文 参考訳(メタデータ) (Tue, 11 Apr 2023 05:55:09 GMT) - 利用が広がっているグラフマイニングにおける公平性サーベイ
- グラフ構造分析の実応用ではSNSなどセンシティブなデータを持つものが想定されFairness関連の研究は重要
FairPy
- FairPy: A Toolkit for Evaluation of Social Biases and their Mitigation in Large Language Models [7.3]
大規模な事前訓練された言語モデルは、人種、性別等に基づく社会集団に対する偏見を示すことが研究で示されている。 様々な研究者がこれらのバイアスを定量化し識別するための数学的ツールを提案している。 本稿では,人種,性別,民族,年齢など,さまざまなバイアスの包括的定量的評価を行う。
論文 参考訳(メタデータ) (Fri, 10 Feb 2023 20:54:10 GMT) - バイアスの定量化、緩和のためのフレームワーク。様々な手法に対応。
- リポジトリはGitHub – HrishikeshVish/Fairpy
Fairness Increases Adversarial Vulnerability
- Fairness Increases Adversarial Vulnerability [50.9]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。 非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。 フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (Wed, 23 Nov 2022 01:46:22 GMT) - 公平性と頑健性はトレードオフの関係にあり、良好なポイントを見つけるための手法を提案している。ある程度解決策も提案されているとはいえ、性能はともかく頑健性が落ちるのはつらいなーと思う。
Equal Improvability
- Equal Improvability: A New Fairness Notion Considering the Long-term Impact [27.7]
EI(Equal Improvability)と呼ばれる新しい公正性の概念を提案する。 EIは、異なるグループ間で拒絶されたサンプルの潜在的受容率を等しくする。 提案したEI正規化アルゴリズムは、EIの観点から公平な分類器を見つけることを奨励することを示す。
論文 参考訳(メタデータ) (Thu, 13 Oct 2022 04:59:28 GMT)- 時間とともに何かを改善できる場合を考慮した公平性の指標を提案。例えば「ローンを承認するかどうかにおいて、今後クレジットスコアなどを改善できる場合」を考慮する。
- とても面白い論文であり、アルゴリズム・実験結果ともに公開されているので現実的な設定で使えそうなのかは検証してみたいなと思う
- リポジトリはguldoganozgur/ei_fairness (github.com)
- 時間とともに何かを改善できる場合を考慮した公平性の指標を提案。例えば「ローンを承認するかどうかにおいて、今後クレジットスコアなどを改善できる場合」を考慮する。
MEDFAIR: 医療画像処理の公平性ベンチマーク
- MEDFAIR: Benchmarking Fairness for Medical Imaging [44.7]
MEDFAIRは、医療画像のための機械学習モデルの公正性をベンチマークするフレームワークである。 モデル選択基準の未検討の問題は、公正な結果に重大な影響を及ぼす可能性がある。 異なる倫理的原則を必要とするさまざまな医療応用シナリオを推奨する。
論文 参考訳(メタデータ) (Tue, 4 Oct 2022 16:30:47 GMT)- 医療画像解析における公平性ベンチマーク。特定グループで性能差がないなどのベンチマークが可能。
- リポジトリはys-zong/MEDFAIR: MEDFAIR: Benchmarking Fairness for Medical Imaging (github.com)
Trustworthy Recommender Systemのサーベイ
- A Comprehensive Survey on Trustworthy Recommender Systems [32.5]
本稿では,信頼に値するレコメンダシステム (TRec) の概要について概説する。 それぞれの側面について、最近の技術についてまとめ、信頼性の高いレコメンデータシステムの実現を支援する研究の方向性について論じる。
論文 参考訳(メタデータ) (Wed, 21 Sep 2022 04:34:17 GMT)
FairGBM
- FairGBM: Gradient Boosting with Fairness Constraints [4.5]
公平性制約下での勾配向上決定木(GBDT)の学習フレームワークであるFairGBMを提案する。 オープンソース実装は、関連する作業と比較した場合のトレーニング時間の桁違いのスピードアップを示している。
論文 参考訳(メタデータ) (Mon, 19 Sep 2022 15:16:25 GMT)- 公平性制約を入れたLightGBM、良いトレードオフを実現しているように見えるが、データによって相性の悪いものもありそう。
- feedzai/fairgbm: Train Gradient Boosting models that are both high-performance *and* Fair! (github.com)