Fairness and Bias Mitigation in Computer Vision: A Survey 

  • Fairness and Bias Mitigation in Computer Vision: A Survey [61.0]
    コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。 歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。 本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
    論文  参考訳(メタデータ)   (Mon, 05 Aug 2024 13:44:22 GMT)
  • コンピュータビジョンにおける公平性のサーベイ。
  • 生成モデルの流行で注目されている分野であり、研究の進展もとても速い。

ELBERT: Equal Long-term BEnefit RaTe

バイアス修正

同日に公平性関連の論文が出ており非常に参考になった。社会実装上とても大事。

  • FairBalance: How to Achieve Equalized Odds With Data Pre-processing [33.0]
    本研究は、機械学習ソフトウェアにおける等化オッズフェアネスを達成するための、単純で効果的な前処理アプローチを提供することにより、ソフトウェア工学社会の利益を目指している。 学習データに計算重みを割り当てることで,各階層群のクラス分布のバランスをとる前処理アルゴリズムであるFairBalanceを提案する。
    論文  参考訳(メタデータ)   (Wed, 26 Apr 2023 13:48:17 GMT)
  • Equalized Oddsを達成するための前処理手法の提案
  • 性能を完全に維持できているわけではないが優秀そうな方法
  • リポジトリはGitHub – hil-se/FairBalance

Fairness in Graph Mining

  • Fairness in Graph Mining: A Survey [36.3]
    グラフマイニングアルゴリズムは、人間中心のアプリケーションで悪用された場合、特定の人口に対する差別につながる可能性がある。 グラフ上の公平性の概念の新たな分類法を提案し,その関係や相違点に光を当てる。 本稿では,グラフマイニングにおける公正性を促進する既存手法について概説する。
    論文  参考訳(メタデータ)   (Tue, 11 Apr 2023 05:55:09 GMT)
  • 利用が広がっているグラフマイニングにおける公平性サーベイ
  • グラフ構造分析の実応用ではSNSなどセンシティブなデータを持つものが想定されFairness関連の研究は重要

FairPy

  • FairPy: A Toolkit for Evaluation of Social Biases and their Mitigation in Large Language Models [7.3]
    大規模な事前訓練された言語モデルは、人種、性別等に基づく社会集団に対する偏見を示すことが研究で示されている。 様々な研究者がこれらのバイアスを定量化し識別するための数学的ツールを提案している。 本稿では,人種,性別,民族,年齢など,さまざまなバイアスの包括的定量的評価を行う。
    論文  参考訳(メタデータ)   (Fri, 10 Feb 2023 20:54:10 GMT)
  • バイアスの定量化、緩和のためのフレームワーク。様々な手法に対応。
  • リポジトリはGitHub – HrishikeshVish/Fairpy

Fairness Increases Adversarial Vulnerability 

  • Fairness Increases Adversarial Vulnerability [50.9]
    フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。 非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。 フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
    論文  参考訳(メタデータ)   (Wed, 23 Nov 2022 01:46:22 GMT)
  • 公平性と頑健性はトレードオフの関係にあり、良好なポイントを見つけるための手法を提案している。ある程度解決策も提案されているとはいえ、性能はともかく頑健性が落ちるのはつらいなーと思う。

Equal Improvability

  • Equal Improvability: A New Fairness Notion Considering the Long-term Impact [27.7]
    EI(Equal Improvability)と呼ばれる新しい公正性の概念を提案する。 EIは、異なるグループ間で拒絶されたサンプルの潜在的受容率を等しくする。 提案したEI正規化アルゴリズムは、EIの観点から公平な分類器を見つけることを奨励することを示す。
    論文  参考訳(メタデータ)   (Thu, 13 Oct 2022 04:59:28 GMT)
    • 時間とともに何かを改善できる場合を考慮した公平性の指標を提案。例えば「ローンを承認するかどうかにおいて、今後クレジットスコアなどを改善できる場合」を考慮する。
      • とても面白い論文であり、アルゴリズム・実験結果ともに公開されているので現実的な設定で使えそうなのかは検証してみたいなと思う
    • リポジトリはguldoganozgur/ei_fairness (github.com)

MEDFAIR: 医療画像処理の公平性ベンチマーク

  • MEDFAIR: Benchmarking Fairness for Medical Imaging [44.7]
    MEDFAIRは、医療画像のための機械学習モデルの公正性をベンチマークするフレームワークである。 モデル選択基準の未検討の問題は、公正な結果に重大な影響を及ぼす可能性がある。 異なる倫理的原則を必要とするさまざまな医療応用シナリオを推奨する。
    論文  参考訳(メタデータ)   (Tue, 4 Oct 2022 16:30:47 GMT)

Trustworthy Recommender Systemのサーベイ

  • A Comprehensive Survey on Trustworthy Recommender Systems [32.5]
    本稿では,信頼に値するレコメンダシステム (TRec) の概要について概説する。 それぞれの側面について、最近の技術についてまとめ、信頼性の高いレコメンデータシステムの実現を支援する研究の方向性について論じる。
    論文  参考訳(メタデータ)   (Wed, 21 Sep 2022 04:34:17 GMT)

FairGBM