ビジネスにおけるAlgorithmic Fairnessのサーベイ、公平性と因果的メカニズム

  • Algorithmic Fairness in Business Analytics: Directions for Research and Practice [24.3]
    本稿では,アルゴリズムフェアネスの先見的,BAに着目したレビューを行う。 まず、バイアスの源泉と測定方法、およびバイアス緩和アルゴリズムに関する最先端の研究について概説する。 次に、ユーティリティ・フェアネスの関係について詳細な議論を行い、これらの2つの構成要素間のトレードオフの頻繁な仮定は、しばしば間違いまたは近視的であることを強調した。
    論文  参考訳(メタデータ)   (Fri, 22 Jul 2022 10:21:38 GMT)
    • よくあるFairnessのサーベイではあるが、最近の状況・事例や様々な見方を知るために参考になる。
  • Causal Fairness Analysis [68.1]
    意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。 我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。 本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
    論文  参考訳(メタデータ)   (Sat, 23 Jul 2022 01:06:34 GMT)
    • 意思決定における公平性の問題をモデル化、100ページ超と教科書並みの記載がある。

不公平なモデルをエビデンス付きで指摘するタスク:Revealing Unfair Models by mining Interpretable Evidence (RUMIE)

  • Revealing Unfair Models by Mining Interpretable Evidence [50.5]
    機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。 本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。 本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
    論文  参考訳(メタデータ)   (Tue, 12 Jul 2022 20:03:08 GMT)
    • 不公平さをエビデンス付きで明らかにするタスク・手法の提案
    • 社会実装のために重要な技術であると思う

医療分野の機械学習における公平性のサーベイ

  • Fair Machine Learning in Healthcare: A Review [53.9]
    医療のための機械学習において公平性の問題が特定されており、特定のグループに対して限られた医療資源を不公平に割り当てたり、過剰な健康リスクを負ったりしている。 公平な問題を露呈し、バイアスを要約し、緩和方法を整理し、将来の機会とともに課題を指摘することで橋を架けます。
    論文  参考訳(メタデータ)  参考訳(全文)  (Wed, 29 Jun 2022 04:32:10 GMT)
    • ヘルスケア分野でAI活用が進んでいるが、そのなかに含まれかねないバイアスの特定と公正性に関するサーベイ。

Federated Learningにおける公平性とプライバシー

  • “You Can’t Fix What You Can’t Measure”: Privately Measuring Demographic Performance Disparities in Federated Learning [78.7]
    フェデレートされた学習は、デバイスが機械学習モデルのトレーニングに協力することを可能にする。 フェデレートラーニングで訓練されたモデルが、異なる人口集団に対して異なるパフォーマンスを示すのではないかという懸念が高まっている。 本研究では,ユーザのグループメンバーシップのプライバシを保護しながら,このようなパフォーマンス格差を計測できる可能性を検討する。
    論文  参考訳(メタデータ)   (Fri, 24 Jun 2022 09:46:43 GMT)
    • 連合学習を行ったときその中のグループ内で性能差(≒格差)が生じるという指摘を扱った論文。プライバシーの保護と格差の測定を提案。

Whose Language Counts as High Quality?

  • Whose Language Counts as High Quality? Measuring Language Ideologies in Text Data Selection [83.4]
    より富裕で、教育され、都会のZIPコードにある大きな学校の新聞は、質の高いものとして分類される傾向にある。  フィルタの質測定が,事実性や文学的評価といった他の感性指標と一致しないことを実証する。 高品質なコーパスを特権化することは言語イデオロギーを伴い,言語モデルのためのトレーニングコーパスの構築にはもっと注意が必要である,と我々は主張する。
    論文  参考訳(メタデータ)   (Wed, 26 Jan 2022 18:46:26 GMT)
    • テキストをフィルタリングし高品質化することは大規模事前学習の前処理として一般的に行われている。現状は裕福な人が書いた(立場の強い人が書いた)テキストがその実態以上に高品質と判定されており、暗黙的な不平等につながる危険があるとの指摘。
    • fugumtのフィルタリングルールでもドメイン名(第二レベルドメインなど)を大きな手掛かりとしており危険性を内包している可能性が高い。鋭い指摘だと思った。
    • リポジトリはGitHub – kernelmachine/quality-filter: Code for “Whose language is high quality?” paper

A Framework for Fairness: Fair AIを実現するためのサーベイ

  • A Framework for Fairness: A Systematic Review of Existing Fair AI Solutions [4.6]
    公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。 実際には、これらの公平性ソリューションの応用例が欠如している。 このレビューでは、定義されたアルゴリズムバイアス問題と提案された公平問題解決方法の詳細な概要について述べる。
    論文  参考訳(メタデータ)   (Fri, 10 Dec 2021 17:51:20 GMT)
    • アルゴリズムバイアスとFairness awareなAIを構築するためのソリューションのサーベイ。

Fairnessな機械学習へのテクニック

  • Modeling Techniques for Machine Learning Fairness: A Survey [17.9]
    近年,機械学習モデルのバイアスを軽減するため,様々な手法が開発されている。 本稿では,プロセス内バイアス軽減技術の現状を概観する。
    論文  参考訳(メタデータ)   (Thu, 4 Nov 2021 17:17:26 GMT)
    • 公平性の実現、バイアスの除去・軽減技術に関するサーベイ。
    • 決定的な方法はない分野でもあり、整理軸も概観も非常に参考になる。

FACT-AIの教育課程

  • Teaching Fairness, Accountability, Confidentiality, and Transparency in Artificial Intelligence through the Lens of Reproducibility [38.9]
    本稿では,アムステルダム大学における,公正性,説明責任性,信頼度,人工知能の透明性(FACT-AI)に関する技術的,大学院レベルのコースのセットアップについて説明する。 コースの焦点は、トップAIカンファレンスの既存のFACT-AIアルゴリズムに基づいたグループプロジェクトであり、彼らの経験に関するレポートを書くことである。
    論文  参考訳(メタデータ)  参考訳(全文)  (Mon, 1 Nov 2021 10:58:35 GMT)
    • AIの社会実装に重要なFACT(Fairness, Accountability, Confidentiality, Transparency)の教育課程に関する報告。1ヶ月のフルタイムコースとして設計されているとのこと。(特に日本だと)この手のコースは多くなく、実践事例は参考になる。

AIモデルのFairness検証の実例

AI系手法(といっても一つはロジスティック回帰だが)の実例をFairnessの観点から分析した報告が出ていた。この手の話題はFairnessとは何か?の議論が重要で、実例をしっかりと扱った論文はとても勉強になる。

  • Fair Decision-Making for Food Inspections [3.4]
    本稿では,シカゴ市公衆衛生局によるレストラン検査の予測モデルの適用について再検討する。 本モデルでは,検査を行った正統性に基づいて,検査を不平等に扱うことが確認された。 我々は、オリジナルのモデルをより公平な方法で使用するためのアプローチと、公平性を達成するためのモデルのトレーニング方法の両方について検討する。
    論文  参考訳(メタデータ)   (Thu, 12 Aug 2021 04:17:39 GMT)
  • Fairness in Algorithmic Profiling: A German Case Study [0.0]
    本研究では、求職者の長期失業リスクを予測するための統計モデルを比較し、評価する。 これらのモデルは、競争力のある精度で長期失業を予測するために使用できることを示す。 異なる分類ポリシーは、非常に異なる公平性をもたらすことを強調する。
    論文  参考訳(メタデータ)   (Wed, 4 Aug 2021 13:43:42 GMT)

不確実性とランキングの公平性

  • Fairness in Ranking under Uncertainty [42.5]
    不公平は、より有益なエージェントが、有益でないエージェントよりも悪い結果を得るときに起こる。  私たちの中心となる点は、不公平の主な原因は不確実性であるということです。本研究では,実用性に対して最適に公平さをトレードオフするランキングの計算法を示す。
    論文  参考訳(メタデータ)   (Wed, 14 Jul 2021 14:10:16 GMT)
    • どのくらいの確率で事後により良いメリットをもたらすエージェントが上位にランキングするかに基づくϕ-fair (ϕ∈[0,1])という考え方を導入、それに基づいて公平なランキング方法を提案している。さらに論文推薦システムに適用したとのこと。
      • 考え方は非常に興味深いもののMerit Distributionのモデリングは簡単ではなさそうだし、実問題への適用でも十分な効果が出せなかったように見える。。