アメリカ空軍でのAI利用

  • Developing a Series of AI Challenges for the United States Department of the Air Force [38.3]
    DAF-MIT AI Acceleratorは、AI研究者とDAFのミッション要件の間のギャップを埋めるための、DAFとMITの間のイニシアチブである。 DAF-MIT AI Acceleratorが支援するいくつかのプロジェクトは、多くの連邦AI研究優先順位に対処する公的な課題を開発している。 これらの課題は、大規模でAI対応のデータセットを公開し、オープンソースソリューションのインセンティブを与え、デュアルユースケーステクノロジの需要信号を作成することによって、優先順位を目標とする。
    論文  参考訳(メタデータ)   (Thu, 14 Jul 2022 16:13:40 GMT)
    • アメリカ空軍でのAI利用に関する紹介。データの公開やオープンソースが利用されているのが意外だった。

AI/機械学習に対する攻撃のアンケート調査

  • “Why do so?” — A Practical Perspective on Machine Learning Security [21.5]
    我々は139人の産業従事者との攻撃発生と懸念を分析した。 私たちの結果は、デプロイされた機械学習に対する現実世界の攻撃に光を当てています。 我々の研究は、現実の敵対的機械学習に関するさらなる研究の道を開くものだ。
    論文  参考訳(メタデータ)   (Mon, 11 Jul 2022 19:58:56 GMT)
    • AIに対する攻撃に関する調査で、100人以上を対象としており興味深い。Poisoningなどに危険性を感じている人が思ったよりも多いという印象。

機械学習におけるバイアス緩和のサーベイ

  • Bia Mitigation for Machine Learning Classifiers: A Comprehensive Survey [25.3]
    本稿では,機械学習(ML)モデルにおける公平性を実現するためのバイアス緩和手法を包括的に調査する。 ML分類器のバイアス軽減に関する合計234の論文を収集する。 本論文では,既存のバイアス緩和手法について検討する。
    論文  参考訳(メタデータ)   (Thu, 14 Jul 2022 17:16:45 GMT)
    • 機械学習による分類器に対してバイアスを緩和する手法のサーベイ。200以上の論文がサーベイ対象であり、多種多様なアプローチ、手法があることに驚き。

不公平なモデルをエビデンス付きで指摘するタスク:Revealing Unfair Models by mining Interpretable Evidence (RUMIE)

  • Revealing Unfair Models by Mining Interpretable Evidence [50.5]
    機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。 本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。 本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
    論文  参考訳(メタデータ)   (Tue, 12 Jul 2022 20:03:08 GMT)
    • 不公平さをエビデンス付きで明らかにするタスク・手法の提案
    • 社会実装のために重要な技術であると思う

医療分野の機械学習における公平性のサーベイ

  • Fair Machine Learning in Healthcare: A Review [53.9]
    医療のための機械学習において公平性の問題が特定されており、特定のグループに対して限られた医療資源を不公平に割り当てたり、過剰な健康リスクを負ったりしている。 公平な問題を露呈し、バイアスを要約し、緩和方法を整理し、将来の機会とともに課題を指摘することで橋を架けます。
    論文  参考訳(メタデータ)  参考訳(全文)  (Wed, 29 Jun 2022 04:32:10 GMT)
    • ヘルスケア分野でAI活用が進んでいるが、そのなかに含まれかねないバイアスの特定と公正性に関するサーベイ。

Explainable AIを評価する視点

  • Connecting Algorithmic Research and Usage Contexts: A Perspective of Contextualized Evaluation for Explainable AI [65.4]
    説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。 このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
    論文  参考訳(メタデータ)   (Wed, 22 Jun 2022 05:17:33 GMT)
    • XAIの「説明」が良いか悪いかはユーザ(とその目的)によって異なることが指摘されている。良い説明とは何かをユーザを軸として整理したサーベイ。これでOKという結論があるものではないが、「良い説明とは何か?」を考えるうえでとても勉強になる。
      • 評価の特性として「Faithfulness」「Completeness」「Stability」「Compactness」「(Un)Certainty (communication)」「Interactivity」「Translucence」「Comprehensibility」「Actionability」「Coherence」「Novelty」「Personalization」が挙げられていて、考慮事項が非常に多いことが分かる。

Square One Bias in NLP

  • Square One Bias in NLP: Towards a Multi-Dimensional Exploration of the Research Manifold [88.8]
    我々は、最近のNLP研究論文のマニュアル分類を通して、これが事実であることを示す。 NLP研究は正方形ではなく、精度だけでなく、公平性や解釈可能性にも焦点をあてる。
    論文  参考訳(メタデータ)  参考訳(全文)  (Mon, 20 Jun 2022 13:04:23 GMT)
    • NLPの研究の多くが精度、多言語性、公平性・解釈可能性の1軸に焦点を当てており、このような形式をSQUARE ONEと呼びそこから生まれるバイアスをSQUARE ONE BIASと呼んでいる。論文中のACL2021の分析結果も興味深いが、感覚的にも2軸以上を扱う論文はレアだと思う。
      • 先端研究の場合、競争激化もあって多様な軸で比較するのはしんどいんだろうと思わなくはないが、実務的には多様な評価は普通に行われる(やらないと怖くて使えない)わけで実務的な報告が増えて欲しいと思う今日この頃。
    • プロジェクトサイトはGitHub – google-research/url-nlp

AIとクラウド環境と炭素排出

  • Measuring the Carbon Intensity of AI in Cloud Instances [91.3]
    我々は,ソフトウェアの炭素強度を測定するための枠組みを提供し,運転中の炭素排出量を測定することを提案する。 私たちは、Microsoft Azureクラウドコンピューティングプラットフォームにおける排出削減のための一連のアプローチを評価します。
    論文  参考訳(メタデータ)  参考訳(全文)  (Fri, 10 Jun 2022 17:04:04 GMT)
    • AI構築(と利用)におけるエネルギーの利用やCO2の排出は最近よく話題になる。そのようなテーマに対して整理し環境負荷を下げる方法をサジェストしている論文。
    • 本論文とは別件だが、Machine Learning CO2 Impact Calculator (mlco2.github.io)というサイトがあるくらい重要な話題になっている。

属性によるResponsible AIの受け止めの違い

  • How Different Groups Prioritize Ethical Values for Responsible AI [75.4]
    民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。 彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。 我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
    論文  参考訳(メタデータ)   (Mon, 16 May 2022 14:39:37 GMT)
    • 米国住民(n=743)、クラウドワーカー(n=755)、AI実践者(n=175)のそれぞれがResponsible AI(と関連する要素)をどの程度重視するかの調査結果。
    • AI実践者は fairness, dignity, inclusivenessを重視し、米国住民とクラウドワーカーはsafety, privacy, performanceを重視する傾向にあるのは興味深い。過去の調査ではAI実践者はperfomanceを重視する傾向にあるそうだが、今回の調査ではそのような示唆は得られていないとのこと。
      • どう解釈するかは悩ましいがこの手の調査結果を色々見ておくのはとても良いことのように思う。

AIのSustainabilityに関するサーベイ

  • A Survey on AI Sustainability: Emerging Trends on Learning Algorithms and Research Challenges [35.3]
    我々は、AIの持続可能性問題に対処できる機械学習アプローチの大きなトレンドについてレビューする。 我々は、既存の研究の大きな限界を強調し、次世代の持続可能なAI技術を開発するための潜在的研究課題と方向性を提案する。
    論文  参考訳(メタデータ)   (Sun, 8 May 2022 09:38:35 GMT)
    • 環境を軸とした持続可能性(Computitaion-Efficient, Data-Efficient)、社会を軸とした持続可能性(Responsible,  Rationalizable & Resilient)という2つの側面からAIの持続可能性を整理したサーベイ。興味深い整理軸。