Trustworthy Human Computation: A Survey 

  • Trustworthy Human Computation: A Survey [21.4]
    人間計算(Human Computation)はAIのみでは解くのが難しい問題を多くの人間と協力して解くアプローチである。 人間計算ではAIと人間の信頼関係を構築することが重要だ。本調査は,信頼性の高い人間計算の実現に向けた基礎研究である。
    論文  参考訳(メタデータ)   (Sat, 22 Oct 2022 01:30:50 GMT)
    • Human ComputationとAIの信頼性のサーベイ
    • AIの社会実装の上で重要であり、とても勉強になる
      • 信頼性、説明性、いろいろな観点があるが実装するのはとても難しい…

Equal Improvability

  • Equal Improvability: A New Fairness Notion Considering the Long-term Impact [27.7]
    EI(Equal Improvability)と呼ばれる新しい公正性の概念を提案する。 EIは、異なるグループ間で拒絶されたサンプルの潜在的受容率を等しくする。 提案したEI正規化アルゴリズムは、EIの観点から公平な分類器を見つけることを奨励することを示す。
    論文  参考訳(メタデータ)   (Thu, 13 Oct 2022 04:59:28 GMT)
    • 時間とともに何かを改善できる場合を考慮した公平性の指標を提案。例えば「ローンを承認するかどうかにおいて、今後クレジットスコアなどを改善できる場合」を考慮する。
      • とても面白い論文であり、アルゴリズム・実験結果ともに公開されているので現実的な設定で使えそうなのかは検証してみたいなと思う
    • リポジトリはguldoganozgur/ei_fairness (github.com)

SpaceQA

  • SpaceQA: Answering Questions about the Design of Space Missions and Space Craft Concepts [57.0]
    宇宙ミッション設計における最初のオープンドメインQAシステムであるSpaceQAについて述べる。 SpaceQAは、欧州宇宙機関(ESA)による、宇宙ミッションの設計に関する情報のアクセス、共有、再利用を容易にするイニシアチブの一部である。
    論文  参考訳(メタデータ)   (Fri, 7 Oct 2022 09:41:39 GMT)
    • 試行運用に入っているQAエンジンとのこと。一般的な部品をうまく組み合わせているように見える。
    • リポジトリはexpertailab/SpaceQA (github.com)

機械学習における要求工学

  • Requirements Engineering for Machine Learning: A Review and Reflection [39.0]
    本稿では,機械学習アプリケーションにおける要件工学プロセスの概要について述べる。 産業データ駆動インテリジェンスアプリケーションの例も、前述のステップに関連して議論されている。
    論文  参考訳(メタデータ)   (Mon, 3 Oct 2022 12:24:39 GMT)
    • 機械学習アプリケーションにおける要求をレビューした論文。CRISP-DM と CRISP-ML(Q)の差のようにデータ分析とは異なる点が面白い。
    • 「Fig 1: General collaborations of Stakeholders involved in ML Application Development」は役割分担(興味)を整理するうえでも面白い。

AutoMLとIoT

教育とAI

  • Lost in Translation: Reimagining the Machine Learning Life Cycle in Education [12.8]
    機械学習(ML)技術は、教育においてますます普及している。 ML技術が長年の教育原則と目標をどのように支えているかを調べる必要がある。 本研究では,教育専門家へのインタビューから得られた質的な洞察をもとに,この複雑な景観を考察した。
    論文  参考訳(メタデータ)   (Thu, 8 Sep 2022 17:14:01 GMT)
    • 教育へのAI適用についてインタビューを行った結果をまとめた論文。社会実装に関わる課題、教育ということもあり倫理に関連する話題も多い。

Responsible AI Pattern Catalogue

  • Responsible AI Pattern Catalogue: A Multivocal Literature Review [13.2]
    MLR(Multivocal Literature Review)の結果に基づく応答性AIパターンカタログを提案する。 原則やアルゴリズムのレベルにとどまらず、私たちは、AIシステムのステークホルダーが実際に行なえるパターンに注目して、開発済みのAIシステムがガバナンスとエンジニアリングライフサイクル全体を通して責任を負うようにします。
    論文  参考訳(メタデータ)   (Wed, 14 Sep 2022 00:00:06 GMT)
    • Responsible AIに関するサーベイ、よくまとまっており外部資料へのリンクが多いのがありがたい。

eco2AI: 二酸化炭素排出量のトラッキングライブラリ

RealTime QA

  • RealTime QA: What’s the Answer Right Now? [113.0]
    本稿では,動的質問応答(QA)プラットフォームであるRealTime QAを紹介する。 GPT-3は、新しく検索された文書に基づいて、しばしばその生成結果を適切に更新することができる。 検索した文書が回答を見つけるのに十分な情報を提供していない場合、GPT-3は時代遅れの回答を返す傾向にある。
    論文  参考訳(メタデータ)   (Wed, 27 Jul 2022 07:26:01 GMT)
    • QAを現実世界、実時間で評価していく取り組み。Question Answeringモデルの実運用が現実的なのか知る上でも非常に興味深い。
    • プロジェクトサイトはHome | RealTime QA

データリークと再現性

  • Leakage and the Reproducibility Crisis in ML-based Science [5.1]
    データ漏洩は確かに広範な問題であり、深刻な失敗につながっていることを示す。 教科書の誤りからオープンな研究問題まで,8種類の漏洩の詳細な分類法を提示する。 本稿では,MLモデルに基づく科学的主張を報告するためのモデル情報シートを提案する。
    論文  参考訳(メタデータ)   (Thu, 14 Jul 2022 16:44:59 GMT)
    • (いろいろな分野で指摘されているが)学術論文の中には再現性が不十分な例がみられる。機械学習の利用ではleakageなどによってそれが起きていることがあるとの指摘。悪意があるか否かはおいておいて、機械学習モデルを正しく評価するのは難しいという印象。この論文に指摘された問題はとても参考になる。
    • プロジェクトサイトはLeakage and the Reproducibility Crisis in ML-based Science (princeton.edu)、WORDのチェックシートも提供されている。