コンテンツへスキップ
- Trustworthy Human Computation: A Survey [21.4]
人間計算(Human Computation)はAIのみでは解くのが難しい問題を多くの人間と協力して解くアプローチである。 人間計算ではAIと人間の信頼関係を構築することが重要だ。本調査は,信頼性の高い人間計算の実現に向けた基礎研究である。
論文 参考訳(メタデータ) (Sat, 22 Oct 2022 01:30:50 GMT)- Human ComputationとAIの信頼性のサーベイ
- AIの社会実装の上で重要であり、とても勉強になる
- 信頼性、説明性、いろいろな観点があるが実装するのはとても難しい…
- Equal Improvability: A New Fairness Notion Considering the Long-term Impact [27.7]
EI(Equal Improvability)と呼ばれる新しい公正性の概念を提案する。 EIは、異なるグループ間で拒絶されたサンプルの潜在的受容率を等しくする。 提案したEI正規化アルゴリズムは、EIの観点から公平な分類器を見つけることを奨励することを示す。
論文 参考訳(メタデータ) (Thu, 13 Oct 2022 04:59:28 GMT)
- SpaceQA: Answering Questions about the Design of Space Missions and Space Craft Concepts [57.0]
宇宙ミッション設計における最初のオープンドメインQAシステムであるSpaceQAについて述べる。 SpaceQAは、欧州宇宙機関(ESA)による、宇宙ミッションの設計に関する情報のアクセス、共有、再利用を容易にするイニシアチブの一部である。
論文 参考訳(メタデータ) (Fri, 7 Oct 2022 09:41:39 GMT)
- Requirements Engineering for Machine Learning: A Review and Reflection [39.0]
本稿では,機械学習アプリケーションにおける要件工学プロセスの概要について述べる。 産業データ駆動インテリジェンスアプリケーションの例も、前述のステップに関連して議論されている。
論文 参考訳(メタデータ) (Mon, 3 Oct 2022 12:24:39 GMT)- 機械学習アプリケーションにおける要求をレビューした論文。CRISP-DM と CRISP-ML(Q)の差のようにデータ分析とは異なる点が面白い。
- 「Fig 1: General collaborations of Stakeholders involved in ML Application Development」は役割分担(興味)を整理するうえでも面白い。
- IoT Data Analytics in Dynamic Environments: From An Automated Machine Learning Perspective [10.4]
本稿では,AutoMLの領域におけるモデル選択,チューニング,手順の更新において,既存の手法の見直しを行う。 我々の発見を正当化し、産業ユーザや研究者がAutoMLアプローチをよりうまく実装するのを助けるために、AutoMLをIoT異常検出問題に適用するケーススタディが実施されている。
論文 参考訳(メタデータ) (Fri, 16 Sep 2022 16:02:56 GMT)
- Lost in Translation: Reimagining the Machine Learning Life Cycle in Education [12.8]
機械学習(ML)技術は、教育においてますます普及している。 ML技術が長年の教育原則と目標をどのように支えているかを調べる必要がある。 本研究では,教育専門家へのインタビューから得られた質的な洞察をもとに,この複雑な景観を考察した。
論文 参考訳(メタデータ) (Thu, 8 Sep 2022 17:14:01 GMT)- 教育へのAI適用についてインタビューを行った結果をまとめた論文。社会実装に関わる課題、教育ということもあり倫理に関連する話題も多い。
- Responsible AI Pattern Catalogue: A Multivocal Literature Review [13.2]
MLR(Multivocal Literature Review)の結果に基づく応答性AIパターンカタログを提案する。 原則やアルゴリズムのレベルにとどまらず、私たちは、AIシステムのステークホルダーが実際に行なえるパターンに注目して、開発済みのAIシステムがガバナンスとエンジニアリングライフサイクル全体を通して責任を負うようにします。
論文 参考訳(メタデータ) (Wed, 14 Sep 2022 00:00:06 GMT)- Responsible AIに関するサーベイ、よくまとまっており外部資料へのリンクが多いのがありがたい。
- eco2AI: carbon emissions tracking of machine learning models as the first step towards sustainable AI [47.1]
eco2AIでは、エネルギー消費の追跡と地域CO2排出量の正当性に重点を置いている。 モチベーションは、サステナブルAIとグリーンAI経路の両方で、AIベースの温室効果ガスの隔離サイクルの概念からもたらされる。
論文 参考訳(メタデータ) (Sun, 31 Jul 2022 09:34:53 GMT)
- RealTime QA: What’s the Answer Right Now? [113.0]
本稿では,動的質問応答(QA)プラットフォームであるRealTime QAを紹介する。 GPT-3は、新しく検索された文書に基づいて、しばしばその生成結果を適切に更新することができる。 検索した文書が回答を見つけるのに十分な情報を提供していない場合、GPT-3は時代遅れの回答を返す傾向にある。
論文 参考訳(メタデータ) (Wed, 27 Jul 2022 07:26:01 GMT)- QAを現実世界、実時間で評価していく取り組み。Question Answeringモデルの実運用が現実的なのか知る上でも非常に興味深い。
- プロジェクトサイトはHome | RealTime QA
- Leakage and the Reproducibility Crisis in ML-based Science [5.1]
データ漏洩は確かに広範な問題であり、深刻な失敗につながっていることを示す。 教科書の誤りからオープンな研究問題まで,8種類の漏洩の詳細な分類法を提示する。 本稿では,MLモデルに基づく科学的主張を報告するためのモデル情報シートを提案する。
論文 参考訳(メタデータ) (Thu, 14 Jul 2022 16:44:59 GMT)