コンテンツへスキップ
- IoT Data Analytics in Dynamic Environments: From An Automated Machine Learning Perspective [10.4]
本稿では,AutoMLの領域におけるモデル選択,チューニング,手順の更新において,既存の手法の見直しを行う。 我々の発見を正当化し、産業ユーザや研究者がAutoMLアプローチをよりうまく実装するのを助けるために、AutoMLをIoT異常検出問題に適用するケーススタディが実施されている。
論文 参考訳(メタデータ) (Fri, 16 Sep 2022 16:02:56 GMT)
- Lost in Translation: Reimagining the Machine Learning Life Cycle in Education [12.8]
機械学習(ML)技術は、教育においてますます普及している。 ML技術が長年の教育原則と目標をどのように支えているかを調べる必要がある。 本研究では,教育専門家へのインタビューから得られた質的な洞察をもとに,この複雑な景観を考察した。
論文 参考訳(メタデータ) (Thu, 8 Sep 2022 17:14:01 GMT)- 教育へのAI適用についてインタビューを行った結果をまとめた論文。社会実装に関わる課題、教育ということもあり倫理に関連する話題も多い。
- Responsible AI Pattern Catalogue: A Multivocal Literature Review [13.2]
MLR(Multivocal Literature Review)の結果に基づく応答性AIパターンカタログを提案する。 原則やアルゴリズムのレベルにとどまらず、私たちは、AIシステムのステークホルダーが実際に行なえるパターンに注目して、開発済みのAIシステムがガバナンスとエンジニアリングライフサイクル全体を通して責任を負うようにします。
論文 参考訳(メタデータ) (Wed, 14 Sep 2022 00:00:06 GMT)- Responsible AIに関するサーベイ、よくまとまっており外部資料へのリンクが多いのがありがたい。
- eco2AI: carbon emissions tracking of machine learning models as the first step towards sustainable AI [47.1]
eco2AIでは、エネルギー消費の追跡と地域CO2排出量の正当性に重点を置いている。 モチベーションは、サステナブルAIとグリーンAI経路の両方で、AIベースの温室効果ガスの隔離サイクルの概念からもたらされる。
論文 参考訳(メタデータ) (Sun, 31 Jul 2022 09:34:53 GMT)
- RealTime QA: What’s the Answer Right Now? [113.0]
本稿では,動的質問応答(QA)プラットフォームであるRealTime QAを紹介する。 GPT-3は、新しく検索された文書に基づいて、しばしばその生成結果を適切に更新することができる。 検索した文書が回答を見つけるのに十分な情報を提供していない場合、GPT-3は時代遅れの回答を返す傾向にある。
論文 参考訳(メタデータ) (Wed, 27 Jul 2022 07:26:01 GMT)- QAを現実世界、実時間で評価していく取り組み。Question Answeringモデルの実運用が現実的なのか知る上でも非常に興味深い。
- プロジェクトサイトはHome | RealTime QA
- Leakage and the Reproducibility Crisis in ML-based Science [5.1]
データ漏洩は確かに広範な問題であり、深刻な失敗につながっていることを示す。 教科書の誤りからオープンな研究問題まで,8種類の漏洩の詳細な分類法を提示する。 本稿では,MLモデルに基づく科学的主張を報告するためのモデル情報シートを提案する。
論文 参考訳(メタデータ) (Thu, 14 Jul 2022 16:44:59 GMT)
- Developing a Series of AI Challenges for the United States Department of the Air Force [38.3]
DAF-MIT AI Acceleratorは、AI研究者とDAFのミッション要件の間のギャップを埋めるための、DAFとMITの間のイニシアチブである。 DAF-MIT AI Acceleratorが支援するいくつかのプロジェクトは、多くの連邦AI研究優先順位に対処する公的な課題を開発している。 これらの課題は、大規模でAI対応のデータセットを公開し、オープンソースソリューションのインセンティブを与え、デュアルユースケーステクノロジの需要信号を作成することによって、優先順位を目標とする。
論文 参考訳(メタデータ) (Thu, 14 Jul 2022 16:13:40 GMT)- アメリカ空軍でのAI利用に関する紹介。データの公開やオープンソースが利用されているのが意外だった。
- “Why do so?” — A Practical Perspective on Machine Learning Security [21.5]
我々は139人の産業従事者との攻撃発生と懸念を分析した。 私たちの結果は、デプロイされた機械学習に対する現実世界の攻撃に光を当てています。 我々の研究は、現実の敵対的機械学習に関するさらなる研究の道を開くものだ。
論文 参考訳(メタデータ) (Mon, 11 Jul 2022 19:58:56 GMT)- AIに対する攻撃に関する調査で、100人以上を対象としており興味深い。Poisoningなどに危険性を感じている人が思ったよりも多いという印象。
- Bia Mitigation for Machine Learning Classifiers: A Comprehensive Survey [25.3]
本稿では,機械学習(ML)モデルにおける公平性を実現するためのバイアス緩和手法を包括的に調査する。 ML分類器のバイアス軽減に関する合計234の論文を収集する。 本論文では,既存のバイアス緩和手法について検討する。
論文 参考訳(メタデータ) (Thu, 14 Jul 2022 17:16:45 GMT)- 機械学習による分類器に対してバイアスを緩和する手法のサーベイ。200以上の論文がサーベイ対象であり、多種多様なアプローチ、手法があることに驚き。
- Revealing Unfair Models by Mining Interpretable Evidence [50.5]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。 本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。 本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (Tue, 12 Jul 2022 20:03:08 GMT)- 不公平さをエビデンス付きで明らかにするタスク・手法の提案
- 社会実装のために重要な技術であると思う