- A Comprehensive Picture of Factors Affecting User Willingness to Use Mobile Health Applications [62.6]
本研究の目的は,mHealthアプリのユーザ受け入れに影響を与える要因を検討することである。 利用者のデジタルリテラシーは、個人情報を共有するオンライン習慣に続き、使用意欲に最も強い影響を与える。 居住国、年齢、民族、教育などの利用者の人口統計学的背景は、顕著な緩和効果がある。
論文 参考訳(メタデータ) (Wed, 10 May 2023 08:11:21 GMT) - モバイルヘルスアプリケーションを受け入れるか否かについて、どのような因子が重要か調べた論文。複数の国が対象だが、残念ながら日本は入っていない。
- 「our study reveals that users’ privacy concern had only a moderate impact, which was outweighed by users’ digital literacy.」というのはやや意外な結果。日本だと話は別だったりするのだろうか。
タグ: 社会実装
バイアス修正
同日に公平性関連の論文が出ており非常に参考になった。社会実装上とても大事。
- FLAC: Fairness-Aware Representation Learning by Suppressing Attribute-Class Associations [11.2]
本研究は,属性ラベルを使わずに,モデルが抽出した特徴と保護属性との間の相互情報を最小化する手法を導入する。 理論上、保護された属性とは無関係な公正な表現につながることが示されている。
論文 参考訳(メタデータ) (Thu, 27 Apr 2023 15:10:46 GMT) - リポジトリはGitHub – gsarridis/FLAC: Fairness-Aware Representation Learning by Suppressing Attribute-Class Associations
- FairBalance: How to Achieve Equalized Odds With Data Pre-processing [33.0]
本研究は、機械学習ソフトウェアにおける等化オッズフェアネスを達成するための、単純で効果的な前処理アプローチを提供することにより、ソフトウェア工学社会の利益を目指している。 学習データに計算重みを割り当てることで,各階層群のクラス分布のバランスをとる前処理アルゴリズムであるFairBalanceを提案する。
論文 参考訳(メタデータ) (Wed, 26 Apr 2023 13:48:17 GMT) - Equalized Oddsを達成するための前処理手法の提案
- 性能を完全に維持できているわけではないが優秀そうな方法
- リポジトリはGitHub – hil-se/FairBalance
AIOpsのサーベイ
- AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities and Challenges [60.6]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。 我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。 主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (Mon, 10 Apr 2023 15:38:12 GMT) - AIOpsのサーベイ、AIOpsの定義は「AIOps combines big data and machine learning to automate IT operations processes, including event correlation, anomaly detection and causality determination」とのこと。
- 監視部分には(マルチモーダルな)LLMが入ったりしていくんだろうなと思わなくもない。
Foundation Models and Fair Use
- Foundation Models and Fair Use [96.0]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。 本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。 基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (Tue, 28 Mar 2023 03:58:40 GMT) - Foundation ModelとFair Useに関する分析。様々なデータセットにグレーなデータが入っているのは事実で「Thus, the risk of infringement is real, and fair use will not cover every scenario where a foundation model is created or used.」という指摘は重要
- 結局は裁判の中で決着していくものであろうし、日本の著作権法だとまた違った見解になるのだろうが、この報告の中では(完ぺきではないにしろ)緩和策にも触れられているのがありがたい。
Users are the North Star for AI Transparency
- Users are the North Star for AI Transparency [111.6]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。 このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。 透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (Thu, 9 Mar 2023 18:53:29 GMT) - AIの透明性(AI Transparency)について調査した論文で、様々な文脈・意図で使われていることが分かる。
- 何とか性とカテゴライズすると安心しがちだが、実はその解釈が異なっていることは多いので詳細を詰めていくことはとても重要。
AutoMLの実際
- AutoML in The Wild: Obstacles, Workarounds, and Expectations [34.7]
本研究は,現実の実践においてユーザが遭遇するAutoMLの限界を理解することに焦点を当てる。 その結果,カスタマイズ性,透明性,プライバシーから生じる3つの大きな課題を克服するために,ユーザエージェンシーを積極的に実施していることが判明した。
論文 参考訳(メタデータ) (Tue, 21 Feb 2023 17:06:46 GMT) - AutoMLの実践(課題と対策)についてインタビュー(19人)から整理した論文
- 実践者に対するインタビューはとても参考になるのと「AutoMLの不備については良く知りつつ実用的に対応している」という点がやや驚きだった。使えそうであれば様々な方法で克服していけるのであれば最近の対話系モデルもどうにかして実用していけるのかもと思わなくもない。
信頼できるAIとCausality
- A Review of the Role of Causality in Developing Trustworthy AI Systems [16.3]
最先端のAIモデルは、現実世界の人間の理解を支配する因果関係の理解がほとんどない。 近年,AIモデルの信頼性を向上するための強力なツールとして因果モデリングや推論手法が登場している。
論文 参考訳(メタデータ) (Tue, 14 Feb 2023 11:08:26 GMT) - Trustworthy AIに対する因果推論や因果モデリングの役割を整理したサーベイ
- Interpretability、Fairness、Robustness、Privacy、Safety and Accountability(Auditing)に対する因果性の効果が整理されている
対話システムにおけるSafe, Rensponsible, Moralのサーベイ
- Recent Advances towards Safe, Responsible, and Moral Dialogue Systems: A Survey [51.8]
安全・責任・モダル対話システム構築に向けた研究範囲の新たな視点を提示する。 本稿では,1)虐待的・有害な内容,2)不公平・差別,3)倫理的・道徳的問題,および4)誤認・プライバシー情報のリスクについて論じる。
論文 参考訳(メタデータ) (Sat, 18 Feb 2023 09:32:55 GMT) - 最近話題の対話システムに対して社会実装上避けては通れない要素のサーベイ
- 5章のトレンドも参考になる
- 1) explainable safety monitoring
- 2) continuous learning of safety issues
- 3) robustness against malicious attacks
- 4) multimodal information processing
- 5) unified research framework
- 6) multidisciplinary theory integration
FairPy
- FairPy: A Toolkit for Evaluation of Social Biases and their Mitigation in Large Language Models [7.3]
大規模な事前訓練された言語モデルは、人種、性別等に基づく社会集団に対する偏見を示すことが研究で示されている。 様々な研究者がこれらのバイアスを定量化し識別するための数学的ツールを提案している。 本稿では,人種,性別,民族,年齢など,さまざまなバイアスの包括的定量的評価を行う。
論文 参考訳(メタデータ) (Fri, 10 Feb 2023 20:54:10 GMT) - バイアスの定量化、緩和のためのフレームワーク。様々な手法に対応。
- リポジトリはGitHub – HrishikeshVish/Fairpy
Extracting Training Data from Diffusion Models
- Extracting Training Data from Diffusion Models [77.1]
拡散モデルはトレーニングデータから個々の画像を記憶し,生成時に出力することを示す。 生成とフィルタのパイプラインを用いて、最先端のモデルから数千以上のトレーニング例を抽出する。 さまざまな設定で何百もの拡散モデルをトレーニングし、モデリングとデータ決定の違いがプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (Mon, 30 Jan 2023 18:53:09 GMT) - Diffusionモデルは絵を生成している?複製している? – arXiv最新論文の紹介 (devneko.jp)と近しい話題で画像を記憶し元データと非常に近い画像を出力することがあるとの報告。「We see that state-of-the-art diffusion models memorize 2× more than comparable GANs」と記載があり、GANより深刻とのこと。
- 人間でも似たようなことはある…という話はあるものの社会実装では対策が必要だと思う。(元画像に近いかどうかというものだが、著作権や商標を侵害しなけない出力への対応も必要)