コンテンツへスキップ
- The Who in Explainable AI: How AI Background Shapes Perceptions of AI Explanations [14.3]
我々は、AIの背景と背景のない2つの異なるグループが、異なるタイプのAI説明を知覚する方法について、混合方法論による研究を行う。 私たちは、信頼、知性、理解可能性、第二のチャンス、友好性の5つの側面に沿って、知覚が何であるかを定量的に共有します。
論文 参考訳(メタデータ) (Wed, 28 Jul 2021 17:32:04 GMT)- AIに関するバックグラウンドの有無によってAIの説明の受け止め方が異なるかを検証した論文。疑似的なロボットをRationale-Generating(自然言語で詳細な動作理由を出力、きちんとした内容、以下RG)、Action-Declaring (動作のみを記載、説明ではない、以下AD)、 Numerical-Reasoning(数値のみを出力、理由とは言えない、以下NR)の3つ設定、どれが好まれるかを検証。AIのバックグラウンドのある人は基本的にRGを好むが、そうでないグループでは常にRGが好まれるとは限らない。ADとRGの好みに差があるなどグループ間で差異が存在。また本来説明になっていないAD、NRに価値を見出すこともあったとのこと。
- 「AI group seemed to have an instinctual response to numerical values; they assumed that the numbers possess all the information needed to manipulate, diagnose, and reverse engineer.」というのは非常に重要(で怖い)指摘。
- 説明が正しく機能するかはXAIの重要な部分でhttps://arxiv.org/abs/2006.14779のような指摘にも関連している。色々な手法が開発されているもののXAIの実利用は発展途上という印象。前に書いた通り有用な技術であることは間違いなく、今後の発展が期待される。
- 本論も良いが前半のBACKGROUDの記載内容が非常に参考になる。
- 残念ながらFuguMTの訳がひどい。新verでは改善される予定。。。
- MWP-BERT: A Strong Baseline for Math Word Problems [47.5]
数学語問題( Math word problem、MWP)とは、自然言語による問題記述の列を、実行可能な数学方程式に変換するタスクである。 近年, MWP の逐次モデル化は, 文脈理解の数学的側面から評価されているが, 事前学習言語モデル (PLM) はMWP の解法として研究されていない。 我々はMWP-BERTを導入し、テキスト記述と数理論理の整合性を捉える事前訓練されたトークン表現を得る。
論文 参考訳(メタデータ) (Wed, 28 Jul 2021 15:28:41 GMT)- 事前学習言語モデルを用いたMWP(テキストの記述を方程式に変換するタスク)に関する報告。Math23Kで6%と大幅な改善を達成とのこと。