コンテンツへスキップ
- Investigating Explainability of Generative AI for Code through Scenario-based Design [44.4]
生成AI(GenAI)技術は成熟し、ソフトウェア工学のようなアプリケーションドメインに適用されています。 私たちは43人のソフトウェアエンジニアと9つのワークショップを開催しました。そこでは、最先端のジェネレーティブAIモデルの実例を使って、ユーザの説明可能性のニーズを導き出しました。 我々の研究は、GenAIのコードに対する説明可能性の必要性を探求し、新しいドメインにおけるXAIの技術開発を人間中心のアプローチがいかに促進するかを実証する。
論文 参考訳(メタデータ) 参考訳(全文) (Thu, 10 Feb 2022 08:52:39 GMT)- 最近流行りつつあるコード生成を対象としたXAIの整理。ワークショップを行い11のカテゴリを特定とのこと。通常のXAIでは見られない(具体化されていない?)項目もあって興味深い。
- Input、Output、How(global) 、Perfomance、How to 、Control、Why / Why not、Data、System Requirement & Impact、Limitation、What if
- Towards a consistent interpretation of AIOps models [24.2]
内部整合性,外部整合性,時間整合性という,AIOpsモデルの解釈の整合性について検討する。 学習者からのランダム性、ハイパーパラメータチューニング、データサンプリングは、一貫した解釈を生成するために制御されるべきである。 我々の研究は、実践者が一貫したAIOpsモデルの解釈を引き出すための貴重なガイドラインを提供する。
論文 参考訳(メタデータ) (Fri, 4 Feb 2022 18:33:14 GMT)- AI Opsと解釈性に関する論文、興味深いサーベイ