Survey of User Interface Design and Interaction Techniques in Generative AI Applications 

  • Survey of User Interface Design and Interaction Techniques in Generative AI Applications [79.6]
    我々は,デザイナやディベロッパの参照として使用できる,さまざまなユーザインタラクションパターンのコンペレーションを作ることを目指している。 また、生成AIアプリケーションの設計についてもっと学ぼうとする人たちの参入障壁を低くしようと努力しています。
    論文  参考訳(メタデータ)   (Mon, 28 Oct 2024 23:10:06 GMT)
  • 生成AIを使うアプリケーションのUIについてまとめたサーベイ
  • 珍しいサーベイ

From Google Gemini to OpenAI Q* (Q-Star): A Survey of Reshaping the Generative Artificial Intelligence (AI) Research Landscape

  • From Google Gemini to OpenAI Q* (Q-Star): A Survey of Reshaping the Generative Artificial Intelligence (AI) Research Landscape [5.9]
    生成人工知能(AI)の現状と今後の動向について批判的考察 GoogleのGeminiや、予想されるOpenAI Q*プロジェクトといったイノベーションが、さまざまなドメインにわたる研究の優先順位とアプリケーションをどう変えているのかを調査した。 この研究は、倫理的および人間中心の手法をAI開発に取り入れることの重要性を強調し、社会規範と福祉の整合性を確保した。
    論文  参考訳(メタデータ)   (Mon, 18 Dec 2023 01:11:39 GMT)
  • 生成AIに関するサーベイで歴史を振り返るのに参考になる。刺激的な内容も含まれるがほんまかいなと思わなくもない。

The Generative AI Paradox: “What It Can Create, It May Not Understand”

  • The Generative AI Paradox: “What It Can Create, It May Not Understand” [81.9]
    生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。 同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。 一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
    論文  参考訳(メタデータ)   (Tue, 31 Oct 2023 18:07:07 GMT)
  • 様々な軸での生成AIのテストと評価、「In particular, they imply that existing conceptualizations of intelligence, as derived from experience with humans, may not be applicable to artificial intelligence—although AI capabilities may resemble human intelligence, the capability landscape may diverge in fundamental ways from expected patterns based on humans.」という指摘が面白い。English benchmark for stress-testing machine ToM – arXiv最新論文の紹介 (devneko.jp)の時も思ったが知性って何だろう?と改めて不思議になる。

AI Deception: A Survey of Examples, Risks, and Potential Solutions 

  • AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.8]
    本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。 我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
    論文  参考訳(メタデータ)   (Mon, 28 Aug 2023 17:59:35 GMT)
  • AIが「人を欺く」方法を学んだとして、リスクとその解決策を調査した論文。事例が多く紹介されておりとても興味深い。
  • 「Regulation」「Bot-or-not laws」「Detection」「Making AI systems less deceptive」の4つが解説策として挙げられている。開発側に何らかの制約をかけないと対応困難なのだろうか。

Identifying and Mitigating the Security Risks of Generative AI

  • Identifying and Mitigating the Security Risks of Generative AI [179.2]
    本稿では,GenAIによるジレンマに関するGoogleのワークショップの成果を報告する。 GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。 この話題について,コミュニティの短期的,長期的目標について論じる。
    論文  参考訳(メタデータ)   (Mon, 28 Aug 2023 18:51:09 GMT)
  • LLMなど生成AIを使った攻撃と防御に関して整理した論文。Capability, Attack, Defenceと整理されている。AttackのところではSpear-phishing、Hallucinations、Dissemination of deepfakes、Proliferation of cyberattacks、Low barrier-of-entry for adversaries、Lack of social awareness and human sensibility、 Data feedback loops、Unpredictabilityが挙げられている。Unpredictabilityに「Currently, we remain unaware of the full range of capabilities and threats posed by GenAI models.」とあるのが興味深い。