Superintelligent Agents Pose Catastrophic Risks: Can Scientist AI Offer a Safer Path?

  • Superintelligent Agents Pose Catastrophic Risks: Can Scientist AI Offer a Safer Path? [37.1]
    未確認のAI機関は、公共の安全とセキュリティに重大なリスクをもたらす。 これらのリスクが現在のAIトレーニング方法からどのように生じるかについて議論する。 我々は,非エージェント型AIシステムの開発をさらに進めるために,コアビルディングブロックを提案する。
    論文  参考訳(メタデータ)   (Mon, 24 Feb 2025 18:14:15 GMT)
  • 「As we implement agentic AI systems, we should ask ourselves whether and how these less desirable traits will also arise in the artificial setting, especially in the case of anticipated future AI systems with intelligence comparable to humans (often called AGI, for artificial general intelligence) or superior to humans (ASI, for artificial superintelligence).」というASI,AGI+Agenticな状況でとるべき対応についての論文。Yoshua BengioがLead author

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です