An Approach to Technical AGI Safety and Security

  • An Approach to Technical AGI Safety and Security [72.8]
    我々は、人類を著しく傷つけるのに十分な害のリスクに対処するアプローチを開発する。 私たちは、誤用や悪用に対する技術的なアプローチに重点を置いています。 これらの成分を組み合わせてAGIシステムの安全性を実現する方法について概説する。
    論文  参考訳(メタデータ)   (Wed, 02 Apr 2025 15:59:31 GMT)
  • Google DeepmindによるAGI Safetyに関する論文。非常に興味深い内容であり、また、「Timelines: We are highly uncertain about the timelines until powerful AI systems are developed, but crucially, we find it plausible that they will be developed by 2030.」、「Importantly, AI progress does not usually involve large discontinuous jumps in capability assuming continuous increases in inputs (Section 3.5), though the overall pace of progress may accelerate (Section 3.4).」など所々に刺激的な記載がある。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です