AI+HW 2035: Shaping the Next Decade

  • AI+HW 2035: Shaping the Next Decade [135.5]
    人工知能(AI)とハードウェア(HW)は前例のない速度で進歩している。 このビジョンペーパーは、AI+HWの共同設計と共同開発のための10年間のロードマップをレイアウトし、アルゴリズム、アーキテクチャ、システム、持続可能性にまたがる。 主要な課題と機会を特定し、潜在的な障害や落とし穴を効果的に評価し、統合されたソリューションを提案する。
    論文  参考訳(メタデータ)   (Thu, 05 Mar 2026 14:36:33 GMT)
  • ハードウェアを含む現状と少し先の未来に関する論文。「Key Questions and Answers」が適時あって読みやすい。
  • 「 Establish dedicated AI+HW co-design and co-development programs that elevate hardware as a first-class driver of the next AI revolution, rather than treating it as a downstream optimization layer.」はまさにその通りではあるが、言うは易く行うは難しという印象。

Modular Memory is the Key to Continual Learning Agents

  • Modular Memory is the Key to Continual Learning Agents [100.1]
    In-Weight Learning(IWL)の強みと、モジュラーメモリの設計を通じて新たに登場したIn-Context Learning(ICL)の機能を組み合わせることが、大規模に継続的適応するための欠片である、と我々は主張する。 我々は、ICLを高速適応と知識蓄積に活用するモジュール型メモリ中心アーキテクチャの概念的フレームワークと、モデル機能の安定した更新のためのIWLについて概説する。
    論文  参考訳(メタデータ)   (Mon, 02 Mar 2026 11:40:05 GMT)
  • 「Here, we argue that the key to intelligent adaptation and knowledge accumulation lies in combining the strengths of the two learning mechanisms, ICL and IWL, under a modular memory architecture in which a pretrained core model is augmented with distinct memory modules: a working memory for active context and a long-term memory for rapid adaptation and knowledge accumulation. 」とIn Context Learning的なメモリ(作業用と長期メモリを含む)、とIn Weight Learning(低頻度、左記長期メモリのうち必要分を取り込む)の組み合わせが重要という主張で納得感がある。Memoryの現状も整理されている。

CUDA Agent: Large-Scale Agentic RL for High-Performance CUDA Kernel Generation 

  • CUDA Agent: Large-Scale Agentic RL for High-Performance CUDA Kernel Generation [51.7]
    カーネルの専門知識を3つのコンポーネントで開発する大規模なエージェント強化学習システムである。従来の方法に比べ、エージェントはスケーラブルなデータ合成パイプラインと自動検証環境を活用し、安定した訓練を実現した。KernelBenchの性能テストでは、torch.compileに対して最大40%の性能向上を達成。
    論文  参考訳(メタデータ)   (Fri, 27 Feb 2026 18:58:05 GMT)
  • 「We introduced CUDA Agent, a large-scale agentic reinforcement learning system that endows large language models with the ability to generate and optimize CUDA kernels under realistic, execution-driven development workflows. By jointly scaling data synthesis, agent environments, and stability-oriented RL training, CUDA Agent moves LLMs beyond syntactic code generation toward hardware-aware performance optimization, achieving consistent gains over torch.compile and strong proprietary models on KernelBench.」とのこと。ベースモデルはSeed1.6、ここまでやらないと・・・という点、Skillsで結合するような構成も興味深い。
  • プロジェクトサイトはCUDA Agent | Large-Scale Agentic RL for CUDA Kernel Generation