Agentic Confidence Calibration

  • Agentic Confidence Calibration [67.5]
    Holistic Trajectory (HTC)はAIエージェントの新しい診断フレームワークである。 HTCはキャリブレーションと差別の両方において、強力なベースラインを一貫して超えている。 HTCは、障害の背後にあるシグナルを明らかにすることによって、解釈可能性を提供する。
    論文  参考訳(メタデータ)   (Thu, 22 Jan 2026 09:08:25 GMT)
  • 「Our work addresses compounding uncertainty, heterogeneous signals, and data scarcity, yielding three key takeaways: (1) calibration relies on a hierarchy of diagnostic signals; (2) HTC features capture a transferable “uncertainty patterns” enabling strong cross-task generalization while exposing limits under distribution shift; and (3) a pretrained General Agent Calibrator (GAC) achieves the best ECE (zero-shot) on unseen tasks like GAIA, providing a plug-and-play foundation.」とエージェントの信頼度を総合的に評価していくフレームワーク

The AI Hippocampus: How Far are We From Human Memory?

  • The AI Hippocampus: How Far are We From Human Memory? [77.0]
    インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。 明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。 エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
    論文  参考訳(メタデータ)   (Wed, 14 Jan 2026 03:24:08 GMT)
  • 「Implicit memory refers to the knowledge embedded within the internal parameters of pre-trained transformers, encompassing their capacity for memorization, associative retrieval, and contextual reasoning. Recent work has explored methods to interpret, manipulate, and reconfigure this latent memory. Explicit memory involves external storage and retrieval components de- signed to augment model outputs with dynamic, queryable knowledge representations—such as textual corpora, dense vectors, and graph-based structures—thereby enabling scalable and updatable interaction with information sources. Agentic memory introduces persistent, temporally extended memory structures within autonomous agents, facilitating long-term planning, self-consistency, and collaborative behavior in multi-agent systems, with relevance to embodied and interactive AI.」という、AI Memory、いわゆるAIの記憶に関するサーベイ。
  • リポジトリはhttps://github.com/bigai-nlco/LLM-Memory-Survey

Understanding Multilingualism in Mixture-of-Experts LLMs: Routing Mechanism, Expert Specialization, and Layerwise Steering

  • Understanding Multilingualism in Mixture-of-Experts LLMs: Routing Mechanism, Expert Specialization, and Layerwise Steering [61.1]
    本研究では,中間層におけるルーティング動作を,支配言語に関連する共有専門家に適応的に誘導するルーティング誘導型ステアリング手法を提案する。
    論文  参考訳(メタデータ)   (Tue, 20 Jan 2026 15:04:25 GMT)
  • 「anguages within the same linguistic family tend to share similar routing distributions, whereas linguistically distant languages are routed through more distinct subsets of experts (cf. Section 4.2). Moreover, both routing similarity and expert utilization display a pronounced layerwise structure.」、「Dominant languages serve as central hubs for cross-lingual capacity sharing, high-resource languages rely heavily on shared experts, whereas low-resource languages depend more on language- exclusive experts yet remain weak」と納得感があり、かつ、興味深い結果
  • リポジトリはGitHub – conctsai/Multilingualism-in-Mixture-of-Experts-LLMs