Beyond Explainable AI (XAI): An Overdue Paradigm Shift and Post-XAI Research Directions 

  • Beyond Explainable AI (XAI): An Overdue Paradigm Shift and Post-XAI Research Directions [95.6]
    本研究では、ディープニューラルネットワーク(DNN)と大規模言語モデル(LLM)に焦点をあてる、説明可能な人工知能(XAI)アプローチに焦点を当てる。 より深い根本原因に起因する致命的な症状(2つのパラドックス、2つの概念的混乱、5つの誤った仮定)について論じる。 XAIの限界を超えて、信頼性と認定されたAI開発に向けた4つのパラダイムシフトを提案する。
    論文  参考訳(メタデータ)   (Fri, 27 Feb 2026 16:58:27 GMT)
  • 「After nearly a decade, the legacy of the XAI program is increasingly questioned, with critics arguing that challenges have outweighed achievements. It is described as being “in trouble” [6], and some scholars suggest it should be “stopped” for high-stakes decisions [21] or has no role in the future of human-centric AI approaches [22]; others view it as myth [23] or consider it already “dead” [24].」と厳しい指摘を認識しつつのXAIの現状と今後に関するサーベイ。

What Breaks Embodied AI Security:LLM Vulnerabilities, CPS Flaws,or Something Else? 

  • What Breaks Embodied AI Security:LLM Vulnerabilities, CPS Flaws,or Something Else? [28.1]
    身体化されたAIシステムは、制御された環境から安全クリティカルな現実世界へのデプロイへと急速に移行している。 非身体化AIとは異なり、インボディードインテリジェンスにおける失敗は、不可逆的な物理的結果をもたらす。 我々は,システムレベルのミスマッチから,重大な障害が生じることを論じる。
    論文  参考訳(メタデータ)   (Thu, 19 Feb 2026 13:29:00 GMT)
  • Embodied AIに特徴的な安全性に関するサーベイ。「we identify four core insights that explain why embodied AI is fundamentally harder to secure: (i) semantic correctness does not imply physical safety, as language-level reasoning abstracts away geometry, dynamics, and contact constraints; (ii) identical actions can lead to drastically different outcomes across physical states due to nonlinear dynamics and state uncertainty; (iii) small errors propagate and amplify across tightly coupled perception–decision–action loops; and (iv) safety is not compositional across time or system layers, enabling locally safe decisions to accumulate into globally unsafe behavior. 」

Data Science and Technology Towards AGI Part I: Tiered Data Management

  • Data Science and Technology Towards AGI Part I: Tiered Data Management [53.6]
    我々は、人工知能の開発がデータモデル共進化の新しい段階に入ったと論じる。 我々は、未処理のリソースから組織的で検証可能な知識まで、L0-L4階層のデータ管理フレームワークを紹介します。 提案手法の有効性を実証研究により検証する。
    論文  参考訳(メタデータ)   (Mon, 09 Feb 2026 18:47:51 GMT)
  • データの軸から見たAGI実現への分析、「Our results suggest that effective data management should be treated as a first-class engineering problem, rather than an auxiliary preprocessing step.」はその通りだと思う。
  • リポジトリはUltraData – a openbmb Collection

Self-evolving Embodied AI

  • Self-evolving Embodied AI [31.5]
    エンボディード・人工知能(英語: Embodied Artificial Intelligence、AI)は、エージェントとその環境によって、能動的知覚、具体的認知、行動相互作用を通じて形成されるインテリジェントなシステムである。 本稿では,エージェントが変化状態と環境に基づいて動作する新たなパラダイムである,自己進化型エンボディAIを紹介する。
    論文  参考訳(メタデータ)   (Wed, 04 Feb 2026 10:40:34 GMT)
  • Embodiedかつ自己進化するAIに関する紹介、サーベイ。夢物語ではなくなっている点に驚く。

Can LLMs Clean Up Your Mess? A Survey of Application-Ready Data Preparation with LLMs 

  • Can LLMs Clean Up Your Mess? A Survey of Application-Ready Data Preparation with LLMs [66.6]
    データ準備は、生のデータセットを識別し、データセット間の関係を解明し、それらから貴重な洞察を抽出することを目的としている。 本稿では,様々な下流タスクのためのデータ準備にLLM技術を用いることに焦点を当てる。 データクリーニング、標準化、エラー処理、計算、データ統合、データ豊か化という3つの主要なタスクにフィールドを編成するタスク中心の分類を導入します。
    論文  参考訳(メタデータ)   (Thu, 22 Jan 2026 12:02:45 GMT)
  • LLMを用いたデータ整理に関するサーベイ。
  • リポジトリはGitHub – weAIDB/awesome-data-llm: Official Repository of “LLM × DATA” Survey Paper

Locate, Steer, and Improve: A Practical Survey of Actionable Mechanistic Interpretability in Large Language Models 

Agentic Reasoning for Large Language Models

  • Agentic Reasoning for Large Language Models [122.8]
    推論は推論、問題解決、意思決定の基礎となる基本的な認知プロセスである。 大規模言語モデル(LLM)は、クローズドワールド設定では強力な推論能力を示すが、オープンエンドおよび動的環境では苦労する。 エージェント推論は、連続的な相互作用を計画し、行動し、学習する自律的なエージェントとしてLLMを解釈することでパラダイムシフトを示す。
    論文  参考訳(メタデータ)   (Sun, 18 Jan 2026 18:58:23 GMT)
  • 「Agentic reasoning positions reasoning as the central mechanism of intelligent agents, spanning foundational capabilities (planning, tool use, and search), self-evolving adaptation (feedback, and memory-driven adaptation), and collective coordination (multi-agent collaboration), realizable through either in-context orchestration or post-training optimization.」として整理されたサーベイ。In-context Reasoning、Post-training Reasoningの両方を含む。
  • リポジトリはGitHub – weitianxin/Awesome-Agentic-Reasoning

Toward Efficient Agents: Memory, Tool learning, and Planning

The AI Hippocampus: How Far are We From Human Memory?

  • The AI Hippocampus: How Far are We From Human Memory? [77.0]
    インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。 明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。 エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
    論文  参考訳(メタデータ)   (Wed, 14 Jan 2026 03:24:08 GMT)
  • 「Implicit memory refers to the knowledge embedded within the internal parameters of pre-trained transformers, encompassing their capacity for memorization, associative retrieval, and contextual reasoning. Recent work has explored methods to interpret, manipulate, and reconfigure this latent memory. Explicit memory involves external storage and retrieval components de- signed to augment model outputs with dynamic, queryable knowledge representations—such as textual corpora, dense vectors, and graph-based structures—thereby enabling scalable and updatable interaction with information sources. Agentic memory introduces persistent, temporally extended memory structures within autonomous agents, facilitating long-term planning, self-consistency, and collaborative behavior in multi-agent systems, with relevance to embodied and interactive AI.」という、AI Memory、いわゆるAIの記憶に関するサーベイ。
  • リポジトリはhttps://github.com/bigai-nlco/LLM-Memory-Survey

What Matters For Safety Alignment? 

  • What Matters For Safety Alignment? [38.9]
    本稿では,AIシステムの安全アライメント能力に関する総合的研究について述べる。 本研究では,6つの重要な内在モデル特性と3つの外部攻撃手法の影響を系統的に検討し,比較した。 LRMs GPT-OSS-20B, Qwen3-Next-80B-A3B-Thinking, GPT-OSS-120Bを最も安全な3つのモデルとして同定した。
    論文  参考訳(メタデータ)   (Wed, 07 Jan 2026 12:31:52 GMT)
  • 「We systematically investigate and compare the influence of six critical intrinsic model characteristics and three external attack techniques. Our large-scale evaluation is conducted using 32 recent, popular LLMs and LRMs across thirteen distinct model families, spanning a parameter scale from 3B to 235B.」と安全性からのLLM/LRMの評価。「The top-three safest families OpenAI GPT-OSS [5], Alibaba Qwen3-Next [27], and Google Gemma-3 [28] are dramatically safer than the top-three most vulnerable Deepseek- R1Distilled [2], Mistral-v0.3 [29], and Seed-OSS [30] families. These disparities can be interpreted as indicators of varying institutional investments in safety research and relative maturity in model training pipelines and infrastructures.」としている。
  • 基本的のは公開モデルが対象のよう。