Distilling On-device Language Models for Robot Planning with Minimal Human Intervention 

  • Distilling On-device Language Models for Robot Planning with Minimal Human Intervention [117.9]
    PRISMは、SLM(Small Language Model)対応ロボットプランナーを蒸留するためのフレームワークである。 PRISMを3つのLCM対応プランナーに適用し、マッピング、探索、操作、家事支援を行う。 GPT-4o の 10-20% から 93% 以上まで, PRISM は Llama-3.2-3B の性能を向上することを示した。
    論文  参考訳(メタデータ)   (Fri, 20 Jun 2025 21:44:27 GMT)
  • robot planningを対象とした「Given a source LLM-enabled planner, PRISM synthesizes tasks and environments, elicits plans from the LLM-enabled planner in these synthesized environments, and then uses the resulting data to train an SLM-enabled planner that serves as a drop-in replacement for the source model.」という蒸留フレームワークの提案。直観的にも有効そうだが実際有望な結果。
  • プロジェクトサイトはPRISM

From Web Search towards Agentic Deep Research: Incentivizing Search with Reasoning Agents

  • From Web Search towards Agentic Deep Research: Incentivizing Search with Reasoning Agents [96.7]
    推論とエージェント能力を備えた大規模言語モデル(LLM)は、エージェントディープリサーチ(Agenic Deep Research)と呼ばれる新しいパラダイムを取り入れている。 静的なWeb検索から,計画,探索,学習を行う対話型エージェントベースのシステムへの進化を辿ります。 我々はエージェントディープリサーチが既存のアプローチを著しく上回るだけでなく、将来の情報探索において支配的なパラダイムになることを実証する。
    論文  参考訳(メタデータ)   (Thu, 26 Jun 2025 17:18:00 GMT)
  • DeepResearchに関するサーベイ、論文が出るのも凄いスピードだが、サーベイが出るのも早い・・・
  • リポジトリはGitHub – DavidZWZ/Awesome-Deep-Research: [Up-to-date] Awesome Agentic Deep Research Resources

A Survey of WebAgents: Towards Next-Generation AI Agents for Web Automation with Large Foundation Models

  • A Survey of WebAgents: Towards Next-Generation AI Agents for Web Automation with Large Foundation Models [45.1]
    Webのコンテキストでは、退屈な日々のタスクを扱う人々を支援するために、AI Agents — WebAgents — を活用することで、生産性と効率が劇的に向上する。 LFMの可能性を十分に探求するために、ユーザの指示に従って日々のWebタスクを完了させるように設計されたWebAgentsに広範な研究が登場した。
    論文  参考訳(メタデータ)   (Mon, 26 May 2025 07:05:18 GMT)
  • 利用が広がるWebAgentのサーベイ

Early Stopping Tabular In-Context Learning

  • Early Stopping Tabular In-Context Learning [40.6]
    テキスト内学習を早期に行うことを提案する。 トランスフォーマーエンコーダの各レイヤの後にコンテキスト内学習を停止させるかどうかを動的に評価することでこれを実現する。 一旦停止すると、プレトレーニングされたレイヤワイズデコーダを使って埋め込みをデコードします。
    論文  参考訳(メタデータ)   (Thu, 26 Jun 2025 15:36:37 GMT)
  • tabular foundation modelに対するearly stopping。TabPFNで効果を確認している。

What Matters in LLM-generated Data: Diversity and Its Effect on Model Fine-Tuning [

  • What Matters in LLM-generated Data: Diversity and Its Effect on Model Fine-Tuning [22.4]
    LLM生成データの多様性レベルが下流モデルの性能にどのように影響するかを示す。 また、LLM生成データの異なる割合を混合したデータに基づいて訓練されたモデルの性能についても検討する。
    論文  参考訳(メタデータ)   (Tue, 24 Jun 2025 02:44:58 GMT)
  • 合成データが与える影響に関する報告。特に多様性の度合いに注目している。
  • 「Our experimental results show that, with minimal distribution shift, moderately diverse LLM-generated data can enhance model performance in scenarios with insufficient labeled data, whereas highly diverse generated data has a negative impact.」とのこと。