コンテンツへスキップ
- LM2: Large Memory Models [11.3]
本稿では,補助メモリモジュールで拡張されたデコーダのみのトランスフォーマーアーキテクチャであるLarge Memory Model (LM2)を紹介する。 BABILongベンチマークの実験結果によると、LM2モデルはメモリ拡張RTTモデルとベースラインのLlama-3.2モデルの両方を平均86.3%上回っている。
論文 参考訳(メタデータ) (Sun, 09 Feb 2025 22:11:42 GMT)
- Large Memory Model (LM2)「decoder-only Transformer architecture enhanced with an auxiliary memory module」の提案。多くの人が待ち望んでいる拡張形態であり、実用的な規模(大規模)での検証でうまくいくか興味津々。
- リポジトリはGitHub – convergence-ai/lm2: Official repo of paper LM2
- Symbolic Working Memory Enhances Language Models for Complex Rule Application [87.3]
大規模言語モデル(LLM)は、顕著な推論性能を示しているが、多段階の推論に苦慮している。 本稿では,外部ワーキングメモリを用いたLLMの拡張と,ルール適用のためのニューロシンボリックフレームワークを提案する。 当社のフレームワークは,LLMベースのルール実装とシンボリックルールグラウンディングを反復的に実施する。
論文 参考訳(メタデータ) (Sat, 24 Aug 2024 19:11:54 GMT)
- LLMが苦手とするルールを適用していく多段推論に対応するため作業領域を用いる手法の提案。「We implement this working memory to store rules and facts in both natural language and their symbolic forms (i.e., in Prolog), thus supporting precise symbolic reference.」とPrologのような形式を併用するのが特徴的。
- 人でもこの手の疑似コードを使うことを考えると、他のタスクでも有効かもしれない。
- リポジトリはGitHub – SiyuanWangw/RuleApplication