Towards Better Chain-of-Thought Prompting Strategies: A Survey

  • Towards Better Chain-of-Thought Prompting Strategies: A Survey [60.8]
    CoT(Chain-of-Thought)は,大規模言語モデル(LLM)の促進戦略として使用すると,その印象的な強度を示す。 近年,CoTの促進効果が注目されている。 この調査は、関連する研究全般の参考になるかもしれない。
    論文  参考訳(メタデータ)   (Sun, 8 Oct 2023 01:16:55 GMT)
  • Chain of Thoughtのサーベイ、新たな分野でありサーベイできるほどの研究があるというのも若干驚き。Extension Strategiesが非常に参考になった。

Large Language Model Alignment

  • Large Language Model Alignment: A Survey [42.0]
    大きな言語モデル(LLM)の潜在能力は疑いようもなく大きいが、不正確、誤解を招く、あるいは有害なテキストを生成できる。 この調査は、LLM向けに設計されたアライメント方法論を広範囲に探究する試みである。 また、モデルの解釈可能性や、敵の攻撃に対する潜在的な脆弱性など、健全な問題を調査します。
    論文  参考訳(メタデータ)   (Tue, 26 Sep 2023 15:49:23 GMT)
  • LLMのAlignmentに関するサーベイ。50ページ超と包括的なサーベイ。進展が速い…

A Comprehensive Review on Financial Explainable AI

  • A Comprehensive Review on Financial Explainable AI [29.2]
    金融の文脈における深層学習モデルの説明可能性向上を目的とした手法の比較調査を行う。 説明可能なAI手法のコレクションは,その特性に応じて分類する。 我々は、説明可能なAI手法を採用する際の懸念と課題を、適切かつ重要と考えられる今後の方向性とともにレビューする。
    論文  参考訳(メタデータ)   (Thu, 21 Sep 2023 10:30:49 GMT)
  • 金融におけるXAIのサーベイ、状況を概観するのに良い。金融分野へのXAIは必要性もありかなり導入されている印象がある。

Multimodal Foundation Models: From Specialists to General-Purpose Assistants

  • Multimodal Foundation Models: From Specialists to General-Purpose Assistants [187.7]
    専門モデルから汎用アシスタントへの移行に焦点をあて,視覚と視覚言語能力を示すマルチモーダル基礎モデルの分類と進化に関する包括的調査を行う。 対象読者は、コンピュータビジョンの研究者、大学院生、およびビジョン言語によるマルチモーダルコミュニティの専門家である。
    論文  参考訳(メタデータ)   (Mon, 18 Sep 2023 17:56:28 GMT)
  • 特化型モデル → 汎用アシスタントという最近の潮流に関するサーベイ。100ページ近くの分量であり教科書に近い
  • 研究の進展が非常に速い分野でもありとても重要な論文

Siren’s Song in the AI Ocean: A Survey on Hallucination in Large Language Models

  • Siren’s Song in the AI Ocean: A Survey on Hallucination in Large Language Models [116.0]
    大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。 LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。本稿では, 幻覚の検出, 説明, 緩和に関する最近の取り組みを, LLMがもたらすユニークな課題に焦点をあてて調査する。
    論文  参考訳(メタデータ)   (Sun, 3 Sep 2023 16:56:48 GMT)
  • LLMにおけるHallucinationに関するサーベイ
  • HallucinationをInput-conflicting hallucination、Context-conflicting hallucination、Fact-conflicting hallucinationに分け、対応もPre train、SFT、RLHF、Inferenceとステージ別に分けて整理されており大変わかりやすい。

CoALA: Cognitive Architectures for Language Agents

  • Cognitive Architectures for Language Agents [47.0]
    本研究では,言語エージェントのための認知的アーキテクチャ (CoALA) を提案し,推論,基礎化,学習,意思決定の多様な手法を体系化する。
    論文  参考訳(メタデータ)   (Tue, 5 Sep 2023 17:56:20 GMT)
  • 言語エージェントの観点からLLMに関する様々なテクニック・研究を整理しフレームワーク化した論文
  • 「Zero-shot, Few-shot, Zero-shot Chain-of-Thought, Retrieval Augmented Generation, Socratic Models, Self-Critique」のようなテクニックの整理や「SayCan, ReAct, Voyager, Generative Agents, Tree of Thoughts」との比較などLLM周りの様々な取り組みを整理するうえでも参考になる。
  • リポジトリはGitHub – ysymyth/awesome-language-agents: List of language agents based on paper “Cognitive Architectures for Language Agents”

Explainability for Large Language Models: A Survey

  • Explainability for Large Language Models: A Survey [59.7]
    大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。 本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
    論文  参考訳(メタデータ)   (Sat, 2 Sep 2023 22:14:26 GMT)
  • LLMの説明可能性に関するサーベイ
  • Traditional Fine-tuning Paradigm、Prompting Paradigmという分け方がLLM的

Computation-efficient Deep Learning for Computer Vision: A Survey

  • Computation-efficient Deep Learning for Computer Vision: A Survey [121.8]
    ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。 ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。 新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
    論文  参考訳(メタデータ)   (Sun, 27 Aug 2023 03:55:28 GMT)
  • 効率的な画像処理モデルに関するサーベイ
  •  「Efficient Backbone Models / Dynamic Deep Networks」→「Task-specialized Efficient Models」→「Model Compression Techniques」→「Efficient Deployment on Hardware」と様々なレイヤで調査がされている。

A Survey for Federated Learning Evaluations: Goals and Measures

  • A Survey for Federated Learning Evaluations: Goals and Measures [26.1]
    フェデレートラーニング(Federated Learning, FL)は、プライバシ保護機械学習のための新しいパラダイムである。 FLの評価は、その学際的な性質と、実用性、効率性、セキュリティといった様々な目標のために難しい。 我々はFLアルゴリズムの標準化された総合的な評価フレームワークを提供するオープンソースプラットフォームであるFedEvalを紹介した。 
    論文  参考訳(メタデータ)   (Wed, 23 Aug 2023 00:17:51 GMT)
  • Federated Learning の評価指標に関するサーベイおよび総合的な評価システムに関する論文。前半はFLの典型的な目標とその評価指標についてまとめられており、後半で著者が開発したFedEvalが紹介されている。FedEvalはKDD2022のFedEval: A Holistic Evaluation Framework for Federated Learningで発表されているよう。
  • リポジトリはhttps://github.com/Di-Chai/FedEval

A Survey on Large Language Model based Autonomous Agents

  • A Survey on Large Language Model based Autonomous Agents [107.8]
    大規模言語モデル(LLM)は、人間レベルの知性を達成する上で、顕著な可能性を示している。 本稿では,自律エージェントの分野を包括的観点から体系的に検討する。 社会科学,自然科学,工学の分野におけるLLMベースのAIエージェントの様々な応用について概説する。 
    論文  参考訳(メタデータ)   (Tue, 22 Aug 2023 13:30:37 GMT)
  • LLMを用いたAIエージェントに関するサーベイ。フレームワークとしてprofiling module, memory module, planning module, action moduleでの構成が想定されている。LLM活用が流行ってからエージェントへの応用、さらにそれらのサーベイが出るというスピード感がとても早い。。。
  • 関連するリポジトリが用意されている。https://github.com/Paitesanshi/LLM-Agent-Survey