A Survey on Large Language Model based Autonomous Agents

  • A Survey on Large Language Model based Autonomous Agents [107.8]
    大規模言語モデル(LLM)は、人間レベルの知性を達成する上で、顕著な可能性を示している。 本稿では,自律エージェントの分野を包括的観点から体系的に検討する。 社会科学,自然科学,工学の分野におけるLLMベースのAIエージェントの様々な応用について概説する。 
    論文  参考訳(メタデータ)   (Tue, 22 Aug 2023 13:30:37 GMT)
  • LLMを用いたAIエージェントに関するサーベイ。フレームワークとしてprofiling module, memory module, planning module, action moduleでの構成が想定されている。LLM活用が流行ってからエージェントへの応用、さらにそれらのサーベイが出るというスピード感がとても早い。。。
  • 関連するリポジトリが用意されている。https://github.com/Paitesanshi/LLM-Agent-Survey

An Empirical Study of Catastrophic Forgetting in Large Language Models During Continual Fine-tuning

  • An Empirical Study of Catastrophic Forgetting in Large Language Models During Continual Fine-tuning [74.0]
    カタストロフィック・ナッシング(英: Catastrophic forgetting、CF)は、機械学習において、モデルが新しい情報を学ぶ際に学習した情報を忘れたときに発生する現象である。 本研究では,大言語モデルの知識における忘れ現象を,ドメイン知識,推論,理解という観点から実証的に評価する。 
    論文  参考訳(メタデータ)   (Thu, 17 Aug 2023 02:53:23 GMT)
  • 破壊的忘却に関する報告、デコーダonlyなBLOOMZとエンコーダ-デコーダなmT0を比較すると、BLOOMZの方が知識を維持しやすいという結果。「 diverse instruction tuning can help mitigate the CF phenomenon 」を含めとても興味深い。
  • リポジトリはhttps://github.com/LuoXiaoHeics/Continual-Tune

ExpeL: Experiential Learning

  • ExpeL: LLM Agents Are Experiential Learners [60.5]
    実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。 我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。 推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。 
    論文  参考訳(メタデータ)   (Sun, 20 Aug 2023 03:03:34 GMT)
  • Experiential Learningとしてパラメータチューニングを必要としないLLMの自律的な学習?手法を提案。過去の経験を記憶、評価、修正していくアプローチのようにみえ、全てを自然言語で処理していくのが面白い。人間がとって活用していくメモのように見える。ReActより優れたパフォーマンスとのこと。
  • リポジトリはhttps://github.com/Andrewzh112/ExpeLだがComing soon

ChatEval

LLMRec: Benchmarking Large Language Models on Recommendation Task

  • LLMRec: Benchmarking Large Language Models on Recommendation Task [54.5]
    推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。 我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。 ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。 
    論文  参考訳(メタデータ)   (Wed, 23 Aug 2023 16:32:54 GMT)
  • LLMを用いた推薦システム用ベンチマークの提案。「The benchmark results demonstrate that existing LLMs perform well in rating prediction tasks but show poor performance in sequential and direct recommendation tasks.」とのことでいわゆる普通のレコメンデーションタスクについては厳しめの結果。
  • リポジトリはhttps://github.com/williamliujl/llmrec

Large Language Models as Zero-Shot Conversational Recommenders

  • Large Language Models as Zero-Shot Conversational Recommenders [52.6]
    ゼロショット設定における代表的大言語モデルを用いた会話推薦タスクに関する実証的研究を行った。 我々は、人気のあるディスカッションサイトをスクラップして、レコメンデーション関連の会話のデータセットを構築した。 我々は、微調整なしでも、大規模な言語モデルは既存の微調整された会話レコメンデーションモデルより優れていることを観察する。 
    論文  参考訳(メタデータ)   (Sat, 19 Aug 2023 15:29:45 GMT)
  • 対話を通して推薦を行うタスク(CRS: Conversational recommender system)ではLLMが優れているという指摘。LLMが優れているのは(レコメンデーションではあるが)対話能力や言語理解、背景知識が重要なタスクだからだろうか。データ構築プロセスからしてリークの懸念がなくは無いように思う。
  • リポジトリはhttps://github.com/aaronheee/llms-as-zero-shot-conversational-recsys

Large Language Models for Information Retrieval: A Survey

  • Large Language Models for Information Retrieval: A Survey [56.4]
    情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。 ニューラルネットワークは複雑なコンテキスト信号や意味的ニュアンスを捉えるのに優れていますが、データ不足、解釈可能性、文脈的に妥当で不正確な応答の生成といった課題に直面しています。 近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
    論文  参考訳(メタデータ)   (Tue, 15 Aug 2023 12:09:20 GMT)
  • LLMと情報検索に関するサーベイ、query rewritingだけでも色々なアプローチがあることが分かり興味深い。

LayoutLLM-T2I: Eliciting Layout Guidance from LLM for Text-to-Image Generation

  • LayoutLLM-T2I: Eliciting Layout Guidance from LLM for Text-to-Image Generation [112.3]
    レイアウト計画と画像生成を実現するための粗大なパラダイムを提案する。 提案手法は,レイアウトと画像生成の両面で最先端のモデルより優れている。
    論文  参考訳(メタデータ)   (Wed, 9 Aug 2023 17:45:04 GMT)
  • LLMを通してテキストからレイアウト情報を推測し、画像生成する手法の提案。
  • プロジェクトサイトはLayoutLLM-T2I

AUTOMQM

  • The Devil is in the Errors: Leveraging Large Language Models for Fine-grained Machine Translation Evaluation [93.0]
    AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。 テキスト内学習と微調整によるラベル付きデータの影響について検討する。 次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
    論文  参考訳(メタデータ)   (Mon, 14 Aug 2023 17:17:21 GMT)
  • 機械翻訳の評価にLLMを使う手法の提案
  • system level / segment level、fine tuning有無、モデル差など多角的な検証がされており興味深い 

Self-Alignment with Instruction Backtranslation

  • Self-Alignment with Instruction Backtranslation [133.1]
    本稿では,人文テキストに対応する命令を自動ラベル付けすることで,高品質な命令従言語モデルを構築する方法を提案する。 我々の手法は命令バックトランスレーションと呼ばれ、少量のシードデータと与えられたWebコーパスに基づいて微調整された言語モデルから始まります。
    論文  参考訳(メタデータ)   (Fri, 11 Aug 2023 17:47:54 GMT)
  • unlabeledなデータを活用する手法の提案。考え方としては機械翻訳におけるBack translationに近く「Self-augment: unlabeledなデータから(instruction, output)ペアを作成」「Self-curate: fine tune用のデータとして高品質なデータを選択」からなる。
  • 結果得られたモデルは Alpaca leaderboardで他モデル(ChatGPT, GPT-4など)に依存しないモデルをoutperformしたとのこと。