GPT vs RETRO: Exploring the Intersection of Retrieval and Parameter-Efficient Fine-Tuning 

  • GPT vs RETRO: Exploring the Intersection of Retrieval and Parameter-Efficient Fine-Tuning [48.7]
    PEFT法を改良型Retrieval-Enhanced Transformer (RETRO) およびベースラインGPTモデルに適用する。 本稿では、RETROモデルが、独自の事前学習プロセスにより、ゼロショット設定でGPTモデルより優れていることを示す。 本研究は, GPTモデルとRETROモデルの両方に適用された各種PEFT法をRAGと統合した最初の包括的比較である。
    論文  参考訳(メタデータ)   (Fri, 5 Jul 2024 14:16:47 GMT)
  • タイトルそのままGPT vs RETRO。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です