Self-Alignment with Instruction Backtranslation

  • Self-Alignment with Instruction Backtranslation [133.1]
    本稿では,人文テキストに対応する命令を自動ラベル付けすることで,高品質な命令従言語モデルを構築する方法を提案する。 我々の手法は命令バックトランスレーションと呼ばれ、少量のシードデータと与えられたWebコーパスに基づいて微調整された言語モデルから始まります。
    論文  参考訳(メタデータ)   (Fri, 11 Aug 2023 17:47:54 GMT)
  • unlabeledなデータを活用する手法の提案。考え方としては機械翻訳におけるBack translationに近く「Self-augment: unlabeledなデータから(instruction, output)ペアを作成」「Self-curate: fine tune用のデータとして高品質なデータを選択」からなる。
  • 結果得られたモデルは Alpaca leaderboardで他モデル(ChatGPT, GPT-4など)に依存しないモデルをoutperformしたとのこと。

LLM-Rec

  • LLM-Rec: Personalized Recommendation via Prompting Large Language Models [64.6]
    LLM-Recと呼ばれる提案手法は,4つの異なるプロンプト戦略を包含する。 実験により, 追加入力テキストを組み込むことで, 推薦性能が向上することが示された。
    論文  参考訳(メタデータ)   (Wed, 16 Aug 2023 17:59:07 GMT)
  • LLMを用いたレコメンデーションシステムの提案。直接的にLLMを利用するのではなく入力テキストを拡張するためにLLMを用いるアプローチ
  • 複数のプロンプト戦略を試しておりその結果も面白い。