コンテンツへスキップ
- QAmeleon: Multilingual QA with Only 5 Examples [71.8]
数ショットの学習環境下で事前学習した言語モデルを利用する方法を示す。 我々のアプローチであるQAmeleonは、PLMを使用して、QAモデルをトレーニングした多言語データを自動的に生成する。 言語毎に5つの例しか持たないデータ合成のためにPLMをプロンプトチューニングすることで、翻訳ベースのベースラインよりも精度が向上する。
論文 参考訳(メタデータ) (Tue, 15 Nov 2022 16:14:39 GMT)
- 多言語QAモデル実現のための合成データ作成においてPLM+promptを使う手法の提案
- Automatic Chain of Thought Prompting in Large Language Models [20.5]
大規模言語モデル(LLM)は中間的推論ステップを生成することで複雑な推論を行うことができる。 「ステップ・バイ・ステップ」は、デモのための推論チェーンを1つずつ生成します。 自動CoTプロンプト法を提案する。
論文 参考訳(メタデータ) (Fri, 7 Oct 2022 12:28:21 GMT)- Chain of Thoughtの自動化、マニュアルの対応に比べても優れた性能を達成。
- Ask Me Anything: A simple strategy for prompting language models [24.3]
大規模言語モデル(LLM)は、単にタスクの実行方法を示す自然言語プロンプトを与えられただけで、追加のトレーニングは行われない。本研究では,質問応答(QA)のプロンプトが,モデル出力を制限するプロンプトよりも優れていることを示す。 収集したプロンプトを適用して、入力の真のラベルに対していくつかのノイズの多い投票を行う。 プロンプトは、非常に異なる精度と複雑な依存関係を持つことができる。
論文 参考訳(メタデータ) (Thu, 6 Oct 2022 06:39:56 GMT)
- Can Large Language Models Truly Understand Prompts? A Case Study with Negated Prompts [19.4]
これまでの研究では、言語モデル(LM)のサイズと、異なる下流のNLPタスクにおけるゼロショットのパフォーマンスとの間には、スケーリングの法則が存在することが示されている。 本研究では,この現象が負のプロンプトでタスク上で大きなLMを評価する際には有効ではなく,逆のスケーリング法則を示す。
論文 参考訳(メタデータ) (Mon, 26 Sep 2022 14:05:10 GMT)
- Bidirectional Language Models Are Also Few-shot Learners [54.4]
SAP(Sequential Autoregressive Prompting)は,双方向モデルの高速化を実現する技術である。 SAPは質問応答と要約に有効であることを示す。 この結果から,より広範な言語モデルの創発的特性として,プロンプトに基づく学習が証明された。
論文 参考訳(メタデータ) (Thu, 29 Sep 2022 01:35:57 GMT)- Promptを用いるモデルのほとんどが単方向モデルだが、双方向モデルでもpromptを実現するフレームワークを提案、少ないパラメータでzero/few shotでの優れた性能を確認とのこと。
- 面白い結果である一方で(論文でも触れられている通り)計算コストが凄そう…
- 双方向だと穴埋めがベースなのでしょうがないとも思いつつ、パラメータが少ないけど計算量が莫大って本当に少ないパラメータで済んでいるのだろうか…?
- Prompting for a conversation: How to control a dialog model? [9.3]
ダイアログモデルは大量のテキストでトレーニングされるが、その応答はダイアログエージェントの望ましいスコープとスタイルに制限される必要がある。 前者を達成するために使用されるデータセットには後者と互換性のない言語が含まれているため、事前訓練されたダイアログモデルは、より小さなキュレートされたデータセットで微調整される。 本稿では,上記のトレードオフを緩和できるかどうかを検討する。
論文 参考訳(メタデータ) (Thu, 22 Sep 2022 14:59:55 GMT)- 会話モデルに対するfine tuningの副作用とその緩和の話題。ケンブリッジ大学とAppleの共著で著者へのリファレンスがかわいい。
- リファレンスはおいておいて、dyamic-promptingという名称でテキストの多様性を生み出す能力を壊さずに特定タスクへの適応をあげている。
- Visual Prompting via Image Inpainting [105.0]
そこで本研究では,NLPにインスパイアされた新しいタスクの入力出力画像例と新しい入力画像の視覚的プロンプトについて検討する。 事前学習したモデルに視覚的プロンプトを適用し、様々なダウンストリームイメージ・ツー・イメージタスクで結果を示す。
論文 参考訳(メタデータ) (Thu, 1 Sep 2022 17:59:33 GMT)
- Interactive and Visual Prompt Engineering for Ad-hoc Task Adaptation with Large Language Models [116.3]
最先端のニューラルネットワークモデルは、教師付きトレーニングを必要とせずに、アドホックな言語タスクを解決するために使用することができる。 PromptIDEを使えば、ユーザはプロンプトのバリエーションを試すことができ、プロンプトのパフォーマンスを視覚化し、反復的にプロンプトを最適化できる。
論文 参考訳(メタデータ) (Tue, 16 Aug 2022 17:17:53 GMT)
- Prompt Tuning for Generative Multimodal Pretrained Models [75.4]
我々は、理解タスクと生成タスクの両方に適応した統合シーケンス・ツー・シーケンス事前学習モデルに、即時チューニングを実装した。 実験結果から,軽量なプロンプトチューニングはファインタニングで同等の性能を発揮することが示された。 微調整モデルと比較して、プロンプト調整モデルでは敵攻撃に対する堅牢性が改善されている。
論文 参考訳(メタデータ) (Thu, 4 Aug 2022 08:56:38 GMT)
- ELECTRA is a Zero-Shot Learner, Too [14.3]
「プレトレイン・プロンプト・予測」は「プレトレイン・ファイン・チューン」のパラダイムに比べて目覚ましい成果を上げている。 本稿では,代用トークン検出(RTD)に基づくプロンプト学習手法を提案する。 実験結果から,RTD-prompt 学習に基づくELECTRAモデルが驚くほど最先端のゼロショット性能を実現することが示された。
論文 参考訳(メタデータ) (Sun, 17 Jul 2022 11:20:58 GMT)