コンテンツへスキップ
- DecoPrompt : Decoding Prompts Reduces Hallucinations when Large Language Models Meet False Premises [28.7]
幻覚を緩和する新しいプロンプトアルゴリズムDecoPromptを提案する。 DecoPrompt は LLM を利用して偽前提のプロンプトを “デコード” する。 2つのデータセットで実験を行い、DecoPromptは異なるLLMから出力された幻覚を効果的に低減できることを示した。
論文 参考訳(メタデータ) (Tue, 12 Nov 2024 00:48:01 GMT)
- 「Inspired by the observation that entropy of the false-premise prompt is closely related to its likelihood to elicit hallucination generation, we propose a new prompting algorithm, named DecoPrompt, to mitigate hallucination.」をうけて「1) first paraphrases the user’s prompt to obtain several semantically similar candidates, then 2) decodes them with the LLM, and 3) selects the lowest-entropy candidate as the new prompt.」という手法の提案。シンプルな手法に見えるが、効果があるのは興味深い。
- リポジトリはGitHub – xunannancy/DecoPrompt: Code for paper DecoPrompt : Decoding Prompts Reduces Hallucinations when Large Language Models Meet False Premises
- Beyond Model Adaptation at Test Time: A Survey [43.0]
機械学習アルゴリズムは、テストディストリビューションのサンプルがトレーニング中に観察されるものから逸脱し始めたときに苦労する。 テスト時間適応は、ソースデータのみに基づくトレーニングモデルによるドメイン適応とドメイン一般化の利点を組み合わせる。 テスト時間適応に関する総合的かつ体系的なレビューを行い、400以上の最近の論文を取り上げている。
論文 参考訳(メタデータ) (Wed, 06 Nov 2024 06:13:57 GMT)
- Test-time adaptationのサーベイ、400以上の論文があるのに驚き。。
- リポジトリはGitHub – zzzx1224/Beyond-model-adaptation-at-test-time-Papers