- Ethicist: Targeted Training Data Extraction Through Loss Smoothed Soft Prompting and Calibrated Confidence Estimation [56.6]
本研究では,対象とするトレーニングデータ抽出のためのEthicistという手法を提案する。 メモリ化を誘発するため、モデルを固定しながらソフトなプロンプト埋め込みをチューニングする。 我々は,最近提案された公開ベンチマークにおいて,エティシストが抽出性能を著しく向上することを示す。
論文 参考訳(メタデータ) (Mon, 10 Jul 2023 08:03:41 GMT) - 学習データを抽出する手法の提案、GitHub – google-research/lm-extraction-benchmarkで効果を確認とのこと。
- リポジトリはGitHub – thu-coai/Targeted-Data-Extraction: Official Code for ACL 2023 paper: “Ethicist: Targeted Training Data Extraction Through Loss Smoothed Soft Prompting and Calibrated Confidence Estimation”