Knowledge Unlearning for Mitigating Privacy Risks in Language Models

  • Knowledge Unlearning for Mitigating Privacy Risks in Language Models [31.3]
    言語モデルのプライバシーリスクを低減する代替手法として知識アンラーニングを提案する。 トークンシーケンスのターゲットに異種トレーニングの目的を単純に適用することは、それを忘れるのに効果的であることを示す。 抽出攻撃に脆弱なデータが先入観として知られているシナリオでは、アンラーニングがより強力な経験的プライバシ保証を与える可能性があることを示す。
    論文  参考訳(メタデータ)   (Tue, 4 Oct 2022 10:18:11 GMT)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です