コンテンツへスキップ
- Anti-Backdoor Learning: Training Clean Models on Poisoned Data [17.6]
ディープニューラルネットワーク(DNN)に対するセキュリティ上の脅威としてバックドア攻撃が浮上している。1) モデルはクリーンなデータよりもバックドアドデータを学習する。 2) バックドアタスクは特定のクラス(バックドアターゲットクラス)に結び付けられる。 これら2つの弱点に基づきアンチバックドア学習(ABL)を提案する。ABL学習モデルは、純粋にクリーンなデータでトレーニングされたのと同じ性能を実証的に示す。
論文 参考訳(メタデータ) 参考訳(全文) (Mon, 25 Oct 2021 03:41:22 GMT)- バックドア攻撃の特徴を使った防御法を提案。最先端のバックドア攻撃10件に対して効果的に防御できることを示し、品質が不明瞭なデータを使った学習時に安全性を確保できるとのこと。
- 攻撃と防御のいたちごっこになる感はあるが、このような研究は重要。
- リポジトリはhttps://github.com/bboylyg/ABL