コンテンツへスキップ
- Debugging Differential Privacy: A Case Study for Privacy Auditing [60.9]
監査は、差分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。 このケーススタディでは、差分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (Thu, 24 Feb 2022 17:31:08 GMT)- オープンソースの差分プライバシー実装を監査し、(おそらく)問題があることを示した報告。
- 「while producing correct proofs is a necessary prerequisite to training private machine learning models, it is important to also get all the subtleties right.」という指摘が重要で、セキュリティにとっては細部が重要。