Debugging Differential Privacy: 差分プライバシーアルゴリズム実装の監査

  • Debugging Differential Privacy: A Case Study for Privacy Auditing [60.9]
    監査は、差分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。 このケーススタディでは、差分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
    論文  参考訳(メタデータ)   (Thu, 24 Feb 2022 17:31:08 GMT)
    • オープンソースの差分プライバシー実装を監査し、(おそらく)問題があることを示した報告。
    • 「while producing correct proofs is a necessary prerequisite to training private machine learning models, it is important to also get all the subtleties right.」という指摘が重要で、セキュリティにとっては細部が重要。