개인 차등 프라이버시의 공모 취약점: 귀하의 개인 정보 보호는 타인에게 달려 있습니다
Your Privacy Depends on Others: Collusion Vulnerabilities in Individual Differential Privacy
개인 차등 프라이버시(iDP)는 사용자에게 개인 정보 보호에 대한 통제권을 제공하는 것을 약속하지만, 실제로는 이러한 약속이 깨질 수 있습니다. 본 연구에서는 샘플링 기반 iDP 메커니즘에서 이전에 간과되었던 취약점을 밝혀냅니다. iDP 보장 조건을 충족하더라도, 개인의 프라이버시 위험은 개인의 프라이버시 예산에만 의존하는 것이 아니라, 모든 데이터 기여자의 프라이버시 선택에 결정적으로 의존합니다. 이는 개인 정보 보호에 대한 통제라는 약속과, 위험이 집단적으로 결정되는 시스템의 현실 사이의 불일치를 야기합니다. 우리는 특정 프라이버시 선호도 분포가 개인의 공식적인 보장이 충족되더라도, 의도치 않게 개인의 프라이버시 위험을 증가시킬 수 있음을 경험적으로 입증했습니다. 또한, 이러한 과도한 위험은 악용 가능한 공격 벡터를 제공합니다. 중앙 집중식 공격자 또는 공모 공격자 집단은 의도적으로 프라이버시 예산을 선택하여 특정 개인의 취약점을 증폭시킬 수 있습니다. 가장 중요한 점은, 이러한 공격은 DP의 보장 범위 내에서 이루어지므로, 이러한 과도한 취약성이 숨겨져 있습니다. 우리의 경험적 평가는 대상 개인의 62%에 대한 성공적인 공격을 보여주었으며, 이는 개인의 멤버십 추론 가능성을 크게 증가시킵니다. 이러한 문제를 완화하기 위해, 우리는 $Δ$-다이버전스를 사용하여 사용자에게 과도한 취약성에 대한 엄격한 상한을 제공하는 프라이버시 계약인 $(\varepsilon_i, \delta_i, \overline{Δ})$-iDP를 제안합니다. 또한, 메커니즘 설계에 유연성을 제공합니다. 우리의 연구 결과는 현재 패러다임에 대한 근본적인 과제를 드러내며, iDP 시스템이 설계, 감사, 전달 및 배포되는 방식에 대한 재평가가 필요하며, 이를 통해 과도한 위험을 투명하게 만들고 제어할 수 있도록 해야 합니다.
Individual Differential Privacy (iDP) promises users control over their privacy, but this promise can be broken in practice. We reveal a previously overlooked vulnerability in sampling-based iDP mechanisms: while conforming to the iDP guarantees, an individual's privacy risk is not solely governed by their own privacy budget, but critically depends on the privacy choices of all other data contributors. This creates a mismatch between the promise of individual privacy control and the reality of a system where risk is collectively determined. We demonstrate empirically that certain distributions of privacy preferences can unintentionally inflate the privacy risk of individuals, even when their formal guarantees are met. Moreover, this excess risk provides an exploitable attack vector. A central adversary or a set of colluding adversaries can deliberately choose privacy budgets to amplify vulnerabilities of targeted individuals. Most importantly, this attack operates entirely within the guarantees of DP, hiding this excess vulnerability. Our empirical evaluation demonstrates successful attacks against 62% of targeted individuals, substantially increasing their membership inference susceptibility. To mitigate this, we propose $(\varepsilon_i,δ_i,\overlineΔ)$-iDP a privacy contract that uses $Δ$-divergences to provide users with a hard upper bound on their excess vulnerability, while offering flexibility to mechanism design. Our findings expose a fundamental challenge to the current paradigm, demanding a re-evaluation of how iDP systems are designed, audited, communicated, and deployed to make excess risks transparent and controllable.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.