인공지능 데이터 투명성 정책의 한계: 세 가지 공개의 오류
The Limits of AI Data Transparency Policy: Three Disclosure Fallacies
데이터 투명성은 인공지능에 대한 우려, 특히 데이터 품질, 개인 정보 보호, 저작권 문제를 해결하기 위한 중요한 해결책으로 부상했습니다. 그러나 이러한 노력은 책임성을 강화하는 데 필수적이지만, 현재의 투명성 정책은 종종 의도한 목표를 달성하지 못합니다. 식품의 영양 성분표와 마찬가지로, 인공지능에 대한 투명성 정책은 효과적인 정보 공개에 대한 연구를 충분히 고려하지 못하고 있습니다. 본 연구는 제도적 관점에서 인공지능 데이터 공개 정책 시행에서 발생하는 세 가지 일반적인 오류를 지적합니다. 첫째, 많은 데이터 투명성 제안은 데이터 투명성의 목표와 실제로 그러한 목표를 달성하는 데 필요한 정보 공개 간의 간극을 보입니다. 둘째, 정책 개선 시도는 법적으로 요구되는 정보 공개와 실제 준수를 보장하기 위한 실행 간의 간극을 나타냅니다. 셋째, 정책 제안은 공개된 정보와 개발자 관행 및 대중의 이해에 대한 의미 있는 변화 간의 간극을 드러냅니다. 투명성에 대한 사회 과학 연구를 바탕으로, 본 연구는 상징적인 의미를 넘어 실제로 효과적인 투명성 확보를 위한 방안을 제시합니다.
Data transparency has emerged as a rallying cry for addressing concerns about AI: data quality, privacy, and copyright chief among them. Yet while these calls are crucial for accountability, current transparency policies often fall short of their intended aims. Similar to nutrition facts for food, policies aimed at nutrition facts for AI currently suffer from a limited consideration of research on effective disclosures. We offer an institutional perspective and identify three common fallacies in policy implementations of data disclosures for AI. First, many data transparency proposals exhibit a specification gap between the stated goals of data transparency and the actual disclosures necessary to achieve such goals. Second, reform attempts exhibit an enforcement gap between required disclosures on paper and enforcement to ensure compliance in fact. Third, policy proposals manifest an impact gap between disclosed information and meaningful changes in developer practices and public understanding. Informed by the social science on transparency, our analysis identifies affirmative paths for transparency that are effective rather than merely symbolic.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.