알고리즘의 시선: LAION-Aesthetics 예측 모델에 대한 감사 및 민족지학 연구
The Algorithmic Gaze: An Audit and Ethnography of the LAION-Aesthetics Predictor Model
시각 생성 AI 모델은 획일적인 미적 매력 기준을 사용하여 훈련됩니다. 그러나 '미적'이라고 판단되는 것은 개인의 취향과 문화적 가치와 불가분하게 연결되어 있으며, 이는 시각 생성 AI 모델에서 누구의 취향이 반영되는지에 대한 질문을 제기합니다. 본 연구에서는 시각 생성 이미지 모델 훈련을 위한 데이터셋을 큐레이션하고 AI 생성 이미지의 품질을 평가하는 데 널리 사용되는 미적 평가 모델인 LAION Aesthetic Predictor (LAP)를 연구합니다. LAP가 무엇을 측정하는지 이해하기 위해, 세 개의 데이터셋에 대한 모델 감사를 수행했습니다. 첫째, LAP를 사용하여 LAION-5B에서 큐레이션된 LAION-Aesthetics 데이터셋(약 12억 개의 이미지)에 대한 미적 필터링의 영향을 조사했습니다. 그 결과, LAP는 여성에 대한 캡션을 포함하는 이미지의 비율을 과도하게 필터링하는 반면, 남성 또는 LGBTQ+에 대한 캡션을 포함하는 이미지의 비율은 필터링해내는 것으로 나타났습니다. 둘째, 두 개의 미술 데이터셋에 속한 약 33만 개의 이미지를 LAP로 평가한 결과, 모델은 서구 및 일본 예술가들의 사실적인 풍경, 도시 풍경 및 초상화 이미지를 가장 높은 점수로 평가하는 것으로 나타났습니다. 이러한 결과는 이 미적 평가 모델의 알고리즘 시선이 서구 미술 역사에서 발견되는 제국주의적이고 남성 중심적인 시선을 강화한다는 것을 보여줍니다. 이러한 편향이 어디에서 비롯되었는지 이해하기 위해, LAP 개발과 관련된 공개 자료에 대한 디지털 민족지학 연구를 수행했습니다. 그 결과, LAP 개발 과정은 감사에서 발견된 편향을 반영하며, 예를 들어 LAP 훈련에 사용된 미적 점수는 주로 영어권 사진작가와 서구 AI 애호가들로부터 얻어진 것으로 나타났습니다. 이에 대한 대응으로, 우리는 미적 평가가 어떻게 대표성의 문제를 심화시킬 수 있는지 논의하고, AI 개발자들이 획일적인 '미적' 기준에서 벗어나 보다 다양하고 포괄적인 평가 방식으로 전환할 것을 촉구합니다.
Visual generative AI models are trained using a one-size-fits-all measure of aesthetic appeal. However, what is deemed "aesthetic" is inextricably linked to personal taste and cultural values, raising the question of whose taste is represented in visual generative AI models. In this work, we study an aesthetic evaluation model--LAION Aesthetic Predictor (LAP)--that is widely used to curate datasets to train visual generative image models, like Stable Diffusion, and evaluate the quality of AI-generated images. To understand what LAP measures, we audited the model across three datasets. First, we examined the impact of aesthetic filtering on the LAION-Aesthetics Dataset (approximately 1.2B images), which was curated from LAION-5B using LAP. We find that the LAP disproportionally filters in images with captions mentioning women, while filtering out images with captions mentioning men or LGBTQ+ people. Then, we used LAP to score approximately 330k images across two art datasets, finding the model rates realistic images of landscapes, cityscapes, and portraits from western and Japanese artists most highly. In doing so, the algorithmic gaze of this aesthetic evaluation model reinforces the imperial and male gazes found within western art history. In order to understand where these biases may have originated, we performed a digital ethnography of public materials related to the creation of LAP. We find that the development of LAP reflects the biases we found in our audits, such as the aesthetic scores used to train LAP primarily coming from English-speaking photographers and western AI-enthusiasts. In response, we discuss how aesthetic evaluation can perpetuate representational harms and call on AI developers to shift away from prescriptive measures of "aesthetics" toward more pluralistic evaluation.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.