LLM에 의한 의미 명확성 축소: 인식적 위험 분류
Ambiguity Collapse by LLMs: A Taxonomy of Epistemic Risks
대규모 언어 모델(LLM)은 모호하고, 개방적이며, 가치 판단이 개입된 용어를 이해하는 데 점점 더 많이 활용되고 있습니다. 플랫폼은 LLM을 콘텐츠 검열에 활용하여 텍스트를 '혐오 발언' 또는 '선동'과 같은 논쟁적인 개념에 따라 분류하도록 하고, 채용 담당자는 LLM을 사용하여 '자격 요건'에 부합하는 지원자를 평가하며, AI 연구소는 LLM을 '편향' 또는 '정당성'과 같은 모호한 원칙에 따라 자체 규제를 하도록 훈련하고 있습니다. 본 논문에서는 LLM이 실제로 여러 가지 정당한 해석이 가능한 용어를 만나더라도, 인간의 협상, 논쟁, 정당화 과정을 우회하는 방식으로 단일한 해석을 내놓는 현상인 '의미 명확성 축소'를 소개합니다. 우리는 의미를 생산적인 인식적 자원으로 보는 다양한 학문 분야의 연구를 바탕으로, 의미 명확성 축소가 초래하는 인식적 위험을 다음 세 가지 수준으로 분류하여 분석합니다. 첫째, 과정(숙고, 인지 능력 개발, 논쟁적인 용어 형성에 대한 기회 제한), 둘째, 결과(개념 및 행위 주체의 동기 왜곡), 셋째, 생태계(공유 어휘, 해석 규범, 개념의 시간 경과적 변화 방식 재편). 우리는 세 가지 사례 연구를 통해 이러한 위험을 설명하고, 훈련, 기관 배포 설계, 인터페이스 기능, 그리고 불명확한 프롬프트 관리를 포괄하는 다층적 완화 원칙을 제시합니다. 이를 통해 시스템이 모호성을 드러내고, 보존하며, 책임감 있게 관리할 수 있도록 설계하는 것을 목표로 합니다.
Large language models (LLMs) are increasingly used to make sense of ambiguous, open-textured, value-laden terms. Platforms routinely rely on LLMs for content moderation, asking them to label text based on disputed concepts like "hate speech" or "incitement"; hiring managers may use LLMs to rank who counts as "qualified"; and AI labs increasingly train models to self-regulate under constitutional-style ambiguous principles such as "biased" or "legitimate". This paper introduces ambiguity collapse: a phenomenon that occurs when an LLM encounters a term that genuinely admits multiple legitimate interpretations, yet produces a singular resolution, in ways that bypass the human practices through which meaning is ordinarily negotiated, contested, and justified. Drawing on interdisciplinary accounts of ambiguity as a productive epistemic resource, we develop a taxonomy of the epistemic risks posed by ambiguity collapse at three levels: process (foreclosing opportunities to deliberate, develop cognitive skills, and shape contested terms), output (distorting the concepts and reasons agents act upon), and ecosystem (reshaping shared vocabularies, interpretive norms, and how concepts evolve over time). We illustrate these risks through three case studies, and conclude by sketching multi-layer mitigation principles spanning training, institutional deployment design, interface affordances, and the management of underspecified prompts, with the goal of designing systems that surface, preserve, and responsibly govern ambiguity.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.