2601.15029v1 Jan 21, 2026 cs.AI

내재적인 것이 아닌 창발적인 것: 설명 가능한 AI에 대한 바라드적 독해

Emergent, not Immanent: A Baradian Reading of Explainable AI

Fabio Morreale Joan Serrà Yuki Mistufuji

설명 가능한 AI(XAI)는 종종 AI 모델의 내부 작동 원리를 드러내는 기술적 문제로 규정됩니다. 이러한 입장은 검토되지 않은 존재론적-인식론적 가정의 영향을 받는데, 즉 의미는 모델에 내재된 것으로 취급되고, 설명자는 시스템 외부에 위치하며, 인과 구조는 계산적 기법을 통해 복구 가능한 것으로 가정됩니다. 본 논문에서 우리는 바라드(Barad)의 행위적 실재론을 바탕으로 XAI에 대한 대안적 존재론적-인식론을 전개합니다. 우리는 해석이란 AI 모델, 인간, 맥락, 그리고 해석 장치 간의 상황지어진 얽힘에서 창발하는 물질적-담론적 수행임을 제안합니다. 이러한 입장을 발전시키기 위해 우리는 포괄적인 XAI 방법론 세트를 행위적 실재론을 통해 독해하여, 그중 다수를 뒷받침하는 가정과 한계를 드러냅니다. 마지막으로 우리는 이 프레임워크의 윤리적 차원을 명확히 하고, 사변적인 텍스트-음악 변환 인터페이스를 사례 연구로 활용하여 창발적 해석을 지원하는 XAI 인터페이스의 디자인 방향을 제안합니다.

Original Abstract

Explainable AI (XAI) is frequently positioned as a technical problem of revealing the inner workings of an AI model. This position is affected by unexamined onto-epistemological assumptions: meaning is treated as immanent to the model, the explainer is positioned outside the system, and a causal structure is presumed recoverable through computational techniques. In this paper, we draw on Barad's agential realism to develop an alternative onto-epistemology of XAI. We propose that interpretations are material-discursive performances that emerge from situated entanglements of the AI model with humans, context, and the interpretative apparatus. To develop this position, we read a comprehensive set of XAI methods through agential realism and reveal the assumptions and limitations that underpin several of these methods. We then articulate the framework's ethical dimension and propose design directions for XAI interfaces that support emergent interpretation, using a speculative text-to-music interface as a case study.

0 Citations
0 Influential
0 Altmetric
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.