2601.07233v1 Jan 12, 2026 cs.AI

'사고(Thinking)'에서 '정당화(Justifying)'로: 고위험 설명가능성과 전문적 의사소통 표준의 정렬

From "Thinking" to "Justifying": Aligning High-Stakes Explainability with Professional Communication Standards

Lingfei Wu
Lingfei Wu
Citations: 2
h-index: 1
Yimeng Wang
Yimeng Wang
Citations: 138
h-index: 4
A. Stathopoulos
A. Stathopoulos
Citations: 94
h-index: 2
Chen Qian
Chen Qian
Citations: 31
h-index: 3
Yu Chen
Yu Chen
Citations: 22
h-index: 2

고위험 영역에서의 설명 가능한 AI(XAI)는 이해관계자들이 시스템 출력을 신뢰하고 검증하는 데 도움을 주어야 한다. 그러나 생각의 사슬(Chain-of-Thought) 방식은 결론을 내리기 전에 추론을 수행하며, 논리적 비약이나 환각 현상으로 인해 그 근거와 신뢰성 있게 일치하지 않는 결론이 도출될 수 있다. 따라서 우리는 구조화된 정당화(structured justification) 이전에 결론을 먼저 제시하도록 출력 커뮤니케이션을 제약하는 '결과 -> 정당화(Result -> Justify)' 방식을 제안한다. 우리는 구조와 근거에 대한 6가지 지표를 통해 전문적인 관례(예: CREAC, BLUF)를 구체화한 SEF(구조화된 설명가능성 프레임워크)를 소개한다. 3개 도메인의 4가지 과제에 걸친 실험을 통해 이 접근 방식을 검증했다. 6가지 지표 모두 정답률과 상관관계(r=0.20-0.42; p<0.001)를 보였으며, SEF는 83.9%의 정확도(CoT 대비 +5.3% 향상)를 달성했다. 이러한 결과는 구조화된 정당화가 검증 가능성을 높이고 신뢰성 또한 향상시킬 수 있음을 시사한다.

Original Abstract

Explainable AI (XAI) in high-stakes domains should help stakeholders trust and verify system outputs. Yet Chain-of-Thought methods reason before concluding, and logical gaps or hallucinations can yield conclusions that do not reliably align with their rationale. Thus, we propose "Result -> Justify", which constrains the output communication to present a conclusion before its structured justification. We introduce SEF (Structured Explainability Framework), operationalizing professional conventions (e.g., CREAC, BLUF) via six metrics for structure and grounding. Experiments across four tasks in three domains validate this approach: all six metrics correlate with correctness (r=0.20-0.42; p<0.001), and SEF achieves 83.9% accuracy (+5.3 over CoT). These results suggest structured justification can improve verifiability and may also improve reliability.

0 Citations
0 Influential
2 Altmetric
10.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!