CoE: 에이전트 기반 멀티 LLM 시스템에서의 불확실성 정량화를 위한 협업 엔트로피
CoE: Collaborative Entropy for Uncertainty Quantification in Agentic Multi-LLM Systems
멀티 LLM 시스템에서의 불확실성 추정은 여전히 단일 모델 중심적인 경향이 있으며, 기존 방법들은 각 모델 내부의 불확실성을 정량화하지만, 모델 간의 의미적 불일치를 충분히 반영하지 못합니다. 이러한 간극을 해소하기 위해, 우리는 멀티 LLM 협업에서의 의미적 불확실성을 위한 통합적인 정보 이론 기반 지표인 협업 엔트로피(Collaborative Entropy, CoE)를 제안합니다. CoE는 공유된 의미적 클러스터 공간에서 정의되며, 모델 내부의 의미적 엔트로피와 앙상블 평균에 대한 모델 간의 발산이라는 두 가지 구성 요소로 구성됩니다. CoE는 가중 앙상블 예측기가 아니며, 협업적인 확신과 불일치를 특징짓는 시스템 수준의 불확실성 측정 지표입니다. 우리는 CoE의 비음수성, 완벽한 의미적 합의 상태에서의 0값, 그리고 개별 모델이 델타 분포로 붕괴될 때의 CoE의 동작을 포함한 여러 핵심 속성을 분석합니다. 이러한 결과는 모델별 불확실성을 줄이는 것이 충분한 경우와 모델 간의 잔여 불일치가 남아있는 경우를 명확히 합니다. 또한, 우리는 CoE를 활용한 간단한, 학습이 필요 없는 사후 조치(post-hoc) 조정 휴리스틱을 실제 적용 사례로 제시합니다. LLaMA-3.1-8B-Instruct, Qwen-2.5-7B-Instruct, 및 Mistral-7B-Instruct를 사용한 extit{TriviaQA} 및 extit{SQuAD} 데이터셋에 대한 실험 결과, CoE가 표준 엔트로피 및 발산 기반 방법보다 더 강력한 불확실성 추정 성능을 제공하며, 추가적인 이질적인 모델이 도입될수록 성능 향상이 더 크게 나타나는 것을 확인했습니다. 전반적으로, CoE는 멀티 LLM 협업에 대한 유용한 불확실성 기반 관점을 제공합니다.
Uncertainty estimation in multi-LLM systems remains largely single-model-centric: existing methods quantify uncertainty within each model but do not adequately capture semantic disagreement across models. To address this gap, we propose Collaborative Entropy (CoE), a unified information-theoretic metric for semantic uncertainty in multi-LLM collaboration. CoE is defined on a shared semantic cluster space and combines two components: intra-model semantic entropy and inter-model divergence to the ensemble mean. CoE is not a weighted ensemble predictor; it is a system-level uncertainty measure that characterizes collaborative confidence and disagreement. We analyze several core properties of CoE, including non-negativity, zero-value certainty under perfect semantic consensus, and the behavior of CoE when individual models collapse to delta distributions. These results clarify when reducing per-model uncertainty is sufficient and when residual inter-model disagreement remains. We also present a simple CoE-guided, training-free post-hoc coordination heuristic as a practical application of the metric. Experiments on \textit{TriviaQA} and \textit{SQuAD} with LLaMA-3.1-8B-Instruct, Qwen-2.5-7B-Instruct, and Mistral-7B-Instruct show that CoE provides stronger uncertainty estimation than standard entropy- and divergence-based baselines, with gains becoming larger as additional heterogeneous models are introduced. Overall, CoE offers a useful uncertainty-aware perspective on multi-LLM collaboration.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.