더 많이 알고, 더 명확하게 알기: 대규모 언어 모델의 지식 증강을 위한 메타인지 프레임워크
Know More, Know Clearer: A Meta-Cognitive Framework for Knowledge Augmentation in Large Language Models
지식 증강은 대규모 언어 모델(LLM)의 성능을 지식 집약적인 작업에서 크게 향상시켰습니다. 그러나 기존 방법은 모델 성능이 내부 지식과 동일하다는 단순한 전제하에 작동하며, 과도한 확신 오류나 불확실한 진실로 이어지는 지식-신뢰도 격차를 간과합니다. 이러한 격차를 해소하기 위해, 우리는 차등적인 개입과 정렬을 통한 신뢰할 수 있는 지식 증강을 위한 새로운 메타인지 프레임워크를 제안합니다. 우리의 접근 방식은 내부 인지 신호를 활용하여 지식 공간을 숙지, 혼란, 결여 영역으로 분할하고, 이를 기반으로 목표 지식 확장을 안내합니다. 또한, 주관적인 확신과 객관적인 정확성을 동기화하는 인지 일관성 메커니즘을 도입하여, 보정된 지식 경계를 보장합니다. 광범위한 실험 결과는 우리 프레임워크가 강력한 기준 모델보다 일관되게 우수한 성능을 보이며, 지식 능력을 향상시키는 것뿐만 아니라, 알려진 것과 알려지지 않은 것을 더 잘 구별하는 인지적 행동을 촉진한다는 것을 입증합니다.
Knowledge augmentation has significantly enhanced the performance of Large Language Models (LLMs) in knowledge-intensive tasks. However, existing methods typically operate on the simplistic premise that model performance equates with internal knowledge, overlooking the knowledge-confidence gaps that lead to overconfident errors or uncertain truths. To bridge this gap, we propose a novel meta-cognitive framework for reliable knowledge augmentation via differentiated intervention and alignment. Our approach leverages internal cognitive signals to partition the knowledge space into mastered, confused, and missing regions, guiding targeted knowledge expansion. Furthermore, we introduce a cognitive consistency mechanism to synchronize subjective certainty with objective accuracy, ensuring calibrated knowledge boundaries. Extensive experiments demonstrate the our framework consistently outperforms strong baselines, validating its rationality in not only enhancing knowledge capabilities but also fostering cognitive behaviors that better distinguish knowns from unknowns.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.