2604.17252v1 Apr 19, 2026 cs.CL

보는 것이 곧 믿는 것이 아니다: 적극적인 개입을 통한 신념 관성의 완화 - 구체화된 에이전트의 관점에서

Seeing Isn't Believing: Mitigating Belief Inertia via Active Intervention in Embodied Agents

Wenjie Li
Wenjie Li
Citations: 12
h-index: 2
Jian Wang
Jian Wang
Citations: 273
h-index: 9
Hanlin Wang
Hanlin Wang
Citations: 132
h-index: 5
Chak Tou Leong
Chak Tou Leong
Citations: 564
h-index: 11

최근의 대규모 언어 모델(LLM) 발전은 에이전트가 환경과의 상호작용을 통해 복잡한 구체화된 작업을 수행할 수 있도록 했습니다. 그러나 이러한 에이전트는 여전히 최적이 아닌 결정을 내리고 비효율적인 행동을 수행하는데, 이는 종종 내부 신념과 다른 중요한 환경 피드백을 간과하기 때문입니다. 본 연구에서는 이러한 현상을 신념 관성(belief inertia)이라고 정의하며, 이는 에이전트가 명시적인 관찰에도 불구하고 기존의 신념에 맹목적으로 집착하는 현상입니다. 이러한 문제를 해결하기 위해, 우리는 수동적인 이해에서 벗어나 적극적인 신념 관리를 제안합니다. 우리는 에이전트가 예상 결과를 예측하고, 명시적인 추론을 통해 관찰 결과와 비교하여 검증하고, 검증 증거를 기반으로 기존 신념을 적극적으로 업데이트할 수 있도록 하는 Estimate-Verify-Update (EVU) 메커니즘을 소개합니다. EVU는 명시적으로 텍스트 기반 신념 상태를 생성하는 통합적인 개입 메커니즘으로 설계되었으며, 프롬프트 기반 및 훈련 기반 에이전트 추론 방식 모두에 통합될 수 있습니다. 세 가지 구체화된 벤치마크를 대상으로 수행한 광범위한 실험 결과, EVU는 일관되게 작업 성공률을 크게 향상시키는 것으로 나타났습니다. 추가 분석을 통해, 본 연구의 접근 방식이 신념 관성을 효과적으로 완화하며, 보다 강력한 구체화된 에이전트 개발에 기여함을 확인했습니다. 본 연구의 코드는 다음 링크에서 확인할 수 있습니다: https://github.com/WangHanLinHenry/EVU.

Original Abstract

Recent advancements in large language models (LLMs) have enabled agents to tackle complex embodied tasks through environmental interaction. However, these agents still make suboptimal decisions and perform ineffective actions, as they often overlook critical environmental feedback that differs from their internal beliefs. Through a formal probing analysis, we characterize this as belief inertia, a phenomenon where agents stubbornly adhere to prior beliefs despite explicit observations. To address this, we advocate active belief intervention, moving from passive understanding to active management. We introduce the Estimate-Verify-Update (EVU) mechanism, which empowers agents to predict expected outcomes, verify them against observations through explicit reasoning, and actively update prior beliefs based on the verification evidence. EVU is designed as a unified intervention mechanism that generates textual belief states explicitly, and can be integrated into both prompting-based and training-based agent reasoning methods. Extensive experiments across three embodied benchmarks demonstrate that EVU consistently yields substantial gains in task success rates. Further analyses validate that our approach effectively mitigates belief inertia, advancing the development of more robust embodied agents. Our code is available at https://github.com/WangHanLinHenry/EVU.

0 Citations
0 Influential
25.5 Altmetric
127.5 Score
Original PDF
0

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!