검증 가능한 논리에 기반을 둔 생성형 플래너: 신뢰할 수 있는 체화된 AI를 위한 하이브리드 아키텍처
Grounding Generative Planners in Verifiable Logic: A Hybrid Architecture for Trustworthy Embodied AI
대규모 언어 모델(LLM)은 체화된 AI를 위한 플래너로서 가능성을 보여주지만, 그 확률적 특성으로 인해 형식적 추론 능력이 결여되어 있어 실제 물리적 배포 시 엄격한 안전 보장이 어렵다. 현재의 접근 방식들은 안전 검사를 위해 신뢰도가 낮은 LLM에 의존하거나, 수정 방안을 제시하지 않은 채 단순히 안전하지 않은 계획을 거부하는 데 그치는 경우가 많다. 본 논문에서는 수동적인 안전 관리에서 능동적인 협업으로 패러다임을 전환하는 뉴로-심볼릭 아키텍처인 '검증 가능한 반복 정제 프레임워크(VIRF)'를 제안한다. 우리의 핵심 기여는 형식적 안전 온톨로지에 기반한 결정론적 '논리 튜터(Logic Tutor)'가 LLM 플래너에게 인과적이고 교육적인 피드백을 제공하는 튜터-수습생 대화 모델이다. 이는 단순한 위험 회피를 넘어 지능적인 계획 수정을 가능하게 한다. 또한, 실제 문서로부터 안전 지식 베이스를 합성하여 기존 벤치마크의 사각지대를 보완하는 확장 가능한 지식 획득 파이프라인을 소개한다. 까다로운 가정 내 안전 과제에서 VIRF는 0%의 완벽한 위험 행동률(HAR)과 모든 베이스라인 모델 중 가장 높은 77.3%의 목표 달성률(GCR)을 기록했다. 또한 평균 1.1회의 수정 반복만이 필요할 정도로 매우 효율적이다. VIRF는 근본적으로 신뢰할 수 있고 검증 가능하며 안전한 체화된 에이전트를 구축하기 위한 원칙적인 경로를 제시한다.
Large Language Models (LLMs) show promise as planners for embodied AI, but their stochastic nature lacks formal reasoning, preventing strict safety guarantees for physical deployment. Current approaches often rely on unreliable LLMs for safety checks or simply reject unsafe plans without offering repairs. We introduce the Verifiable Iterative Refinement Framework (VIRF), a neuro-symbolic architecture that shifts the paradigm from passive safety gatekeeping to active collaboration. Our core contribution is a tutor-apprentice dialogue where a deterministic Logic Tutor, grounded in a formal safety ontology, provides causal and pedagogical feedback to an LLM planner. This enables intelligent plan repairs rather than mere avoidance. We also introduce a scalable knowledge acquisition pipeline that synthesizes safety knowledge bases from real-world documents, correcting blind spots in existing benchmarks. In challenging home safety tasks, VIRF achieves a perfect 0 percent Hazardous Action Rate (HAR) and a 77.3 percent Goal-Condition Rate (GCR), which is the highest among all baselines. It is highly efficient, requiring only 1.1 correction iterations on average. VIRF demonstrates a principled pathway toward building fundamentally trustworthy and verifiably safe embodied agents.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.