2601.10101v2 Jan 15, 2026 cs.AI

계획으로서의 매트릭스: 피드백 기반 재계획을 활용한 구조화된 논리적 추론

Matrix as Plan: Structured Logical Reasoning with Feedback-Driven Replanning

Jiandian Zeng
Jiandian Zeng
Citations: 41
h-index: 3
Guo Li
Guo Li
Citations: 18
h-index: 2
Guangxue Zhang
Guangxue Zhang
Citations: 159
h-index: 2
Ke Chen
Ke Chen
Citations: 2
h-index: 1
Zihao Peng
Zihao Peng
Citations: 43
h-index: 3
Tian Wang
Tian Wang
Citations: 69
h-index: 3

웹상의 지식과 의미가 점차 복잡해짐에 따라 대규모 언어 모델(LLM)의 이해 및 추론 능력을 향상시키는 것이 중요해졌습니다. 생각의 사슬(CoT) 프롬프팅은 LLM의 추론 능력을 개선하는 것으로 알려져 있지만, 기호 표현과 엄격한 연역 규칙에 의존하는 논리적 추론 작업에서는 여전히 한계를 보입니다. 뉴로 심볼릭(Neuro-symbolic) 방법은 외부 솔버를 통해 형식적 정확성을 강제하여 이를 해결하려 하지만, 이러한 솔버는 형식에 매우 민감하여 모델 출력의 미세한 불안정에도 처리가 실패하는 경우가 잦습니다. 반면 LLM 주도 접근법은 파싱의 취약성은 피할 수 있으나 구조화된 표현과 프로세스 수준의 오류 수정 메커니즘이 부족합니다. 이에 본 논문에서는 LLM의 논리적 추론 능력을 강화하기 위해 매트릭스 기반 계획을 활용한 구조화된 CoT 프레임워크인 MatrixCoT를 제안합니다. 구체적으로 자연어 표현을 정규화 및 유형화하고 명시적 인용 필드를 부가하며, 단계 간의 전역적 관계를 유지하기 위해 매트릭스 기반 계획법을 도입합니다. 이를 통해 계획은 검증 가능한 산출물이 되고 실행 안정성이 높아집니다. 또한 검증을 위해 피드백 기반 재계획 메커니즘을 추가하여, 의미론적 동등성 제약 하에서 누락과 결함을 식별하고 의존성 매트릭스를 재작성 및 압축함으로써 더욱 신뢰할 수 있는 최종 답변을 도출합니다. 5가지 논리적 추론 벤치마크와 5가지 LLM을 이용한 실험 결과, MatrixCoT는 외부 솔버 없이도 복잡한 기호 추론 작업에서 LLM의 견고성과 해석 가능성을 높이는 동시에 경쟁력 있는 성능을 유지함을 보였습니다.

Original Abstract

As knowledge and semantics on the web grow increasingly complex, enhancing Large Language Models (LLMs)' comprehension and reasoning capabilities has become particularly important. Chain-of-Thought (CoT) prompting has been shown to enhance the reasoning capabilities of LLMs. However, it still falls short on logical reasoning tasks that rely on symbolic expressions and strict deductive rules. Neuro-symbolic methods address this gap by enforcing formal correctness through external solvers. Yet these solvers are highly format-sensitive, and small instabilities in model outputs can lead to frequent processing failures. The LLM-driven approaches avoid parsing brittleness, but they lack structured representations and process-level error-correction mechanisms. To further enhance the logical reasoning capabilities of LLMs, we propose MatrixCoT, a structured CoT framework with a matrix-based plan. Specifically, we normalize and type natural language expressions and attach explicit citation fields, and introduce a matrix-based planning method to preserve global relations among steps. The plan thus becomes a verifiable artifact and execution becomes more stable. For verification, we also add a feedback-driven replanning mechanism. Under semantic-equivalence constraints, it identifies omissions and defects, rewrites and compresses the dependency matrix, and produces a more trustworthy final answer. Experiments on five logical-reasoning benchmarks and five LLMs show that, without relying on external solvers, MatrixCoT enhances both the robustness and interpretability of LLMs when tackling complex symbolic reasoning tasks, while maintaining competitive performance.

0 Citations
0 Influential
1.5 Altmetric
7.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!