LRAS: 에이전트 검색을 활용한 고급 법률 추론
LRAS: Advanced Legal Reasoning with Agentic Search
대규모 추론 모델(LRM)은 수학적 도메인에서 탁월한 논리적 능력을 입증했으나, 절차적 엄격성과 법적 논리 준수에 대한 엄격한 요구 사항으로 인해 법률 분야에서의 적용은 여전히 제한적이다. 오직 내부 파라메트릭 지식에만 의존하는 '폐쇄 루프형 추론'을 수행하는 기존 법률 LLM들은 종종 자신의 지식 한계에 대한 자각이 부족하여, 확신을 가지고 있지만 틀린 결론을 내리는 문제를 겪는다. 이러한 문제를 해결하기 위해 본 논문에서는 법률 LLM을 정적이고 파라메트릭한 '폐쇄 루프형 사고'에서 동적이고 상호작용적인 '능동적 탐구'로 전환하도록 설계된 최초의 프레임워크인 LRAS(Legal Reasoning with Agentic Search)를 제안한다. LRAS는 내성적 모방 학습(Introspective Imitation Learning)과 난이도 인식 강화 학습(Difficulty-aware Reinforcement Learning)을 통합함으로써, LRM이 지식의 경계를 식별하고 복잡한 법률 추론을 처리할 수 있도록 지원한다. 실증 실험 결과, LRAS는 최신 베이스라인 모델들을 8.2-32% 상회하는 성능을 보였으며, 특히 신뢰할 수 있는 지식을 바탕으로 깊이 있는 추론을 요하는 작업에서 가장 큰 성능 향상이 관찰되었다. 향후 연구를 위해 데이터와 모델을 곧 공개할 예정이다.
While Large Reasoning Models (LRMs) have demonstrated exceptional logical capabilities in mathematical domains, their application to the legal field remains hindered by the strict requirements for procedural rigor and adherence to legal logic. Existing legal LLMs, which rely on "closed-loop reasoning" derived solely from internal parametric knowledge, frequently suffer from lack of self-awareness regarding their knowledge boundaries, leading to confident yet incorrect conclusions. To address this challenge, we present Legal Reasoning with Agentic Search (LRAS), the first framework designed to transition legal LLMs from static and parametric "closed-loop thinking" to dynamic and interactive "Active Inquiry". By integrating Introspective Imitation Learning and Difficulty-aware Reinforcement Learning, LRAS enables LRMs to identify knowledge boundaries and handle legal reasoning complexity. Empirical results demonstrate that LRAS outperforms state-of-the-art baselines by 8.2-32\%, with the most substantial gains observed in tasks requiring deep reasoning with reliable knowledge. We will release our data and models for further exploration soon.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.