질의에서 상담으로: 다중 에이전트 프레임워크 및 데이터셋을 활용한 구조화된 추론을 통한 법률 상담
From Query to Counsel: Structured Reasoning with a Multi-Agent Framework and Dataset for Legal Consultation
법률 상담 질문 응답(Legal CQA)은 기존의 법률 관련 질문 응답 작업과 비교하여 고품질 학습 데이터 부족, 복잡한 작업 구성, 강력한 문맥 의존성 등 고유한 과제를 안고 있습니다. 이러한 문제점을 해결하기 위해, 당 연구에서는 전문가 검증을 거친 긍정 및 부정 답변으로 주석이 달린 43,000개 이상의 실제 중국 법률 질의 데이터를 포함하는 대규모 데이터셋인 JurisCQAD를 구축하고, 각 질의를 법률 요소 그래프로 변환하는 구조화된 작업 분해 방식을 설계했습니다. 또한, 동적 라우팅, 법률 규정 기반 추론, 스타일 최적화를 지원하는 모듈형 다중 에이전트 프레임워크인 JurisMA를 제안합니다. 요소 그래프와 결합된 이 프레임워크는 강력한 문맥 인식 추론을 가능하게 하여 법률 사실, 규범 및 절차적 논리 간의 의존성을 효과적으로 파악합니다. JurisCQAD를 사용하여 학습하고 개선된 LawBench 데이터셋에서 평가한 결과, 당 시스템은 다양한 어휘 및 의미 측정 지표에서 범용 및 법률 도메인 LLM을 모두 능가하는 성능을 보였습니다. 이는 법률 상담 분야에서 해석 가능한 분해 및 모듈형 협업의 이점을 입증합니다.
Legal consultation question answering (Legal CQA) presents unique challenges compared to traditional legal QA tasks, including the scarcity of high-quality training data, complex task composition, and strong contextual dependencies. To address these, we construct JurisCQAD, a large-scale dataset of over 43,000 real-world Chinese legal queries annotated with expert-validated positive and negative responses, and design a structured task decomposition that converts each query into a legal element graph integrating entities, events, intents, and legal issues. We further propose JurisMA, a modular multi-agent framework supporting dynamic routing, statutory grounding, and stylistic optimization. Combined with the element graph, the framework enables strong context-aware reasoning, effectively capturing dependencies across legal facts, norms, and procedural logic. Trained on JurisCQAD and evaluated on a refined LawBench, our system significantly outperforms both general-purpose and legal-domain LLMs across multiple lexical and semantic metrics, demonstrating the benefits of interpretable decomposition and modular collaboration in Legal CQA.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.