Delta1과 LLM: 신뢰할 수 있고 설명 가능한 추론을 위한 기호 및 신경망 통합
Delta1 with LLM: symbolic and neural integration for credible and explainable reasoning
신경-기호 추론은 논리의 형식적 엄격성과 대규모 언어 모델(LLM)의 해석 가능성을 융합하는 프레임워크를 점점 더 요구하고 있습니다. 본 연구에서는 완전 삼각 표준 모순(FTSC)을 기반으로 하는 자동 정리 생성기 Delta1을 LLM과 통합하여, 처음부터 설명 가능성을 제공하는 파이프라인을 소개합니다. Delta1은 다항 시간 내에 최소 불만족 절 집합과 완전한 정리를 결정적으로 생성하며, 구축 과정을 통해 유효성과 최소성을 보장합니다. LLM 레이어는 각 정리와 증명 과정을 일관성 있는 자연어 설명과 실행 가능한 통찰력으로 변환합니다. 의료, 규정 준수 및 규제 분야에 대한 실증 연구 결과, Delta1과 LLM은 해석 가능하고 감사 가능하며, 특정 도메인에 적합한 추론을 가능하게 합니다. 본 연구는 논리, 언어 및 학습의 융합을 발전시키며, 구축 기반의 정리 생성을 신경-기호 설명 가능한 인공지능의 원칙적인 기반으로 제시합니다.
Neuro-symbolic reasoning increasingly demands frameworks that unite the formal rigor of logic with the interpretability of large language models (LLMs). We introduce an end to end explainability by construction pipeline integrating the Automated Theorem Generator Delta1 based on the full triangular standard contradiction (FTSC) with LLMs. Delta1 deterministically constructs minimal unsatisfiable clause sets and complete theorems in polynomial time, ensuring both soundness and minimality by construction. The LLM layer verbalizes each theorem and proof trace into coherent natural language explanations and actionable insights. Empirical studies across health care, compliance, and regulatory domains show that Delta1 and LLM enables interpretable, auditable, and domain aligned reasoning. This work advances the convergence of logic, language, and learning, positioning constructive theorem generation as a principled foundation for neuro-symbolic explainable AI.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.