2602.00029v1 Jan 18, 2026 cs.CL

구조화, 정렬, 추론: 기업 지식 관리를 위한 대규모 온톨로지 모델

Construct, Align, and Reason: Large Ontology Models for Enterprise Knowledge Management

Yao Zhang
Yao Zhang
Citations: 106
h-index: 5
Hongyin Zhu
Hongyin Zhu
Citations: 314
h-index: 8

기업 규모의 지식 관리는 다양한 소스의 이질적인 데이터를 통합하고 효과적인 의미 추론을 가능하게 하는 데 상당한 어려움을 겪습니다. 기존의 지식 그래프는 종종 암묵적인 관계 발견에 어려움을 겪으며, 복잡한 질문 답변을 위한 충분한 의미 이해 능력이 부족합니다. 이러한 한계를 극복하기 위해, 우리는 통합된 구조화-정렬-추론 프레임워크인 대규모 온톨로지 모델(LOM)을 소개합니다. 먼저, 정형 데이터베이스와 비정형 텍스트에서 이중 계층의 기업 온톨로지를 구축하고, 이를 통합하여 포괄적인 기업 온톨로지를 생성합니다. 명령에 따른 추론을 가능하게 하기 위해, 우리는 세 단계로 구성된 통합 훈련 파이프라인을 제안합니다. 첫째, 구조적 이해도를 향상시키기 위한 온톨로지 명령 미세 조정, 둘째, 노드 의미 인코딩을 강화하기 위한 텍스트-온톨로지 연결, 셋째, 온톨로지-언어 쌍에 대한 다중 작업 명령 튜닝을 커리큘럼 학습과 함께 수행하여 의미 추론 및 생성을 향상시킵니다. 또한, 다양한 온톨로지 추론 작업을 포괄하는 훈련 및 평가 데이터 세트를 구축했습니다. 이 벤치마크에서, 40억 개의 파라미터를 가진 LOM은 89.47%의 정확도를 달성했으며, 복잡한 그래프 추론에서 DeepSeek-V3.2보다 우수한 성능을 보였습니다. 이는 온톨로지 구조와 언어의 효과적인 통합을 나타냅니다.

Original Abstract

Enterprise-scale knowledge management faces significant challenges in integrating multi-source heterogeneous data and enabling effective semantic reasoning. Traditional knowledge graphs often struggle with implicit relationship discovery and lack sufficient semantic understanding for complex question answering. To address these limitations, we introduce a unified construct--align--reason framework, the large ontology model (LOM). We first build a dual-layer enterprise ontology from structured databases and unstructured text, subsequently fusing these sources into a comprehensive enterprise ontology. To enable instruction-aligned reasoning, we propose a unified three-stage training pipeline: ontology instruction fine-tuning to improve structural understanding; text-ontology grounding to strengthen node semantic encoding; and multi-task instruction tuning on ontology-language pairs with curriculum learning to enhance semantic reasoning and generation. We also construct comprehensive training and evaluation datasets covering diverse ontology reasoning tasks. On this benchmark, our 4B-parameter LOM achieves 89.47% accuracy and outperforms DeepSeek-V3.2 on complex graph reasoning, indicating effective fusion of ontology structure and language.

0 Citations
0 Influential
4 Altmetric
20.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!