KALE: 지식 기반 학습을 통한 대규모 언어 모델의 지식 활용 능력 향상
KALE: Enhancing Knowledge Manipulation in Large Language Models via Knowledge-aware Learning
방대한 지식 코퍼스에 사전 학습된 대규모 언어 모델(LLM)은 뛰어난 성능을 보이지만, 관련 지식을 효과적으로 회상, 추론하고 전이하는 능력, 즉 지식 활용 능력을 향상시키는 것은 여전히 어려운 과제입니다. 기존 방법은 주로 레이블이 지정된 데이터셋에 대한 지도 미세 조정(SFT)을 통해 LLM의 지식 활용 능력을 향상시키지만, 저희는 SFT 모델이 여전히 '알고 있지만 틀린' 현상을 보이는 것을 관찰했습니다. 즉, 특정 질문에 대한 관련 지식을 명시적으로 가지고 있음에도 불구하고, 올바른 답변을 제공하지 못하는 경우가 있습니다. 이러한 문제를 해결하기 위해, 저희는 지식 그래프(KG)를 활용하여 고품질의 추론 과정을 생성하고 LLM의 지식 활용 능력을 향상시키는 후속 학습 프레임워크인 KALE(Knowledge-Aware LEarning)을 제안합니다. 구체적으로, KALE은 먼저 지식 기반 데이터 합성(KI) 방법을 도입하여 KG에서 효율적으로 다중 홉 추론 경로를 추출하고, 질문-답변 쌍에 대한 고품질의 추론 과정을 생성합니다. 또한, KALE은 지식 기반 미세 조정(KA) 패러다임을 사용하여 추론 과정을 통해 지식을 내재화함으로써, 추론 과정이 있는 예측과 없는 예측 사이의 KL 발산을 최소화하여 지식 활용 능력을 향상시킵니다. 여섯 가지 다양한 LLM에 대한 여덟 가지 인기 벤치마크에서 수행한 광범위한 실험 결과는 KALE의 효과를 입증하며, 최대 11.72%의 정확도 향상, 평균 4.18%의 정확도 향상을 달성했습니다.
Despite the impressive performance of large language models (LLMs) pretrained on vast knowledge corpora, advancing their knowledge manipulation-the ability to effectively recall, reason, and transfer relevant knowledge-remains challenging. Existing methods mainly leverage Supervised Fine-Tuning (SFT) on labeled datasets to enhance LLMs' knowledge manipulation ability. However, we observe that SFT models still exhibit the known&incorrect phenomenon, where they explicitly possess relevant knowledge for a given question but fail to leverage it for correct answers. To address this challenge, we propose KALE (Knowledge-Aware LEarning)-a post-training framework that leverages knowledge graphs (KGs) to generate high-quality rationales and enhance LLMs' knowledge manipulation ability. Specifically, KALE first introduces a Knowledge-Induced (KI) data synthesis method that efficiently extracts multi-hop reasoning paths from KGs to generate high-quality rationales for question-answer pairs. Then, KALE employs a Knowledge-Aware (KA) fine-tuning paradigm that enhances knowledge manipulation by internalizing rationale-guided reasoning through minimizing the KL divergence between predictions with and without rationales. Extensive experiments on eight popular benchmarks across six different LLMs demonstrate the effectiveness of KALE, achieving accuracy improvements of up to 11.72% and an average of 4.18%.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.