2601.12711v1 Jan 19, 2026 cs.AI

뉴로심볼릭 LoRA: 가중치 조정과 프롬프트 재작성의 이유와 시점

Neurosymbolic LoRA: Why and When to Tune Weights vs. Rewrite Prompts

N. Bhatt
N. Bhatt
Citations: 372
h-index: 11
Junbo Li
Junbo Li
Citations: 59
h-index: 3
Runjin Chen
Runjin Chen
Citations: 400
h-index: 6
Yihan Xi
Yihan Xi
Citations: 97
h-index: 4
Timothy Barclay
Timothy Barclay
Citations: 0
h-index: 0
Alvaro Velasquez
Alvaro Velasquez
Citations: 4
h-index: 1
U. Topcu
U. Topcu
Citations: 13,996
h-index: 54
Zhangyang Wang
Zhangyang Wang
Citations: 172
h-index: 7
Kevin Wang
Kevin Wang
Citations: 783
h-index: 7
Cong Liu
Cong Liu
Citations: 253
h-index: 8

대규모 언어 모델(LLM)은 모델 파라미터를 변경하는 수치적 업데이트나 이산적 프롬프트 또는 논리적 제약 조건을 다루는 심볼릭 조작을 통해 조정될 수 있다. 수치적 미세 조정은 새로운 사실적 지식을 주입하는 데 탁월한 반면, 심볼릭 업데이트는 재학습 없이 스타일과 정렬을 유연하게 제어할 수 있다는 장점이 있다. 본 논문에서는 이 두 가지 상호 보완적인 전략을 동적으로 결합하는 뉴로심볼릭 LoRA 프레임워크를 소개한다. 구체적으로, 심층적인 사실 재구성을 위해 LoRA를 사용할 시점과 토큰 수준의 편집을 위해 TextGrad를 적용할 시점을 결정하는 통합 모니터링 신호와 보상 기반 분류기를 제안한다. 우리의 접근 방식은 필요할 때만 심볼릭 변환 작업을 외부 LLM에 오프로딩함으로써 메모리 효율성을 유지한다. 또한, 심볼릭 편집 과정에서 생성된 정제된 프롬프트는 수학적 추론과 같이 데이터가 희소한 도메인에서 중요한 이점인 고품질의 재사용 가능한 훈련 데이터 역할을 한다. 여러 LLM 백본에 걸친 광범위한 실험을 통해 뉴로심볼릭 LoRA가 순수 수치적 또는 순수 심볼릭 베이스라인보다 일관되게 우수한 성능을 보이며, 뛰어난 적응성과 향상된 성능을 입증함을 보여준다. 본 연구 결과는 언어 모델 미세 조정에서 새로운 차원의 다재다능함을 실현하기 위해 수치적 업데이트와 심볼릭 업데이트를 교차 적용하는 것의 가치를 강조한다.

Original Abstract

Large language models (LLMs) can be adapted either through numerical updates that alter model parameters or symbolic manipulations that work on discrete prompts or logical constraints. While numerical fine-tuning excels at injecting new factual knowledge, symbolic updates offer flexible control of style and alignment without retraining. We introduce a neurosymbolic LoRA framework that dynamically combines these two complementary strategies. Specifically, we present a unified monitoring signal and a reward-based classifier to decide when to employ LoRA for deeper factual reconstruction and when to apply TextGrad for token-level edits. Our approach remains memory-efficient by offloading the symbolic transformations to an external LLM only when needed. Additionally, the refined prompts produced during symbolic editing serve as high-quality, reusable training data, an important benefit in data-scarce domains like mathematical reasoning. Extensive experiments across multiple LLM backbones show that neurosymbolic LoRA consistently outperforms purely numerical or purely symbolic baselines, demonstrating superior adaptability and improved performance. Our findings highlight the value of interleaving numerical and symbolic updates to unlock a new level of versatility in language model fine-tuning.

0 Citations
0 Influential
27 Altmetric
135.0 Score

AI Analysis

Korean Summary

이 논문은 대규모 언어 모델(LLM)의 미세 조정(Fine-tuning) 효율성을 극대화하기 위해 수치적 업데이트(LoRA)와 상징적 조작(TextGrad를 이용한 프롬프트 재작성)을 동적으로 결합한 'Neurosymbolic LoRA' 프레임워크를 제안합니다. 연구진은 학습 손실 변화율이나 그래디언트 노름과 같은 모니터링 신호와 보상 기반 분류기를 도입하여, 모델이 새로운 사실적 지식을 학습해야 할 때는 가중치를 조정(LoRA)하고, 스타일 정렬이나 추론 경로 수정이 필요할 때는 프롬프트를 최적화(Symbolic)하도록 시점을 결정합니다. 실험 결과, 이 방식은 데이터가 부족한 도구(수학적 추론 등)에서 단순 LoRA나 프롬프트 튜닝보다 우수한 성능을 보였으며, 최적화된 프롬프트를 고품질 학습 데이터로 재활용할 수 있는 가능성을 제시했습니다.

Key Innovations

  • 수치적 업데이트(LoRA)와 상징적 업데이트(TextGrad)를 상호 보완적으로 교차 적용하는 하이브리드 학습 프레임워크
  • 학습 정체 구간을 감지하여 업데이트 방식을 전환하는 '통합 모니터링 신호(손실 변화율, 그래디언트 노름)' 도입
  • 입력 샘플이 사실적 지식 습득(수치적)이 필요한지 스타일/제약 조건 정렬(상징적)이 필요한지 판단하는 '보상 기반 분류기(Reward-based Classifier)' 개발
  • 상징적 업데이트 과정에서 생성된 정교한 프롬프트를 향후 모델 학습을 위한 고품질 데이터셋으로 변환 및 재사용(Data Remaking)

Learning & Inference Impact

학습 과정에서 이 프레임워크는 온디바이스(On-device) 메모리 제약을 극복하기 위해 무거운 상징적 최적화(프롬프트 재작성) 과정을 외부 고성능 LLM API로 오프로딩하여 수행합니다. 이를 통해 엣지 디바이스에서도 효율적인 학습이 가능합니다. 추론 및 배포 관점에서는, 단순히 가중치만 업데이트하는 것을 넘어 모델이 더 나은 추론 경로를 내재화하도록 돕습니다. 특히 학습 중에 생성된 '개선된 프롬프트 데이터'는 모델의 영구적인 지식으로 통합되어, 추론 시 추가적인 프롬프트 엔지니어링 없이도 향상된 성능과 스타일 정렬을 제공합니다.

Technical Difficulty

중급

Estimated implementation complexity based on methodology.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!