2604.23750v1 Apr 26, 2026 cs.LG

오버라이드 격차: 하이퍼네트워크 기반 즉각적인 LLM 적응에서 지식 충돌 실패의 크기 분석

The Override Gap: A Magnitude Account of Knowledge Conflict Failure in Hypernetwork-Based Instant LLM Adaptation

Mingwei Li
Mingwei Li
Citations: 214
h-index: 7
Shuaizhi Cheng
Shuaizhi Cheng
Citations: 1
h-index: 1
Xiangjun Shi
Xiangjun Shi
Citations: 0
h-index: 0

Doc-to-LoRA와 같은 하이퍼네트워크 기반 방법은 문서를 LLM의 가중치에 단일 순방향 패스에서 통합하지만, 문서가 사전 학습된 지식과 충돌할 때, 즉 심층적인 사실에 대한 정확도가 46.4%로 급격히 떨어지는 현상이 나타납니다. 본 연구에서는 이러한 실패가 표현 방식의 문제가 아니라 크기 문제임을 보여줍니다. 하이퍼네트워크는 이미 올바른 레이어를 타겟팅하지만, 사전 학습된 모델의 마진은 학습 빈도에 따라 증가하는 반면, 하이퍼네트워크의 어댑터 마진은 문서에 관계없이 거의 일정하여, 심층적인 충돌은 구조적으로 실패하게 됩니다. 본 연구의 분석 결과는 실패가 사전 지식의 강도에 따라 달라져야 함을 예측합니다. 194개의 충돌 사례를 기본 모델이 부정하는 사실에 대한 로그 확률로 정렬한 결과, 기본 정확도는 약한 사전 지식을 가진 질문에서 68%에서 강한 사전 지식을 가진 질문에서는 16%로 떨어졌으며, 이는 52% 포인트의 격차를 나타냅니다. 해결책은 크기 조절입니다. Selective Layer Boosting은 어댑터의 가장 큰 정규화 값을 가진 레이어를 확장하고, Conflict-Aware Internalization은 기본 모델이 확신할 때만 확장을 트리거합니다. 이 두 가지 방법 모두 학습이 필요 없으며, 함께 사용하여 Gemma-2B 모델에서 심층적인 충돌에 대한 정확도를 46.4%에서 71.0%로, Mistral-7B 모델에서는 53.6%에서 72.5%로 향상시킵니다. 또한 새로운 지식 회수율을 유지하면서, 기존의 검색 증강 생성 모델보다 중간 수준의 충돌에서 18% 포인트 더 높은 성능을 보입니다. 본 연구에서는 새로운 지식 회수율, 교차 지식 조합, 그리고 사전 지식 강도에 따라 분류된 충돌 사례를 포함하는 489개의 질문으로 구성된 벤치마크인 KID-Bench를 공개합니다.

Original Abstract

Hypernetwork-based methods such as Doc-to-LoRA internalize a document into an LLM's weights in a single forward pass, but they fail systematically on conflicts: when the document contradicts pretraining knowledge, accuracy collapses to 46.4% on the deepest facts. We show the failure is a magnitude problem rather than a representational one. The hypernetwork already targets the right layers, but its adapter margin is approximately constant across documents while the pretrained margin grows with training frequency, so deep conflicts lose by construction. The account predicts that failure should track prior strength: sorting 194 conflicts by the base model's log-probability on the contradicted fact, baseline accuracy falls from 68% on weak-prior questions to 16% on strong-prior ones, a 52 percentage-point gap. The cure is amplitude. Selective Layer Boosting scales the adapter at its top-norm layers, and Conflict-Aware Internalization triggers boosting only when the base model is confident. Both are training-free; together they raise deep-conflict accuracy from 46.4% to 71.0% on Gemma-2B and from 53.6% to 72.5% on Mistral-7B while preserving novel-knowledge recall, and beat vanilla retrieval-augmented generation on medium conflicts by 18 percentage points despite operating entirely in parameter space. We release KID-Bench, a 489-question benchmark that separates novel recall, cross-knowledge combination, and prior-graded conflicts.

0 Citations
0 Influential
3.5 Altmetric
17.5 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!