2602.14536v1 Feb 16, 2026 cs.CL

LLM 미세 조정 데이터셋을 위한 설명 가능한 토큰 레벨 노이즈 필터링

Explainable Token-level Noise Filtering for LLM Fine-tuning Datasets

Kui Ren
Kui Ren
Citations: 1,294
h-index: 21
Yuchen Yang
Yuchen Yang
Citations: 11
h-index: 3
Wenze Lin
Wenze Lin
Citations: 113
h-index: 3
Enhao Huang
Enhao Huang
Citations: 22
h-index: 1
Zhixuan Chu
Zhixuan Chu
Citations: 85
h-index: 4
Hong Zhou
Hong Zhou
Citations: 174
h-index: 7
Lana Tao
Lana Tao
Citations: 34
h-index: 5
Yiming Li
Yiming Li
Citations: 217
h-index: 8
Zhan Qin
Zhan Qin
Citations: 4
h-index: 1

대규모 언어 모델(LLM)은 다양한 분야에서 뛰어난 성능을 보여주며 비약적인 발전을 이루었습니다. LLM을 특정 하위 작업에 맞게 조정하는 중요한 단계인 미세 조정은 일반적으로 해당 데이터셋을 사용하여 추가 학습을 수행합니다. 그러나 현재 미세 조정 데이터셋과 LLM의 토큰 레벨 최적화 메커니즘 사이에 근본적인 불일치가 존재합니다. 대부분의 데이터셋은 문장 레벨로 설계되어 토큰 레벨의 노이즈를 유발하며, 이는 최종 성능에 부정적인 영향을 미칩니다. 본 논문에서는 설명 가능한 토큰 레벨 노이즈 필터링 프레임워크인 XTF를 제안합니다. XTF는 토큰 레벨 데이터가 미세 조정 과정에 미치는 복잡하고 미묘한 영향을 세 가지 명확하고 구체적인 속성(추론 중요도, 지식의 신규성, 작업 관련성)으로 분해하고, 이러한 속성은 점수 부여 방법을 사용하여 평가할 수 있습니다. 그런 다음, 선택된 노이즈 토큰의 그래디언트를 마스킹하여 미세 조정된 LLM의 성능을 최적화합니다. 우리는 7개의 주요 LLM을 사용하여 수학, 코딩, 의학 등 세 가지 대표적인 하위 작업에 대한 광범위한 실험을 수행했습니다. 결과는 XTF가 일반적인 미세 조정에 비해 최대 13.7%까지 하위 작업 성능을 크게 향상시킬 수 있음을 보여줍니다. 본 연구는 토큰 레벨 데이터셋 최적화의 중요성을 강조하고, 속성 분해를 기반으로 하는 전략이 복잡한 학습 메커니즘을 설명하는 데 잠재력을 가지고 있음을 보여줍니다.

Original Abstract

Large Language Models (LLMs) have seen remarkable advancements, achieving state-of-the-art results in diverse applications. Fine-tuning, an important step for adapting LLMs to specific downstream tasks, typically involves further training on corresponding datasets. However, a fundamental discrepancy exists between current fine-tuning datasets and the token-level optimization mechanism of LLMs: most datasets are designed at the sentence-level, which introduces token-level noise, causing negative influence to final performance. In this paper, we propose XTF, an explainable token-level noise filtering framework. XTF decomposes the complex and subtle contributions of token-level data to the fine-tuning process into three distinct and explicit attributes (reasoning importance, knowledge novelty, and task relevance), which can be assessed using scoring methods, and then masks the gradients of selected noisy tokens accordingly to optimize the performance of fine-tuned LLMs. We conduct extensive experiments on three representative downstream tasks (math, code and medicine) across 7 mainstream LLMs. The results demonstrate that XTF can significantly improve downstream performance by up to 13.7% compared to regular fine-tuning. Our work highlights the importance of token-level dataset optimization, and demonstrates the potential of strategies based on attribute decomposition for explaining complex training mechanisms.

0 Citations
0 Influential
10.5 Altmetric
52.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!