분포 명확성: 대규모 언어 모델에서 강화 학습 친화성을 유발하는 숨겨진 요인
Distributional Clarity: The Hidden Driver of RL-Friendliness in Large Language Models
언어 모델 계열은 강화 학습을 통해 얻을 수 있는 이익 측면에서 현저한 차이를 보입니다. 동일한 훈련 조건 하에서 Qwen과 같은 모델은 상당한 성능 향상을 보이는 반면, Llama와 같은 모델은 제한적인 개선을 보입니다. 데이터 중심적인 접근 방식 외에도, 우리는 이러한 차이가 숨겨진 구조적 특징, 즉 확률 공간에서의 **분포 명확성**을 반영한다는 것을 밝혀냈습니다. 세 단계에 걸친 분석(현상-메커니즘-해석)을 통해, 강화 학습에 적합한 모델은 정답 및 오답에 대한 확률 할당에서 클래스 내 응집성과 클래스 간 분리도를 나타내는 것을 발견했습니다. 우리는 **실루엣 계수**($S$)를 사용하여 이러한 명확성을 정량화하고, (1) 높은 $S$ 값이 강화 학습 성능과 강한 상관관계를 가지며, (2) 낮은 $S$ 값은 심각한 논리 오류 및 추론 불안정과 관련되어 있음을 입증했습니다. 이 특징을 검증하기 위해, 우리는 훈련 과정에서 $S$ 값이 낮은 샘플을 우선적으로 처리하는 **실루엣 기반 재가중치 부여 전략**을 도입했습니다. 여섯 가지 수학적 벤치마크에 대한 실험 결과, 모든 모델 계열에서 일관된 성능 향상이 나타났으며, 특히 AIME24에서 최대 5.9점의 성능 향상을 보였습니다. 본 연구는 **분포 명확성**을 강화 학습 친화성의 근본적인, 그리고 훈련 가능한 특성으로 확립했습니다.
Language model families exhibit striking disparity in their capacity to benefit from reinforcement learning: under identical training, models like Qwen achieve substantial gains, while others like Llama yield limited improvements. Complementing data-centric approaches, we reveal that this disparity reflects a hidden structural property: \textbf{distributional clarity} in probability space. Through a three-stage analysis-from phenomenon to mechanism to interpretation-we uncover that RL-friendly models exhibit intra-class compactness and inter-class separation in their probability assignments to correct vs. incorrect responses. We quantify this clarity using the \textbf{Silhouette Coefficient} ($S$) and demonstrate that (1) high $S$ correlates strongly with RL performance; (2) low $S$ is associated with severe logic errors and reasoning instability. To confirm this property, we introduce a Silhouette-Aware Reweighting strategy that prioritizes low-$S$ samples during training. Experiments across six mathematical benchmarks show consistent improvements across all model families, with gains up to 5.9 points on AIME24. Our work establishes distributional clarity as a fundamental, trainable property underlying RL-Friendliness.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.