2602.00871v1 Jan 31, 2026 cs.AI

출력 비평을 넘어: 과제 증류를 통한 자가 수정

Beyond Output Critique: Self-Correction via Task Distillation

Hossein A. Rahmani
Hossein A. Rahmani
Citations: 177
h-index: 7
Mengting Wan
Mengting Wan
Citations: 225
h-index: 7
Longqi Yang
Longqi Yang
Citations: 232
h-index: 7
Nick Craswell
Nick Craswell
Citations: 5,624
h-index: 32
Emine Yilmaz
Emine Yilmaz
Citations: 208
h-index: 8
S. Jauhar
S. Jauhar
Citations: 987
h-index: 14
Pei Zhou
Pei Zhou
Citations: 32
h-index: 3

대규모 언어 모델(LLM)은 반복적인 정제를 통해 생성된 응답의 품질을 향상시키는 유망한 자가 수정 능력을 보여주었습니다. 그러나 대부분의 기존 접근 방식은 출력 비평 수준에서 작동하여 표면적인 오류는 수정하지만, 더 깊은 추론 결함을 바로잡는 데는 실패하는 경우가 많습니다. 본 논문에서는 솔루션 개선 이전에 과제 추상화라는 중간 단계를 도입하는 프레임워크인 SELF-THOUGHT를 제안합니다. 입력과 초기 응답이 주어지면, 모델은 먼저 핵심 변수, 제약 조건 및 문제 구조를 포착하는 구조화된 템플릿으로 과제를 증류합니다. 이러한 추상화는 이후 솔루션 구체화를 안내하여 후속 응답이 과제에 대한 더 명확한 이해에 기반하게 하고 오류 전파를 줄여줍니다. 결정적으로, 우리는 이러한 추상화가 모델 간에 전이될 수 있음을 보여줍니다. 즉, 더 큰 모델이 생성한 템플릿은 일반적으로 내재적 자가 수정에 어려움을 겪는 더 작은 LLM을 위한 구조적 가이드 역할을 할 수 있습니다. 증류된 과제 구조를 재사용함으로써, 더 작은 모델들은 과도한 미세 조정이나 외부 검증기에 의존하지 않고도 더 신뢰할 수 있는 개선을 달성합니다. 다양한 추론 과제에 대한 실험을 통해 SELF-THOUGHT가 대규모 및 소규모 모델 모두에서 정확도, 견고성, 일반화 성능을 향상시킴을 입증했으며, 이는 더 신뢰할 수 있는 자가 수정 언어 시스템을 향한 확장 가능한 경로를 제시합니다.

Original Abstract

Large language models (LLMs) have shown promising self-correction abilities, where iterative refinement improves the quality of generated responses. However, most existing approaches operate at the level of output critique, patching surface errors while often failing to correct deeper reasoning flaws. We propose SELF-THOUGHT, a framework that introduces an intermediate step of task abstraction before solution refinement. Given an input and an initial response, the model first distills the task into a structured template that captures key variables, constraints, and problem structure. This abstraction then guides solution instantiation, grounding subsequent responses in a clearer understanding of the task and reducing error propagation. Crucially, we show that these abstractions can be transferred across models: templates generated by larger models can serve as structured guides for smaller LLMs, which typically struggle with intrinsic self-correction. By reusing distilled task structures, smaller models achieve more reliable refinements without heavy fine-tuning or reliance on external verifiers. Experiments across diverse reasoning tasks demonstrate that SELF-THOUGHT improves accuracy, robustness, and generalization for both large and small models, offering a scalable path toward more reliable self-correcting language systems.

0 Citations
0 Influential
16 Altmetric
80.0 Score

AI Analysis

Korean Summary

본 논문은 대규모 언어 모델(LLM)의 기존 자가 수정(Self-correction) 방식이 단순히 출력 결과만을 비평하여 깊이 있는 논리적 오류를 수정하지 못하는 한계를 지적하며, 이를 극복하기 위해 **SELF-THOUGHT**라는 새로운 프레임워크를 제안합니다. 이 방식은 답변을 수정하기 전에 문제를 구조화된 템플릿(변수, 제약 조건, 문제 유형 등)으로 변환하는 **작업 추상화(Task Abstraction)** 단계를 도입하여 문제에 대한 이해도를 높입니다. 또한, 고성능 모델이 생성한 추상화 템플릿을 소형 모델에 재사용하는 **DISTIL-THOUGHT** 기법을 통해, 별도의 파인튜닝 없이도 소형 모델이 복잡한 추론 작업에서 효과적으로 자가 수정을 수행하고 성능을 비약적으로 향상시킬 수 있음을 입증했습니다.

Key Innovations

  • 단순 출력 비평(Output Critique) 대신 문제의 구조를 먼저 파악하는 작업 추상화(Task Abstraction) 단계 도입
  • 입력 쿼리를 변수, 제약 조건, 목표 등을 포함한 정규화된 템플릿(Thought Template)으로 변환
  • 대형 모델이 생성한 추론 템플릿을 소형 모델로 전이하여 성능을 높이는 DISTIL-THOUGHT 기법
  • 외부 검증기나 추가적인 학습 데이터 없이 내재적 추론만으로 자가 수정의 신뢰성 확보

Learning & Inference Impact

추론(Inference) 단계에서 모델이 즉각적으로 답을 내놓고 수정하는 대신, 문제를 추상화하여 '어떻게 풀어야 하는가'에 대한 청사진을 먼저 그리도록 유도합니다. 이는 추론 과정에서 오류 전파를 줄이고 일관성을 높이는 데 기여합니다. 학습(Learning) 측면에서는, 특히 내재적 자가 수정 능력이 부족한 소형 모델(Small LLMs)에게 대형 모델의 사고 구조(추상화 템플릿)를 제공함으로써, 값비싼 파인튜닝(Fine-tuning)이나 RLHF 과정 없이도 복잡한 수학적/알고리즘적 추론 능력을 획기적으로 개선할 수 있는 효율적인 방법을 제시합니다. 이는 모델 배포 비용 절감과 자원 제약 환경에서의 효용성을 크게 높입니다.

Technical Difficulty

중급

Estimated implementation complexity based on methodology.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!