2601.08519v1 Jan 13, 2026 cs.CV

CD^2: 제약 조건 데이터 증류를 통한 소량 데이터 클래스 증분 학습

CD^2: Constrained Dataset Distillation for Few-Shot Class-Incremental Learning

Kexin Bao
Kexin Bao
Citations: 129
h-index: 3
Yong Li
Yong Li
Citations: 65
h-index: 3
Daichi Zhang
Daichi Zhang
Citations: 331
h-index: 6
Hansong Zhang
Hansong Zhang
Citations: 103
h-index: 3
Yutao Yue
Yutao Yue
Citations: 95
h-index: 5
Shiming Ge
Shiming Ge
Citations: 47
h-index: 2

소량 데이터 클래스 증분 학습(FSCIL)은 제한된 훈련 샘플만을 사용하여 지속적으로 분류 작업을 수행하는 데 중요한 기술이지만, 심각한 파국적 망각 문제를 야기합니다. 기존 방법들은 일반적으로 외부 메모리를 사용하여 이전 지식을 저장하고, 새로운 클래스를 기존 클래스와 동등하게 취급하는데, 이는 이전의 필수적인 지식을 제대로 보존하지 못합니다. 이러한 문제를 해결하고, 최근 지식 전달에 대한 증류 연구에서 영감을 받아, 본 연구에서는 FSCIL을 용이하게 하기 위한 프레임워크인 '제약 조건 데이터 증류(CD$^2$)'를 제안합니다. 이 프레임워크는 데이터 증류 모듈(DDM)과 증류 제약 모듈(DCM)로 구성됩니다. 구체적으로, DDM은 분류기에 의해 안내되어 생성된 고도로 압축된 샘플을 사용하여 모델이 소량의 증분 샘플로부터 필수적인 클래스 관련 정보를 학습하도록 유도합니다. DCM은 미리 학습된 클래스 분포에 대한 제약 손실을 도입하여 증류된 지식을 더욱 충분히 보존할 수 있도록 합니다. 세 개의 공개 데이터 세트에 대한 광범위한 실험 결과, 제안하는 방법이 다른 최첨단 경쟁 방법보다 우수하다는 것을 보여줍니다.

Original Abstract

Few-shot class-incremental learning (FSCIL) receives significant attention from the public to perform classification continuously with a few training samples, which suffers from the key catastrophic forgetting problem. Existing methods usually employ an external memory to store previous knowledge and treat it with incremental classes equally, which cannot properly preserve previous essential knowledge. To solve this problem and inspired by recent distillation works on knowledge transfer, we propose a framework termed \textbf{C}onstrained \textbf{D}ataset \textbf{D}istillation (\textbf{CD$^2$}) to facilitate FSCIL, which includes a dataset distillation module (\textbf{DDM}) and a distillation constraint module~(\textbf{DCM}). Specifically, the DDM synthesizes highly condensed samples guided by the classifier, forcing the model to learn compacted essential class-related clues from a few incremental samples. The DCM introduces a designed loss to constrain the previously learned class distribution, which can preserve distilled knowledge more sufficiently. Extensive experiments on three public datasets show the superiority of our method against other state-of-the-art competitors.

0 Citations
0 Influential
3 Altmetric
15.0 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!