2602.06093v1 Feb 05, 2026 cs.LG

NanoNet: 파라미터 효율적인 학습과 희소 라벨 감독을 활용한 경량 텍스트 마이닝 모델

NanoNet: Parameter-Efficient Learning with Label-Scarce Supervision for Lightweight Text Mining Model

Zhijun Chen
Zhijun Chen
Beihang University
Citations: 206
h-index: 7
Qianren Mao
Qianren Mao
Citations: 258
h-index: 7
Ya-Neng Luo
Ya-Neng Luo
Citations: 15
h-index: 1
Ziqi Qin
Ziqi Qin
Citations: 1
h-index: 1
J. Liu
J. Liu
Citations: 23,143
h-index: 64
Weifeng Jiang
Weifeng Jiang
Citations: 117
h-index: 5
Zhuoran Li
Zhuoran Li
Citations: 95
h-index: 3
L. Xiao
L. Xiao
Citations: 4
h-index: 1
Chuou Xu
Chuou Xu
Citations: 23
h-index: 1
Qili Zhang
Qili Zhang
Citations: 7
h-index: 2
Hanwen Hao
Hanwen Hao
Citations: 10
h-index: 3
Jingzheng Li
Jingzheng Li
Citations: 202
h-index: 7
Chun-Wei Lin
Chun-Wei Lin
Citations: 7
h-index: 2
Jianxin Li
Jianxin Li
Citations: 55
h-index: 3
Philip S. Yu
Philip S. Yu
Citations: 103
h-index: 4

경량 반지도 학습(LSL) 전략은 라벨링된 샘플을 절약하고 모델 추론 비용을 최소화하는 효과적인 방법입니다. 기존 연구에서는 지식 전이 학습과 코트레이닝 정규화를 통해 대규모 모델에서 소규모 모델로 정보를 이전하는 LSL 방법을 효과적으로 적용했습니다. 그러나 이러한 학습 전략은 계산 비용이 많이 들고 지역 최적점에 빠지기 쉬워, 최적의 솔루션을 찾는 데 어려움을 겪습니다. 이에 우리는 텍스트 마이닝 작업에 적용 가능한 세 가지 저비용 시나리오를 통합하는 것이 가능한지 조사했습니다. 제안하는 NanoNet은 제한된 감독 하에 파라미터 효율적인 학습을 구현하는 경량 텍스트 마이닝을 위한 새로운 프레임워크입니다. 이 프레임워크는 온라인 지식 증류를 사용하여 여러 개의 소규모 모델을 생성하고, 상호 학습 정규화를 통해 성능을 향상시킵니다. 전체 과정은 파라미터 효율적인 학습을 활용하여 학습 비용을 줄이고 감독 요구 사항을 최소화하며, 궁극적으로 다운스트림 추론을 위한 경량 모델을 제공합니다.

Original Abstract

The lightweight semi-supervised learning (LSL) strategy provides an effective approach of conserving labeled samples and minimizing model inference costs. Prior research has effectively applied knowledge transfer learning and co-training regularization from large to small models in LSL. However, such training strategies are computationally intensive and prone to local optima, thereby increasing the difficulty of finding the optimal solution. This has prompted us to investigate the feasibility of integrating three low-cost scenarios for text mining tasks: limited labeled supervision, lightweight fine-tuning, and rapid-inference small models. We propose NanoNet, a novel framework for lightweight text mining that implements parameter-efficient learning with limited supervision. It employs online knowledge distillation to generate multiple small models and enhances their performance through mutual learning regularization. The entire process leverages parameter-efficient learning, reducing training costs and minimizing supervision requirements, ultimately yielding a lightweight model for downstream inference.

0 Citations
0 Influential
30 Altmetric
150.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!