2604.06650v1 Apr 08, 2026 cs.CL

다중 작업 프롬프트 증류 및 분해를 통한 매개변수 효율적인 전이 학습: 임상 자연어 처리

A Parameter-Efficient Transfer Learning Approach through Multitask Prompt Distillation and Decomposition for Clinical NLP

Mengxian Lyu
Mengxian Lyu
Citations: 25
h-index: 3
Cheng Peng
Cheng Peng
Citations: 796
h-index: 8
Ziyi Chen
Ziyi Chen
University of Florida
Citations: 47
h-index: 3
Yonghui Wu
Yonghui Wu
Citations: 5
h-index: 1

기존의 프롬프트 기반 미세 조정 방법은 일반적으로 각 작업에 특화된 프롬프트를 독립적으로 학습하며, 이는 여러 임상 자연어 처리(NLP) 시스템을 배포할 때 상당한 계산 및 저장 오버헤드를 발생시킵니다. 본 연구에서는 21개의 다양한 임상 데이터셋에서 단일 공유 메타 프롬프트를 학습하고, 이를 0.05% 미만의 학습 가능한 매개변수로 새로운 대상 작업에 적용하는 다중 작업 프롬프트 증류 및 분해 프레임워크를 제안합니다. LLaMA 3.1 8B, Meditron3 8B, gpt-oss 20B 세 가지 모델을 사용하여 10개의 보류 데이터셋에 대해 5가지 임상 NLP 작업 유형(개체명 인식, 관계 추출, 질문 답변, 자연어 추론, 요약)을 평가한 결과, 본 프레임워크는 훨씬 적은 매개변수를 사용하면서도 LoRA보다 1.5~1.7% 더 나은 성능을 보였고, 단일 작업 프롬프트 튜닝보다 6.1~6.6% 더 높은 성능을 달성했습니다. 특히, gpt-oss 20B 모델은 전반적으로 가장 높은 성능을 보였으며, 특히 임상 추론 작업에서 뛰어난 성능을 나타냈습니다. 이러한 우수한 제로샷 및 퓨샷 성능은 공유된 프롬프트 표현의 더 나은 일반화 가능성을 보여줍니다.

Original Abstract

Existing prompt-based fine-tuning methods typically learn task-specific prompts independently, imposing significant computing and storage overhead at scale when deploying multiple clinical natural language processing (NLP) systems. We present a multitask prompt distillation and decomposition framework that learns a single shared metaprompt from 21 diverse clinical source tasks and adapts it to unseen target tasks with fewer than 0.05% trainable parameters. Evaluated across five clinical NLP task types (named entity recognition, relation extraction, question answering, natural language inference, and summarization) on 10 held-out target datasets using three backbone models (LLaMA 3.1 8B, Meditron3 8B, gpt-oss 20B), our framework consistently outperforms LoRA by 1.5~1.7% despite using orders of magnitude fewer parameters, and exceeds single-task prompt tuning by 6.1~6.6%. The gpt-oss 20B model achieves the highest overall performance, particularly on clinical reasoning tasks. The strong zero- and few-shot performance demonstrates better transferability of the shared prompt representation.

0 Citations
0 Influential
4 Altmetric
20.0 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!