2602.18449v1 Jan 30, 2026 cs.CL

디퓨전 언어 모델을 활용한 프롬프트 최적화

Prompt Optimization Via Diffusion Language Models

Rithesh Murthy
Rithesh Murthy
Citations: 616
h-index: 9
Shelby Heinecke
Shelby Heinecke
Citations: 1,427
h-index: 18
Silvio Savarese
Silvio Savarese
Citations: 3,228
h-index: 27
Caiming Xiong
Caiming Xiong
Citations: 2,781
h-index: 23
Jielin Qiu
Jielin Qiu
Citations: 53
h-index: 3
Zixiang Chen
Zixiang Chen
Citations: 8
h-index: 2
Liangwei Yang
Liangwei Yang
Citations: 31
h-index: 3
Ming Zhu
Ming Zhu
Citations: 399
h-index: 8
Shiyu Wang
Shiyu Wang
Citations: 138
h-index: 3
Hao Chen
Hao Chen
Citations: 5
h-index: 1
Huan Wang
Huan Wang
Citations: 142
h-index: 3

본 논문에서는 디퓨전 언어 모델(DLM)을 활용하여 시스템 프롬프트를 반복적으로 개선하는 디퓨전 기반 프롬프트 최적화 프레임워크를 제안합니다. 사용자 쿼리, 모델 응답, 그리고 선택적인 피드백을 포함하는 상호 작용 기록을 조건으로 사용하여, 본 방법은 그래디언트 접근 없이, 다운스트림 언어 모델을 수정하지 않고도 유연하고 세분화된 수준의 프롬프트 업데이트를 가능하게 합니다. 다양한 벤치마크(예: τ-bench, SST-2, SST-5)에서, DLM으로 최적화된 프롬프트는 동결된 대상 LLM(예: GPT-4o-mini)의 성능을 지속적으로 향상시키는 것으로 나타났습니다. 또한, 적절한 디퓨전 단계 수가 정교함의 품질과 안정성 간의 최적의 균형을 제공한다는 것을 확인했습니다. 이러한 결과는 디퓨전 기반 프롬프트 최적화가 반복적인 프롬프트 개선을 통해 LLM의 성능을 향상시키는 데 있어 일반적이고, 모델에 독립적이며, 확장 가능한 접근 방식임을 보여줍니다.

Original Abstract

We propose a diffusion-based framework for prompt optimization that leverages Diffusion Language Models (DLMs) to iteratively refine system prompts through masked denoising. By conditioning on interaction traces, including user queries, model responses, and optional feedback, our method enables flexible, span-level prompt updates without requiring gradient access or modifying the downstream language model. Across diverse benchmarks (e.g., $τ$-bench, SST-2, SST-5), DLM-optimized prompts consistently improve the performance of a frozen target LLM (e.g., GPT-4o-mini). We further show that moderate diffusion step counts provide the best balance between refinement quality and stability. These results highlight diffusion-based prompt optimization as a general, model-agnostic, and scalable approach for enhancing LLM performance through iterative prompt refinement.

1 Citations
0 Influential
13.5 Altmetric
68.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!