2602.22661v1 Feb 26, 2026 cs.CL

dLLM: 간단한 확산 언어 모델링

dLLM: Simple Diffusion Language Modeling

Dawn Song
Dawn Song
Citations: 928
h-index: 3
Zhanhui Zhou
Zhanhui Zhou
Citations: 684
h-index: 9
Lingjie Chen
Lingjie Chen
Citations: 36
h-index: 2
Hanghang Tong
Hanghang Tong
Citations: 24
h-index: 2

확산 언어 모델(DLM)이 빠르게 발전하고 있지만, 최근의 많은 모델들은 공통된 구성 요소들을 공유하고 있습니다. 이러한 구성 요소들은 종종 개별 연구 코드로 분산되어 있거나 투명한 구현이 부족하여, 재현하거나 확장하기 어렵습니다. 이 분야가 발전함에 따라, 이러한 공통 구성 요소들을 표준화하면서도 새로운 방법과 아키텍처를 지원할 수 있는 통합 프레임워크가 필요합니다. 이러한 문제점을 해결하기 위해, 우리는 dLLM이라는 오픈 소스 프레임워크를 소개합니다. dLLM은 확산 언어 모델링의 핵심 구성 요소인 학습, 추론 및 평가를 통합하고, 이를 통해 사용자들이 새로운 설계에 맞게 쉽게 사용자 정의할 수 있도록 합니다. dLLM을 사용하면, LLaDA 및 Dream과 같은 오픈 소스 대규모 DLM을 표준화된 파이프라인을 통해 재현, 미세 조정, 배포 및 평가할 수 있습니다. 또한, 이 프레임워크는 접근 가능한 컴퓨팅 자원을 사용하여 작은 DLM을 처음부터 구축할 수 있는 최소한의 재현 가능한 방법을 제공하며, BERT 스타일 인코더 또는 자동 회귀 언어 모델을 DLM으로 변환하는 방법을 포함합니다. 또한, 이러한 작은 DLM의 체크포인트를 공개하여 DLM에 대한 접근성을 높이고 향후 연구를 가속화하고자 합니다.

Original Abstract

Although diffusion language models (DLMs) are evolving quickly, many recent models converge on a set of shared components. These components, however, are distributed across ad-hoc research codebases or lack transparent implementations, making them difficult to reproduce or extend. As the field accelerates, there is a clear need for a unified framework that standardizes these common components while remaining flexible enough to support new methods and architectures. To address this gap, we introduce dLLM, an open-source framework that unifies the core components of diffusion language modeling -- training, inference, and evaluation -- and makes them easy to customize for new designs. With dLLM, users can reproduce, finetune, deploy, and evaluate open-source large DLMs such as LLaDA and Dream through a standardized pipeline. The framework also provides minimal, reproducible recipes for building small DLMs from scratch with accessible compute, including converting any BERT-style encoder or autoregressive LM into a DLM. We also release the checkpoints of these small DLMs to make DLMs more accessible and accelerate future research.

2 Citations
0 Influential
4.5 Altmetric
24.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!