SLAP: 가변 길이 오디오와 다중 목적 훈련을 활용한 확장 가능한 언어-오디오 사전 훈련
SLAP: Scalable Language-Audio Pretraining with Variable-Duration Audio and Multi-Objective Training
대조 학습 기반 언어-오디오 사전 훈련(CLAP)은 의미적으로 풍부한 오디오 표현을 학습하는 데 상당한 성공을 거두었으며, 다양한 오디오 관련 작업에 널리 사용됩니다. 그러나 현재의 CLAP 모델은 몇 가지 중요한 한계를 가지고 있습니다. 첫째, 일반적으로 수백만 개의 오디오 샘플로 구성된 비교적 작은 데이터 세트로 훈련됩니다. 둘째, 기존의 CLAP 모델은 짧고 고정된 길이의 오디오에만 제한되어, 가변 길이 오디오가 사용되는 실제 환경에서의 활용을 제약합니다. 셋째, 표준적인 대조 학습 목표는 전역 표현을 기반으로 작동하며, 이는 밀집되고 세밀한 오디오 특징 학습을 방해할 수 있습니다. 이러한 문제점을 해결하기 위해, 우리는 가변 길이 오디오와 다중 훈련 목표를 통합하여 언어-오디오 사전 훈련을 확장한 Scalable Language-Audio Pretraining (SLAP)을 제안합니다. SLAP은 대조 손실과 함께 추가적인 자기 지도 학습 및 캡셔닝 손실을 단일 단계 훈련에서 통합하여, 더욱 풍부하고 밀집된 오디오 표현 학습을 가능하게 합니다. 제안하는 SLAP 모델은 오디오-텍스트 검색 및 제로샷 오디오 분류 작업에서 새로운 최고 성능을 달성하며, 다양한 벤치마크에서 그 효과를 입증합니다.
Contrastive language-audio pretraining (CLAP) has achieved notable success in learning semantically rich audio representations and is widely adopted for various audio-related tasks. However, current CLAP models face several key limitations. First, they are typically trained on relatively small datasets, often comprising a few million audio samples. Second, existing CLAP models are restricted to short and fixed duration, which constrains their usage in real-world scenarios with variable-duration audio. Third, the standard contrastive training objective operates on global representations, which may hinder the learning of dense, fine-grained audio features. To address these challenges, we introduce Scalable Language-Audio Pretraining (SLAP), which scales language-audio pretraining to 109 million audio-text pairs with variable audio durations and incorporates multiple training objectives. SLAP unifies contrastive loss with additional self-supervised and captioning losses in a single-stage training, facilitating the learning of richer dense audio representations. The proposed SLAP model achieves new state-of-the-art performance on audio-text retrieval and zero-shot audio classification tasks, demonstrating its effectiveness across diverse benchmarks.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.