2603.04071v1 Mar 04, 2026 cs.RO

SaFeR: 실행 가능성 제약 기반 토큰 재샘플링을 통한 자율 주행 테스트를 위한 안전 관련 시나리오 생성

SaFeR: Safety-Critical Scenario Generation for Autonomous Driving Test via Feasibility-Constrained Token Resampling

Fenghua Liang
Fenghua Liang
Citations: 31
h-index: 2
Guo Yang
Guo Yang
Citations: 2
h-index: 1
Jianxun Cui
Jianxun Cui
Citations: 2
h-index: 1
Jinlong Cui
Jinlong Cui
Citations: 35
h-index: 2
Chengcheng Tang
Chengcheng Tang
Citations: 9
h-index: 1

안전 관련 시나리오 생성은 자율 주행 시스템 평가에 매우 중요합니다. 그러나 기존 방법은 종종 세 가지 상충되는 목표, 즉 적대적 중요성, 물리적 실행 가능성 및 행동적 현실성 사이의 균형을 맞추는 데 어려움을 겪습니다. 이러한 격차를 해소하기 위해, 우리는 실행 가능성 제약 기반 토큰 재샘플링을 통한 자율 주행 테스트를 위한 안전 관련 시나리오 생성 방법인 SaFeR을 제안합니다. 우리는 먼저 교통 흐름 생성을 이산적인 다음 토큰 예측 문제로 정의하고, 자연스러운 주행 분포를 포착하기 위해 Transformer 기반 모델을 현실성 사전 지식으로 활용합니다. 복잡한 상호 작용을 효과적으로 모델링하고 동시에 주의 집중 노이즈를 완화하기 위해, 우리는 현실성 사전 지식 내에 새로운 차등 주의 메커니즘을 제안합니다. 이러한 사전 지식을 기반으로, SaFeR은 자연스러움을 유지하면서 고확률 신뢰 영역 내에서 적대적인 행동을 유도하는 새로운 재샘플링 전략을 구현합니다. 동시에, 최대 실행 가능 영역(LFR)에서 파생된 실행 가능성 제약을 적용하여 이론적으로 발생할 수 있는 충돌을 효과적으로 방지합니다. SaFeR은 오프라인 강화 학습을 통해 LFR을 근사화함으로써 이를 달성합니다. Waymo Open Motion 데이터 세트 및 nuPlan에 대한 폐쇄 루프 실험 결과, SaFeR은 최첨단 기준 모델보다 훨씬 뛰어난 성능을 보이며, 더 높은 해결률과 우수한 운동학적 현실성을 달성하면서도 강력한 적대적 효과를 유지합니다.

Original Abstract

Safety-critical scenario generation is crucial for evaluating autonomous driving systems. However, existing approaches often struggle to balance three conflicting objectives: adversarial criticality, physical feasibility, and behavioral realism. To bridge this gap, we propose SaFeR: safety-critical scenario generation for autonomous driving test via feasibility-constrained token resampling. We first formulate traffic generation as a discrete next token prediction problem, employing a Transformer-based model as a realism prior to capture naturalistic driving distributions. To capture complex interactions while effectively mitigating attention noise, we propose a novel differential attention mechanism within the realism prior. Building on this prior, SaFeR implements a novel resampling strategy that induces adversarial behaviors within a high-probability trust region to maintain naturalism, while enforcing a feasibility constraint derived from the Largest Feasible Region (LFR). By approximating the LFR via offline reinforcement learning, SaFeR effectively prevents the generation of theoretically inevitable collisions. Closed-loop experiments on the Waymo Open Motion Dataset and nuPlan demonstrate that SaFeR significantly outperforms state-of-the-art baselines, achieving a higher solution rate and superior kinematic realism while maintaining strong adversarial effectiveness.

0 Citations
0 Influential
1 Altmetric
5.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!