NTIRE 2026: 3차 '야생 환경에서의 이미지 복원 모델(RAIM)' 챌린지: 전문적인 이미지 품질 평가 (트랙 1)
NTIRE 2026 The 3rd Restore Any Image Model (RAIM) Challenge: Professional Image Quality Assessment (Track 1)
본 논문에서는 NTIRE 2026 챌린지, 특히 '야생 환경에서의 이미지 복원 모델(RAIM)'의 3번째 대회, 그리고 그 중 트랙 1인 '전문적인 이미지 품질 평가'에 대한 개요를 제시합니다. 기존의 이미지 품질 평가(IQA)는 일반적으로 스칼라 값을 사용합니다. 이러한 방법은 복잡한 시각적 특징을 하나의 숫자로 압축하기 때문에, 균일하게 높은 품질을 가진 이미지들 간의 미묘한 차이를 구별하는 데 근본적인 어려움을 겪습니다. 또한, 어떤 이미지가 더 우수한지 설명하지 못하며, 시각 관련 작업에 대한 지침을 제공하는 데 필요한 추론 능력이 부족합니다. 이러한 격차를 해소하기 위해, 최근의 멀티모달 대규모 언어 모델(MLLM)의 발전은 유망한 가능성을 제시합니다. 이러한 잠재력에 영감을 받아, 본 챌린지는 MLLM이 고품질 이미지 쌍을 평가하는 데 있어 인간 전문가의 인지 능력을 모방할 수 있는 능력을 탐구하는 새로운 벤치마크를 구축했습니다. 참가자들은 전문적인 시나리오에서 발생하는 중요한 문제들을 해결해야 했으며, 주요 목표는 다음과 같습니다. (1) 비교 품질 선택: 고품질 이미지 쌍 내에서 시각적으로 더 우수한 이미지를 정확하게 식별하는 것; 그리고 (2) 해석적 추론: 선택의 근거를 상세히 설명하는, 객관적이고 전문가 수준의 설명을 생성하는 것. 총 200명에 가까운 참가자가 등록했으며, 2,500건 이상의 제출물이 있었습니다. 최고 성능을 보인 방법들은 전문적인 IQA 분야에서 상당한 발전을 이루었습니다. 챌린지 데이터셋은 https://github.com/narthchin/RAIM-PIQA 에서 이용 가능하며, 공식 홈페이지는 https://www.codabench.org/competitions/12789/ 에서 확인할 수 있습니다.
In this paper, we present an overview of the NTIRE 2026 challenge on the 3rd Restore Any Image Model in the Wild, specifically focusing on Track 1: Professional Image Quality Assessment. Conventional Image Quality Assessment (IQA) typically relies on scalar scores. By compressing complex visual characteristics into a single number, these methods fundamentally struggle to distinguish subtle differences among uniformly high-quality images. Furthermore, they fail to articulate why one image is superior, lacking the reasoning capabilities required to provide guidance for vision tasks. To bridge this gap, recent advancements in Multimodal Large Language Models (MLLMs) offer a promising paradigm. Inspired by this potential, our challenge establishes a novel benchmark exploring the ability of MLLMs to mimic human expert cognition in evaluating high-quality image pairs. Participants were tasked with overcoming critical bottlenecks in professional scenarios, centering on two primary objectives: (1) Comparative Quality Selection: reliably identifying the visually superior image within a high-quality pair; and (2) Interpretative Reasoning: generating grounded, expert-level explanations that detail the rationale behind the selection. In total, the challenge attracted nearly 200 registrations and over 2,500 submissions. The top-performing methods significantly advanced the state of the art in professional IQA. The challenge dataset is available at https://github.com/narthchin/RAIM-PIQA, and the official homepage is accessible at https://www.codabench.org/competitions/12789/.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.