2604.12512v1 Apr 14, 2026 cs.CV

NTIRE 2026: 3차 '야생 환경에서의 이미지 복원 모델(RAIM)' 챌린지: 전문적인 이미지 품질 평가 (트랙 1)

NTIRE 2026 The 3rd Restore Any Image Model (RAIM) Challenge: Professional Image Quality Assessment (Track 1)

Lingyong Yan
Lingyong Yan
Baidu Inc.
Citations: 1,353
h-index: 16
Guanyi Qin
Guanyi Qin
Citations: 199
h-index: 7
Chunle Guo
Chunle Guo
Citations: 33
h-index: 4
Chongyi Li
Chongyi Li
Citations: 279
h-index: 10
Dandan Zhu
Dandan Zhu
Citations: 34
h-index: 2
R. Timofte
R. Timofte
Citations: 55,281
h-index: 101
Jiachen Tu
Jiachen Tu
Citations: 176
h-index: 9
Bing Li
Bing Li
Citations: 82
h-index: 5
Weiming Hu
Weiming Hu
Citations: 16
h-index: 2
Hongbo Wang
Hongbo Wang
Citations: 38
h-index: 4
Jiejing Liang
Jiejing Liang
Citations: 50
h-index: 4
Bingbing Zhang
Bingbing Zhang
Citations: 26
h-index: 3
Lishen Qu
Lishen Qu
Citations: 93
h-index: 6
Xinli Yue
Xinli Yue
Citations: 79
h-index: 4
Tao Shao
Tao Shao
Citations: 66
h-index: 5
Huanle Hou
Huanle Hou
Citations: 32
h-index: 2
Wenjie Liao
Wenjie Liao
Citations: 41
h-index: 3
Zewen Chen
Zewen Chen
Citations: 231
h-index: 9
Juan Wang
Juan Wang
Citations: 22
h-index: 2
Yun Zeng
Yun Zeng
Citations: 34
h-index: 3
Xinjie Zhang
Xinjie Zhang
Citations: 108
h-index: 3
Sheng Zhou
Sheng Zhou
Citations: 32
h-index: 3
M. Yin
M. Yin
Citations: 10
h-index: 1
Yinxian Zhang
Yinxian Zhang
Citations: 38
h-index: 3
Jikai Xu
Jikai Xu
Citations: 96
h-index: 3
Weixia Zhang
Weixia Zhang
Citations: 682
h-index: 9
Qianqian Zhang
Qianqian Zhang
Citations: 139
h-index: 7
Zhihan Zhang
Zhihan Zhang
Citations: 28
h-index: 2
W. Gordon
W. Gordon
Citations: 16
h-index: 2
Cici Liu
Cici Liu
Citations: 34
h-index: 4
Jian Guo
Jian Guo
Citations: 1,793
h-index: 12
Huimin Zeng
Huimin Zeng
Citations: 198
h-index: 7
Yanxin Guan
Yanxin Guan
Citations: 34
h-index: 3
Lei Zhang
Lei Zhang
Citations: 113
h-index: 6
Jian Sun
Jian Sun
Citations: 6,098
h-index: 29
Shuhao Han
Shuhao Han
Citations: 77
h-index: 4
Jie Yuan
Jie Yuan
Citations: 21
h-index: 2
Yunze Liu
Yunze Liu
Citations: 8
h-index: 1
He Li
He Li
Citations: 13
h-index: 2
Dehua Liu
Dehua Liu
Citations: 173
h-index: 8
Qiang Li
Qiang Li
Citations: 15
h-index: 2
Wei Dong
Wei Dong
Citations: 669
h-index: 12
Qingsen Yan
Qingsen Yan
Citations: 61
h-index: 5
Xingcan Li
Xingcan Li
Citations: 49
h-index: 3
Zhaohui Fan
Zhaohui Fan
Citations: 106
h-index: 4
Wei Sun
Wei Sun
Citations: 29
h-index: 2
Kun Zhu
Kun Zhu
Citations: 19
h-index: 3
Nana Zhang
Nana Zhang
Citations: 45
h-index: 4
Kaiwei Zhang
Kaiwei Zhang
Citations: 8
h-index: 1
Lin Wu
Lin Wu
Citations: 8
h-index: 1
Guoyi Xu
Guoyi Xu
Citations: 143
h-index: 9
Yaoxin Jiang
Yaoxin Jiang
Citations: 130
h-index: 9
Yaokun Shi
Yaokun Shi
Citations: 138
h-index: 9

본 논문에서는 NTIRE 2026 챌린지, 특히 '야생 환경에서의 이미지 복원 모델(RAIM)'의 3번째 대회, 그리고 그 중 트랙 1인 '전문적인 이미지 품질 평가'에 대한 개요를 제시합니다. 기존의 이미지 품질 평가(IQA)는 일반적으로 스칼라 값을 사용합니다. 이러한 방법은 복잡한 시각적 특징을 하나의 숫자로 압축하기 때문에, 균일하게 높은 품질을 가진 이미지들 간의 미묘한 차이를 구별하는 데 근본적인 어려움을 겪습니다. 또한, 어떤 이미지가 더 우수한지 설명하지 못하며, 시각 관련 작업에 대한 지침을 제공하는 데 필요한 추론 능력이 부족합니다. 이러한 격차를 해소하기 위해, 최근의 멀티모달 대규모 언어 모델(MLLM)의 발전은 유망한 가능성을 제시합니다. 이러한 잠재력에 영감을 받아, 본 챌린지는 MLLM이 고품질 이미지 쌍을 평가하는 데 있어 인간 전문가의 인지 능력을 모방할 수 있는 능력을 탐구하는 새로운 벤치마크를 구축했습니다. 참가자들은 전문적인 시나리오에서 발생하는 중요한 문제들을 해결해야 했으며, 주요 목표는 다음과 같습니다. (1) 비교 품질 선택: 고품질 이미지 쌍 내에서 시각적으로 더 우수한 이미지를 정확하게 식별하는 것; 그리고 (2) 해석적 추론: 선택의 근거를 상세히 설명하는, 객관적이고 전문가 수준의 설명을 생성하는 것. 총 200명에 가까운 참가자가 등록했으며, 2,500건 이상의 제출물이 있었습니다. 최고 성능을 보인 방법들은 전문적인 IQA 분야에서 상당한 발전을 이루었습니다. 챌린지 데이터셋은 https://github.com/narthchin/RAIM-PIQA 에서 이용 가능하며, 공식 홈페이지는 https://www.codabench.org/competitions/12789/ 에서 확인할 수 있습니다.

Original Abstract

In this paper, we present an overview of the NTIRE 2026 challenge on the 3rd Restore Any Image Model in the Wild, specifically focusing on Track 1: Professional Image Quality Assessment. Conventional Image Quality Assessment (IQA) typically relies on scalar scores. By compressing complex visual characteristics into a single number, these methods fundamentally struggle to distinguish subtle differences among uniformly high-quality images. Furthermore, they fail to articulate why one image is superior, lacking the reasoning capabilities required to provide guidance for vision tasks. To bridge this gap, recent advancements in Multimodal Large Language Models (MLLMs) offer a promising paradigm. Inspired by this potential, our challenge establishes a novel benchmark exploring the ability of MLLMs to mimic human expert cognition in evaluating high-quality image pairs. Participants were tasked with overcoming critical bottlenecks in professional scenarios, centering on two primary objectives: (1) Comparative Quality Selection: reliably identifying the visually superior image within a high-quality pair; and (2) Interpretative Reasoning: generating grounded, expert-level explanations that detail the rationale behind the selection. In total, the challenge attracted nearly 200 registrations and over 2,500 submissions. The top-performing methods significantly advanced the state of the art in professional IQA. The challenge dataset is available at https://github.com/narthchin/RAIM-PIQA, and the official homepage is accessible at https://www.codabench.org/competitions/12789/.

9 Citations
0 Influential
64.166066720281 Altmetric
329.8 Score
Original PDF
16

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!