2603.07766v1 Mar 08, 2026 cs.CL

SemEval-2026 Task 3을 위한 QuadAI 시스템: 차원 기반 감성 분석을 위한 하이브리드 RoBERTa와 LLM의 앙상블 학습

QuadAI at SemEval-2026 Task 3: Ensemble Learning of Hybrid RoBERTa and LLMs for Dimensional Aspect-Based Sentiment Analysis

Lifeng Han
Lifeng Han
Citations: 4
h-index: 1
A. Vink
A. Vink
Citations: 0
h-index: 0
F. Ventirozos
F. Ventirozos
Citations: 0
h-index: 0
Natalia Amat-Lefort
Natalia Amat-Lefort
Citations: 71
h-index: 4

본 논문에서는 SemEval-2026 Task 3, 즉 차원 기반 감성 회귀 분석을 위한 시스템을 제시합니다. 저희의 접근 방식은 회귀 및 이산화된 분류 헤드를 통해 감성을 동시에 예측하는 하이브리드 RoBERTa 인코더와 예측 수준의 앙상블 학습을 통해 대규모 언어 모델(LLM)을 결합합니다. 하이브리드 인코더는 연속적 및 이산화된 감성 표현을 결합하여 예측의 안정성을 향상시킵니다. 또한, 저희는 LLM과의 인-컨텍스트 학습 및 릿지 회귀 스태킹을 통해 인코더와 LLM의 예측을 결합하는 방법을 탐구했습니다. 개발 데이터 세트에 대한 실험 결과, 앙상블 학습은 개별 모델보다 성능을 크게 향상시켜 RMSE를 상당 부분 감소시키고 상관 관계 점수를 개선했습니다. 저희의 연구 결과는 차원 기반 감성 분석에 있어 인코더 기반 접근 방식과 LLM 기반 접근 방식의 상호 보완적인 강점을 보여줍니다. 저희의 개발 코드 및 리소스는 https://github.com/aaronlifenghan/ABSentiment 에서 공유될 예정입니다.

Original Abstract

We present our system for SemEval-2026 Task 3 on dimensional aspect-based sentiment regression. Our approach combines a hybrid RoBERTa encoder, which jointly predicts sentiment using regression and discretized classification heads, with large language models (LLMs) via prediction-level ensemble learning. The hybrid encoder improves prediction stability by combining continuous and discretized sentiment representations. We further explore in-context learning with LLMs and ridge-regression stacking to combine encoder and LLM predictions. Experimental results on the development set show that ensemble learning significantly improves performance over individual models, achieving substantial reductions in RMSE and improvements in correlation scores. Our findings demonstrate the complementary strengths of encoder-based and LLM-based approaches for dimensional sentiment analysis. Our development code and resources will be shared at https://github.com/aaronlifenghan/ABSentiment

0 Citations
0 Influential
25.4657359028 Altmetric
127.3 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!