2604.10502v1 Apr 12, 2026 cs.AI

CHAIRO: LLM을 위한 맥락적 계층적 유추 기반 추론 및 최적화

CHAIRO: Contextual Hierarchical Analogical Induction and Reasoning Optimization for LLMs

Yuchen Mou
Yuchen Mou
Citations: 4
h-index: 1
Bingzhe Wu
Bingzhe Wu
Citations: 35
h-index: 3
Haotian Lu
Haotian Lu
Citations: 3
h-index: 1

온라인 플랫폼에서의 콘텐츠 검열은 사용자 생성 콘텐츠의 복잡성이 끊임없이 변화하고, 기존의 규칙 기반 및 머신러닝 접근 방식의 한계로 인해 지속적인 어려움을 겪고 있습니다. 최근 대규모 언어 모델(LLM)의 발전은 직접적인 프롬프트 또는 미세 조정 방식을 통해 더욱 정교한 검열을 가능하게 했지만, 이러한 접근 방식은 종종 일반화 능력, 해석 가능성 및 예측되지 않은 또는 모호한 사례에 대한 적응력이 제한되는 경향이 있습니다. 본 연구에서는 유추적 예제를 활용하여 규칙 유도 및 의사 결정의 신뢰성을 향상시키는 새로운 검열 프레임워크를 제안합니다. 우리의 접근 방식은 유추 검색, 규칙 생성 및 검열 분류를 통합적으로 최적화하여, 다양한 콘텐츠 시나리오에 대한 검열 규칙의 동적 적응을 가능하게 합니다. 포괄적인 실험을 통해, 우리의 방법이 검열 정확도 및 규칙 품질 측면에서 규칙 기반 미세 조정 모델 및 다단계 정적 RAG 파이프라인을 모두 능가한다는 것을 입증했습니다. 인간 평가 및 외부 모델 일반화 테스트를 포함한 추가 평가 결과, 우리의 프레임워크는 더 명확하고, 해석 가능하며, 적용 가능한 규칙을 생성한다는 것을 확인했습니다. 이러한 결과는 유추적 예제를 활용하는 방법이 실제 응용 분야에서 강력하고, 설명 가능하며, 일반화 가능한 콘텐츠 검열을 발전시킬 수 있음을 보여줍니다.

Original Abstract

Content moderation in online platforms faces persistent challenges due to the evolving complexity of user-generated content and the limitations of traditional rule-based and machine learning approaches. While recent advances in large language models (LLMs) have enabled more sophisticated moderation via direct prompting or fine-tuning, these approaches often exhibit limited generalization, interpretability, and adaptability to unseen or ambiguous cases. In this work, we propose a novel moderation framework that leverages analogical examples to enhance rule induction and decision reliability. Our approach integrates end-to-end optimization of analogical retrieval, rule generation, and moderation classification, enabling the dynamic adaptation of moderation rules to diverse content scenarios. Through comprehensive experiments, we demonstrate that our method significantly outperforms both rule-injected fine-tuning baselines and multi-stage static RAG pipelines in terms of moderation accuracy and rule quality. Further evaluations, including human assessments and external model generalization tests, confirm that our framework produces rules with better clarity, interpretability, and applicability. These findings show that analogical example-driven methods can advance robust, explainable, and generalizable content moderation in real-world applications.

0 Citations
0 Influential
1.5 Altmetric
7.5 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!