2604.17433v1 Apr 19, 2026 cs.CL

단 두 개의 샘플만으로 얻는 일관성: 효율적인 LLM 추론을 위한 CoT-PoT 앙상블

Self-Consistency from Only Two Samples: CoT-PoT Ensembling for Efficient LLM Reasoning

Majd Hawasly
Majd Hawasly
Citations: 624
h-index: 13
Mohammad Raza
Mohammad Raza
Citations: 13
h-index: 2
Raman Saparkhan
Raman Saparkhan
Citations: 0
h-index: 0
Md. Rizwan Parvez
Md. Rizwan Parvez
Citations: 1,392
h-index: 16

자기 일관성(SC)은 대규모 언어 모델의 추론 정확도를 향상시키기 위해 여러 샘플 출력을 결합하는 인기 있는 기술이지만, 광범위한 샘플링으로 인해 높은 계산 비용이 발생합니다. 본 연구에서는 두 가지 상이한 추론 방식을 활용하는 하이브리드 앙상블 접근 방식을 소개합니다. 이는 연쇄적 사고(CoT)와 프로그램적 사고(PoT)의 상호 보완적인 강점을 활용합니다. 본 연구는 자기 일관성에서 이 두 가지 추론 방식을 결합하는 일반적인 프레임워크, 그리고 전체 샘플링 및 조기 중단 전략을 제시합니다. 실험 결과, CoT-PoT 앙상블은 전체 정확도를 향상시킬 뿐만 아니라, 자기 일관성에 필요한 샘플 수를 9.3배 감소시킵니다. 특히, 대부분의 작업(78.6%)은 단 2개의 샘플만으로도 처리할 수 있으며, 이는 기존의 모든 자기 일관성 방법으로는 불가능했던 결과입니다.

Original Abstract

Self-consistency (SC) is a popular technique for improving the reasoning accuracy of large language models by aggregating multiple sampled outputs, but it comes at a high computational cost due to extensive sampling. We introduce a hybrid ensembling approach that leverages the complementary strengths of two distinct modes of reasoning: Chain-of-Thought (CoT) and Program-of-Thought (PoT). We describe a general framework for combining these two forms of reasoning in self-consistency, as well as particular strategies for both full sampling and early-stopping. We show that CoT-PoT ensembling not only improves overall accuracy, but also drastically reduces the number of samples required for SC by a factor of 9.3x. In particular, the majority of tasks (78.6%) can be addressed with only two samples, which has not been possible with any prior SC methods.

0 Citations
0 Influential
8 Altmetric
40.0 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!