2601.07239v1 Jan 12, 2026 cs.AI

확률적 혼돈(Stochastic CHAOS): 왜 결정론적 추론은 치명적이며, 분포적 가변성이 인공 인지의 심장 박동인가

Stochastic CHAOS: Why Deterministic Inference Kills, and Distributional Variability Is the Heartbeat of Artifical Cognition

Anusa Saha
Anusa Saha
Citations: 1
h-index: 1
Shreyash Dhoot
Shreyash Dhoot
Citations: 1
h-index: 1
Vighnesh Rai
Vighnesh Rai
Citations: 1
h-index: 1
Raxit Goswami
Raxit Goswami
Citations: 2
h-index: 1
Aman Chadha
Aman Chadha
Citations: 1,452
h-index: 13
Vinija Jain
Vinija Jain
Citations: 1,751
h-index: 13
Amitava Das
Amitava Das
Citations: 809
h-index: 8
Tanmay Joshi
Tanmay Joshi
Citations: 97
h-index: 4
Shourya Aggarwal
Shourya Aggarwal
Citations: 166
h-index: 2
A. Pandey
A. Pandey
Citations: 3,406
h-index: 18

결정론적 추론은 고전 소프트웨어에서 위안을 주는 이상적인 개념으로, 동일한 입력에 대해 동일한 프로그램은 항상 동일한 출력을 생성해야 한다는 것이다. 거대언어모델(LLM)이 실제 배포 단계로 나아감에 따라, 이러한 이상은 추론 스택으로 통째로 도입되었다. Thinking Machines Lab의 최근 연구는 LLM 추론의 비결정론에 대한 상세한 분석을 제시하며, 배치 불변(batch-invariant) 커널과 결정론적 어텐션이 어떻게 비트 단위로 동일한 출력을 강제할 수 있는지 보여주었고, 결정론적 추론을 재현성과 기업용 신뢰성의 전제 조건으로 위치시켰다. 본 논문에서 우리는 정반대의 입장을 취한다. 우리는 LLM에 있어 결정론적 추론이 치명적이라고 주장한다. 이는 불확실성을 모델링하는 능력을 제거하고, 창발적 능력을 억제하며, 추론 과정을 부서지기 쉬운 단일 경로로 붕괴시키고, 꼬리 위험(tail risks)을 숨겨 안전성 정렬(alignment)을 약화시킨다. LLM은 고정된 함수가 아니라 출력에 대한 조건부 분포를 구현한다. 이러한 분포를 하나의 정해진 완성형으로 붕괴시키는 것은 안심을 줄 수 있을지 모르나, 인공 인지의 핵심적인 속성들을 체계적으로 은폐한다. 우리는 대신 분포적 가변성을 측정하고 제어해야 할 신호로 취급하는 '확률적 혼돈(Stochastic CHAOS)'을 옹호한다. 경험적으로, 우리는 결정론적 추론이 체계적으로 오해를 불러일으킴을 보여준다. 단일 샘플 결정론적 평가는 능력과 취약성 모두를 과소평가하며, 바꾸어 쓰기(paraphrases)와 잡음 상황에서의 실패 확률을 가린다. 창발적 능력과 관련된 상전이(phase-like transitions) 현상은 탐욕적 디코딩(greedy decoding) 하에서 사라진다. 다중 경로 추론을 결정론적 백본에 강제할 경우 성능이 저하되어 정확도와 진단적 통찰력이 감소한다. 마지막으로, 결정론적 평가는 다중 샘플 평가에서만 나타나는 드물지만 위험한 행동들을 숨김으로써 안전 위험을 과소평가한다.

Original Abstract

Deterministic inference is a comforting ideal in classical software: the same program on the same input should always produce the same output. As large language models move into real-world deployment, this ideal has been imported wholesale into inference stacks. Recent work from the Thinking Machines Lab has presented a detailed analysis of nondeterminism in LLM inference, showing how batch-invariant kernels and deterministic attention can enforce bitwise-identical outputs, positioning deterministic inference as a prerequisite for reproducibility and enterprise reliability. In this paper, we take the opposite stance. We argue that, for LLMs, deterministic inference kills. It kills the ability to model uncertainty, suppresses emergent abilities, collapses reasoning into a single brittle path, and weakens safety alignment by hiding tail risks. LLMs implement conditional distributions over outputs, not fixed functions. Collapsing these distributions to a single canonical completion may appear reassuring, but it systematically conceals properties central to artificial cognition. We instead advocate Stochastic CHAOS, treating distributional variability as a signal to be measured and controlled. Empirically, we show that deterministic inference is systematically misleading. Single-sample deterministic evaluation underestimates both capability and fragility, masking failure probability under paraphrases and noise. Phase-like transitions associated with emergent abilities disappear under greedy decoding. Multi-path reasoning degrades when forced onto deterministic backbones, reducing accuracy and diagnostic insight. Finally, deterministic evaluation underestimates safety risk by hiding rare but dangerous behaviors that appear only under multi-sample evaluation.

1 Citations
0 Influential
9 Altmetric
46.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!