2604.04906v1 Apr 06, 2026 econ.TH

AI 집계가 지식에 미치는 영향

How AI Aggregation Affects Knowledge

Tianyi Lin
Tianyi Lin
Citations: 34
h-index: 3
D. Acemoglu
D. Acemoglu
Citations: 136,310
h-index: 147
Asu Ozdaglar
Asu Ozdaglar
Citations: 58
h-index: 4
James Siderius
James Siderius
Citations: 232
h-index: 9

인공지능(AI)은 집계된 결과물이 향후 예측을 위한 학습 데이터가 될 때 사회적 학습 방식을 변화시킵니다. 이를 연구하기 위해, 우리는 DeGroot 모델을 확장하여 인구의 믿음을 학습하고 합성된 신호를 에이전트에게 다시 제공하는 AI 집계기를 도입했습니다. 우리는 장기적인 믿음과 효율적인 기준점 사이의 차이를 학습 격차로 정의하여, AI 집계가 학습에 미치는 영향을 파악할 수 있도록 했습니다. 주요 결과는 업데이트 속도에 대한 임계값을 제시합니다. 집계기가 너무 빠르게 업데이트되면, 광범위한 환경에서 학습을 안정적으로 향상시키는 훈련 가중치의 양이 존재하지 않지만, 업데이트 속도가 충분히 느린 경우에는 그러한 가중치가 존재합니다. 그 후, 우리는 글로벌 아키텍처와 로컬 아키텍처를 비교했습니다. 근접하거나 특정 주제에 대한 데이터를 기반으로 훈련된 로컬 집계기는 모든 환경에서 학습을 안정적으로 향상시킵니다. 결과적으로, 특수화된 로컬 집계기를 단일 글로벌 집계기로 대체하면, 상태의 적어도 하나의 측면에서 학습이 악화됩니다.

Original Abstract

Artificial intelligence (AI) changes social learning when aggregated outputs become training data for future predictions. To study this, we extend the DeGroot model by introducing an AI aggregator that trains on population beliefs and feeds synthesized signals back to agents. We define the learning gap as the deviation of long-run beliefs from the efficient benchmark, allowing us to capture how AI aggregation affects learning. Our main result identifies a threshold in the speed of updating: when the aggregator updates too quickly, there is no positive-measure set of training weights that robustly improves learning across a broad class of environments, whereas such weights exist when updating is sufficiently slow. We then compare global and local architectures. Local aggregators trained on proximate or topic-specific data robustly improve learning in all environments. Consequently, replacing specialized local aggregators with a single global aggregator worsens learning in at least one dimension of the state.

0 Citations
0 Influential
30 Altmetric
150.0 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!