LLM 에이전트를 활용한 사회과학 연구: 사회과학 자동화를 위한 인간-AI 협업 플랫폼
LLM Agents as Social Scientists: A Human-AI Collaborative Platform for Social Science Automation
전통적인 사회과학 연구는 복잡한 실험 설계와 실제 인간 참가자를 필요로 하기 때문에 노동 집약적이고 비용이 많이 들며 확장하기 어렵습니다. 본 연구에서는 S-Researcher라는 LLM 에이전트 기반 플랫폼을 소개합니다. 이 플랫폼은 연구 과정과 참가자 풀을 "실리콘화"하여 연구자들이 사회과학 연구를 보다 효율적이고 대규모로 수행하도록 돕습니다. S-Researcher는 자연어에서 실행 가능한 시나리오로 자동 프로그래밍을 통해 일반성을 확보하고, 분산 아키텍처를 통해 최대 10만 명의 동시 에이전트를 지원하여 확장성을 확보하며, 피드백 기반 LLM 미세 조정을 통해 신뢰성을 확보하는 대규모 사회 시뮬레이션 시스템인 YuLan-OneSim을 기반으로 구축되었습니다. S-Researcher는 연구자들이 사회 실험을 설계하고, LLM 에이전트를 사용하여 인간 행동을 시뮬레이션하고, 결과를 분석하고, 보고서를 생성하는 데 도움을 주어, 연구자가 모든 단계에서 감독 및 개입을 유지하는 완전한 인간-AI 협업 연구 루프를 형성합니다. 우리는 LLM 시뮬레이션 연구 패러다임을 세 가지 핵심 추론 모드(귀납, 연역, 추론)로 구현하고, 체계적인 사례 연구를 통해 S-Researcher의 유효성을 검증했습니다. 구체적으로, 엑슬로드의 이론과 일관된 문화적 역학의 귀납적 재현, 설문 데이터와 비교하여 교사의 주의에 대한 상반되는 가설의 연역적 검증, 그리고 인간 실험을 통해 확인된 공공재 게임에서의 협력 메커니즘의 추론적 식별을 수행했습니다. S-Researcher는 사회과학 분야에서 인간-AI 협업의 새로운 패러다임을 제시하며, 계산 시뮬레이션을 통해 인간 연구자들의 역량을 강화하여 사회 현상에 대한 지식 발전을 가속화합니다.
Traditional social science research often requires designing complex experiments across vast methodological spaces and depends on real human participants, making it labor-intensive, costly, and difficult to scale. Here we present S-Researcher, an LLM-agent-based platform that assists researchers in conducting social science research more efficiently and at greater scale by "siliconizing" both the research process and the participant pool. To build S-Researcher, we first develop YuLan-OneSim, a large-scale social simulation system designed around three core requirements: generality via auto-programming from natural language to executable scenarios, scalability via a distributed architecture supporting up to 100,000 concurrent agents, and reliability via feedback-driven LLM fine-tuning. Leveraging this system, S-Researcher supports researchers in designing social experiments, simulating human behavior with LLM agents, analyzing results, and generating reports, forming a complete human-AI collaborative research loop in which researchers retain oversight and intervention at every stage. We operationalize LLM simulation research paradigms into three canonical reasoning modes (induction, deduction, and abduction) and validate S-Researcher through systematic case studies: inductive reproduction of cultural dynamics consistent with Axelrod's theory, deductive testing of competing hypotheses on teacher attention validated against survey data, and abductive identification of a cooperation mechanism in public goods games confirmed by human experiments. S-Researcher establishes a new human--AI collaborative paradigm for social science, in which computational simulation augments human researchers to accelerate discovery across the full spectrum of social inquiry.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.