페르소나 생성기: 대규모로 다양한 합성 페르소나 생성하기
Persona Generators: Generating Diverse Synthetic Personas at Scale
인간과 상호작용하는 AI 시스템을 평가하려면 다양한 사용자 집단에 걸친 행동을 이해해야 하지만, 특히 새로운 기술이나 가상의 미래 시나리오의 경우 대표성 있는 인간 데이터를 수집하는 것은 비용이 많이 들거나 불가능한 경우가 많습니다. 생성형 에이전트 기반 모델링 분야의 최근 연구는 거대 언어 모델이 특정 개인의 신념과 행동을 정확히 재현하여 인간과 유사한 합성 페르소나를 높은 충실도로 시뮬레이션할 수 있음을 보여주었습니다. 그러나 대부분의 접근 방식은 대상 집단에 대한 상세한 데이터를 요구하며, 종종 '지지 범위(support coverage, 가능한 것의 범위를 포괄함)'보다는 '밀도 일치(density matching, 가장 개연성 높은 것을 복제함)'를 우선시하여 롱테일(long-tail) 행동에 대한 탐구를 미흡하게 만듭니다. 본 논문에서는 임의의 맥락에 맞춤화된 다양한 합성 집단을 생성할 수 있는 함수인 '페르소나 생성기(Persona Generators)'를 소개합니다. 우리는 AlphaEvolve에 기반한 반복적 개선 루프를 적용하고, 거대 언어 모델을 변이 연산자로 사용하여 수백 번의 반복을 통해 페르소나 생성기 코드를 정제했습니다. 이 최적화 과정은 작은 서술을 자동으로 확장하여 관련 다양성 축에 따른 의견과 선호도의 커버리지를 극대화하는 다양한 합성 페르소나 집단을 만들어내는 경량화된 페르소나 생성기를 산출합니다. 우리는 진화된 생성기가 보류된(held-out) 맥락에서 6가지 다양성 지표 전반에 걸쳐 기존 베이스라인을 상당히 능가하며, 표준 LLM 출력으로는 달성하기 어려운 희귀한 특성 조합을 포괄하는 집단을 생성함을 입증합니다.
Evaluating AI systems that interact with humans requires understanding their behavior across diverse user populations, but collecting representative human data is often expensive or infeasible, particularly for novel technologies or hypothetical future scenarios. Recent work in Generative Agent-Based Modeling has shown that large language models can simulate human-like synthetic personas with high fidelity, accurately reproducing the beliefs and behaviors of specific individuals. However, most approaches require detailed data about target populations and often prioritize density matching (replicating what is most probable) rather than support coverage (spanning what is possible), leaving long-tail behaviors underexplored. We introduce Persona Generators, functions that can produce diverse synthetic populations tailored to arbitrary contexts. We apply an iterative improvement loop based on AlphaEvolve, using large language models as mutation operators to refine our Persona Generator code over hundreds of iterations. The optimization process produces lightweight Persona Generators that can automatically expand small descriptions into populations of diverse synthetic personas that maximize coverage of opinions and preferences along relevant diversity axes. We demonstrate that evolved generators substantially outperform existing baselines across six diversity metrics on held-out contexts, producing populations that span rare trait combinations difficult to achieve in standard LLM outputs.
AI Analysis
Korean Summary
Key Innovations
- 알고리즘적 충실도(Fidelity)에서 다양성 확보를 위한 지지 집합 커버리지(Support Coverage)로의 목표 전환
- 개별 페르소나 최적화가 아닌 페르소나를 생성하는 '코드(함수)' 자체를 진화적 알고리즘으로 최적화
- LLM을 코드 돌연변이 연산자(Mutation Operator)로 활용하는 AlphaEvolve 프레임워크 적용
- 모집단 수준의 다양성을 결정하는 1단계와 세부 배경을 병렬로 확장하는 2단계로 분리된 효율적인 아키텍처
- 자동 생성된 설문지를 통한 정량적 다양성 평가 및 피드백 루프 구축
Learning & Inference Impact
학습 과정에서는 AlphaEvolve를 통해 수백 번의 반복(iteration)을 수행하며 시뮬레이션과 다양성 평가를 거쳐야 하므로 초기 계산 비용이 높습니다. 하지만 이 과정은 일회성으로, 최적화된 '페르소나 생성기' 코드가 확보되면 추론 단계는 매우 효율적이고 저비용으로 수행됩니다. 학습된 생성기는 추가적인 훈련 없이도 새로운 문맥(Context)에 대해 즉각적으로 다양한 페르소나 집단을 병렬 생성할 수 있으며, 훈련에 사용되지 않은 시나리오에서도 높은 일반화 성능을 보여 AI 시스템의 엣지 케이스 테스트를 용이하게 합니다.
Technical Difficulty
Estimated implementation complexity based on methodology.