2602.00585v1 Jan 31, 2026 cs.AI

정보 탐색 에이전트 통합 탐구

Exploring Information Seeking Agent Consolidation

Jialong Wu
Jialong Wu
Citations: 630
h-index: 11
Qintong Zhang
Qintong Zhang
Citations: 255
h-index: 6
Jiahao Xu
Jiahao Xu
Citations: 4
h-index: 1
Haitao Mi
Haitao Mi
Citations: 6
h-index: 1
Zhonghai Wu
Zhonghai Wu
Citations: 117
h-index: 7
Guochen Yan
Guochen Yan
Citations: 8
h-index: 2
Zhengwei Tao
Zhengwei Tao
Citations: 493
h-index: 8
Bo Li
Bo Li
Citations: 4
h-index: 1
Yuejian Fang
Yuejian Fang
Citations: 1,747
h-index: 11
Qingni Shen
Qingni Shen
Citations: 1,253
h-index: 17
Wentao Zhang
Wentao Zhang
Citations: 4
h-index: 1

정보 탐색 에이전트는 지식 집약적 작업을 해결하기 위한 강력한 패러다임으로 부상했습니다. 기존의 정보 탐색 에이전트는 일반적으로 오픈 웹, 문서 또는 로컬 지식 베이스에 특화되어 있어 확장성과 도메인 간 일반화에 제약이 있습니다. 본 연구에서는 이질적인 정보 탐색 에이전트들을 하나의 파운데이션 에이전트 모델로 통합하는 방법을 조사합니다. 우리는 두 가지 상호 보완적인 통합 전략을 연구합니다. 하나는 도메인별 데이터셋을 혼합하여 통합 모델을 공동 학습시키는 데이터 수준 통합이며, 다른 하나는 독립적으로 학습된 에이전트 모델들을 파라미터 수준에서 병합하는 파라미터 수준 통합입니다. 우리의 분석은 성능 유지, 도메인 간 일반화, 정보 탐색 행동 간의 간섭 측면에서 이러한 접근 방식들을 비교합니다. 연구 결과, 데이터 수준 통합은 강력하고 안정적인 기준선(baseline)을 유지하는 반면, 파라미터 수준 통합은 유망하고 효율적인 대안을 제공하지만 간섭 및 견고성 문제를 겪는 것으로 나타났습니다. 더 나아가, 우리는 세밀한 병합 입도, 작업 이질성 인식, 원칙에 입각한 합의 전략 등 파라미터 수준에서의 효과적인 에이전트 통합을 위한 핵심 설계 요소들을 식별합니다.

Original Abstract

Information-seeking agents have emerged as a powerful paradigm for solving knowledge-intensive tasks. Existing information-seeking agents are typically specialized for open web, documents, or local knowledge bases, which constrains scalability and cross-domain generalization. In this work, we investigate how to consolidate heterogeneous information-seeking agents into a single foundation agentic model. We study two complementary consolidation strategies: data-level consolidation, which jointly trains a unified model on a mixture of domain-specific datasets, and parameter-level consolidation, which merges independently trained agent models at the parameter level. Our analysis compares these approaches in terms of performance retention, cross-domain generalization, and interference across information-seeking behaviors. Our results show that data-level consolidation remains a strong and stable baseline, while parameter-level consolidation offers a promising, efficient alternative but suffers from interference and robustness challenges. We further identify key design factors for effective agent consolidation at the parameter level, including fine-grained merging granularity, awareness of task heterogeneity, and principled consensus strategy.

0 Citations
0 Influential
8.5 Altmetric
42.5 Score
Original PDF

AI Analysis

Korean Summary

이 논문은 웹 검색, 문서 기반 추론, 로컬 지식 기반(RAG) 검색에 특화된 여러 정보 검색 에이전트들을 단일 파운데이션 에이전트 모델로 통합(Consolidation)하는 방법을 탐구합니다. 연구진은 데이터 혼합을 통한 '데이터 수준의 통합'과 개별 학습된 모델의 가중치를 병합하는 '파라미터 수준의 통합(모델 병합)' 전략을 체계적으로 비교 분석했습니다. 연구 결과, 데이터 수준 통합이 여전히 강력하고 안정적인 성능을 보이지만, 행렬 단위의 세밀한 병합 및 데이터 기반 합의 전략(예: RegMean++)을 적용한 파라미터 수준 통합 역시 막대한 재학습 비용 없이 이에 필적하는 성능을 낼 수 있음을 입증하며, 효율적이고 강력한 에이전트 통합을 위한 핵심 설계 원칙을 제시합니다.

Key Innovations

  • 웹(Web), 문서(Doc), RAG 환경의 이질적인 에이전트 상호작용을 단일 정보 검색 패러다임으로 추상화하는 프레임워크 제시
  • 20가지 이상의 다양한 파라미터 수준 모델 병합(Model Merging) 기법과 데이터 혼합(Data Mixing) 기법 간의 대규모 실증적 비교 및 벤치마크 평가
  • 에이전트 병합 성능 향상을 위한 5가지 핵심 설계 원칙 도출 (세밀한 행렬 단위 최적화, 파라미터 업데이트 정규화, 작업 이질성을 고려한 적응형 계수, 최소한의 데이터 기반 보정, LoRA 등 파라미터 업데이트의 고유한 기하학적 특성 존중)
  • LoRA 미세조정 모델 병합 시 업데이트 벡터들의 직교성으로 인해 기존 부분공간(Subspace) 기반 병합 방식이 실패하는 원인 및 병합 간섭(Interference) 현상의 심층적 규명

Learning & Inference Impact

학습(Learning) 측면에서 파라미터 수준 통합은 방대한 혼합 데이터를 활용한 공동 학습(Joint Training)의 막대한 연산 비용과 시간을 절약해 줍니다. 분산되거나 데이터 프라이버시가 중요한 환경에서 독립적으로 학습된 도메인 전문가 모델들을 추가적인 재학습 없이 하나로 결합할 수 있어 학습 파이프라인의 유연성과 효율성을 극대화합니다. 추론(Inference) 측면에서는 각기 다른 작업을 위해 여러 개의 모델을 메모리에 로드하거나 복잡한 라우팅 알고리즘을 사용할 필요 없이 단일 통합 모델만으로 처리가 가능합니다. 결과적으로 모델 시스템 구조가 단순해져 추론 지연 시간과 컴퓨팅 리소스 요구량을 대폭 낮추면서도 이질적인 정보 환경 전반에서 우수한 교차 도메인 일반화 성능을 유지할 수 있습니다.

Technical Difficulty

고급

Estimated implementation complexity based on methodology.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!