2602.13477v2 Feb 13, 2026 cs.AI

OMNI-LEAK: 조정형 다중 에이전트 네트워크에서 발생하는 데이터 유출

OMNI-LEAK: Orchestrator Multi-Agent Network Induced Data Leakage

Akshat D. Naik
Akshat D. Naik
Citations: 18
h-index: 2
Jay Culligan
Jay Culligan
Citations: 0
h-index: 0
Yarin Gal
Yarin Gal
Citations: 409
h-index: 11
Philip H. S. Torr
Philip H. S. Torr
Citations: 631
h-index: 13
Rahaf Aljundi
Rahaf Aljundi
Citations: 8,729
h-index: 21
Alasdair Paren
Alasdair Paren
Citations: 38
h-index: 5
A. Bibi
A. Bibi
Citations: 174
h-index: 6

대규모 언어 모델(LLM) 에이전트가 더욱 발전함에 따라, 다중 에이전트 시스템 형태로의 협업 사용이 실용적인 패러다임으로 부상할 것으로 예상됩니다. 기존 연구에서는 에이전트와 관련된 안전 및 오용 위험에 대해 연구해 왔습니다. 하지만 이러한 연구는 주로 단일 에이전트의 경우에 초점을 맞추거나, 접근 제어와 같은 기본적인 보안 조치가 없는 환경을 다루는 경우가 많아, 다중 에이전트 시스템에 대한 위협 모델링이 부족합니다. 본 연구에서는 중앙 에이전트가 작업을 분해하고 전문 에이전트에 위임하는 인기 있는 다중 에이전트 패턴인 '조정형(orchestrator)' 시스템의 보안 취약점을 조사합니다. 실제 사용 사례를 대표하는 구체적인 시스템을 대상으로 공격 시뮬레이션을 수행한 결과, 'OMNI-LEAK'라는 새로운 공격 벡터를 발견했습니다. 이 공격 벡터는 여러 에이전트를 손상시켜 데이터 접근 제어가 있는 경우에도 단일 간접 프롬프트 주입을 통해 민감한 데이터를 유출할 수 있습니다. 우리는 다양한 공격 유형에 대한 최첨단 모델의 취약성을 분석한 결과, 추론 능력이 있는 모델뿐만 아니라 그렇지 않은 모델도 구현 세부 정보에 대한 내부 정보가 없는 공격자에게도 취약하다는 것을 확인했습니다. 본 연구는 단일 에이전트에서 다중 에이전트로 안전 연구를 확장하는 것이 중요하며, 이를 통해 실제 개인 정보 침해, 금전적 손실 및 AI 에이전트에 대한 전반적인 대중의 신뢰를 저해할 수 있는 심각한 위험을 줄일 수 있음을 강조합니다.

Original Abstract

As Large Language Model (LLM) agents become more capable, their coordinated use in the form of multi-agent systems is anticipated to emerge as a practical paradigm. Prior work has examined the safety and misuse risks associated with agents. However, much of this has focused on the single-agent case and/or setups missing basic engineering safeguards such as access control, revealing a scarcity of threat modeling in multi-agent systems. We investigate the security vulnerabilities of a popular multi-agent pattern known as the orchestrator setup, in which a central agent decomposes and delegates tasks to specialized agents. Through red-teaming a concrete setup representative of a likely future use case, we demonstrate a novel attack vector, OMNI-LEAK, that compromises several agents to leak sensitive data through a single indirect prompt injection, even in the presence of data access control. We report the susceptibility of frontier models to different categories of attacks, finding that both reasoning and non-reasoning models are vulnerable, even when the attacker lacks insider knowledge of the implementation details. Our work highlights the importance of safety research to generalize from single-agent to multi-agent settings, in order to reduce the serious risks of real-world privacy breaches and financial losses and overall public trust in AI agents.

0 Citations
0 Influential
10.5 Altmetric
52.5 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!