Ambig-IaC: 인터랙티브 클라우드 인프라-어스-코드 생성을 위한 다층적 의미 해소
Ambig-IaC: Multi-level Disambiguation for Interactive Cloud Infrastructure-as-Code Synthesis
현대적인 클라우드 인프라의 규모와 복잡성은 배포 관리를 위해 인프라-어스-코드(IaC)를 필수적으로 만들었습니다. 대규모 언어 모델(LLM)이 자연어로부터 IaC 구성을 생성하는 데 점점 더 많이 사용되고 있지만, 사용자 요청은 종종 불충분한 정보를 담고 있습니다. 기존의 코드 생성과 달리, IaC 구성은 저렴하게 실행되거나 반복적으로 수정될 수 없으므로, LLM은 거의 한 번에 결과를 내야 하는 상황에 놓입니다. 우리는 IaC에서 발생하는 모호성이 추론 가능한 구성 구조를 가지고 있다는 것을 관찰했습니다. 즉, 구성은 세 가지 계층적 축(리소스, 토폴로지, 속성)으로 분해되며, 상위 수준의 결정은 하위 수준의 결정을 제약합니다. 우리는 훈련이 필요 없는, 의견 불일치를 기반으로 하는 프레임워크를 제안합니다. 이 프레임워크는 다양한 후보 사양을 생성하고, 이러한 축을 가로지르는 구조적 불일치를 식별하며, 정보량에 따라 순위를 매기고, 구성 공간을 점진적으로 좁히는 데 도움이 되는 구체적인 질문을 생성합니다. 우리는 300개의 검증된, 모호한 프롬프트를 가진 IaC 작업으로 구성된 벤치마크인 extsc{Ambig-IaC}와 그래프 편집 거리 및 임베딩 유사성을 기반으로 한 평가 프레임워크를 소개합니다. 우리의 방법은 가장 강력한 기준 모델보다 우수한 성능을 보이며, 구조 및 속성 평가에서 각각 +18.4% 및 +25.4%의 상대적인 성능 향상을 달성했습니다.
The scale and complexity of modern cloud infrastructure have made Infrastructure-as-Code (IaC) essential for managing deployments. While large Language models (LLMs) are increasingly being used to generate IaC configurations from natural language, user requests are often underspecified. Unlike traditional code generation, IaC configurations cannot be executed cheaply or iteratively repaired, forcing the LLMs into an almost one-shot regime. We observe that ambiguity in IaC exhibits a tractable compositional structure: configurations decompose into three hierarchical axes (resources, topology, attributes) where higher-level decisions constrain lower-level ones. We propose a training-free, disagreement-driven framework that generates diverse candidate specifications, identifies structural disagreements across these axes, ranks them by informativeness, and produces targeted clarification questions that progressively narrow the configuration space. We introduce \textsc{Ambig-IaC}, a benchmark of 300 validated IaC tasks with ambiguous prompts, and an evaluation framework based on graph edit distance and embedding similarity. Our method outperforms the strongest baseline, achieving relative improvements of +18.4\% and +25.4\% on structure and attribute evaluations, respectively.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.