2601.06914v1 Jan 11, 2026 cs.CR

LLM 기반 스마트 컨트랙트 보안 강화를 위한 합성 일반화 연구: 리엔트런시 취약점 사례 연구

Towards Compositional Generalization in LLMs for Smart Contract Security: A Case Study on Reentrancy Vulnerabilities

Ying Zhou
Ying Zhou
Shandong University
Citations: 134
h-index: 6
Jiacheng Wei
Jiacheng Wei
Citations: 0
h-index: 0
Yu Qi
Yu Qi
Citations: 119
h-index: 2
Faguo Wu
Faguo Wu
Citations: 172
h-index: 8
Xiao Zhang
Xiao Zhang
Citations: 4
h-index: 1

대규모 언어 모델(LLM)은 자연어 이해 및 생성 능력에서 뛰어난 성능을 보여줍니다. 그러나 대규모 고품질 데이터로 학습되었음에도 불구하고, LLM은 스마트 컨트랙트 취약점 탐지와 같은 특수 분야에서 기존의 정적 분석 도구보다 뛰어난 성능을 보이지 못합니다. 이러한 문제를 해결하기 위해, 본 논문에서는 원자적 작업 분해 및 융합을 기반으로 하는 사후 학습 알고리즘을 제안합니다. 이 알고리즘은 제한된 데이터 환경에서 조합적 일반화를 달성하기 위해 복잡한 추론 작업을 분해합니다. 특히, 우리는 리엔트런시 취약점 탐지 작업을 외부 호출 식별, 상태 업데이트 식별, 외부 호출과 상태 업데이트 간의 데이터 의존성 식별, 그리고 데이터 흐름 순서 결정의 네 가지 선형 독립적인 원자적 작업으로 분해합니다. 이러한 작업들이 본 연구의 핵심 구성 요소를 형성합니다. 합성 데이터셋을 사용하여 세 개의 컴파일러 검증 데이터셋을 생성하고, Slither 도구를 사용하여 제어 흐름 그래프와 데이터 흐름 그래프로부터 구조적 정보를 추출하여 LLM의 어댑터를 미세 조정합니다. 실험 결과, LoRA 어댑터와 함께 사용된 저차원 정규화 융합은 LLM의 리엔트런시 취약점 탐지 정확도를 98.2%로 향상시켜 최첨단 방법보다 우수한 성능을 보였습니다. 실제 31개의 스마트 컨트랙트에 대해, 본 알고리즘은 기존 분석 도구보다 20% 더 높은 재현율을 달성했습니다.

Original Abstract

Large language models (LLMs) demonstrate remarkable capabilities in natural language understanding and generation. Despite being trained on large-scale, high-quality data, LLMs still fail to outperform traditional static analysis tools in specialized domains like smart contract vulnerability detection. To address this issue, this paper proposes a post-training algorithm based on atomic task decomposition and fusion. This algorithm aims to achieve combinatorial generalization under limited data by decomposing complex reasoning tasks. Specifically, we decompose the reentrancy vulnerability detection task into four linearly independent atomic tasks: identifying external calls, identifying state updates, identifying data dependencies between external calls and state updates, and determining their data flow order. These tasks form the core components of our approach. By training on synthetic datasets, we generate three compiler-verified datasets. We then employ the Slither tool to extract structural information from the control flow graph and data flow graph, which is used to fine-tune the LLM's adapter. Experimental results demonstrate that low-rank normalization fusion with the LoRA adapter improves the LLM's reentrancy vulnerability detection accuracy to 98.2%, surpassing state-of-the-art methods. On 31 real-world contracts, the algorithm achieves a 20% higher recall than traditional analysis tools.

0 Citations
0 Influential
4 Altmetric
20.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!