그래프 신경망의 내부 예측 로직에 대한 악성 코드 삽입: 클린 레이블 백도어 공격
Poisoning the Inner Prediction Logic of Graph Neural Networks for Clean-Label Backdoor Attacks
그래프 신경망(GNN)은 다양한 작업에서 뛰어난 성과를 보여주었습니다. 최근 연구에 따르면, 그래프 백도어 공격은 GNN 모델을 조작하여 특정 트리거가 포함된 노드를 목표 클래스로 예측하도록 만들 수 있습니다. 그러나 기존의 그래프 백도어 공격은 일반적으로 훈련 노드에 트리거를 삽입하는 것 외에도, 트리거가 포함된 훈련 노드의 레이블을 목표 클래스로 변경해야 하는데, 이는 실제 환경에서 실현하기 어렵습니다. 본 연구에서는 훈련 레이블을 수정할 수 없는 현실적이지만 연구가 부족한 클린 레이블 그래프 백도어 공격에 초점을 맞춥니다. 초기 분석 결과, 기존의 그래프 백도어 공격은 클린 레이블 환경에서 일반적으로 실패합니다. 추가 분석 결과, 기존 방법의 주요 실패 원인은 GNN 모델의 예측 로직을 조작할 수 없다는 점이며, 이로 인해 트리거가 예측에 중요하지 않다고 판단됩니다. 따라서, 본 연구에서는 GNN 모델의 내부 예측 로직을 조작하여 효과적인 클린 레이블 그래프 백도어 공격이라는 새로운 문제를 연구합니다. 우리는 조작된 노드 선택기와 로직 조작 트리거 생성기를 통합한 BA-Logic이라는 방법을 제안합니다. 실제 데이터 세트에 대한 광범위한 실험 결과, 제안하는 방법은 공격 성공률을 효과적으로 향상시키며, 클린 레이블 환경에서 최첨단 그래프 백도어 공격 방법보다 우수한 성능을 보입니다. 저희의 코드는 다음 링크에서 확인할 수 있습니다: https://anonymous.4open.science/r/BA-Logic
Graph Neural Networks (GNNs) have achieved remarkable results in various tasks. Recent studies reveal that graph backdoor attacks can poison the GNN model to predict test nodes with triggers attached as the target class. However, apart from injecting triggers to training nodes, these graph backdoor attacks generally require altering the labels of trigger-attached training nodes into the target class, which is impractical in real-world scenarios. In this work, we focus on the clean-label graph backdoor attack, a realistic but understudied topic where training labels are not modifiable. According to our preliminary analysis, existing graph backdoor attacks generally fail under the clean-label setting. Our further analysis identifies that the core failure of existing methods lies in their inability to poison the prediction logic of GNN models, leading to the triggers being deemed unimportant for prediction. Therefore, we study a novel problem of effective clean-label graph backdoor attacks by poisoning the inner prediction logic of GNN models. We propose BA-Logic to solve the problem by coordinating a poisoned node selector and a logic-poisoning trigger generator. Extensive experiments on real-world datasets demonstrate that our method effectively enhances the attack success rate and surpasses state-of-the-art graph backdoor attack competitors under clean-label settings. Our code is available at https://anonymous.4open.science/r/BA-Logic
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.