2604.27132v1 Apr 29, 2026 cs.AI

TRUST: 분산형 AI 서비스 프레임워크 v.0.1

TRUST: A Framework for Decentralized AI Service v.0.1

Pingzhi Li
Pingzhi Li
Citations: 355
h-index: 8
Tianlong Chen
Tianlong Chen
Citations: 367
h-index: 10
Yu-Chao Huang
Yu-Chao Huang
Citations: 0
h-index: 0
Zhen Tan
Zhen Tan
Citations: 32
h-index: 3
Mohan Zhang
Mohan Zhang
The University of North Carolina at Chapel Hill
Citations: 27
h-index: 2
Zhuoying Zhang
Zhuoying Zhang
Citations: 22
h-index: 3

고위험 영역에서 사용되는 대규모 추론 모델(LRM)과 다중 에이전트 시스템(MAS)은 신뢰할 수 있는 검증이 필수적이지만, 중앙 집중식 접근 방식은 다음과 같은 네 가지 제한점을 가지고 있습니다. (1) 견고성: 단일 실패 지점은 공격과 편향에 취약합니다. (2) 확장성: 추론 복잡성은 병목 현상을 유발합니다. (3) 투명성: 숨겨진 감사 기능은 신뢰를 저해합니다. (4) 개인 정보 보호: 노출된 추론 과정은 모델 도용의 위험이 있습니다. 본 논문에서는 신뢰할 수 있는 AI를 위한 투명하고, 견고하며, 통합된 서비스인 TRUST(Transparent, Robust, and Unified Services for Trustworthy AI)라는 분산형 프레임워크를 소개합니다. TRUST는 세 가지 혁신을 포함합니다. (i) 계층적 방향성 비순환 그래프(HDAG)를 사용하여 체인 오브 씽크(Chain-of-Thought) 추론을 다섯 가지 추상화 수준으로 분해하여 병렬 분산 감사 기능을 제공합니다. (ii) 다중 에이전트 상호 작용을 인과 상호 작용 그래프(CIG)로 투영하여 원인 분석을 위한 DAAN 프로토콜을 제공합니다. (iii) 계산 검증기, LLM 평가자 및 인간 전문가 간의 다계층 합의 메커니즘을 통해 스테이크 가중 투표를 사용하여 악의적인 참여자가 30%를 넘지 않는 경우에도 정확성을 보장합니다. 우리는 정직한 감사자가 이익을 얻고 악의적인 행위자는 손실을 입는다는 안전-수익성 정리를 증명합니다. 모든 결정은 블록체인에 기록되며, 설계 단계부터 고려된 개인 정보 보호 기능을 통해 독점 로직의 재구성을 방지합니다. 다양한 LLM 및 벤치마크에서 TRUST는 72.4%의 정확도를 달성했으며(기준보다 4~18% 향상), 20%의 변조에 대한 복원력을 유지합니다. DAAN은 70%의 원인 분석 정확도를 달성했습니다(표준 방법의 경우 54~63%). 사용자 연구를 통해 설계의 유효성이 검증되었습니다(F1 = 0.89, Brier = 0.074). 이 프레임워크는 (A1) 분산 감사, (A2) 변조 방지 리더보드, (A3) 신뢰 없는 데이터 주석, (A4) 거버넌스 기반 자율 에이전트 기능을 지원하며, 추론 기능을 갖춘 시스템의 안전하고 책임감 있는 배포를 위한 분산형 AI 감사를 선도합니다.

Original Abstract

Large Reasoning Models (LRMs) and Multi-Agent Systems (MAS) in high-stakes domains demand reliable verification, yet centralized approaches suffer four limitations: (1) Robustness, with single points of failure vulnerable to attacks and bias; (2) Scalability, as reasoning complexity creates bottlenecks; (3) Opacity, as hidden auditing erodes trust; and (4) Privacy, as exposed reasoning traces risk model theft. We introduce TRUST (Transparent, Robust, and Unified Services for Trustworthy AI), a decentralized framework with three innovations: (i) Hierarchical Directed Acyclic Graphs (HDAGs) that decompose Chain-of-Thought reasoning into five abstraction levels for parallel distributed auditing; (ii) the DAAN protocol, which projects multi-agent interactions into Causal Interaction Graphs (CIGs) for deterministic root-cause attribution; and (iii) a multi-tier consensus mechanism among computational checkers, LLM evaluators, and human experts with stake-weighted voting that guarantees correctness under 30% adversarial participation. We prove a Safety-Profitability Theorem ensuring honest auditors profit while malicious actors incur losses. All decisions are recorded on-chain, while privacy-by-design segmentation prevents reconstruction of proprietary logic. Across multiple LLMs and benchmarks, TRUST attains 72.4% accuracy (4-18% above baselines) and remains resilient against 20% corruption. DAAN reaches 70% root-cause attribution (vs. 54-63% for standard methods) with 60% token savings. Human studies validate the design (F1 = 0.89, Brier = 0.074). The framework supports (A1) decentralized auditing, (A2) tamper-proof leaderboards, (A3) trustless data annotation, and (A4) governed autonomous agents, pioneering decentralized AI auditing for safe, accountable deployment of reasoning-capable systems.

0 Citations
0 Influential
5 Altmetric
25.0 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!