2604.11261v1 Apr 13, 2026 cs.AI

과학을 위한 검증 가능한 인공지능: 생성형 인공지능 거버넌스를 위한 연구 객체 접근 방식

Inspectable AI for Science: A Research Object Approach to Generative AI Governance

Mario Fritz
Mario Fritz
Citations: 38
h-index: 5
R. Binkyte
R. Binkyte
Citations: 40
h-index: 5
Sharif Abuaddba
Sharif Abuaddba
Citations: 0
h-index: 0
Chamikara Mahawaga
Chamikara Mahawaga
Citations: 0
h-index: 0
Ming Ding
Ming Ding
Citations: 34
h-index: 2
N. Fernandes
N. Fernandes
Citations: 1
h-index: 1

본 논문에서는 생성형 인공지능을 과학 연구에 활용하는 방식을 규제하기 위한 새로운 패러다임인 '연구 객체로서의 인공지능(AI-RO)'을 제시합니다. 인공지능이 저자인지 단순한 도구인지에 대한 논쟁 대신, 인공지능과의 상호작용을 연구 과정의 구조화되고 검증 가능한 구성 요소로 간주합니다. 이러한 관점에서, 인공지능 지원 과학 논문의 정당성은 모델 사용이 워크플로우에 어떻게 통합되고, 문서화되며, 책임성을 확보하는지에 달려 있습니다. 연구 객체 이론과 FAIR 원칙에 근거하여, 모델 구성, 프롬프트, 그리고 결과물을 상호작용 로그 및 메타데이터 패키징을 통해 기록하는 프레임워크를 제안합니다. 이러한 특성은 특히 보안 및 개인정보 보호(S&P) 연구에서 중요합니다. 왜냐하면, 출처 정보는 일반적인 공개 방식으로는 충족할 수 없는 기밀성 제약, 무결성 보장, 그리고 감사 가능성 요구 사항을 만족해야 하기 때문입니다. 우리는 언어 모델이 명시적인 제약 조건 하에서 인간이 작성한 구조화된 문헌 검토 메모를 합성하고, 검증 가능한 출처 기록을 생성하는 경량화된 작성 파이프라인을 구현했습니다. 본 연구는 초기 시연 워크플로우를 통해 뒷받침되는 주장을 제시하며, 과학 분야의 생성형 인공지능 거버넌스가 구조화된 문서화, 통제된 공개, 그리고 무결성을 보존하는 출처 정보 캡처를 통해 구현될 수 있다고 주장합니다. 이 예시를 바탕으로, 이러한 방식이 실용적이고 널리 채택될 수 있도록 필요한 미래 발전 방향을 제시하고 그 이유를 설명합니다.

Original Abstract

This paper introduces AI as a Research Object (AI-RO), a paradigm for governing the use of generative AI in scientific research. Instead of debating whether AI is an author or merely a tool, we propose treating AI interactions as structured, inspectable components of the research process. Under this view, the legitimacy of an AI-assisted scientific paper depends on how model use is integrated into the workflow, documented, and made accountable. Drawing on Research Object theory and FAIR principles, we propose a framework for recording model configuration, prompts, and outputs through interaction logs and metadata packaging. These properties are particularly consequential in security and privacy (S&P) research, where provenance artifacts must satisfy confidentiality constraints, integrity guarantees, and auditability requirements that generic disclosure practices do not address. We implement a lightweight writing pipeline in which a language model synthesizes human-authored structured literature review notes under explicit constraints and produces a verifiable provenance record. We present this work as a position supported by an initial demonstrative workflow, arguing that governance of generative AI in science can be implemented as structured documentation, controlled disclosure, and integrity-preserving provenance capture. Based on this example, we outline and motivate a set of necessary future developments required to make such practices practical and widely adoptable.

0 Citations
0 Influential
2.5 Altmetric
12.5 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!