만성 질환 관리에서의 준수율 향상을 위한 인간-AI 협업 기반 보고서 자동 생성 시스템
Human-in-the-Loop Interactive Report Generation for Chronic Disease Adherence
만성 질환 관리는 불필요한 입원을 예방하기 위해 정기적인 준수율 피드백이 필요하지만, 임상의는 환자에게 맞춤화된 정보를 제공할 충분한 시간을 갖지 못하는 경우가 많습니다. 수동으로 작성하는 방식은 임상적 정확성을 유지하지만 확장성이 떨어지고, AI를 활용한 자동 생성은 확장성이 뛰어나지만 환자에게 직접 제공되는 정보의 신뢰성을 저해할 수 있습니다. 본 연구에서는 AI가 데이터 구성에만 활용되고, 임상의가 검토를 통해 감독할 수 있도록 설계된 인간-AI 협업 인터페이스를 제시합니다. 단일 페이지 편집기에서는 AI가 생성한 보고서 초안과 시간과 관련된 시각적 자료를 함께 제공하여, 임상의가 각 주장에 대한 시각적 증거를 바탕으로 즉시 수정할 수 있도록 합니다. 이러한 역할 분담(AI는 데이터를 구성하고, 임상의는 최종 결정을 내림)은 효율성과 책임성을 동시에 추구합니다. 세 명의 임상의가 24건의 사례를 검토한 시범 연구에서, AI는 임상의의 수동 작성 방식과 유사한 수준의 임상적으로 개인화된 초안을 성공적으로 생성했습니다(전반적인 평균 4.86/10 vs. 기준 5.0/10). 또한, 임상의는 최소한의 수정(평균 8.3%의 내용 수정)만으로 초안을 완성했으며, 안전과 관련된 문제가 전혀 발생하지 않아, 콘텐츠 생성 자동화의 효과를 입증했습니다. 하지만, 검토 시간은 수동 작업과 거의 동일했습니다. 이는 '책임의 역설'을 보여줍니다. 즉, 고위험의 임상 환경에서는 AI의 정확도와 관계없이, 전문적인 책임은 완전한 검증을 요구한다는 것입니다. 본 연구는 세 가지의 임상 AI 협업 패턴을 제시합니다. 첫째, 차트 정보와 텍스트를 결합하여 AI의 생성 범위를 제한하고, 인식 기반 검토를 통해 오류를 방지하는 방식입니다. 둘째, 활력 징후 및 준수 패턴을 분석하여 긴급 상황을 자동으로 감지하고, 중요한 모니터링 작업이 누락될 경우 안전 장치를 통해 즉시 알리는 방식입니다. 셋째, 인지적 부담을 줄이면서도 감독을 유지할 수 있도록 점진적인 정보 공개 기능을 제공하는 방식입니다. 이러한 패턴들은 임상 AI의 효율성을 높이기 위해서는 정확한 모델뿐만 아니라, 책임성을 유지할 수 있는 선택적 검증 메커니즘이 필요하다는 것을 시사합니다.
Chronic disease management requires regular adherence feedback to prevent avoidable hospitalizations, yet clinicians lack time to produce personalized patient communications. Manual authoring preserves clinical accuracy but does not scale; AI generation scales but can undermine trust in patient-facing contexts. We present a clinician-in-the-loop interface that constrains AI to data organization and preserves physician oversight through recognition-based review. A single-page editor pairs AI-generated section drafts with time-aligned visualizations, enabling inline editing with visual evidence for each claim. This division of labor (AI organizes, clinician decides) targets both efficiency and accountability. In a pilot with three physicians reviewing 24 cases, AI successfully generated clinically personalized drafts matching physicians' manual authoring practice (overall mean 4.86/10 vs. 5.0/10 baseline), requiring minimal physician editing (mean 8.3\% content modification) with zero safety-critical issues, demonstrating effective automation of content generation. However, review time remained comparable to manual practice, revealing an accountability paradox: in high-stakes clinical contexts, professional responsibility requires complete verification regardless of AI accuracy. We contribute three interaction patterns for clinical AI collaboration: bounded generation with recognition-based review via chart-text pairing, automated urgency flagging that analyzes vital trends and adherence patterns with fail-safe escalation for missed critical monitoring tasks, and progressive disclosure controls that reduce cognitive load while maintaining oversight. These patterns indicate that clinical AI efficiency requires not only accurate models, but also mechanisms for selective verification that preserve accountability.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.