SLOW: 인공지능 튜터링을 위한 전략적 논리 추론 기반 개방형 작업 공간
SLOW: Strategic Logical-inference Open Workspace for Cognitive Adaptation in AI Tutoring
대규모 언어 모델(LLM)은 교육 대화에서 놀라운 유창성을 보여주었지만, 대부분의 생성형 튜터는 직관적이고 단일 단계의 방식으로 작동합니다. 이러한 빠른 사고에 대한 의존성은 헌신적인 추론 공간을 배제하며, 여러 진단 및 전략적 신호가 혼합된 방식으로 처리되도록 강제합니다. 그 결과, 학습자의 인지 진단, 감정 인식 및 교육적 의사 결정이 밀접하게 얽히게 되어 튜터링 시스템의 의도적인 교육적 적응 능력을 제한합니다. 본 연구에서는 명확한 의사 결정 작업 공간 내에서 의도적인 학습자 상태 추론을 지원하는 이론 기반 튜터링 프레임워크인 SLOW를 제안합니다. 인간 튜터링의 이중 처리 모델에서 영감을 받은 SLOW는 학습자 상태 추론과 교육적 행동 선택을 명시적으로 분리합니다. 본 프레임워크는 학습자 언어에서 원인적 증거를 분석하고, 반사실적 안정성 분석을 통한 퍼지 인지 진단을 수행하며, 교육적 선택이 학습자의 감정적 변화에 미치는 영향을 예측하기 위한 예측적 감정 추론을 통합합니다. 이러한 신호들을 종합적으로 고려하여 교육적 및 감정적으로 조화된 튜터링 전략을 제시합니다. 인간-AI 혼합 평가를 통해 개인화, 정서적 민감성 및 명확성 측면에서 상당한 개선이 이루어졌음을 확인했습니다. 또한, 각 모듈의 필요성을 확인하는 분석 연구를 통해 SLOW가 시각화된 의사 결정 과정을 통해 해석 가능하고 신뢰할 수 있는 지능형 튜터링을 가능하게 함을 보여줍니다. 본 연구는 LLM 기반 적응형 교육의 해석 가능성과 교육적 타당성을 향상시킵니다.
While Large Language Models (LLMs) have demonstrated remarkable fluency in educational dialogues, most generative tutors primarily operate through intuitive, single-pass generation. This reliance on fast thinking precludes a dedicated reasoning workspace, forcing multiple diagnostic and strategic signals to be processed in a conflated manner. As a result, learner cognitive diagnosis, affective perception, and pedagogical decision-making become tightly entangled, which limits the tutoring system's capacity for deliberate instructional adaptation. We propose SLOW, a theory-informed tutoring framework that supports deliberate learner-state reasoning within a transparent decision workspace. Inspired by dual-process accounts of human tutoring, SLOW explicitly separates learner-state inference from instructional action selection. The framework integrates causal evidence parsing from learner language, fuzzy cognitive diagnosis with counterfactual stability analysis, and prospective affective reasoning to anticipate how instructional choices may influence learners' emotional trajectories. These signals are jointly considered to guide pedagogically and affectively aligned tutoring strategies. Evaluation using hybrid human-AI judgments demonstrates significant improvements in personalization, emotional sensitivity, and clarity. Ablation studies further confirm the necessity of each module, showcasing how SLOW enables interpretable and reliable intelligent tutoring through a visualized decision-making process. This work advances the interpretability and educational validity of LLM-based adaptive instruction.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.