2604.03877v1 Apr 04, 2026 cs.CL

모델이 말하는 것 이상으로 아는 경우: LLM의 유추 추론 탐구

When Models Know More Than They Say: Probing Analogical Reasoning in LLMs

Hope McGovern
Hope McGovern
Citations: 69
h-index: 3
Caroline Craig
Caroline Craig
Citations: 7
h-index: 2
Tom Lippincott
Tom Lippincott
Johns Hopkins University
Citations: 11
h-index: 2
Hale Sirin
Hale Sirin
Citations: 68
h-index: 3

유추 추론은 서사 이해에 필수적인 핵심 인지 능력입니다. LLM은 표면적 특징과 구조적 요소가 일치하는 경우에 잘 작동하지만, 표면적으로는 명확하지 않지만 잠재적인 정보가 필요한 경우에 어려움을 겪는데, 이는 추상화 및 일반화 능력의 한계를 시사합니다. 본 논문에서는 모델의 내부 표현을 탐색하여 모델이 서사적 유추를 감지하는 능력을 평가하고, 두 가지의 비대칭성을 밝힙니다. 수사적 유추의 경우, 탐색 방법이 공개 소스 모델에서 프롬프트 기반 방법보다 훨씬 우수한 성능을 보이는 반면, 서사적 유추의 경우 두 방법이 유사한(낮은) 성능을 보입니다. 이는 내부 표현과 프롬프트 기반 행동 간의 관계가 작업에 따라 다르며, 프롬프트가 사용 가능한 정보를 얼마나 효과적으로 활용하는지에 대한 한계를 반영할 수 있음을 시사합니다.

Original Abstract

Analogical reasoning is a core cognitive faculty essential for narrative understanding. While LLMs perform well when surface and structural cues align, they struggle in cases where an analogy is not apparent on the surface but requires latent information, suggesting limitations in abstraction and generalisation. In this paper we compare a model's probed representations with its prompted performance at detecting narrative analogies, revealing an asymmetry: for rhetorical analogies, probing significantly outperforms prompting in open-source models, while for narrative analogies, they achieve a similar (low) performance. This suggests that the relationship between internal representations and prompted behavior is task-dependent and may reflect limitations in how prompting accesses available information.

0 Citations
0 Influential
1.5 Altmetric
7.5 Score
Original PDF

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

Log in to request an AI analysis.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!