비전-언어 모델에서의 다중 모드 분류 일반화
Cross-Modal Taxonomic Generalization in (Vision-) Language Models
언어 모델(LM)이 표면 형태 정보만으로 학습하는 의미 표현과, 더 구체적인 정보를 통해 학습하는 의미 표현 간의 상호 작용은 무엇일까요? 본 연구는 이러한 질문을 다중 모드 환경에서 탐구합니다. 구체적으로는, 사전 훈련된 언어 모델과 이미지 인코더를 결합한 비전-언어 모델(VLM)을 사용하여, 입력의 일부가 다른 모드(이미지)에서 오는 경우를 다룹니다. 사례 연구로, 이미지에 나타난 객체의 상위어를 예측하는 작업을 수행합니다. 이미지 인코더와 LM은 고정된 상태로 유지하고, 중간 매핑만 학습하는 VLM 설정을 사용합니다. VLM이 상위어에 대한 명시적인 정보를 점진적으로 제거하면서, LM에서 상위어에 대한 지식을 얼마나 회복할 수 있는지 테스트합니다. 연구 결과, 분석된 LM은 이러한 지식을 회복하고, 심지어 훈련 과정에서 상위어에 대한 정보가 전혀 제공되지 않는 극단적인 경우에서도 일반화할 수 있음을 확인했습니다. 추가적인 실험 결과, 반사실적 이미지-레이블 매핑 하에서도 이러한 다중 모드 분류 일반화가 유지되는 경향이 있지만, 이는 각 범주 내에서 이미지 간의 시각적 유사성이 높은 경우에만 나타납니다. 종합적으로, 이러한 결과는 LM에서의 다중 모드 일반화가 언어적 단서로부터 얻은 지식과 더불어, 언어 외적인 입력의 일관성 덕분에 나타나는 현상임을 시사합니다.
What is the interplay between semantic representations learned by language models (LM) from surface form alone to those learned from more grounded evidence? We study this question for a scenario where part of the input comes from a different modality -- in our case, in a vision-language model (VLM), where a pretrained LM is aligned with a pretrained image encoder. As a case study, we focus on the task of predicting hypernyms of objects represented in images. We do so in a VLM setup where the image encoder and LM are kept frozen, and only the intermediate mappings are learned. We progressively deprive the VLM of explicit evidence for hypernyms, and test whether knowledge of hypernyms is recoverable from the LM. We find that the LMs we study can recover this knowledge and generalize even in the most extreme version of this experiment (when the model receives no evidence of a hypernym during training). Additional experiments suggest that this cross-modal taxonomic generalization persists under counterfactual image-label mappings only when the counterfactual data have high visual similarity within each category. Taken together, these findings suggest that cross-modal generalization in LMs arises as a result of both coherence in the extralinguistic input and knowledge derived from language cues.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.