지역적 불일치 해소: 확률 모델에서 주의 메커니즘과 제어의 상호 작용
Local Inconsistency Resolution: The Interplay between Attention and Control in Probabilistic Models
본 논문에서는 직관적인 인식론적 해석을 갖는 일반적인 학습 알고리즘과 근사 추론 방법을 제시합니다. 이 방법은 반복적으로 모델의 부분 집합에 집중하고, 제어 가능한 파라미터를 사용하여 불일치를 해소합니다. 우리는 Local Inconsistency Resolution (LIR)이라는 프레임워크를 제안하며, 이는 불일치한 믿음을 표현할 수 있는 유연한 기반을 제공하는 확률적 의존성 그래프(PDG)를 기반으로 합니다. LIR은 Expectation-Maximization (EM) 알고리즘, Belief Propagation, 적대적 학습, GAN, GFlowNet 등 다양한 중요한 알고리즘을 통합하고 일반화할 수 있음을 보여줍니다. 특히, LIR은 GFlowNet의 수렴을 개선하는 보다 자연스러운 손실 함수를 제시합니다. 각 방법은 집중 방향을 결정하는 절차(주의 메커니즘 및 제어)를 선택함으로써 LIR의 특정 구현으로 표현될 수 있습니다. 우리는 이 알고리즘을 이산 PDG에 적용하고, 합성적으로 생성된 PDG에서 그 특성을 연구하며, 전체 PDG의 전역 최적화 의미론과의 동작을 비교합니다.
We present a generic algorithm for learning and approximate inference with an intuitive epistemic interpretation: iteratively focus on a subset of the model and resolve inconsistencies using the parameters under control. This framework, which we call Local Inconsistency Resolution (LIR) is built upon Probabilistic Dependency Graphs (PDGs), which provide a flexible representational foundation capable of capturing inconsistent beliefs. We show how LIR unifies and generalizes a wide variety of important algorithms in the literature, including the Expectation-Maximization (EM) algorithm, belief propagation, adversarial training, GANs, and GFlowNets. In the last case, LIR actually suggests a more natural loss, which we demonstrate improves GFlowNet convergence. Each method can be recovered as a specific instance of LIR by choosing a procedure to direct focus (attention and control). We implement this algorithm for discrete PDGs and study its properties on synthetically generated PDGs, comparing its behavior to the global optimization semantics of the full PDG.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.
Log in to request an AI analysis.