아래 내용은 “변분추론과 Free Energy”를 배우기 전, 두 확률분포 간의 차이를 수학적으로 어떻게 측정하는지 이해하는 핵심 개념인 **KL Divergence(쿨백-라이블러 발산)**를 다룹니다. 앞서 [1. 기초 수학 & 확률 기초]에서 살펴본 엔트로피와 교차엔트로피를 바탕으로, KL Divergence의 정의와 의미를 천천히 풀어보겠습니다.


2. KL Divergence(쿨백-라이블러 발산) 이해

2.1 KL Divergence란 무엇인가요?

KL Divergence(쿨백-라이블러 발산)는 두 확률분포 $p$와 $q$가 있을 때, 이 둘이 **얼마나 다른지(또는 얼마나 ‘멀리 떨어져’ 있는지)**를 재는 하나의 척도입니다.

직관적 예시


2.2 KL Divergence의 정의

2.2.1 이산형(Discrete) 확률분포에서의 정의

이산형 확률변수 $X$에 대해,

$$ ⁍ $$

2.2.2 연속형(Continuous) 확률분포에서의 정의

연속형 확률변수 $X$에 대해,

$$ KL(p \| q) \;=\; \int p(x) \,\log \frac{p(x)}{q(x)} \, dx $$