open:kld

Kullback-Leibler Divergence

Kullback-Leibler Divergence는 두 모델이 얼마나 비슷하게 생겼는지를 알기 위한 척도인데, 제시한 모델이 실제 모델의 각 item들의 정보량을 얼마나 잘 보존하는지를 측정한다. 즉, 원본 데이터가 가지고 있는 정보량을 잘 보존 할 수록 원본 데이터와 비슷한 모델이라는 것이다.

  • open/kld.txt
  • 마지막으로 수정됨: 2020/06/02 09:25
  • 저자 127.0.0.1