문서 보기역링크PDF로 내보내기맨 위로 이 문서는 읽기 전용입니다. 원본을 볼 수는 있지만 바꿀 수는 없습니다. 문제가 있다고 생각하면 관리자에게 문의하세요. # Kullback-Leibler Divergence `Kullback-Leibler Divergence`는 두 모델이 얼마나 비슷하게 생겼는지를 알기 위한 척도인데, 제시한 모델이 실제 모델의 각 item들의 [[정보량]]을 얼마나 잘 보존하는지를 측정한다. 즉, 원본 데이터가 가지고 있는 정보량을 잘 보존 할 수록 원본 데이터와 비슷한 모델이라는 것이다. ## 출처 - https://hyeongminlee.github.io/post/prob002_kld_jsd/ open/kld.txt 마지막으로 수정됨: 2020/06/02 09:25저자 127.0.0.1