확률 이론 과 정보 이론 에서 두 개의 무작위 변수 의 상호의존정보(또는 상호 정보, Mutual information, MI)는 두 변수 사이의 상호 의존성을 측정 한 것이.
1 관계: 정보 이득.
정보 이론과 머신 러닝에서 정보 이득은 쿨백-라이블러 발산(Kullback Leibler Divergence,KLD)의 동의어이.
새로운!!: 상호의존정보와 정보 이득 · 더보기 »