交叉熵、相对熵(KL散度)、JS散度和Wasserstein距离(推土机距离)写给自己看的版本

原文链接:

信息量:

事件发生概率越小信息量越大。

昨天下雨了,这件事情已经发生,既定了,信息量为0

交叉熵、相对熵(KL散度)、JS散度和Wasserstein距离(推土机距离)写给自己看的版本_第1张图片

对数函数,p(x_0)越小,负log越大

熵:

信息量的期望就是熵

交叉熵、相对熵(KL散度)、JS散度和Wasserstein距离(推土机距离)写给自己看的版本_第2张图片KL散度:

交叉熵、相对熵(KL散度)、JS散度和Wasserstein距离(推土机距离)写给自己看的版本_第3张图片

交叉熵:

交叉熵、相对熵(KL散度)、JS散度和Wasserstein距离(推土机距离)写给自己看的版本_第4张图片

 只有最后一部分有q(x_i),所以前面是常数,不用管。

你可能感兴趣的:(学习笔记集合,概率论)