机器学习中的数学——距离定义(二十八):最大均值差异(Maximum Mean Discrepancy, MMD)

分类目录:《机器学习中的数学》总目录
相关文章:
· 距离定义:基础知识
· 距离定义(一):欧几里得距离(Euclidean Distance)
· 距离定义(二):曼哈顿距离(Manhattan Distance)
· 距离定义(三):闵可夫斯基距离(Minkowski Distance)
· 距离定义(四):切比雪夫距离(Chebyshev Distance)
· 距离定义(五):标准化的欧几里得距离(Standardized Euclidean Distance)
· 距离定义(六):马氏距离(Mahalanobis Distance)
· 距离定义(七):兰氏距离(Lance and Williams Distance)/堪培拉距离(Canberra Distance)
· 距离定义(八):余弦距离(Cosine Distance)
· 距离定义(九):测地距离(Geodesic Distance)
· 距离定义(十): 布雷柯蒂斯距离(Bray Curtis Distance)
· 距离定义(十一):汉明距离(Hamming Distance)
· 距离定义(十二):编辑距离(Edit Distance,Levenshtein Distance)
· 距离定义(十三):杰卡德距离(Jaccard Distance)和杰卡德相似系数(Jaccard Similarity Coefficient)
· 距离定义(十四):Ochiia系数(Ochiia Coefficient)
· 距离定义(十五):Dice系数(Dice Coefficient)
· 距离定义(十六):豪斯多夫距离(Hausdorff Distance)
· 距离定义(十七):皮尔逊相关系数(Pearson Correlation)
· 距离定义(十八):卡方距离(Chi-square Measure)
· 距离定义(十九):交叉熵(Cross Entropy)
· 距离定义(二十):相对熵(Relative Entropy)/KL散度(Kullback-Leibler Divergence)
· 距离定义(二十一):JS散度(Jensen–Shannon Divergence)
· 距离定义(二十二):海林格距离(Hellinger Distance)
· 距离定义(二十三):α-散度(α-Divergence)
· 距离定义(二十四):F-散度(F-Divergence)
· 距离定义(二十五):布雷格曼散度(Bregman Divergence)
· 距离定义(二十六):Wasserstein距离(Wasserstei Distance)/EM距离(Earth-Mover Distance)
· 距离定义(二十七):巴氏距离(Bhattacharyya Distance)
· 距离定义(二十八):最大均值差异(Maximum Mean Discrepancy, MMD)
· 距离定义(二十九):点间互信息(Pointwise Mutual Information, PMI)


最大均值差异(Maximum Mean Discrepancy,MMD)是迁移学习,尤其是域适应(Domain Adaptation)中使用最广泛的一种损失函数,主要用来度量两个不同但相关的分布的距离。最大均值差异还可以用来测试两个样本,是否来自两个不同分布 p p p q q q,如果均值差异达到最大,就说明采样的样本来自完全不同的分布。

最大均值差异度量了在再生希尔伯特空间中两个分布的距离,是一种核学习方法。通过寻找在样本空间上的连续函数 f : x → R f:x\rightarrow R f:xR随机投影后,分别求这两个分布的样本在 f f f上的函数值均值,并对两个均值做差得到这两个分布对应于 f f f的均值差(Mean Discrepancy)。最大均值差异的目标是寻找一个 f f f使得均值差最大,即得到最大均值差异。
MMD ( F , p , q ) = sup ⁡ ∣ ∣ f ∣ ∣ H ≤ 1 E p [ f ( x ) ] − E q [ f ( y ) ] \text{MMD}(F, p, q)=\sup_{||f||_H\leq1}{E_p[f(x)]-E_q[f(y)]} MMD(F,p,q)=fH1supEp[f(x)]Eq[f(y)]

你可能感兴趣的:(机器学习中的数学,人工智能,机器学习,深度学习,距离度量,最大均值差异)