OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport

前言

为学习最优传输问题(Optimal Transport),拜读了博客《最优运输(Optimal Transfort):从理论到填补的应用》,博文里简要介绍了三篇经典论文:

  • Sinkhorn Distances: Lightspeed Computation of Optimal Transport ⇒ \Rightarrow 博文
  • Wasserstein Generative Adversarial Networks ⇒ \Rightarrow 博文
  • Missing Data Imputation using Optimal Transport ⇒ \Rightarrow 博文

本系列博文打算精读之,下面是第一篇。认知有限,有不理解之处,也可能有理解不当或错误之处,请读者多多指教。

Abstract

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第1张图片
OT Distance 是什么以及有什么用途就不说了,上面的博文以及我其他的一些博文有讲。这段 Abstract 的四种颜色标记分别表示:

  • 黄色,计算 OT 距离涉及的线性规划求解复杂度很高,一旦概率向量的维度超过几百,则开销就大到不可接受;
  • 绿色,作者提出从最大熵的角度看 OT 问题,产生新的 OT 距离
  • 蓝色,具体做法:用熵正则项平滑经典 OT 问题,性质:加上熵正则项后,最优解依然是一个距离,且可以用 Sinkhorn’s Matrix Scaling Algorithm 以几个数量级的更快速度求解;
  • 红色,作者为验证新 OT 距离的有效性,在 MNIST 数据集上进行了分类实验。

1 Introduction

P1 > 在统计机器学习中,有一些衡量概率分布差异的信息散度(information divergences),包括 Hellinger, χ 2 \chi^2 χ2, total variation or Kullback-Leibler divergences;而 OT 距离(也称“推土距离 EMD”)在比较概率方面提供了更强的几何性。【?】

P2 > 但 OT 问题求解复杂度相当高,包括网络单纯形法和内点法在内的求解方法复杂度最低也要 O ( d 3 l o g ( d ) ) O(d^3log(d)) O(d3log(d))

P3 > 尽管有 embedding 之类的简化求解方案,但实用性欠佳;在高维数据盛行的时代,较高的计算成本甚至使 OT 受到了质疑。

P4 > 和 Abstract 中的绿色和蓝色一样,更详细了一点:熵正则化使 OT 问题转化为严格凸优化,Sinkhorn’s Matrix Scaling Algorithm 是不动点迭代(fixed point iteration),具有线性收敛性,具体是实现仅需 matrix-matrix products

P4 中 “two histograms of dimension d d d or two point clouds each of size d d d”,看到 “point clouds” 想起当初《Notes on Optimal Transport (笔记)》中的数据点插入问题,当时对 “数据点怎么能最优传输呢?” 迷惑不解,苦苦思考才弄懂。现在看点云,是否还是
“那我们就给他恢复这种概念,把这些点想象成一堆堆的小土堆,如何以最小的代价将 “土堆集” set1 变成 “土堆集” set2?点与点之间运送的土量就是连接强度。既然同一集合中小土堆都一样(没有谁是特别的),那它们的土量都是一样的。设土量为 1,set1 中有 n 个土堆,每个土堆的土量为 1/n,set2 中有 m 个土堆,每个土堆的土量为 1/m,运送土的代价就是两个土堆之间的距离。”?

2 Reminders on Optimal Transport

本节简单介绍什么是最优传输。博客《最优运输(Optimal Transfort):从理论到填补的应用》以及《Notes on Optimal Transport》有较为详细的介绍,尤其后者借助糕点分配的故事讲解得较为生动,我已将其翻译为中文并加以注释。

这里需要说的是一个概念:Transport Polytope
翻译成中文就是传输多面体,怎么理解呢?从文中的意思看,它是 a Set of Joint Probabilities,一个联合分布的集合,写为

在这里插入图片描述
也即它包含了所有可能的传输方案。可是它为什么叫多面体?猜想可能限制条件 P 1 d = r , P ⊺ 1 d = c P\bm{1}_d = \bm{r}, P^\intercal \bm{1}_d = \bm{c} P1d=r,P1d=c 在空间中的几何形态类似多面体吧,想想三维空间中的线面,到高维空间就是多面体了。《Convex Optimization - Polyhedral Set》中有定义,同时也定义了距离矩阵集合为什么叫 cone

在这里插入图片描述
现将其搬运过来:

A set in R n \mathbb{R}^n Rn is said to be polyhedral if it is the intersection of a finite number of closed half spaces, i.e., S = { x ∈ R n : p i ⊺ x ≤ α i , i = 1 , 2 , … , n } S = \{ {\bm{x} \in \mathbb{R}^n: \bm{p}^\intercal_i \bm{x} \le \alpha_i, i = 1, 2, \dots, n \}} S={xRn:pixαi,i=1,2,,n}
For example, { x ∈ R n : A i ⊺ X = b } ; { x ∈ R n : A i ⊺ X ≤ b } , { x ∈ R n : A i ⊺ X ≥ b } \{ {\bm{x} \in \mathbb{R}^n: A^\intercal_i X = \bm{b}\}}; \{ {\bm{x} \in \mathbb{R}^n: A^\intercal_i X \le \bm{b}\}}, \{ {\bm{x} \in \mathbb{R}^n: A^\intercal_i X \ge \bm{b}\}} {xRn:AiX=b};{xRn:AiXb},{xRn:AiXb}
Polyhedral Cone A set in R n \mathbb{R}^n Rn is said to be polyhedral cone if it is the intersection of a finite number of half spaces that contain the origin, i.e., S = { x ∈ R n : p i ⊺ x ≤ 0 , i = 1 , 2 , … , n } S = \{ {\bm{x} \in \mathbb{R}^n: \bm{p}^\intercal_i \bm{x} \le 0, i = 1, 2, \dots, n \}} S={xRn:pix0,i=1,2,,n} 其包含原点,对数乘封闭,下图是维基百科给出的形状:
OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第2张图片
应该是圆锥吧。

本节还有个问题:

在这里插入图片描述
这里说只要 M M M 是个距离矩阵,那么 OT 解也是个距离。如果 M M M 不是距离矩阵呢?就如同糕点故事中的偏好矩阵, d M ( r , c ) d_M(\bm{r}, \bm{c}) dM(r,c) 还是距离吗?答:从第三节末尾对 “ d M ( r , c ) d_M(\bm{r}, \bm{c}) dM(r,c) 是距离” 证明来看,用到了不等式 m i k ≤ m i j + m j k m_{ik} \le m_{ij} + m_{jk} mikmij+mjk,那么应该是以 “ M M M 是个距离矩阵” 为前提的

3 Sinkhorn Distances: Optimal Transport with Entropic Constraints

这一节给出限制联合分布熵的 OT 问题,作者想说他是在遵循最大熵原则(maximum-entropy principle),以及在限制熵以后,OT 解依然保持着度量的性质。用到了有关熵的知识,如果这一块比较欠缺,则可以参考我的博文《由一个熵不等式引发的数学调研》。

3.1 Entropic Constraints on Joint Probabilities

首先要说明的是,作者是如何限制联合分布熵的,先看下面两个不等式

在这里插入图片描述在这里插入图片描述
第一个是天然成立的,第二个是作者添加的熵限制,组合起来看,有 h ( r ) + h ( c ) − α ≤ h ( P ) ≤ h ( r ) + h ( c ) h(\bm{r}) + h(\bm{c}) - \alpha \le h(P) \le h(\bm{r}) + h(\bm{c}) h(r)+h(c)αh(P)h(r)+h(c) 熵被限制在了一个长度为 α \alpha α 的区间内。那么如何理解这个熵限制呢?从 I ( r ∥ c ) = K L ( P ∥ r c ⊺ ) ≤ α I(\bm{r} \| \bm{c}) = KL(P \| \bm{r}\bm{c}^\intercal) \le \alpha I(rc)=KL(Prc)α 的角度来看,他是想让 r \bm{r} r c \bm{c} c 的相关性少一点,也即使 P P P 更趋于均匀。限制熵的原因将在第四节说明。
OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第3张图片
限制 P P P 的熵之后,所得的最优传输解就叫 Sinkhorn Distance:

在这里插入图片描述
本节也给出了一个限制熵的原因:最大熵原则。但在我看来,这并不能成为限制熵的理由,因为不限制熵时算出的最优解是实实在在地比限制熵的情况下算出的解要小(即代价最小)。来看一看作者说了什么吧。

OT 的最优解往往在多面体 U ( r , c ) U(\bm{r}, \bm{c}) U(r,c) 的一个顶点上,这个很好理解,我在《Notes on Optimal Transport (笔记)》文中的 “问题思考” 部分给出了解释。Such a vertex is a sparse d × d d \times d d×d matrix with only up to 2 d − 1 2d−1 2d1 non-zero elements. 这个稀疏性从感觉上可以知道,在顶点上嘛,至于为什么是 “up to 2 d − 1 2d−1 2d1 non-zero elements”,我不知道,有人知道的请留言。不过从《笔记》中可以看出,确实是非常稀疏的。

3.2 Metric Properties of Sinkhorn Distances

这一小节讲述限制 P P P 的熵之后,Sinkhorn Distances 的度量性质。首先是两个特殊情况:

(1) α = 0 \alpha = 0 α=0

在这里插入图片描述
α = 0 \alpha = 0 α=0 时, h ( r ) + h ( c ) − α ≤ h ( P ) ≤ h ( r ) + h ( c ) h(\bm{r}) + h(\bm{c}) - \alpha \le h(P) \le h(\bm{r}) + h(\bm{c}) h(r)+h(c)αh(P)h(r)+h(c) 的区间长度变为 0 0 0 h ( P ) = h ( r ) + h ( c ) h(P) = h(\bm{r}) + h(\bm{c}) h(P)=h(r)+h(c) 或者说 I ( r ∥ c ) = K L ( P ∥ r c ⊺ ) = 0 I(\bm{r} \| \bm{c}) = KL(P \| \bm{r}\bm{c}^\intercal) = 0 I(rc)=KL(Prc)=0,则 U α ( r , c ) = { P = r c ⊺ } U_\alpha (\bm{r}, \bm{c}) = \{ P = \bm{r}\bm{c}^\intercal \} Uα(r,c)={P=rc}

初看 “has a closed form”,懵逼了,啥是 “has a closed form”?维基百科中有定义

在这里插入图片描述
而中文维基百科中查到 “闭式解” 就是我们通常说的 “解析解”。这个 “closed form” 就是包含有限次常见运算的表达式,不包括极限、积分等。
因为现在 P = r c ⊺ P = \bm{r}\bm{c}^\intercal P=rc,本质上可行解 U 0 ( r , c ) = { P = r c ⊺ } U_0 (\bm{r}, \bm{c}) = \{ P = \bm{r}\bm{c}^\intercal \} U0(r,c)={P=rc} 已不是一个集合,而是一个点,此时 d M , 0 ( r , c ) = ⟨ r c ⊺ , M ⟩ = r ⊺ M c d_{M,0}(\bm{r}, \bm{c}) = \langle \bm{r}\bm{c}^\intercal, M \rangle = \bm{r}^\intercal M \bm{c} dM,0(r,c)=rc,M=rMc 这不再是一个要求解的 problem,而是一个解析表达式,即 closed form

至于为什么又 “becomes a negative definite kernel”?更让人匪夷所思。回想 SVM 中的正定核: k ( x , y ) \mathscr{k}(\bm{x}, \bm{y}) k(x,y),一组向量 { x i } 1 n \{\bm{x}_i\}_1^n {xi}1n k ( x , y ) \mathscr{k}(\bm{x}, \bm{y}) k(x,y) 计算 “高维内积” 得到的 Gram 矩阵半正定,则 k ( x , y ) \mathscr{k}(\bm{x}, \bm{y}) k(x,y) 为正定核。那如今 d M , 0 ( r , c ) = ⟨ r c ⊺ , M ⟩ d_{M,0}(\bm{r}, \bm{c}) = \langle \bm{r}\bm{c}^\intercal, M \rangle dM,0(r,c)=rc,M 怎么成了负定核?是给定一组概率单纯形 { p i } 1 n \{\bm{p}_i\}_1^n {pi}1n由其计算的 Gram 矩阵半负定吗

先看后面的说法,“one assumes that M M M is itself a negative definite distance, or equivalently a Euclidean distance matrix,意思是说 M M M 是一个负定距离,“等价地一个欧式距离矩阵”。暂时只能理解为:欧式距离是一个负定距离,欧氏距离矩阵是半负定矩阵 。可是这不对啊,当场就能推翻:假设有点 x 1 = 1 , x 2 = 2 x_1 = 1, x_2=2 x1=1,x2=2,那么欧式距离矩阵为 M = [ 0 1 1 0 ] M = \begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix} M=[0110],此时二次型 f ( x , y ) = [ x   y ] M [ x y ] = [ x   y ] [ 0 1 1 0 ] [ x y ] = 2 x y f(x, y) = \begin{bmatrix} x \ y \end{bmatrix} M \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} x \ y \end{bmatrix} \begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} = 2xy f(x,y)=[x y]M[xy]=[x y][0110][xy]=2xy,肯定不是恒小于等于 0 0 0 的嘛。搜索维基百科又搜不到正负定距离的概念,只能搜到矩阵正定负定的定义和正定核的概念。既然本段里说 d M , α ( r , c ) d_{M,\alpha}(\bm{r}, \bm{c}) dM,α(r,c) 是负定核,就当欧氏距离 d ( x , y ) = ∥ x − y ∥ d(\bm{x}, \bm{y}) = \|\bm{x} - \bm{y}\| d(x,y)=xy 是个负定核,可是现在欧式距离矩阵明明不负定哎!搜谷歌吧,有一个网页中提出了这个问题

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第4张图片
这个人也是困惑于为何欧氏距离是负定,他能证明欧式距离是条件负定的: ∑ i r i = 0 \sum_i r_i = 0 iri=0,即刚才的 f ( x , y ) = 2 x y f(x, y) = 2xy f(x,y)=2xy x + y = 0 x + y = 0 x+y=0,如此看来就通了。

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第5张图片
问题下面的回答也说 “作者可能是指条件负定”。对于欧氏距离矩阵的条件负定性此处不给出证明了(因为我不会),不过我编程试验了,确实是条件负定的。而且,经试验,如果 M M M 是条件负定的话, d M , 0 ( r , c ) = ⟨ r c ⊺ , M ⟩ d_{M,0}(\bm{r}, \bm{c}) = \langle \bm{r}\bm{c}^\intercal, M \rangle dM,0(r,c)=rc,M 也是条件负定的。【读到论文末,在其补充材料处发现了 d M , 0 ( r , c ) d_{M,0}(\bm{r}, \bm{c}) dM,0(r,c) 的负定证明, 此过程亦可证明欧氏距离 M M M 的条件负定。此博文末予以证明。】

扯了这么多,作者扯负定干嘛?有什么卵用吗?也许他只是想说:当 α = 0 \alpha = 0 α=0 时,如果 M M M 是个距离矩阵,那么 d M , α ( r , c ) = ⟨ r c ⊺ , M ⟩ d_{M,\alpha}(\bm{r}, \bm{c}) = \langle \bm{r}\bm{c}^\intercal, M \rangle dM,α(r,c)=rc,M 也是个距离。本来就是要证明 Sinkhorn Distance 是距离,不能少了 α = 0 \alpha = 0 α=0 的情况。

问题在于,“条件负定矩阵” 和 “负定距离” 是不是等价的?如果是,那么作者扯这些正负定就有意义了,否则讲不通

(2) α \alpha α 足够大时

在这里插入图片描述
α \alpha α 足够大时,它就不起作用了, Sinkhorn Distance 变回普通的 OT 距离。因为 h ( P ) ≥ 1 2 [ h ( r ) + h ( c ) ] \color{red}{h(P) \ge \frac{1}{2} [h(\bm{r}) + h(\bm{c})]} h(P)21[h(r)+h(c)],这个可以通过上面的 FIGURE 2.2 直接观察得出。那么只要有 α ≥ 1 2 [ h ( r ) + h ( c ) ] \alpha \ge \frac{1}{2} [h(\bm{r}) + h(\bm{c})] α21[h(r)+h(c)] α \alpha α 便不起作用了。给定 r \bm{r} r c \bm{c} c 的维度 n n n,则有 h ( r ) ≤ l o g ( n ) h(\bm{r}) \le log(n) h(r)log(n),那么,当 α > l o g ( n ) \alpha > log(n) α>log(n) 时,铁定不起作用,有 U α ( r , c ) = U ( r , c ) U_\alpha(\bm{r}, \bm{c}) = U(\bm{r}, \bm{c}) Uα(r,c)=U(r,c)

还是那个问题,扯正定负定干嘛?我现在有两个猜想:【不懂,也验证不了】

  1. 是不是条件负定核就是距离矩阵?
  2. 和下面的求解算法有关吗?【下面的求解算法并没有提正定负定的事!】
继续分析其度量性质

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第6张图片

加了熵限制后,其不再满足 d ( x , y ) ⇔ x = y d(x, y) \Leftrightarrow x= y d(x,y)x=y,例如,当 α = 0 \alpha = 0 α=0 时,有 d M , 0 ( r , r ) = r ⊺ M r = ∑ i j n r i r j ∥ x i − x j ∥ 2 \begin{aligned} d_{M,0}(\bm{r}, \bm{r}) &= \bm{r}^\intercal M \bm{r} \\ &= \sum_{ij}^n r_i r_j \| \bm{x}_i - \bm{x}_j \|^2 \end{aligned} dM,0(r,r)=rMr=ijnrirjxixj2 若有 r k ≠ 0 , r l ≠ 0 , k ≠ l r_k \ne 0, r_l \ne 0, k \ne l rk=0,rl=0,k=l,则 r k r l > 0   & &   ∥ x i − x j ∥ 2 > 0 r_k r_l > 0~\&\&~ \| \bm{x}_i - \bm{x}_j \|^2 > 0 rkrl>0 && xixj2>0,必有 d M , 0 ( r , r ) > 0 d_{M,0}(\bm{r}, \bm{r}) > 0 dM,0(r,r)>0。作者通过 1 r ≠ c d M , α ( r , c ) \bm{1}_{\bm{r} \ne \bm{c}}d_{M,\alpha}(\bm{r}, \bm{c}) 1r=cdM,α(r,c) d M , α ( r , r ) d_{M,\alpha}(\bm{r}, \bm{r}) dM,α(r,r) 乘以 0 0 0 来恢复这种性质。

对称性是公式自带的,不论是 ⟨ P , M ⟩ \langle P, M \rangle P,M,还是后面的熵限制 h ( P ) ≥ h ( r ) + h ( c ) − α h(P) \ge h(\bm{r}) + h(\bm{c}) - \alpha h(P)h(r)+h(c)α,都是天然的对称。

三角不等式的证明

Computational Optimal Transport 一书中对基本的 p-Wasserstein distance 的三角不等式证明很详细,其用到了一个叫 gluing lemma 的东西:

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第7张图片

大概意思就是:利用两个 Wasserstein 距离的解空间 P ∈ U ( a , b ) ,   Q ∈ U ( b , c ) P \in U(\bm{a}, \bm{b}),~ Q \in U(\bm{b}, \bm{c}) PU(a,b), QU(b,c) 构建出一个新的解空间 S = d e f . P d i a g ( 1 / b ~ ) Q ∈ U ( a , c ) S \overset{def.}{=} Pdiag(1/\tilde{b})Q \in U(\bm{a}, \bm{c}) S=def.Pdiag(1/b~)QU(a,c),即 S 1 n = a , S ⊺ 1 n = c S\mathbb{1}_n = \bm{a}, S^\intercal \mathbb{1}_n = \bm{c} S1n=a,S1n=c

有了这个耦合器,再利用闵可夫斯基不等式就能证明三角不等式了:

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第8张图片

到了带熵限制的 Sinkhorn 距离,这个叫 gluing lemma 的耦合器也自然要带上熵限制的

可以看到形式上基本是一模一样的,只是这里的解空间变成了 U α U_\alpha Uα,至于三角不等式的证明,就更没有什么差别了。所以,要注意的是,这个新建的 S S S 到底是不是 ∈ U α \in U_\alpha Uα?即: h ( S ) ≥ h ( x ) + h ( z ) − α h(S) \ge h(\bm{x}) + h(\bm{z}) - \alpha h(S)h(x)+h(z)α 是否成立?

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第9张图片

这是文末补充材料给出的证明,根据

可构造出一个马尔科夫链 X → Y → Z X \to Y \to Z XYZ,链状之后,应该是有个定理啥的:链中,挨得更近的变量之间互信息更大,因为依赖更大。所以就有了后面的不等式,进而的出: h ( S ) ≥ h ( X ) + h ( Z ) − α h(S) \ge h(X) + h(Z) - \alpha h(S)h(X)+h(Z)α

Computing Regularized Transport with Sinkhorn’s Algorithm

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第10张图片
以正则项的方式限制熵,系数 − 1 λ -\frac{1}{\lambda} λ1 会使 h ( P ) h(P) h(P) 变大,且 λ ∈ ( 0 , ∞ ) \lambda \in (0, \infin) λ(0,) 使主目标 ⟨ P , M ⟩ \langle P, M \rangle P,M 和正则项 − 1 λ h ( P ) -\frac{1}{\lambda}h(P) λ1h(P) 之间分配权重。当 λ → 0 \lambda \to 0 λ0 时,系数会无穷大,致使目标函数只考虑熵项,而忽略主目标,自然就对应了 α = 0 \alpha = 0 α=0;当 λ → ∞ \lambda \to \infin λ 时,系数为 0,致使目标函数只考虑主目标,而忽略熵项,恢复原本的瓦斯距离,即上文的 α \alpha α “足够大”。故而,each α \alpha α corresponds a λ ∈ [ 0 , ∞ ] \lambda \in [0, \infin] λ[0,]

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第11张图片

d M , d M , α , d M λ d_M, d_{M,\alpha}, d_M^\lambda dM,dM,α,dMλ 的示意图,从上到下吧,看一看。

箭头 M M M 应该是指 ⟨ P , M ⟩ \langle P, M \rangle P,M 关于 P P P 的梯度,是代价降低的反方向,绿红蓝三条虚线大概是代价等高线吧,这解释了为何 P ⋆ P^\star P 总会出现在 Polytope U ( r , c ) U(\bm{r}, \bm{c}) U(r,c) 的角上,我在博文 Notes on Optimal Transport (笔记) 中已经从线性规划的角度讲述了可行域 U ( r , c ) U(\bm{r}, \bm{c}) U(r,c) 的样子,以及为什么最优解会出现在多边形的角落上。

那么 U α U_\alpha Uα 是以 r c ⊺ \bm{r}\bm{c}^\intercal rc 为中心的 ball 吗?我们来算一算, h ( P ) h(P) h(P) 的范围是: h ( r ) + h ( c ) − α ≤ h ( P ) ≤ h ( r ) + h ( c ) h(\bm{r}) + h(\bm{c}) - \alpha \le h(P) \le h(\bm{r}) + h(\bm{c}) h(r)+h(c)αh(P)h(r)+h(c) 注意, r , c \bm{r}, \bm{c} r,c 是给定的,那 h ( r ) + h ( c ) h(\bm{r}) + h(\bm{c}) h(r)+h(c) 自然是确定的,再给定 α \alpha α,则 h ( P ) h(P) h(P) 就有一个固定的范围。前面讨论过, h ( P ) h(P) h(P) 有一个自然的上下限 1 2 ( h ( r ) + h ( c ) ) ≤ h ( P ) ≤ h ( r ) + h ( c ) \frac{1}{2}(h(\bm{r}) + h(\bm{c})) \le h(P) \le h(\bm{r}) + h(\bm{c}) 21(h(r)+h(c))h(P)h(r)+h(c) h ( r ) h(\bm{r}) h(r) h ( c ) h(\bm{c}) h(c) 也有范围 [ 0 , l o g n ] [0, logn] [0,logn],那么 h ( r ) + h ( c ) ∈ [ 0 , 2 l o g n ] h(\bm{r}) + h(\bm{c}) \in [0, 2logn] h(r)+h(c)[0,2logn]

当取 α = 0 \alpha = 0 α=0, 即 h ( P ) = h ( r ) + h ( c ) h(P) = h(\bm{r}) + h(\bm{c}) h(P)=h(r)+h(c) 时,就是中心点 P = r c ⊺ P = \bm{r}\bm{c}^\intercal P=rc,随着 α \alpha α 增大,大到失去作用时,就是铺满整个 Polytope U ( r , c ) U(\bm{r}, \bm{c}) U(r,c)。当取一个起作用的 α \alpha α 时,令 t = h ( r ) + h ( c ) − α t = h(\bm{r}) + h(\bm{c}) - \alpha t=h(r)+h(c)α,则 h ( P ) = − ∑ i j P i j l o g P i j ≥ t h(P) = -\sum_{ij}P_{ij} logP_{ij} \ge t h(P)=ijPijlogPijt 它的边界是 − ∑ i j P i j l o g P i j = t -\sum_{ij}P_{ij} logP_{ij} = t ijPijlogPij=t不是线性的也不是二次的,所以它应该是个超曲面。所以,途中画成曲线围成的范围是合理的。但是不是 ball 就不知道了

随着 λ \lambda λ 的增大,熵限制越来越松弛,最优解沿着从 r c ⊺ \bm{r}\bm{c}^\intercal rc P ⋆ P^\star P 的曲线滑动,也很形象。

Computing d M λ d_M^\lambda dMλ with Matrix Scaling Algorithms

这个引理意思是说:对偶解 P λ P^\lambda Pλ 是唯一的,且形式为 P λ = d i a g ( u ) K d i a g ( v ) P^\lambda = diag(\bm{u}) K diag(\bm{v}) Pλ=diag(u)Kdiag(v),其中 u \bm{u} u v \bm{v} v 是非负向量,且唯一地被乘子(应该是 λ \lambda λ)确定。

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第12张图片

这个结论来源于 Sinkhorn’s Theorem

一个元素全部为正的方阵 A A A,有唯一的正对角矩阵 pair ( D 1 , D 2 ) (D_1, D_2) (D1,D2) 使 D 1 A D 2 D_1 A D_2 D1AD2Doubly Stochastic Matrix,即行和列和都为 1 \bm{1} 1 的方阵 。

但是论文中有不一样的地方 P λ = d i a g ( u ) K d i a g ( v ) P^\lambda = diag(\bm{u}) K diag(\bm{v}) Pλ=diag(u)Kdiag(v) 并不是所谓的 Doubly Stochastic Matrix,它的行和等于 r \bm{r} r,列和等于 c \bm{c} c这里是 P λ P^\lambda Pλ 唯一地属于 U ( r , c ) U(\bm{r}, \bm{c}) U(r,c)。然后就可以用 Sinkhorn’s fixed point iteration 进行求解了。咱就当它是个引理吧,Sinkhorn’s Theorem 咱不懂背后的原理,这里的变更版就更不懂了,记住这个结论吧。

来看 p i j = e − 1 / 2 − λ α i e − λ m i j e − 1 / 2 − λ β j p_{ij} = e^{-1/2 - \lambda \alpha_i} e^{-\lambda m_{ij}} e^{-1/2 - \lambda \beta_j} pij=e1/2λαieλmije1/2λβj,确实有 u = [ e − 1 / 2 − λ α 1 , e − 1 / 2 − λ α 2 , ⋯   , e − 1 / 2 − λ α n ] v = [ e − 1 / 2 − λ β 1 , e − 1 / 2 − λ β 2 , ⋯   , e − 1 / 2 − λ β n ] K = [ m 11 m 12 … m 1 n m 21 m 22 … m 2 n ⋮ ⋮ ⋱ ⋮ m n 1 m n 2 … m n n ] \begin{aligned} \bm{u} &= [e^{-1/2 - \lambda \alpha_1}, e^{-1/2 - \lambda \alpha_2}, \cdots, e^{-1/2 - \lambda \alpha_n}] \\ \bm{v} &= [e^{-1/2 - \lambda \beta_1}, e^{-1/2 - \lambda \beta_2}, \cdots, e^{-1/2 - \lambda \beta_n}] \\ K &= \begin{bmatrix} m_{11} & m_{12} & \dots & m_{1n} \\ m_{21} & m_{22} & \dots & m_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ m_{n1} & m_{n2} & \dots & m_{nn} \\ \end{bmatrix} \end{aligned} uvK=[e1/2λα1,e1/2λα2,,e1/2λαn]=[e1/2λβ1,e1/2λβ2,,e1/2λβn]= m11m21mn1m12m22mn2m1nm2nmnn 知识有限,只能理解到这了,后面的计算是很简单的,这里有更简单的 python 代码。

问题在于:通篇都是按 M M M 是个对称的距离矩阵讲述与证明的,而现实中, r \bm{r} r c \bm{c} c 不同维的情况很多,代价矩阵 M M M 也未必是对称的负定距离矩阵,这种计算的合理性还在吗?不过根据糕点实验,这一切似乎都照常进行。最要紧的是,我们并不知道作者是如何做实验的。

5. 实验

5.1 实验过程

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第13张图片

在这里看到了,终于明白作者想做什么实验了。这个 e − d / t e^{-d/t} ed/t 很像高斯核 e − ∥ x − y ∥ 2 2 σ 2 e^{-\frac{\|\bm{x} - \bm{y}\|^2}{2\sigma^2}} e2σ2xy2 和拉普拉斯核 e − ∥ x − y ∥ σ e^{-\frac{\|\bm{x} - \bm{y}\|}{\sigma}} eσxy,相似之处在于,它们都是距离的指数函数。这也是个收获:可能距离函数的指数,都能作为核函数吧 t t t 根据距离值域的百分位 q s ( d ) q_s(d) qs(d) 进行选择。【关于这个 t t t 的讲究,它和高斯核中的 σ \sigma σ 一样,《支持向量机通俗导论》中说, σ \sigma σ 越大,拟合能力越弱,越小拟合能力越强,调节它可以在欠拟合和过拟合之间平衡】

有了核函数,就可以利用 SVM 进行分类了:

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第14张图片

作者说可以用库 L i b s v m Libsvm Libsvm s v m svm svm 进行多分类多分类策略是 OvO,不过 MNIST 有 10 个类别,那么就需要 10 ∗ 9 / 2 = 45 10 * 9 / 2 = 45 109/2=45 个二分类器,开销还是蛮大的。

果然,作者还尝试了高斯核,高斯核中的距离函数是平方欧式距离。

这个独立核,就是上文的 e − t d M , 0 = e − t ⟨ r c ⊺ , M ⟩ e^{−td_{M,0}} = e^{−t\langle \bm{r}\bm{c}^\intercal, M \rangle} etdM,0=etrc,M,那么这就是实验的一个特例 α = 0 \alpha = 0 α=0,即 λ → 0 \lambda \to 0 λ0 时的情况。而 [ m i j a ] [m_{ij}^a] [mija] 中的 a a a 只是一种超参数调整。但我觉得这没意义吧,均匀分布的 Sinkhorn 距离,估计都没什么距离区分性!

5.2 实验结果

作者给出的 matlab 代码确实实现了 Sinkhorn 算法,但是真正的实验代码并未提供,故而实验结果真假难辨,就不必看了。后来在 GitHub 搜到了一份印度人写的复现代码,有些许不一样,也不能直接运行!太难了!她计算了图片之间的 Sinkhorn Distance 之后,直接将距离矩阵带上核范数输入到了一个叫 fitcecoc 的函数:

官方文档说这个函数训练一个 ECOC 多分类器,所用的二元分类器是 SVM,第一个参数是数据特征,第二个是类别。这样的话,作者说的核 e − d / t e^{-d/t} ed/t 如何体现呢?

结语

到最后,也没看到强调正定负定有什么用,这个让人头疼的问题。如果非要找出个用处,大概是 SVM 中的核函数 e − d / t e^{-d/t} ed/t 要求 d d d 是个距离,而 “负定距离” 和 “条件负定矩阵” 的概念可以保证 Sinkhorn Distance 能用于核函数。【这只是猜想,知识有限,不能明确!】


Update1:欧式距离的条件负定证明


给定一组向量 x 1 , x 2 , … , x i , … , x n ∈ R d \bm{x}_1, \bm{x}_2, \dots, \bm{x}_i, \dots, \bm{x}_n \in \mathbb{R}^d x1,x2,,xi,,xnRd,其欧式距离矩阵为 M M M,其元素 m i j = ∥ x i − x j ∥ 2 m_{ij} = \|\bm{x}_i - \bm{x}_j\|^2 mij=xixj2 ∀ r ∈ R n \forall \bm{r} \in \mathbb{R}^n rRn r ⊺ M r = ∑ i j n r i r j ∥ x i − x j ∥ 2 = ∑ i j n r i r j ( ∥ x i ∥ 2 + ∥ x j ∥ 2 − 2 x i ⊺ x j ) = ∑ i j n r i r j ∥ x i ∥ 2 + ∑ i j n r i r j ∥ x j ∥ 2 − 2 ∑ i j n r i r j x i ⊺ x j = ∑ j n r j ∑ i n r i ∥ x i ∥ 2 + ∑ i n r i ∑ j n r j ∥ x j ∥ 2 − 2 ∑ i j n r i r j x i ⊺ x j \begin{aligned} \bm{r}^\intercal M \bm{r} &= \sum_{ij}^n r_i r_j \| \bm{x}_i - \bm{x}_j \|^2 \\ &= \sum_{ij}^n r_i r_j (\| \bm{x}_i \|^2 + \| \bm{x}_j \|^2 - 2\bm{x}_i^\intercal \bm{x}_j) \\ &= \sum_{ij}^n r_i r_j \| \bm{x}_i \|^2 + \sum_{ij}^n r_i r_j \| \bm{x}_j \|^2 - 2\sum_{ij}^n r_i r_j\bm{x}_i^\intercal \bm{x}_j \\ &= \sum_{j}^n r_j\sum_{i}^n r_i \| \bm{x}_i \|^2 + \sum_{i}^n r_i\sum_{j}^n r_j \| \bm{x}_j \|^2 - 2\sum_{ij}^n r_i r_j\bm{x}_i^\intercal \bm{x}_j \end{aligned} rMr=ijnrirjxixj2=ijnrirj(xi2+xj22xixj)=ijnrirjxi2+ijnrirjxj22ijnrirjxixj=jnrjinrixi2+inrijnrjxj22ijnrirjxixj 到这,其实没法进行下去了。经过编程验证,如果不对 r \bm{r} r 加以限制为 ∑ i r i = 0 \sum_i r_i = 0 iri=0 r ⊺ M r \bm{r}^\intercal M \bm{r} rMr 是有正有负的,即不定。现假定 ∑ i r i = 0 \sum_i r_i = 0 iri=0 r ⊺ M r = − 2 ∑ i j n r i r j x i ⊺ x j ≤ 0 \begin{aligned} \bm{r}^\intercal M \bm{r} = - 2\sum_{ij}^n r_i r_j\bm{x}_i^\intercal \bm{x}_j \le 0 \end{aligned} rMr=2ijnrirjxixj0 就得到了条件负定

不过这里是欧氏距离的平方 d 2 ( x , y ) = ∥ x i − x j ∥ 2 d^2(\bm{x}, \bm{y}) = \| \bm{x}_i - \bm{x}_j \|^2 d2(x,y)=xixj2,对于 d ( x , y ) = ∥ x i − x j ∥ d(\bm{x}, \bm{y}) = \| \bm{x}_i - \bm{x}_j \| d(x,y)=xixj,我还没找到证明的方法,虽然能验证它是条件负定的。文中脚注说:

也即 d t ( x , y ) = ∥ x i − x j ∥ t , ∀ t ∈ ( 0 , 2 ] d^t(\bm{x}, \bm{y}) = \| \bm{x}_i - \bm{x}_j \|^t, \forall t \in (0, 2] dt(x,y)=xixjt,t(0,2] 是条件负定的。故欧式距离是条件负定的。至于为什么是这样,Berg1984 § 3.2.10 \S3.2.10 §3.2.10 中这样写道:

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第15张图片

全然不懂,也不打算去深究了,暂且就这么认为。


Update2: U α ( r , c ) U_\alpha(\bm{r}, \bm{c}) Uα(r,c) 的凸性证明


凸集,用数学语言写就是: ∀ P ( 1 ) , P ( 2 ) ∈ U α ( r , c ) ⇒ ∀ t ∈ [ 0 , 1 ] , P = t P ( 1 ) + ( 1 − t ) P ( 2 ) ∈ U α ( r , c ) \begin{align*} & \forall P^{(1)}, P^{(2)} \in U_\alpha(\bm{r}, \bm{c}) \\ \Rightarrow & \forall t \in [0, 1], P = tP^{(1)} + (1-t) P^{(2)} \in U_\alpha(\bm{r}, \bm{c}) \end{align*} P(1),P(2)Uα(r,c)t[0,1],P=tP(1)+(1t)P(2)Uα(r,c) 先看看 U ( r , c ) U(\bm{r}, \bm{c}) U(r,c) 凸不凸吧 P 1 m = [ t P ( 1 ) + ( 1 − t ) P ( 2 ) ] 1 m = t P ( 1 ) 1 m + ( 1 − t ) P ( 2 ) 1 m = t r + ( 1 − t ) r = r \begin{align*} P\bm{1}_m &= [tP^{(1)} + (1-t) P^{(2)}]\bm{1}_m \\ &= tP^{(1)}\bm{1}_m + (1-t) P^{(2)}\bm{1}_m \\ &= t\bm{r} + (1-t)\bm{r} \\ &= \bm{r} \end{align*} P1m=[tP(1)+(1t)P(2)]1m=tP(1)1m+(1t)P(2)1m=tr+(1t)r=r 同理 P ⊺ 1 n = c P^\intercal \bm{1}_n = \bm{c} P1n=c,故 P ∈ U ( r , c ) P \in U(\bm{r}, \bm{c}) PU(r,c),凸!下一步,我们要导出 h ( P ) = h ( t P ( 1 ) + ( 1 − t ) P ( 2 ) ) ≥ t h ( P ( 1 ) ) + ( 1 − t ) h ( P ( 2 ) )    ① ≥ t [ h ( r ) + h ( c ) − α ] + ( 1 − t ) [ h ( r ) + h ( c ) − α ] = h ( r ) + h ( c ) − α ⇒ P ∈ U α ( r , c ) \begin{align*} h(P) &= h(tP^{(1)} + (1-t) P^{(2)}) \\ &\geq th(P^{(1)}) + (1-t) h(P^{(2)}) \ \ \ ① \\ &\geq t[h(\bm{r}) + h(\bm{c}) − \alpha] + (1-t)[h(\bm{r}) + h(\bm{c}) − \alpha] \\ &= h(\bm{r}) + h(\bm{c}) − \alpha \\ \Rightarrow P &\in U_\alpha(\bm{r}, \bm{c}) \end{align*} h(P)P=h(tP(1)+(1t)P(2))th(P(1))+(1t)h(P(2))   t[h(r)+h(c)α]+(1t)[h(r)+h(c)α]=h(r)+h(c)αUα(r,c) 其中 ① ① 来源于熵函数的凹性。故 U α ( r , c ) U_\alpha(\bm{r}, \bm{c}) Uα(r,c) 是凸的。


Update3:条件负定矩阵和距离矩阵的关系


其实从 Metric Properties of Sinkhorn Distances 一节中已经可以看出一些结论,只不过我在不明白怎么回事的情况下不愿意接受而已。先看看从论文中能得到什么。

这一句话中,negative definite distanceEuclidean distance matrix 是等价的。 从 “itself” 可知 negative definite distancenegative definite kernel 等价。

脚注说:对于 Euclidean distance matrix M = [ m i j ] = [ ∥ φ i − φ j ∥ 2 2 ] M = [m_{ij}] = [\|\varphi_i - \varphi_j\|_2^2] M=[mij]=[φiφj22] 而言,矩阵 [ m i j t ] [m_{ij}^t] [mijt] 也是 Euclidean distance matrix,其中 0 < t < 1 00<t<1

好家伙,这么说来,有以下概念是等价的: n e g a t i v e   d e f i n i t e   k e r n e l ⇔ n e g a t i v e   d e f i n i t e   d i s t a n c e ⇔ E u c l i d e a n   d i s t a n c e   m a t r i x ⇔ [ ∥ φ i − φ j ∥ 2 t ] , t ∈ ( 0 , 2 ] \begin{aligned} &negative~definite~kernel \\ \Leftrightarrow & negative~definite~distance \\ \Leftrightarrow & Euclidean~distance~matrix \\ \Leftrightarrow & [\|\varphi_i - \varphi_j\|_2^t], t \in (0, 2] \end{aligned} negative definite kernelnegative definite distanceEuclidean distance matrix[φiφj2t],t(0,2] Sinkhorn Distance 也是欧式距离矩阵?

再看这一段, d M , 0 d_{M, 0} dM,0 是一个 negative definite kernel,并且 e − t d M , 0 e^{-td_{M, 0}} etdM,0positive definite,其中 t > 0 t>0 t>0。大致可猜想:如果 d d d 是个负定核,那么 e − t d e^{-td} etdpositive definite


OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第16张图片

从这里可确定上面的猜想,只要 d d d 是个距离 t > 0 t>0 t>0 e − d / t e^{-d/t} ed/t 就是个核函数,作者用这个核去跑 SVM 了。

真不敢相信,负定核真的和距离函数是等价的。

Scattered Data Interpolation with Polynomial Precision and Conditionally Positive Definite Functions 中的一些定理引理让我相信了这个结论,虽然这里面并没有给出详细的证明,即使有估计也看不懂。

OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第17张图片
OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第18张图片
OT1:Sinkhorn Distances: Lightspeed Computation of Optimal Transport_第19张图片

你可能感兴趣的:(机器学习,Optimal,Transport,机器学习,人工智能,算法,概率论)