机器学习面试必知:核技巧

许多线性模型可以转化为一个等价的对偶表示。对偶表示中,预测的基础也是在训练数据点处计算的核函数的线性组合。对于基于固定的非线性特征空间映射 ϕ ( x ) \phi(x) ϕ(x)的模型来说,核函数由下面的关系给出 k ( x , x ′ ) = ϕ ( x ) T ϕ ( x ′ ) k(x,x')=\phi(x)^{T}\phi(x') k(x,x)=ϕ(x)Tϕ(x)

  1. linrear kernel k ( x , y ) = x T y k(x,y)=x^{T}y k(x,y)=xTy
  2. polynomial kernel k ( x , y ) = ( a x T y + c ) d k(x,y)=(ax^{T}y+c)^{d} k(x,y)=(axTy+c)d
  3. gaussian kernel k ( x , y ) = e x p ( − ∣ ∣ x − y ∣ ∣ 2 2 σ 2 ) k(x,y)=exp(-\frac{||x-y||^{2}}{2\sigma^{2}}) k(x,y)=exp(2σ2xy2)
  4. exponential kernel k ( x , y ) = e x p ( − ∣ ∣ x − y ∣ ∣ 2 σ 2 ) k(x,y)=exp(-\frac{||x-y||}{2\sigma^{2}}) k(x,y)=exp(2σ2xy)
  5. laplacian kernel k ( x , y ) = e x p ( − ∣ ∣ x − y ∣ ∣ σ ) k(x,y)=exp(-\frac{||x-y||}{\sigma}) k(x,y)=exp(σxy)
  6. sigmoid kernel k ( x , y ) = t a n h ( a x T y + c ) k(x,y)=tanh(ax^{T}y+c) k(x,y)=tanh(axTy+c)

你可能感兴趣的:(机器学习,面试,统计学习)