机器学习导论(张志华):核定义

前言

这个笔记是北大那位老师课程的学习笔记,讲的概念浅显易懂,非常有利于我们掌握基本的概念,从而掌握相关的技术。

Reproducing Kernel (2000-2010)

K : x ∗ x − > R K:x*x->R K:xx>R
x ⊂ R 2 x \subset R^2 xR2

cauchy-schwartz inequality

K 2 ( x i , x j ) ≤ K ( x i , x j ) K ( x j , x I ) K^2(x_i,x_j) \leq K(x_i,x_j)K(x_j,x_I) K2(xi,xj)K(xi,xj)K(xj,xI)

diag matrix

K n ∗ m D = D i a g ( K ( x i , x j ) ) . K ( X n , X n ) K_{n*m} D=Diag(K(x_i,x_j)).K(X_n,X_n) KnmD=Diag(K(xi,xj)).K(Xn,Xn)

property

The P.D kernels are closed under sum,direct product,tensor product,pointwise limit,and composition with a power series, ∑ n − > − ∞ n − > + ∞ a n x n \sum_{n->-\infin}^{n->+\infin}a_nx_n n>n>+anxn with a n ≥ 0 a_n \geq 0 an0
for all b ⊂ N b \subset N bN.

你可能感兴趣的:(数据科学)