贝叶斯估计
决策树与信息熵
logistic
SVM
Boost方法——组合权重不同的同一种分类器,得到强分类器
Boost与前向分布算法的联系
二分类学习,boost 错误分类的sample weight和误差率低的分类器权重,可用加法模型、损失函数为指数函数、的前向学习算法解释
回归学习提升树,
利用前向分布算法 f m ( x ) = f m − 1 ( x ) + T ( x ; Θ ( m ) ) , Θ ( m ) = a r g m i n Θ ( m ) ( L ( y , f m − 1 ( x i ) + Θ ( x i , Θ ( m ) ) f_m(x)=f_{m-1}(x)+T(x;\Theta(m)),\Theta(m)=arg \underset{\Theta(m)}{min}(L(y,f_{m-1}(x_i)+\Theta(x_i,\Theta(m)) fm(x)=fm−1(x)+T(x;Θ(m)),Θ(m)=argΘ(m)min(L(y,fm−1(xi)+Θ(xi,Θ(m))
if loss function=均方误差损失, Θ m = ( R 1 , s 1 ) , . . . , ( R j , s j ) = y − f m − 1 ( x ) ; \Theta_m={(R_1,s_1),...,(R_j,s_j)}=y-f_{m-1}(x); Θm=(R1,s1),...,(Rj,sj)=y−fm−1(x);commonly ,由lagrange中值公式,残差用 ∂ L / ∂ f m − 1 ( x ) a p p r o a c h \partial L/\partial f_{m-1}(x)approach ∂L/∂fm−1(x)approach
recessive markov——根据隐变量表示出output的最大似然估计 P ( i , o ∣ θ ) P(i,o|\theta) P(i,o∣θ),计算其在 P ( i , o ∣ θ ‾ ) P(i,o|\overline\theta) P(i,o∣θ)下期望,\
拉格朗日乘子法求极大值得\overline\theta,来估计o对应的i,
维比特算法用动态规划求得state 1,2,…,T(近似alg不能保证整体most probably)
conditional random field——T为高维向量 ( X , Y w ) (X,Y_w) (X,Yw)的随机过程(x,t)
根据状态特征 s l ( y i , x , w ) s_l(y_i,x,w) sl(yi,x,w)和transfer feature t k ( y i − 1 , y i , x , w ) t_k(y_{i-1},y_i,x,w) tk(yi−1,yi,x,w)定义条件随机场P(y|x),可以用前向/back学习算法计算, P ( y i ∣ x ) a n d P ( y i , y i + 1 ∣ x ) P(y_i|x)\ and\ P(y_i,y_{i+1}|x) P(yi∣x) and P(yi,yi+1∣x),针对 P w ( y ∣ x ) P_w(y|x) Pw(y∣x)的极大似然估计,梯度下降迭代得w,维比特算法得 y ∗ = a r g m a x y P w ( y ∣ x ) y^*=arg max_{y} P_w(y|x) y∗=argmaxyPw(y∣x)
…
==?==添加一个等概率因子就可以避免