这篇文章其实是人工智能程序员面试笔试宝典第一章的笔记。不同的是,它提到的大多数知识点我都作了实现。书中有部分老代码已经跑不通了,我给它改了一下;有些地方一笔略过,但是我感觉有用的也写了代码。还有一些待完善的地方,后续会继续增加内容的。
书链接:豆瓣
学习链接
应用的领域包括: 语音识别\翻译\语法分析\目标检测\Summarization\Retrieval
训练样本带标签
值得一提的是,自监督学习也是有监督学习.
训练样本部分有标签
训练样本全部无标签
智能体(Agent)通过与环境进行交互获得的奖赏来指导自己的行为,最终目标是使智能体获得最大的奖赏.
与监督学习不同的是,强化学习中由环境提供的强化信号是对产生对坐的好坏的一种评价,而不是告诉强化学习系统如何去产生正确的动作.
运用已有的知识或者数据对不同但有关联的领域问题进行求解.
学习决策函数 Y = f ( X ) Y = f(X) Y=f(X),或者学习分布概率 Y = P ( Y ∣ X ) Y = P(Y|X) Y=P(Y∣X)
常见的包括线性回归,boosting,SVM,决策树,感知机,线性判别分析(LDA),逻辑斯蒂回归算法等.
由数据学习 x x x和 y y y的联合概率密度分布函数 P ( Y , X ) P(Y,X) P(Y,X),然后通过贝叶斯公式求出条件概率分布 P ( Y ∣ X ) P(Y|X) P(Y∣X)作为预测的模型为生成模型. 常见的生成模型有朴素贝叶斯 隐马尔科夫模型,高斯混合模型,文档主题生成模型LDA等.
M S E = 1 n ∑ i = 0 n ( f ( x i ) − y i ) 2 MSE = \frac{1}{n}\sum_{i=0}^n (f(x_i)-y_i)^2 MSE=n1i=0∑n(f(xi)−yi)2
均方根误差
它是观测值与真值偏差的平方和与观测次数m比值的平方根,用来衡量观测值同真值之间的偏差
R M S E = M S E = 1 n ∑ i = 0 n ( f ( x i ) − y i ) 2 RMSE=\sqrt{MSE}=\sqrt{\frac{1}{n}\sum\limits_{i=0}^n (f(x_i)-y_i)^2} RMSE=MSE=n1i=0∑n(f(xi)−yi)2
S S E = ∑ i = 0 n ( f ( x i ) − y i ) 2 SSE=\sum\limits_{i=0}^n(f(x_i)-y_i)^2 SSE=i=0∑n(f(xi)−yi)2
直接计算模型输出与真实值之间的平均绝对误差
M A E = 1 n ∣ ∑ i = 0 n f ( x i ) − y i ∣ MAE=\frac{1}{n}\left|\sum\limits_{i=0}^n f(x_i)-y_i\right| MAE=n1∣∣∣∣i=0∑nf(xi)−yi∣∣∣∣
这个方法不见考虑预测值与真实值之间的误差,还考虑了误差与真实值之间的比例
M A P E = 1 n ∑ i = 0 n ∣ f ( x i ) − y i ∣ y i MAPE=\frac{1}{n}\sum\limits_{i=0}^n\frac{\left| f(x_i)-y_i \right|}{y_i} MAPE=n1i=0∑nyi∣f(xi)−yi∣
MASE = 1 n ∑ i = 0 n ( ∣ f ( x i ) − y i ∣ y i ) 2 \operatorname{MASE}=\frac{1}{n} \sum_{i=0}^{n}\left(\frac{\left|f\left(x_{i}\right)-y_{i}\right|}{y_{i}}\right)^{2} MASE=n1∑i=0n(yi∣f(xi)−yi∣)2
R 2 = 1 − S S E S S T R^{2}=1-\frac{\mathrm{SSE}}{\mathrm{SST}} R2=1−SSTSSE, 其中 S S T = ∑ i = 0 n ( y i − y ˉ ) 2 \mathrm{SST}=\sum_{i=0}^{n}\left(y_{i}-\bar{y}\right)^{2} SST=∑i=0n(yi−yˉ)2
常用的包括:
预测为真 | 预测为假 | |
---|---|---|
真实为真 | TP | FN |
真实为假 | FP | TN |
计算方式为:
P r e c i s i o n = T P T P + F P Precision=\frac{\mathrm{TP}}{\mathrm{TP}+\mathrm{FP}} Precision=TP+FPTP
精确率又称为查准率,适用于需要精度高的场景,例如网页推荐.
召回率又称为查准率,适用于检测信贷风险,逃犯信息等.
R e c a l l = T P T P + F N Recall = \frac{\mathrm{TP}}{\mathrm{TP}+\mathrm{FN}} Recall=TP+FNTP
由于精确率和召回率是一对相互矛盾的值,所以需要一种折中以确定相对较优的评价指标
1 F 1 = 1 2 ∗ 1 P + 1 2 ∗ 1 R \frac{1}{F_{1}}=\frac{1}{2} * \frac{1}{P}+\frac{1}{2} * \frac{1}{R} F11=21∗P1+21∗R1
F1值是精确率和召回率的调和平均值
对于0,1分类问题,一些分类器得到的结果并不是0,1,而是一个(0,1)之间的概率值,这个时候需要确定一个阈值cutoff , 当大于这个阈值的时候,将其归为1,否则归为0.
众所周知,TPR(True Positive rate)和FPR(False Positive Rate)是完相反的两个值,为了找到合适的分类阈值,应该直接从正确率上面着手,于是我们分别以TPR和FPR为横纵坐标绘制曲线,观察寻找合适的阈值cutoff
ROC曲线越靠近左上角,模型的查全率就越高。最靠近左上角的ROC曲线上的点是分类错误最少的最好阈值,其假正例和假反例总数最少。
#!/usr/bin/env python
# coding: utf-8
import os
import matplotlib.pyplot as plt
import numpy as np
import pandas as pd
import seaborn as sns
import xgboost as xgb
from sklearn.metrics import accuracy_score, roc_auc_score, roc_curve
from sklearn.model_selection import train_test_split
x1 = np.arange(0, 100, 1)
a = 0.3 * x1 + 1
b = 0.3 * x1 - 1
x2 = np.concatenate((a[0:50], b[50:]), axis=0)
data = []
idx = 0
for a_t, b_t in zip(x1.tolist(), x2.tolist()):
if idx < 50:
data.append((a_t, b_t, 0))
else:
data.append((a_t, b_t, 1))
idx += 1
data = pd.DataFrame(data, columns=["x1", "x2", "label"])
sns.scatterplot(data["x1"], data["x2"], hue=data["label"])
plt.show()
x_train = data[["x1", "x2"]].values
y_train = data["label"].values.astype("int")
x_train, x_test, y_train, y_test = train_test_split(x_train, y_train, test_size=0.3)
dtrain = xgb.DMatrix(x_train, label=y_train)
dtest = xgb.DMatrix(x_test, label=y_test)
param = {"max_depth": 2, "eta": 1, "objective": "binary:logistic"} # 设置XGB的参数,使用字典形式传入
num_round = 2 # 使用线程数
bst = xgb.train(param, dtrain, num_round) # 训练
preds = bst.predict(dtest) # 预测
# preds = np.array([1 if e>0.5 else 0 for e in preds])
# accuracy_score(preds,y_test)
roc_auc_score(y_test, preds)
fpr, tpr, thresholds = roc_curve(y_test, preds, pos_label=1)
thresholds
如果上述结果理解不了的话,参考一篇博客:roc_curve解析
标准化和最大最小缩放法,将所有的数据缩放到同一个维度.
其对应的公式分别为:
其代码分别为:
import numpy as np
import pandas as pd
from sklearn.preprocessing import StandardScaler
from sklearn.preprocessing import MinMaxScaler
x = np.array([0.2,10000,80])
x = x.reshape(-1,1)
x1 = StandardScaler().fit_transform(x)
x2 = MinMaxScaler().fit_transform(x)
x,x1,x2
一般来说,选择标准缩放会更好一点,因为可以避免0值的出现.
主要针对文本类型的数据进行编码
常用的编码方式为独热(one-hot)编码.
中 | 美 | 德 | 法 |
---|---|---|---|
1000 | 0100 | 0010 | 0001 |
代码如下:
import numpy as np
import pandas as pd
from sklearn.preprocessing import OneHotEncoder
from sklearn.preprocessing import LabelEncoder
df = pd.DataFrame([('中',),('美',),('德',),('法',)],columns=['country'])
df['country'] = LabelEncoder().fit_transform(df['country'])
temp = OneHotEncoder().fit_transform(df['country'].values.reshape(-1,1))
temp.toarray()
常用的策略
用异常值填充(如0,-9999)并将缺失值作为一个特征处理.
用均值或者条件均值填充.
用相邻数据填充
利用插值算法
数据拟合:利用非空数据构建模型,缺失值用拟合值填充
核心思想为,如果某一列的数值特征变化一直很平缓,说明这个特征对结果的影响很小,所以可以计算各个特征的发叉,选择方差大于自设定阈值的特征.
代码如下:
from sklearn.feature_selection import VarianceThreshold
import os
import numpy as np
import pandas as pd
file = "../data/iris.csv"
data = pd.read_csv(file,header=None)
data.columns = ['f1','f2','f3','f4','label']
data.describe()
我们选定阈值为0.64(0.8*的平方)
from sklearn.feature_selection import VarianceThreshold
VarianceThreshold(threshold=0.64).fit_transform(data[['f1','f2','f3','f4']].values)
最后得到的特征如下:
可以看到,最后留下了两个特征方差大于0.64的特征,并返回ndarray格式的数据.
相关系数或者统计检验都可以用来进行特征选择,常用的有pearson相关系数和卡方检验,前者主要应用于连续变量,后者用于离散变量等.
from sklearn.feature_selection import SelectKBest
from scipy.stats import pearsonr
from sklearn.preprocessing import LabelEncoder
# pearson 相关系数
from sklearn.feature_selection import chi2
import pandas as pd
import numpy as np
file = "../data/iris.csv"
data = pd.read_csv(file,header=None)
data.columns = ['f1','f2','f3','f4','label']
data.describe()
feats = data[['f1','f2','f3','f4']]
x = feats
y = data['label'].values
# 卡方检验
# SelectKBest(lambda X,Y : np.array(map(lambda x:pearsonr(x,Y),X.T)).T,k=2).fit_transform(x,y)
SelectKBest(chi2,k=2).fit_transform(x,y)
互信息法经常用来评价自变量对因变量的相关性,互信息计算公式如下:
I ( X ; Y ) = ∑ x ∈ X ∑ y ∈ Y p ( x , y ) log p ( x , y ) p ( x ) p ( y ) I(X ; Y)=\sum_{x \in X} \sum_{y \in Y} p(x, y) \log \frac{p(x, y)}{p(x) p(y)} I(X;Y)=∑x∈X∑y∈Yp(x,y)logp(x)p(y)p(x,y)
这种方法主要是针对特征和响应变量建立预测模型,例如用基于树的方法(决策树,随机森林,GBDT),或者扩展线性模型等.代码如下:
from sklearn.feature_selection import SelectFromModel
from sklearn.ensemble import GradientBoostingClassifier
from sklearn.preprocessing import LabelEncoder
x = data[['f1','f2','f3','f4']].values
y = LabelEncoder().fit_transform(data['label'])
SelectFromModel(GradientBoostingClassifier()).fit_transform(x,y)
基于机器学习的方法,除了直接选择特征之外,还可以对特征进行降维之后进行特征选择.
基尼系数是一种衡量特征贡献值大小的方法.
在利用随机森林算法评估特征变量重要性的时候,主要依据每个特征变量在随机森林中的每棵树上做了多大的贡献,然后取平均值,最后比较不同特征之间的贡献值大小.基尼系数就是一种有效评估指标.
特征的重要性用 V V V来表示,假设有 m m m个特征 X 1 , X 2 , . . . , X m X_1,X_2,...,X_m X1,X2,...,Xm,则每个特征 X j X_j Xj的Gini指数记为 V j V_j Vj
Gini m = 1 − ∑ k = 1 K p m k 2 \operatorname{Gini}_{m}=1-\sum_{k=1}^{K} p_{m k}^{2} Ginim=1−∑k=1Kpmk2
其中k表示第k个类别, P k m P_{km} Pkm表示节点m中,K表示分类个数.
特征变量 X j X_j Xj在节点m的重要性,即结点m分支前后的Gini指数变化量为:
V j m G i n i = Gini m − Gini l − Gini r V_{j m}^{G i n i}=\operatorname{Gini}_{m}-\operatorname{Gini}_{l}-\operatorname{Gini}_{r} VjmGini=Ginim−Ginil−Ginir
如果特征 x j x_j xj在决策树 i i i中出现的节点在集合M中,那么 X j X_j Xj在第 i i i棵树的重要性为:
V j m G i n i = ∑ m ∈ M V j m G i n i V_{j m}^{G i n i}=\sum_{m \in M} V_{j m}^{G i n i} VjmGini=∑m∈MVjmGini
假设随机森林共有n棵树,那么:
V j m G i n i = ∑ i = 1 n V i j G i n i V_{j m}^{G i n i}=\sum_{i=1}^{n} V_{i j}^{G i n i} VjmGini=∑i=1nVijGini
最后将所有求得的重要性评分进行归一化处理得到重要性评分:
V j ∗ = V j ∑ i = 1 c V i V_{j}^{*}=\frac{V_{j}}{\sum_{i=1}^{c} V_{i}} Vj∗=∑i=1cViVj
看起来很麻烦对不对,但其实这些原理和细节在sklearn库中已经实现,我们只需要调用即可,下面是代码:
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state=0)
forest = RandomForestClassifier(n_estimators=1000,random_state=0,n_jobs=-1)
forest.fit(x_train,y_train)
importances = forest.feature_importances_
importances
为了算法的计算效率,通常会将高维特征转化为较低的维度,并尽量使得各个特征之间无关联.
常用的降维算法包括:
将数据从一个维度变换到新的坐标系统中的线性变换.使得任何数据投影的第一大方差在第一个坐标(第一个主成分)上,以此类推.
其算法的计算步骤:
R = [ r 11 ⋯ r 1 p ⋮ ⋮ r p 1 ⋯ r p p ] R=\left[\begin{array}{ccc} r_{11} & \cdots & r_{1 p} \\ \vdots & & \vdots \\ r_{p 1} & \cdots & r_{p p} \end{array}\right] R=⎣⎢⎡r11⋮rp1⋯⋯r1p⋮rpp⎦⎥⎤
其中任意一个元素
r i j = ∑ k = 1 n ( x k i − x ˉ i ) ( x k j − x ˉ j ) ∑ k = 1 n ( x k i − x ˉ i ) 2 ( x k j − x ˉ j ) 2 r_{i j}=\frac{\sum_{k=1}^{n}\left(x_{k i}-\bar{x}_{i}\right)\left(x_{k j}-\bar{x}_{j}\right)}{\sum_{k=1}^{n}\left(x_{k i}-\bar{x}_{i}\right)^{2}\left(x_{k j}-\bar{x}_{j}\right)^{2}} rij=∑k=1n(xki−xˉi)2(xkj−xˉj)2∑k=1n(xki−xˉi)(xkj−xˉj)
其代表的是两个特征 x i x_i xi与 x j x_j xj的相关系数.
解特征方程 ∣ λ I − R ∣ \left| \lambda I - R \right| ∣λI−R∣,用雅克比法求出特征特征值,并使其按大小顺序排列: λ 1 ⩾ λ 2 ⩾ … ⩾ λ p ⩾ 0 \lambda_{1} \geqslant \lambda_{2} \geqslant \ldots \geqslant \lambda_{p} \geqslant 0 λ1⩾λ2⩾…⩾λp⩾0,特征值 λ i \lambda _i λi对应的特征向量 e i e_i ei,且 ∥ e ∥ = 1 \|e\|=1 ∥e∥=1
对应的单位特征向量 e i e_i ei就是主成分 z i z_i zi关于原变量的系数,即 z i = x e i T z_i=xe_i^T zi=xeiT
贡献率:
α i = λ i ∑ k = 1 p λ k i = 1 , 2 , ⋯ , p \alpha_{i}=\frac{\lambda_{i}}{\sum_{k=1}^{p} \lambda_{k}} \quad i=1,2, \cdots, p αi=∑k=1pλkλii=1,2,⋯,p
累计贡献率:
∑ k = 1 i λ k ∑ k = 1 p λ k i = 1 , 2 , ⋯ , p \frac{\sum_{k=1}^{i} \lambda_{k}}{\sum_{k=1}^{p} \lambda_{k}} \quad i=1,2, \cdots, p ∑k=1pλk∑k=1iλki=1,2,⋯,p
一般累计贡献率达到85%-95%的特征值 λ 1 , λ 2 , . . , λ m \lambda_1,\lambda_2,..,\lambda_m λ1,λ2,..,λm所对应的第1,2,…,m ( m ≤ p ) (m\leq p) (m≤p)个主成分 z 1 , z 2 , . . . , z m z_1,z_2,...,z_m z1,z2,...,zm
主成分载荷是反映主成分 z i z_i zi与原变量 x j x_j xj之间的相关关联程度.
l i j = p ( z i , x j ) = λ i e i j ( i , j = 1 , 2 , ⋯ , p ) l_{i j}=p\left(z_{i}, x_{j}\right)=\sqrt{\lambda_{i}} e_{i j}(i, j=1,2, \cdots, p) lij=p(zi,xj)=λieij(i,j=1,2,⋯,p)
需要注意的是,在实际应用的时候,指标的量纲往往不同,所以在主成分计算之前应先消除量纲的影响.将变量标准化之后再计算协方差矩阵:
from sklearn.decomposition import PCA
import pandas as pd
import numpy as np
from sklearn.preprocessing import LabelEncoder
from sklearn.model_selection import train_test_split
data = pd.read_csv("../data/iris.csv",header=None)
data.columns = ['f1','f2','f3','f4','label']
x = data[['f1','f2','f3','f4']].values
y = data['label'].values
x_train,x_test,y_train,y_test = train_test_split(x,y,test_size=0.2)
PCA(n_components=2).fit_transform(x_train)
LDA是一种有监督的降维方法,主要是将高维的样本投影到最佳的控件,其目的是投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距离,即同样的数据点尽可能的接近而不同类的数据点尽可能的分开.
LDA和PCA的区别:
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis as LDA
import pandas as pd
import numpy as np
from sklearn.preprocessing import LabelEncoder
from sklearn.model_selection import train_test_split
data = pd.read_csv("../data/iris.csv",header=None)
data.columns = ['f1','f2','f3','f4','label']
x = data[['f1','f2','f3','f4']].values
y = data['label'].values
x_train,x_test,y_train,y_test = train_test_split(x,y,test_size=0.2)
LDA(n_components=2).fit_transform(x_train,y_train)
强大的PCA降维算法适用于线性降维,非线性降维方法包括Kernel PCA \ LLE 等, 这次介绍LLE.
流形学习是基于流形的思想,其认为现实世界中的高维数据集都可以用低维的流形所代替,而流形一般指高维空间中的几何结构,如曲线或曲面在高维空间中的推广,其是一个空间而不是面。所以直观上来讲,一个流形好比是一个d维的空间,在一个m维的空间中(m>d)被扭曲之后的结果。
import matplotlib as mpl
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import proj3d
from sklearn.datasets import make_swiss_roll
X, t = make_swiss_roll(n_samples=1000, noise=0.2, random_state=42)
axes = [-11.5, 14, -2, 23, -12, 15]
fig = plt.figure(figsize=(6,5))
ax = fig.add_subplot(111,projection='3d')
ax.scatter(X[:, 0], X[:, 1], X[:, 2], c=t, cmap=plt.cm.hot)
# ax.view_init(10, -70)
ax.set_xlabel("$x_1$", fontsize=18)
ax.set_ylabel("$x_2$", fontsize=18)
ax.set_zlabel("$x_3$", fontsize=18)
# ax.set_xlim(axes[0:2])
# ax.set_ylim(axes[2:4])
# ax.set_zlim(axes[4:6])
plt.show()
可以看到,虽然数据集是在三维空间中的,但是我们完全可以通过一定的方法将其平铺在二维空间中并同时保存其数据结构。最简单的方法就是将卷曲的带状数据集拉直,如下图:
而这时如果想通过PCA将数据进行降维,效果将会非常差,因为你很难能够找到一个线性的平面将数据很好的进行投影,我们可以通过以下代码对比两种方法:
plt.subplot(121)
plt.scatter(X[:, 0], X[:, 1], c=t, cmap=plt.cm.hot)
plt.axis(axes[:4])
plt.xlabel("$x_1$", fontsize=18)
plt.ylabel("$x_2$", fontsize=18, rotation=0)
plt.grid(True)
plt.subplot(122)
plt.scatter(t, X[:, 1], c=t, cmap=plt.cm.hot)
plt.axis([4, 15, axes[2], axes[3]])
plt.xlabel("$z_1$", fontsize=18)
plt.grid(True)
plt.show()
左边是将数据投影在xy平面上的结果,而右边是按照上图所示拉直数据集得到的结果。可以看到右边的降维效果远远好于左边。
基于流形与流形学习的思想,我们可以对数据进行非线性的降维,常见的方法有局部线性嵌入,拉普拉斯特征映射,局部保持投影,等距映射等。
局部线性嵌入算法认为每个数据点可以由其紧邻点的线性加权组合构造得到.
步骤:
X, t = make_swiss_roll(n_samples=1000, noise=0.2, random_state=41)
from sklearn.manifold import LocallyLinearEmbedding
lle = LocallyLinearEmbedding(n_components=2, n_neighbors=10, random_state=42)
X_reduced = lle.fit_transform(X)
plt.title("Unrolled swiss roll using LLE", fontsize=14)
plt.scatter(X_reduced[:, 0], X_reduced[:, 1], c=t, cmap=plt.cm.hot)
plt.xlabel("$z_1$", fontsize=18)
plt.ylabel("$z_2$", fontsize=18)
plt.axis([-0.065, 0.055, -0.1, 0.12])
plt.grid(True)
# plt.save_fig("lle_unrolling_plot")
plt.show()
LLE的实现是基于流形的假设,如果数据集的分布并非流形,则其算法的降维效果可能并不会很出色。在实际运用中,我们可以首先使用原数据集进行机器学习的建模,再通过sklearn包中的GridSearchCV遍历不同的降维算法,查看模型的效果。
特征构造需要重项目实践中得到.例如客户关系管理中: 最近一次消费间隔时长,消费频率,消费金额就是重要的特征.
过拟合是烂大街的词汇了. 一张图表明:
欠拟合是指模型不能在训练集上获得足够低的训练误差,往往是由于特征维度过少,导致拟合的函数无法满足训练集,导致误差较大.
过拟合值模型的训练误差与测试误差之间的差距过大,在训练集上表现良好,在测试集上表现过差.
L1正则化的目的是减小参数的绝对值总和:
∥ x ∥ 1 = ∑ i ∣ x i ∣ \|x\|_{1}=\sum_{i}\left|x_{i}\right| ∥x∥1=∑i∣xi∣
L2正则化的目的是减少参数平方和的总和
∥ x ∥ 2 = ∑ i x i 2 \|x\|_{2}=\sum_{i} x_{i}^{2} ∥x∥2=∑ixi2
调节L1与L2正则化 α ∥ x ∥ 1 + 1 − α 2 ∥ x ∥ 2 \alpha\|x\|_{1}+\frac{1-\alpha}{2}\|x\|_{2} α∥x∥1+21−α∥x∥2
L1正则化的最优参数的值很大概率会出现在坐标轴上,这样就会导致某一维的权重为0,产生系数权重矩阵.
L2的最优参数值很小概率会出现在坐标轴上,因此每一维的参数都不会是0.
所以,L1常用于特征选择的设置中,而机器学习中最常用的正则化方法是对权重施加L2范数约束.
import numpy as np
import pandas as pd
import random
import matplotlib.pyplot as plt
from matplotlib.pylab import rcParams
rcParams['figure.figsize'] = 12, 10
x = np.array([1.4*i*np.pi/180 for i in range(0,300,4)])
np.random.seed(20) #随机数
y = np.sin(x) + np.random.normal(0,0.2,len(x)) # 加噪音
data = pd.DataFrame(np.column_stack([x,y]),columns=['x','y'])
plt.plot(data['x'],data['y'],'.')
# 模型复杂度设置
for i in range(2,36):
colname = 'x_%d'%i # 变量名变为 x_i形式
data[colname] = data['x']**i
print(data.head()) # 显示五行
# 模型复杂度可变
from sklearn.linear_model import LinearRegression
def linear_regression(data, power, models_to_plot):
# 初始化预测器
predictors=['x']
if power>=2:
predictors.extend(['x_%d'%i for i in range(2,power+1)])
# 模型训练
# linreg = LinearRegression(normalize=True)
linreg = LinearRegression(normalize=False)
linreg.fit(data[predictors],data['y'])
# 预测
y_pred = linreg.predict(data[predictors])
# 是否要画图(复杂度是否在models_to_plot中)为了便于比较选择性画图
if power in models_to_plot:
plt.subplot(models_to_plot[power])
plt.tight_layout()
plt.plot(data['x'],y_pred)
plt.plot(data['x'],data['y'],'.')
plt.title('Plot for power: %d'%power)
# 返回结果
rss = sum((y_pred-data['y'])**2)
ret = [rss]
ret.extend([linreg.intercept_])
ret.extend(linreg.coef_)
return ret
col = ['rss','intercept'] + ['coef_x_%d'%i for i in range(1,33)]
ind = ['model_pow_%d'%i for i in range(1,33)]
coef_matrix_simple = pd.DataFrame(index=ind, columns=col)
# 定义作图的位置与模型的复杂度
models_to_plot = {1:331,3:332,6:333,8:334,11:335,14:336,22:337,28:338,32:339}
# 画图
for i in range(1,33):
coef_matrix_simple.iloc[i-1,0:i+2] = linear_regression(data, power=i, models_to_plot=models_to_plot)
结果如下:
可以看到, 在模型建模过于复杂( x 2 8 x 3 2 x^28 x^32 x28x32)的时候,模型已经明显不适用了. 我们再来看看加入正则化之后:
# 模型复杂度可变
from sklearn.linear_model import LinearRegression
def linear_regression(data, power, models_to_plot):
# 初始化预测器
predictors=['x']
if power>=2:
predictors.extend(['x_%d'%i for i in range(2,power+1)])
# 模型训练
# linreg = LinearRegression(normalize=True)
linreg = LinearRegression(normalize=True)
linreg.fit(data[predictors],data['y'])
# 预测
y_pred = linreg.predict(data[predictors])
# 是否要画图(复杂度是否在models_to_plot中)为了便于比较选择性画图
if power in models_to_plot:
plt.subplot(models_to_plot[power])
plt.tight_layout()
plt.plot(data['x'],y_pred)
plt.plot(data['x'],data['y'],'.')
plt.title('Plot for power: %d'%power)
# 返回结果
rss = sum((y_pred-data['y'])**2)
ret = [rss]
ret.extend([linreg.intercept_])
ret.extend(linreg.coef_)
return ret
col = ['rss','intercept'] + ['coef_x_%d'%i for i in range(1,33)]
ind = ['model_pow_%d'%i for i in range(1,33)]
coef_matrix_simple = pd.DataFrame(index=ind, columns=col)
# 定义作图的位置与模型的复杂度
models_to_plot = {1:331,3:332,6:333,8:334,11:335,14:336,22:337,28:338,32:339}
# 画图
for i in range(1,33):
coef_matrix_simple.iloc[i-1,0:i+2] = linear_regression(data, power=i, models_to_plot=models_to_plot)
再看看结果:
可以发现,在同样复杂度的模型下,模型相对要优秀的多. 这就是正则化在减小模型过拟合中的作用.
L1对权重 w w w的先验假设是拉普拉斯分布,由最大后验概率估计导出.
L2的先验假设是高斯分布.由最大后验概率估计导出.
M A P = log P ( y ∣ X , w ) P ( w ) = log P ( y ∣ X , w ) + log P ( w ) M A P=\log P(y \mid X, w) P(w)=\log P(y \mid X, w)+\log P(w) MAP=logP(y∣X,w)P(w)=logP(y∣X,w)+logP(w)
P(w)的意义是对权重系数w的概率分布的先验假设,在收集到训练样本后,则可根据{X,y}下的后验概率对w进行修正,从而做出对w的更好地估计。
w j ∼ N ( 0 , σ 2 ) w_{j} \sim N\left(0, \sigma^{2}\right) wj∼N(0,σ2)
则有:
log P ( w ) = log ∏ j p ( w j ) = log ∏ j [ 1 2 π σ e − w j 2 2 σ 2 ] = 1 − 2 σ 2 ∑ j w j 2 + C \log P(w)=\log \prod_{j} p\left(w_{j}\right)=\log \prod_{j}\left[\frac{1}{\sqrt{2 \pi} \sigma} \mathrm{e}^{-\frac{w_{j}^{2}}{2 \sigma^{2}}}\right]=\frac{1}{-2 \sigma^{2}} \sum_{j} w_{j}^{2}+C logP(w)=logj∏p(wj)=logj∏[2πσ1e−2σ2wj2]=−2σ21j∑wj2+C
可以看到,此时 l o g P ( ω ) logP(\omega) logP(ω)的效果等价于在代价函数中增加L2正则项.
假设权重 ω \omega ω的先验分布是均值为0,参数为a的拉普拉斯分布,即:
P ( w j ) = 1 2 a e − ∣ w j ∣ a P\left(w_{j}\right)=\frac{1}{\sqrt{2 a}} \mathrm{e}^{-\frac{\left|w_{j}\right|}{a}} P(wj)=2a1e−a∣wj∣
则有:
log P ( w ) = log ∏ j p ( w j ) = log ∏ j [ 1 2 a e − ∣ w j ∣ a ] = − 1 a ∑ j ∣ w j ∣ + C \log P(w)=\log \prod_{j} p\left(w_{j}\right)=\log \prod_{j}\left[\frac{1}{\sqrt{2 a}} \mathrm{e}^{-\frac{\left|w_{j}\right|}{a}}\right]=-\frac{1}{a} \sum_{j}\left|w_{j}\right|+C logP(w)=log∏jp(wj)=log∏j[2a1e−a∣wj∣]=−a1∑j∣wj∣+C
可以看到,此时 l o g P ( ω ) logP(\omega) logP(ω)的效果等价于在代价函数中增加L1正则项.
这样能将数据限制在统一的分布下。利用公式表示就是针对每层的第k个神经元,计算这一批数据在第k个神经元的均值与标准差,然后将归一化后的值作为该神经元的激活值
x ^ k = x k − E [ x k ] var [ x k + ε ] \hat { x } _ { k } = \frac { x _ { k } - E \left[ x _ { k } \right] } { \sqrt { \operatorname { var } \left[ x _ { k } + \varepsilon \right] } } x^k=var[xk+ε]xk−E[xk]
Batch Normalization通过对数据分布进行额外的约束增强模型的泛化能力,同时由于破坏了之前学到的特征分布,从而也降低了模型的拟合能力。所以为了重构还原最优的输入数据分布:
y k = B N ( x k ) = γ x ^ k + β = γ x k − E [ x k ] var [ x k ] + ε + β y_{k}=B N\left(x_{k}\right)=\gamma \hat{x}_{k}+\beta=\gamma \frac{x_{k}-E\left[x_{k}\right]}{\sqrt{\operatorname{var}\left[x_{k}\right]+\varepsilon}}+\beta yk=BN(xk)=γx^k+β=γvar[xk]+εxk−E[xk]+β
其中 γ \gamma γ和 β \beta β为可训练参数
Dropout 可以避免过拟合,Dropout并不会改变损失函数而是修改网络结构本身。通过对神经网络中的神经元做随机删减,从而降低了网络的复杂度。Dropout在训练大型深度神经网络时非常有用。
运用dropout相当于训练了非常多个仅有部分隐层单元的神经网络,每个这种神经网络,都能够给出一个分类结果,这些结果有的是正确的,有的是错误的。随着训练的进行,大部分网络都能够给出正确的分类结果。
迭代截断主要是在模型对训练数据集迭代收敛之前停止迭代来防止过拟合。方法就是在训练的过程中,记录到目前为止最好的准确率,当连续n次Epoch没达到最佳准确率时,就可以停止迭代了。n可以根据实际情况取,如100、200等。
k-fold交叉验证是把训练样例分成k份,然后进行k次交叉验证过程,每次使用不同的一份样本作为验证集合,其余k-1份样本合并作为训练集合。每个样例会在一次实验中被用作验证样例,在k-1次实验中被用作训练样例。每次实验中,使用上面讨论的交叉验证过程来决定在验证集合上取得最佳性能的迭代次数,并选择恰当的参数。
机器学习中的大部分问题都是优化问题,而绝大部分优化问题都可以使用梯度下降法处理,其数学原理是函数沿梯度方向具有最大的效率,在优化的时候沿着负梯度的方向去减小函数的值:
gradf ( x 0 , x 1 , ⋯ , x n ) = ( ∂ f ∂ x 0 , ∂ f ∂ x 1 , ⋯ , ∂ f ∂ x n ) \operatorname{gradf}\left(x_{0}, x_{1}, \cdots, x_{n}\right)=\left(\frac{\partial f}{\partial x_{0}}, \frac{\partial f}{\partial x_{1}}, \cdots, \frac{\partial f}{\partial x_{n}}\right) gradf(x0,x1,⋯,xn)=(∂x0∂f,∂x1∂f,⋯,∂xn∂f)
沿着负梯度方向减小函数值用表达如下:
x 0 = x 0 − α ∂ f ∂ x 0 , x 1 = x 1 − α ∂ f ∂ x 1 , ⋯ , x n = x n − α ∂ f ∂ x n x_{0}=x_{0}-\alpha \frac{\partial f}{\partial x_{0}}, x_{1}=x_{1}-\alpha \frac{\partial f}{\partial x_{1}}, \cdots, x_{n}=x_{n}-\alpha \frac{\partial f}{\partial x_{n}} x0=x0−α∂x0∂f,x1=x1−α∂x1∂f,⋯,xn=xn−α∂xn∂f
以上公式就是执行了一次梯度下降,在算法中会重复直到收敛.
所以梯度下降是一种优化算法,通过迭代的方式寻找模型的最优参数;最优参数即指使目标函数达到最小值时的参数。如果目标函数是凸函数,那么梯度下降的解是全局最优解,不过在一般情况下,梯度下降无法保证全局最优。
标准梯度下降法每次都需要对所有训练样本的平均损失来更新参数,相当消耗计算资源. 于是大家常用的是随机梯度下降算法(SGD)或者小批量(batch值为32,46,128等).
随机梯度下降每次只采用单个样本来估计当前的梯度,并不稳定,最常用的是小批量梯度下降法.
动量算法:
g ← 1 m ∇ θ ∑ i L ( f ( x i ; θ ) , y i ) v t = a v t − 1 − ε g t θ t + 1 = θ t + v t \begin{gathered} g \leftarrow \frac{1}{m} \nabla_{\theta} \sum_{i} L\left(f\left(x_{i} ; \theta\right), y_{i}\right) \\ v_{t}=a v_{t-1}-\varepsilon g_{t} \\ \theta_{t+1}=\theta_{t}+v_{t} \end{gathered} g←m1∇θi∑L(f(xi;θ),yi)vt=avt−1−εgtθt+1=θt+vt
动量算法引入了变量v充当速度角色,以及相关的超参数 α \alpha α,其一般取0.5,0.9,0.99分别对应最大2倍,最大10倍和100倍的步长.
动量算法可以用来解决鞍点问题;也可以用于SGD加速,特别是针对高区率,小幅但是方向一致的梯度对象. 动量方法的训练过程更加稳定,同时在鞍点处因为惯性的作用,更因可能离开平缓的梯度部分.
随机梯度下降法每次更新的步长只是梯度乘以学习略,而动量算法的步长还取决于历史梯度序列的大小和排序,当若干连续的梯度方向相同时,步长会被不断增大.
NAG是对参数施加当前速度后才进行梯度计算的,这个设计让算法有了对前方环境的预判能力,换句话讲,NAG算法相当于在标准动量方法中添加了一个修正因子,并且在计算参数的梯度时,在损失函数中减去了动量项.
θ ^ = θ + a v g ← 1 m ∇ θ ^ ∑ i L ( f ( x i ; θ ^ ) , y i ) v t = a v t − 1 − ε g t θ t + 1 = θ t + v t \begin{gathered} \hat{\theta}=\theta+a v \\ g \leftarrow \frac{1}{m} \nabla_{\hat{\theta}} \sum_{i} L\left(f\left(x_{i} ; \hat{\theta}\right), y_{i}\right) \\ v_{t}=a v_{t-1}-\varepsilon g_{t} \\ \theta_{t+1}=\theta_{t}+v_{t} \end{gathered} θ^=θ+avg←m1∇θ^i∑L(f(xi;θ^),yi)vt=avt−1−εgtθt+1=θt+vt
学习率决定了参数空间搜索的步长,所以非常岁要,但也比较难设置.
ε n = ε δ + ∑ j = 1 n − 1 g i ⊙ g i \varepsilon_{n}=\frac{\varepsilon}{\delta+\sqrt{\sum_{j=1}^{n-1} g_{i} \odot g_{i}}} εn=δ+∑j=1n−1gi⊙giε
AdaGard更新参数的过程如下:
w t + 1 ← w t − η ∑ t = 0 t ( g i ) 2 g t w_{t+1} \leftarrow w_{t}-\frac{\eta}{\sqrt{\sum_{t=0}^{t}\left(g_{i}\right)^{2}}} g_{t} wt+1←wt−∑t=0t(gi)2ηgt
其中,KaTeX parse error: Undefined control sequence: \g at position 1: \̲g̲_t为参数的梯度.
RMSProp是AdaGrad算法的升级版,在非凸优化问题上表现很好,因为它使用指数衰减来处理历史信息,可以使得模型在找到凸结构后幻速收敛. RMSProp与AdaGrad的区别在于用来控制历史信息获取的衰减系数,算法的具体步骤如下:
迭代公式:
g ~ ← 1 m ∇ θ ∑ i L ( f ( x i ; θ ) , y i ) r ← ρ r + ( 1 − ρ ) g ~ ⊙ g ~ θ ← θ − ε δ + r ⊙ g ~ \begin{aligned} \tilde{g} \leftarrow & \frac{1}{m} \nabla_{\theta} \sum_{i} L\left(f\left(x_{i} ; \theta\right), y_{i}\right) \\ r \leftarrow \rho r+(1-\rho) \tilde{g} \odot \tilde{g} \\ & \theta \leftarrow \theta-\frac{\varepsilon}{\delta+\sqrt{r}} \odot \tilde{g} \end{aligned} g~←r←ρr+(1−ρ)g~⊙g~m1∇θi∑L(f(xi;θ),yi)θ←θ−δ+rε⊙g~
RMSProp可以解决AdaGrad在多隐层网络中过早结束训练的缺点,适合处理非平稳的目标,但同时也引入了新的超参数衰减系数,并且依旧依赖于全局学习率.
Adam(Adaptive Moment Estimation) 是常见的深度学习训练时使用的优化器. 相比于AdaGrad算法,Adam能让每次迭代的学习率处在一定范围内,因而比较稳定.
算法的具体过程:
需要预先设定的值:
(默认: ε = 0.001 , δ = 1 0 − 8 , ρ 1 = 0.9 , ρ 2 = 0.999 \varepsilon=0.001,\delta=10^{-8},\rho_1=0.9,\rho_2=0.999 ε=0.001,δ=10−8,ρ1=0.9,ρ2=0.999)
中间变量
迭代过程
g ~ ← 1 m ∇ θ ∑ i L ( f ( x i ; θ ) , y i ) s ← ρ 1 s + ( 1 − ρ ) g ~ r ← ρ 2 r + ( 1 − ρ 2 ) g ~ ⊙ g ~ θ ← θ − ε S 1 − ρ 1 δ + r 1 − ρ 2 ⊙ g ~ \begin{gathered} \tilde{g} \leftarrow \frac{1}{m} \nabla_{\theta} \sum_{i} L\left(f\left(x_{i} ; \theta\right), y_{i}\right) \\ s \leftarrow \rho_{1} s+(1-\rho) \tilde{g} \\ r \leftarrow \rho_{2} r+\left(1-\rho_{2}\right) \tilde{g} \odot \tilde{g} \\ \theta \leftarrow \theta-\varepsilon \frac{\frac{S}{1-\rho_{1}}}{\delta+\sqrt{\frac{r}{1-\rho_{2}}}} \odot \tilde{g} \end{gathered} g~←m1∇θi∑L(f(xi;θ),yi)s←ρ1s+(1−ρ)g~r←ρ2r+(1−ρ2)g~⊙g~θ←θ−εδ+1−ρ2r1−ρ1S⊙g~
优化算法的选择并没有绝对的原则,没有哪个算法具有绝对优势,应该根据具体任务来选择. 事实上在面对具体问题的时候可以将Adam和RMSProp都训练一次,比较结果差距,在选择恰当的优化器.
φ ( x ) = f ( x k ) + f ′ ( x k ) ( x − x k ) + 1 2 f ′ ′ ( x k ) ( x − x k ) 2 \varphi(x)=f\left(x_{k}\right)+f^{\prime}\left(x_{k}\right)\left(x-x_{k}\right)+\frac{1}{2} f^{\prime \prime}\left(x_{k}\right)\left(x-x_{k}\right)^{2} φ(x)=f(xk)+f′(xk)(x−xk)+21f′′(xk)(x−xk)2
由于求得是最值,由极值的必要条件可知, ϕ ( x ) \phi(x) ϕ(x)应该满足KaTeX parse error: Expected group after '^' at position 5: \phi^̲'(x)=0,即
f ′ ( x k ) + f ′ ′ ( x k ) ( x − x k ) = 0 f^{\prime}\left(x_{k}\right)+f^{\prime \prime}\left(x_{k}\right)\left(x-x_{k}\right)=0 f′(xk)+f′′(xk)(x−xk)=0
从而求得:
x = x k − f ′ ( x k ) f ′ ′ ( x k ) x=x_{k}-\frac{f^{\prime}\left(x_{k}\right)}{f^{\prime \prime}\left(x_{k}\right)} x=xk−f′′(xk)f′(xk)
于是,给定初始值 x 0 x_0 x0,就可以得到如下迭代式:
x k + 1 = x k − f ′ ( x k ) f ′ ′ ( x k ) k = 0 , 1 , ⋯ x_{k+1}=x_{k}-\frac{f^{\prime}\left(x_{k}\right)}{f^{\prime \prime}\left(x_{k}\right)} \quad k=0,1, \cdots xk+1=xk−f′′(xk)f′(xk)k=0,1,⋯
迭代式中的 d k = − H k − 1 ⋅ g k d_{k}=-H_{k}^{-1} \cdot g_{k} dk=−Hk−1⋅gk成为牛顿方向,下面给出完整的牛顿迭代算法:
由上可得梯度下降法与牛顿下降法最大区别是梯度下降法使用的梯度信息是一阶导数,而牛顿法除了一阶导数外,还会使用二阶导数的信息。
牛顿法的优点是收敛速度快,能用更少的迭代次数找到最优解,缺点是每一步都需要求解目标函数的Hessian矩阵的逆矩阵,计算量非常大。
直接记录分类错误的次数
最常用在SVM的最大间隔分类中,对可能的输出 t = ± 1 t=\pm 1 t=±1和分类器分数 y y y,预测值y的hinge loss定义如下:
L ( y ) = max ( 0.1 − t ∗ y ) L(y)=\max (0.1-t * y) L(y)=max(0.1−t∗y)
对于对数函数,由于其具有单调性,在求最优化问题时,结果与原始目标一致,在含有乘积的目标函数中(如极大似然函数),通过取对数可以转化为求和的形式,从而大大简化目标函数的求解过程
即真实值与预测值之差的平方和。通常用于线性模型中,如线性回归模型。
指数函数的特点是越接近正确结果误差越小,Adaboost算法即使用的指数损失目标函数。但是指数损失存在的一个问题是误分类样本的权重会指数上升,如果数据样本是异常点,会极大地干扰后面基本分类器学习效果。
首先定义凸集,如果x,y属于某个集合M,并且所有的 θ x + ( 1 − θ ) y \theta x + (1-\theta)y θx+(1−θ)y也属于M,那么M为一个凸集. 如果函数 f f f的定义域是凸集,并且满足:
f ( θ x + ( 1 − θ ) y ) ⩽ θ f ( x ) + ( 1 − θ ) f ( y ) f(\theta x+(1-\theta) y) \leqslant \theta f(x)+(1-\theta) f(y) f(θx+(1−θ)y)⩽θf(x)+(1−θ)f(y)
则该函数为凸函数. 上述条件还能推出更普适的结果.
f ( ∑ i = 1 k θ i x i ) ⩽ ∑ i = 1 k θ i f ( x i ) f\left(\sum_{i=1}^{k} \theta_{i} x_{i}\right) \leqslant \sum_{i=1}^{k} \theta_{i} f\left(x_{i}\right) f(∑i=1kθixi)⩽∑i=1kθif(xi)
∑ i = 1 k θ i = 1 , θ i ⩾ 0 \sum_{i=1}^{k} \theta_{i}=1, \theta_{i} \geqslant 0 ∑i=1kθi=1,θi⩾0
如果函数存在二阶导数且为正,或者多元函数的Hessian矩阵半正定则均为凸函数
解决方案包括:
数据采样分为上采样和下采样。上采样是将少量数据类别的数据重复复制使得各类别的比例维持在正常水平,不过这种方法容易导致过拟合,所以需要在生成新数据的时候加入较小的随机扰动。下采样则相反,从多数数据类中筛选出一部分从而使各类别数据比例维持在正常水平,但是容易丢失比较重要的信息,所以需要多次随机下采样。
数据合成是利用已有样本的特征相似性生成更多新的样本。
加权是通过对不同类别分类错误施加不同权重的代价,使得机器学习时更侧重样本较少且容易出错的样本。
当正负样本比例严重失衡时,采样和数据合成会导致原始数据的真实分布产生变化太大,从而导致模型训练结果并不能真正反映实际的情况,训练时会产生很大的偏差。那么此时可以用一分类的方法解决。例如One-class SVM,该算法利用高斯核函数将样本空间映射到核空间,在核空间中找到一个包含所有数据的高维球体。如果测试数据位于这个高维球体之中,则归为多数类,否则就归为少数类。
在物理学中,熵表示一个热力系统的无序程度
Δ S = Q T \Delta S=\frac{Q}{T} ΔS=TQ
其中Q是吸收或者释放的热量,T是温度
计算机领域将其定义为离散随机事件的出现概率。一个系统越是有序,信息熵就越低;反之,系统越是混乱,信息熵就越高。所以信息熵用来衡量系统有序化程度。
如果一个随机变量X的可能取值为 X = { x 1 , x 2 , … , x k } X=\left\{x_{1}, x_{2}, \ldots, x_{k}\right\} X={x1,x2,…,xk},概率分布为 P ( X = x i ) = p i ( i = 1 , 2 , … , n ) P\left(X=x_{i}\right)=p_{i}(i=1,2, \ldots, n) P(X=xi)=pi(i=1,2,…,n),则随机变量X的熵定义为
H ( X ) = − ∑ x p ( x ) log p ( x ) = ∑ x p ( x ) log 1 p ( x ) \begin{aligned} H(X) &=-\sum_{x} p(x) \log p(x) \\ &=\sum_{x} p(x) \log \frac{1}{p(x)} \end{aligned} H(X)=−x∑p(x)logp(x)=x∑p(x)logp(x)1
H ( X , Y ) = − ∑ x p ( x , y ) log p ( x , y ) H(X, Y)=-\sum_{x} p(x, y) \log p(x, y) H(X,Y)=−∑xp(x,y)logp(x,y)
H ( X ∣ Y ) = − ∑ x , y p ( x , y ) log p ( y ∣ x ) H(X \mid Y)=-\sum_{x, y} p(x, y) \log p(y \mid x) H(X∣Y)=−∑x,yp(x,y)logp(y∣x)
其含义是衡量在已知随机变量X的条件下随机变量Y的不确定性。
H ( X , Y ) − H ( X ) = − ∑ x p ( x , y ) log p ( x , y ) + ∑ x p ( x ) log p ( x ) = − ∑ x , y p ( x , y ) log p ( x , y ) + ∑ x , y p ( x , y ) log p ( x ) = − ∑ x , y p ( x , y ) log p ( x , y ) p ( x ) = − ∑ p ( x , y ) log p ( x ∣ y ) \begin{aligned} H(X, Y)-H(X) &=-\sum_{x} p(x, y) \log p(x, y)+\sum_{x} p(x) \log p(x) \\ &=-\sum_{x, y} p(x, y) \log p(x, y)+\sum_{x, y} p(x, y) \log p(x) \\ &=-\sum_{x, y} p(x, y) \log \frac{p(x, y)}{p(x)} \\ &=-\sum p(x, y) \log p(x \mid y) \end{aligned} H(X,Y)−H(X)=−x∑p(x,y)logp(x,y)+x∑p(x)logp(x)=−x,y∑p(x,y)logp(x,y)+x,y∑p(x,y)logp(x)=−x,y∑p(x,y)logp(x)p(x,y)=−∑p(x,y)logp(x∣y)
设 f ( x ) , g ( x ) f(x),g(x) f(x),g(x)是X中取值的两个概率分布,则 f f f对 g g g的KL散度是:
D ( f ∥ g ) = − ∑ x f ( x ) log f ( x ) g ( x ) = E f ( x ) log f ( x ) g ( x ) D(f \| g)=-\sum_{x} f(x) \log \frac{f(x)}{g(x)}=E_{f(x)} \log \frac{f(x)}{g(x)} D(f∥g)=−∑xf(x)logg(x)f(x)=Ef(x)logg(x)f(x)
两个随机变量X,Y的互信息定义为X,Y的联合分布和各自独立分布乘积的KL散度
I ( X , Y ) = ∑ x , y f ( x , y ) log f ( x , y ) f ( x ) f ( y ) I(X, Y)=\sum_{x, y} f(x, y) \log \frac{f(x, y)}{f(x) f(y)} I(X,Y)=∑x,yf(x,y)logf(x)f(y)f(x,y)
在定义完KL散度和互信息后,即得:H(Y)-I(X,Y)=H(Y|X),推导如下:
H ( Y ) − I ( X , Y ) = − ∑ y f ( x ) log f ( y ) − ∑ x , y f ( x , y ) log f ( x , y ) f ( x ) f ( y ) = − ∑ y ( ∑ x f ( x , y ) ) log f ( x ) − ∑ x , y f ( x , y ) log f ( x , y ) f ( x ) f ( y ) = − ∑ x f ( x , y ) log f ( x ) − ∑ x , y f ( x , y ) log f ( x , y ) f ( x ) f ( y ) = − ∑ f ( x , y ) log f ( y ∣ x ) = H ( Y ∣ X ) \begin{aligned} H(Y)-I(X, Y) &=-\sum_{y} f(x) \log f(y)-\sum_{x, y} f(x, y) \log \frac{f(x, y)}{f(x) f(y)} \\ &=-\sum_{y}\left(\sum_{x} f(x, y)\right) \log f(x)-\sum_{x, y} f(x, y) \log \frac{f(x, y)}{f(x) f(y)} \\ &=-\sum_{x} f(x, y) \log f(x)-\sum_{x, y} f(x, y) \log \frac{f(x, y)}{f(x) f(y)} \\ &=-\sum f(x, y) \log f(y \mid x)=H(Y \mid X) \end{aligned} H(Y)−I(X,Y)=−y∑f(x)logf(y)−x,y∑f(x,y)logf(x)f(y)f(x,y)=−y∑(x∑f(x,y))logf(x)−x,y∑f(x,y)logf(x)f(y)f(x,y)=−x∑f(x,y)logf(x)−x,y∑f(x,y)logf(x)f(y)f(x,y)=−∑f(x,y)logf(y∣x)=H(Y∣X)
用韦恩图表示,如图2-3所示,互信息I(X,Y)表示在Y给定下X的混乱程度的减少量,或Y给定下X的混乱程度的减少量。也就是Y或X信息增益。
图2-3中H(X,Y)表示联合熵,满足H(X,Y)=H(X)+H(Y|X)。另外可以看到,虽然信息增益互信息有等价关系,但熵与互信息的角度不同,前者侧重一个特征对象,后者侧重两两对象的关系。
在做数据挖掘时,变量之间信息的高度重叠和高度相关会给结果分析带来许多障碍。所以需要在削减变量的个数的同时尽可能避免信息丢失和信息不完整。
主成分分析的具体算法步骤已经在“特征工程”一节中展示过,其基本思想是将具有一定相关性的指标 x 1 , x 2 , … , x p x_1,x_2, …,x_p x1,x2,…,xp,重新组合成一组个数较少的互不相关的综合新指标。新指标应该既能最大程度反映原变量所代表的信息,又能保证新指标之间保持相互无关。
因子分析的基本思想是根据相关性大小把原始变量分组,使得同组内的变量之间相关性较高,而不同组的变量间的相关性则较低.原始变量进行分解后会得到公共因子和特殊因子。公共因子是原始变量中共同具有的特征,而特殊因子则是原始变量所特有的部分。
它们之间的区别如下:
1)主成分分析是从空间生成的角度寻找能解释诸多变量变异绝大部分的几组彼此不相关的主成分。而因子分析是寻找对变量起解释作用的公共因子和特殊因子,以及公共因子和特殊因子组合系数。
2)因子分析把变量表示成各因子的线性组合,而主成分分析中则把主成分表示成了各变量的线性组合。
3)主成分分析中不需要假设,因子分析有一些假设,例如公共因子和特殊因子之间不相关等。
4)主成分分析中,由于给定的协方差矩阵或者相关矩阵的特征值是唯一的,所以主成分一般是固定的;而因子分析可以通过旋转得到不同的因子。
贝叶斯定理会根据一件事发生的先验知识计算出它的后验概率。数学上,它表示为:一个条件样本发生的真正率占真正率和假正率之和的比例,即:
P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) P(A \mid B)=\frac{P(B \mid A) P(A)}{P(B)} P(A∣B)=P(B)P(B∣A)P(A)
最小风险贝叶斯决策的算法步骤描述如下:
在已知 P ( ω i ) , P ( X ∣ ω i ) , i = 1 , … , c P(ω_i),P(X|ω_i),i=1,…,c P(ωi),P(X∣ωi),i=1,…,c及给出待识别的 X X X的情况下,计算后验概率 P ( X ∣ ω P(X|ω P(X∣ωi)$。
利用计算出的后验概率及决策表,按下面的公式计算出采取 a j a_j aj的条件风险
R ( a i ∣ X ) = ∑ j = 1 c λ ( a i , ω j ) P ( ω j ∣ X ) R\left(a_{i} \mid X\right)=\sum_{j=1}^{c} \lambda\left(a_{i}, \omega_{j}\right) P\left(\omega_{j} \mid X\right) R(ai∣X)=∑j=1cλ(ai,ωj)P(ωj∣X)
此时则将 a k a_k ak称为最小风险贝叶斯决策.
例如,有一种病症,正常率为 p ( ω 1 ) = 0.9 p(\omega_1)=0.9 p(ω1)=0.9,发病率为 p ( ω 2 ) = 0.1 p(\omega _ 2)=0.1 p(ω2)=0.1 ,某人的检查结果为x,由概率曲线查出:
P ( x ∣ ω 1 ) = 0.2 , P ( x ∣ ω 2 ) = 0.4 P\left(x \mid \omega_{1}\right)=0.2, \quad P\left(x \mid \omega_{2}\right)=0.4 P(x∣ω1)=0.2,P(x∣ω2)=0.4
风险代价矩阵为:
L = [ L 11 L 12 L 21 L 22 ] = [ 0 6 1 0 ] L=\left[\begin{array}{ll} L_{11} & L_{12} \\ L_{21} & L_{22} \end{array}\right]=\left[\begin{array}{ll} 0 & 6 \\ 1 & 0 \end{array}\right] L=[L11L21L12L22]=[0160]
下面分别通过计算贝叶斯最小错误概率和贝叶斯最小风险的方式判别 x x x是 ω 1 \omega_1 ω1还是 ω 2 \omega_2 ω2
基于最小错误率的贝叶斯决策是利用概率论中的贝叶斯公式,得出使得错误率最小的分类规则。而基于最小风险的贝叶斯决策,引入了损失函数,得出使决策风险最小的分类。当在0-1损失函数条件下,基于最小风险的贝叶斯决策变成基于最小错误率的贝叶斯决策。
用贝叶斯最小错误概率计算如下:
P ( ω 1 ∣ x ) ∝ P ( ω 1 ) P ( x ∣ ω 2 ) P ( ω 2 ∣ x ) ∝ P ( ω 2 ) P ( x ∣ ω 2 ) \begin{aligned} &P\left(\omega_{1} \mid x\right) \propto P\left(\omega_{1}\right) P\left(x \mid \omega_{2}\right) \\ &P\left(\omega_{2} \mid x\right) \propto P\left(\omega_{2}\right) P\left(x \mid \omega_{2}\right) \end{aligned} P(ω1∣x)∝P(ω1)P(x∣ω2)P(ω2∣x)∝P(ω2)P(x∣ω2)
由于:
l = P ( x ∣ ω 1 ) P ( x ∣ ω 2 ) = 1 2 > P ( ω 2 ) P ( ω 1 ) = 1 9 l=\frac{P\left(x \mid \omega_{1}\right)}{P\left(x \mid \omega_{2}\right)}=\frac{1}{2}>\frac{P\left(\omega_{2}\right)}{P\left(\omega_{1}\right)}=\frac{1}{9} l=P(x∣ω2)P(x∣ω1)=21>P(ω1)P(ω2)=91
所以, x ∈ ω 1 x \in \omega_{1} x∈ω1
用于计算贝叶斯最小风险的方式:
r j ( x ) = ∑ i = 1 2 L i j P ( x ∣ ω i ) P ( ω i ) , j = 1 , 2 r_{j}(x)=\sum_{i=1}^{2} L_{i j} P\left(x \mid \omega_{i}\right) P\left(\omega_{i}\right), j=1,2 rj(x)=∑i=12LijP(x∣ωi)P(ωi),j=1,2
由于:
l ′ = P ( x ∣ ω 1 ) P ( x ∣ ω 2 ) = 1 2 > P ( ω 2 ) P ( ω 1 ) L 21 − L 22 L 12 − L 11 = 1 54 l^{\prime}=\frac{P\left(x \mid \omega_{1}\right)}{P\left(x \mid \omega_{2}\right)}=\frac{1}{2}>\frac{P\left(\omega_{2}\right)}{P\left(\omega_{1}\right)} \frac{L_{21}-L_{22}}{L_{12}-L_{11}}=\frac{1}{54} l′=P(x∣ω2)P(x∣ω1)=21>P(ω1)P(ω2)L12−L11L21−L22=541
所以 x ∈ ω 1 x \in \omega_{1} x∈ω1
.
先不要什么结语,因为很多地方还没有写实现代码.后续会在这个基础上更新的. 祝好!