我们都见过或者用过的一个东西就是输入法的手写键盘,如下面的动图所示,那么输入法是如何识别出我们手写的字迹是什么字的呢?这是一个对人而言非常简单(前提是你写的字体不过于潦草),但是对于程序而言,可能就没有那么简单了,这次我就从一个更简单的角度来试一下,如何去识别手写的数字。 1
我们在前面的文章中提到了贝叶斯定理,公式表示如下
P ( y ∣ x ) = P ( x , y ) p ( x ) = P ( x ∣ y ) P ( y ) P ( x ) = P ( x ∣ y ) P ( y ) ∑ y ∈ Y P ( x ∣ y ) P ( y ) P(y|x)= \frac{P(x,y)}{p(x)} = \frac {P(x|y)P(y)} {P(x)} = \frac {P(x|y)P(y)} {\sum_{y \in Y} P(x|y)P(y)} P(y∣x)=p(x)P(x,y)=P(x)P(x∣y)P(y)=∑y∈YP(x∣y)P(y)P(x∣y)P(y)
并从中得出了这样的结论:
贝叶斯定理可以精确的说明在已知新证据 x x x 的情况下,我们应该改变多少关于 y y y 的信念,这个等式中, P ( y ) P(y) P(y) 是新证据 x x x 出现之前我对于 y y y 的先验信念。 P ( x ∣ y ) P(x|y) P(x∣y) 是在 y y y 确定的前提下,得到证据 x x x 的可能性。 P ( y ∣ x ) P(y|x) P(y∣x) 是在考虑新证据后我对于 y y y 的后验信念。
而朴素贝叶斯(Naive Bayes)法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布,然后基于学习到模型,对于新的输入 x x x ,利用贝叶斯定理求出后验概率最大的输出 y y y ,朴素贝叶斯法实现简单,学习和预测的效率也非常高,是一种很常用的分类方法。
朴素贝叶斯法如何用于分类工作呢?这里用更加数学的语言,可以表述如下:
首先设输入空间 $\mathcal{X} \subseteq R^n $ 为 n 维向量的集合,输出空间为类标记集合 Y = { c 1 , c 2 , ⋯ , c k } \mathcal{Y} = \{c_1, c_2, \cdots , c_k\} Y={c1,c2,⋯,ck},其中输入为特征向量 x ∈ X x \in \mathcal{X} x∈X,输出为类标记(class label) y ∈ Y y \in \mathcal{Y} y∈Y .则 $ P(X, Y) $ 是 X X X 和 Y Y Y 的联合概率分布.
其次训练数据集表示为:
T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x N , y N ) } T = \{(x_1, y_1), (x_2, y_2), \cdots, (x_N, y_N) \} T={(x1,y1),(x2,y2),⋯,(xN,yN)}
由 $P(X, Y) $ 独立同分布产生.
最后由朴素贝叶斯法通过上述训练数据集学习到联合概率分布 $P(X, Y) $ ,由条件概率公式可以知道只需要学习到如下的先验概率分布:
P ( Y = c k ) , k = 1 , 2 , ⋯ , K P(Y = c_k), k=1,2,\cdots, K P(Y=ck),k=1,2,⋯,K
以及条件概率分布:
P ( X = x ∣ Y = c k ) = P ( X ( 1 ) = x ( 1 ) , ⋯ , X ( n ) = x ( n ) ∣ Y = c k ) P(X = x \mid Y = c_k) = P(X^{(1)} = x^{(1)}, \cdots, X^{(n)} = x^{(n)} \mid Y = c_k) P(X=x∣Y=ck)=P(X(1)=x(1),⋯,X(n)=x(n)∣Y=ck)
二者相乘即可得到联合概率分布。
但是,事实上,从我们学到的条件概率分布的知识可以知道,$P(X = x \mid Y = c_k) $ 是一个具有指数级数量的参数,一旦训练集稍微具有规模,那么这个概率分布都是无法估计的。而机器学习中,训练集的规模化显然是不可避免的。
那么现在我们明显已经知道通过学习上述两个概率分布,可以得到我们想要的联合概率分布,从而得到训练模型,然而其中条件概率分布计算的不可行性却让我们止步不前。
在这样一个尴尬的时候,朴素贝叶斯法站出来为我们解围了,它提出了一个非常强的假设,就是假设条件概率分布是特征条件独立的,因此朴素贝叶斯,也就朴素在这里:他的假设太强,强到改变了理论上计算的规则。
具体的,条件独立性假设是:
P ( X = x ∣ Y = c k ) = P ( X ( 1 ) = x ( 1 ) , ⋯ , X ( n ) = x ( n ) ∣ Y = c k ) = ∏ j = 1 n P ( X ( j ) = x ( j ) ∣ Y = c k ) (1) P(X = x \mid Y = c_k) = P(X^{(1)} = x^{(1)}, \cdots, X^{(n)} = x^{(n)} \mid Y = c_k) \\ = \prod^{n}_{j=1}P(X^{(j)} = x^{(j)} \mid Y=c_k) \tag{1} P(X=x∣Y=ck)=P(X(1)=x(1),⋯,X(n)=x(n)∣Y=ck)=j=1∏nP(X(j)=x(j)∣Y=ck)(1)
这个假设等于是说用于分类的特征在类别确定的条件下都是条件独立的,这一假设使得条件概率的计算变得异常简单,但是显然也牺牲了一定的准确率,因为一般情况下特征并不都是独立的而是有关联的。
通过上述学习到模型,就可以计算后验概率分布 P ( Y = c k ∣ X = x ) P(Y = c_k \mid X = x) P(Y=ck∣X=x),将后验概率最大的类别作为要预测的样本 x x x 的输出。后验概率的计算依据贝叶斯定理进行:
P ( Y = c k ∣ X = x ) = P ( X = x ∣ Y = c k ) P ( Y = c k ) ∑ k P ( X = x ∣ Y = c k ) P ( Y = c k ) (2) P(Y = c_k \mid X = x) = \frac{P(X=x\mid Y=c_k) P(Y=c_k)}{\sum_k P(X=x\mid Y=c_k) P(Y=c_k)} \tag{2} P(Y=ck∣X=x)=∑kP(X=x∣Y=ck)P(Y=ck)P(X=x∣Y=ck)P(Y=ck)(2)
将 2 式代入 1 式,得到:
P ( Y = c k ∣ X = x ) = P ( Y = c k ) ∏ j P ( X ( j ) = x ( j ) ∣ Y = c k ) ∑ k P ( Y = c k ) ∏ j P ( X ( j ) = x ( j ) ∣ Y = c k ) P(Y = c_k \mid X = x) = \frac{P(Y=c_k) \prod_{j}P(X^{(j)} = x^{(j)} \mid Y=c_k)}{\sum_k P(Y=c_k) \prod_{j}P(X^{(j)} = x^{(j)} \mid Y=c_k)} P(Y=ck∣X=x)=∑kP(Y=ck)∏jP(X(j)=x(j)∣Y=ck)P(Y=ck)∏jP(X(j)=x(j)∣Y=ck)
所以,贝叶斯分类器可以表示为:
y = f ( x ) = arg max c k P ( Y = c k ) ∏ j P ( X ( j ) = x ( j ) ∣ Y = c k ) ∑ k P ( Y = c k ) ∏ j P ( X ( j ) = x ( j ) ∣ Y = c k ) y=f(x)= \arg \max_{c_k} \frac{P(Y=c_k) \prod_{j}P(X^{(j)} = x^{(j)} \mid Y=c_k)}{\sum_k P(Y=c_k) \prod_{j}P(X^{(j)} = x^{(j)} \mid Y=c_k)} y=f(x)=argckmax∑kP(Y=ck)∏jP(X(j)=x(j)∣Y=ck)P(Y=ck)∏jP(X(j)=x(j)∣Y=ck)
上式因为分母对所有 c k c_k ck 都是相同的,所以:
y = arg max c k P ( Y = c k ) ∏ j P ( X ( j ) = x ( j ) ∣ Y = c k ) y = \arg \max_{c_k} P(Y=c_k) \prod_{j}P(X^{(j)} = x^{(j)} \mid Y=c_k) y=argckmaxP(Y=ck)j∏P(X(j)=x(j)∣Y=ck)
这就是朴素贝叶斯分类器的最简形式,从这个式子可以看出来,朴素贝叶斯分类器本质上是根据先验概率及条件概率求最大化的后验概率,从而推断类别。
在上面所说的朴素贝叶斯法中,训练学习意味着估计先验概率 P ( Y = c k ) P(Y=c_k) P(Y=ck) 和条件概率 P ( X ( j ) = x ( j ) ∣ Y = c k ) P(X^{(j)} = x^{(j)} \mid Y=c_k) P(X(j)=x(j)∣Y=ck),这可以应用极大似然估计来估计相应的概率,其中先验概率的极大似然估计是:
P ( Y = c k ) = ∑ i = 1 N I ( y i = c k ) N , k = 1 , 2 , ⋯ , K P(Y=c_k) = \frac{\sum^{N}_{i=1} I(y_i=c_k)}{N} ,k = 1,2,\cdots,K P(Y=ck)=N∑i=1NI(yi=ck),k=1,2,⋯,K
设第 j 个特征 x j x^{j} xj 可能的取值的集合为 ,则条件概率的极大似然估计为:
P ( X ( j ) = a j l ∣ Y = c k ) = ∑ i = 1 N I ( x i ( j ) = a j l , y i = c k ) ∑ i = 1 N I ( y i = c k ) (3) P(X^{(j)} = a_{jl} \mid Y=c_k) = \frac{\sum^{N}_{i=1} I (x_i^{(j)} = a_{jl}, y_i = c_k)}{\sum^{N}_{i=1}I (y_i=c_k)} \tag{3} P(X(j)=ajl∣Y=ck)=∑i=1NI(yi=ck)∑i=1NI(xi(j)=ajl,yi=ck)(3)
因为用极大似然估计可能会出现所要估计的概率值为 0 的情况,这就会导致后续的计算出现错误,使得分类出现偏差,解决这个问题的方法就是使用贝叶斯估计,即是平滑处理估计结果,条件概率的贝叶斯估计是:
P ( X ( j ) = a j l ∣ Y = c k ) = ∑ i = 1 N I ( x i ( j ) = a j l , y i = c k ) + λ ∑ i = 1 N I ( y i = c k ) + S j λ (3) P(X^{(j)} = a_{jl} \mid Y=c_k) = \frac{\sum^{N}_{i=1} I (x_i^{(j)} = a_{jl}, y_i = c_k) + \lambda}{\sum^{N}_{i=1}I (y_i=c_k) + S_j\lambda} \tag{3} P(X(j)=ajl∣Y=ck)=∑i=1NI(yi=ck)+Sjλ∑i=1NI(xi(j)=ajl,yi=ck)+λ(3)
其中 λ ≥ 0 \lambda \geq 0 λ≥0,等价于给随机变量的各个取值的频数加上一个正数 λ > 0 \lambda > 0 λ>0 常取 λ = 1 \lambda = 1 λ=1,称为拉普拉斯平滑。
有了上面的基础,那么处理手写数字识别上面就变得很简单了,整个处理的步骤分为:
这里我们取现成的 mnist 数据集 2 ,首先数据集下载下来的是特殊格式的压缩包,其中训练集的图片包和标签包格式如下:
可以看出在 train-images.idx3-ubyte 中,第一个数为 32 位的整数(魔数,图片类型的数),第二个数为32位的整数(图片的个数),第三和第四个也是 32 位的整数(分别代表图片的行数和列数),接下来的都是一个字节的无符号数(即像素,值域为0~255),因此,我们只需要依次获取魔数和图片的个数,然后获取图片的长和宽,最后逐个按照图片大小的像素读取就可以得到一张张的图片内容了。标签数据集及测试数据集的的数据读取都是一样的原理。
读取训练图片集并将图片存储成图片,读取标签集的代码实现代码如下:
# -*- coding: utf-8 -*-
from PIL import Image
import struct
def read_image(filename):
f = open(filename, 'rb')
index = 0
buf = f.read()
f.close()
// 开始读取 魔数、图片数目、图片行数、列数
magic, images, rows, columns = struct.unpack_from('>IIII', buf, index)
index += struct.calcsize('>IIII')
for i in range(images):
# 逐个读取图片,每个图片字节数为 行数X列数
image = Image.new('L', (columns, rows))
for x in range(rows):
for y in range(columns):
# 读取并填充图片的像素值,每个像素值为一个字节
image.putpixel((y, x), int(struct.unpack_from('>B', buf, index)[0]))
index += struct.calcsize('>B')
print('save ' + str(i) + 'image')
image.save('train/' + str(i) + '.png')
def read_label(filename, saveFilename):
f = open(filename, 'rb')
index = 0
buf = f.read()
f.close()
# 开始读取 魔数及标签数目
magic, labels = struct.unpack_from('>II', buf, index)
index += struct.calcsize('>II')
labelArr = [0] * labels
for x in range(labels):
# 一个标签一个字节
labelArr[x] = int(struct.unpack_from('>B', buf, index)[0])
index += struct.calcsize('>B')
save = open(saveFilename, 'w')
save.write(','.join([str(x) for x in labelArr]))
save.write('\n')
save.close()
print('save labels success')
return labelArr
if __name__ == '__main__':
read_image('train-images.idx3-ubyte')
read_label('train-labels.idx1-ubyte', 'train/label.txt')
读取到图片之后,存储的结果如下:
为了将图片变成更易为计算机接受的形式,这里需要将图片二值化,即是只包含0和1的图片表现形式,即是下面这样的矩阵,其方法是超过一定像素值的点标记为 1,否则为 0:
可以隐约看出一个 5 的形状。
这里为了方便继续处理图片特征,将这个 28 *28 的矩阵进行 reshape 操作,将一幅图展开为行向量。因此整个训练集()60000张图片)就变成了一个大小为 60000×784 的矩阵,之后尽量进行矩阵操作。
同时为了方便标记,将每行向量表示的数字写在最后一列,因此整个矩阵的大小为 60000×785。
并为了后续数据操作的方便,将这个矩阵存在本地的CSV文件中,代码及结果如下:
N = 28
def get_train_set():
f = open('data.csv', 'wb')
category = MR.read_label('train-labels.idx1-ubyte', 'train/label.txt')
file_names = os.listdir(r"./train/", )
train_picture = np.zeros([len(file_names)-1, N ** 2 + 1])
# 遍历文件,转为向量存储
for file in range(len(file_names)-1):
img_num = io.imread('./train/%d.png' % (file))
rows, cols = img_num.shape
for i in range(rows):
for j in range(cols):
if img_num[i, j] < 100:
img_num[i, j] = 0
else:
img_num[i, j] = 1
train_picture[file, 0:N ** 2] = img_num.reshape(N ** 2)
train_picture[file, N ** 2] = category[file]
print("完成处理第%d张图片" % (file+1))
np.savetxt(f,train_picture,fmt='%d',delimiter=',', newline='\n', header='', footer='')
f.close()
time_e = time.time()
print('process data train cost ', time_e - time_0, ' seconds', '\n')
return train_picture
处理测试数据也是一样的原理。
从第一部分我们可以了解到,要求后验概率的本质是求在类别为 j 的条件下,样本 x 的第 i 个特征出现的条件概率的,将所有特征的概率与该类别的先验概率作连乘即得到后验概率。
因此,重点是计算类别的先验概率和在类别为 j 的条件下,样本 x 的第 i 个特征出现的条件概率,这也就是我们要训练的模型,代码如下:
def Train():
conditional_probability = np.zeros((class_num, feature_len, 2)) # 条件概率
# 计算先验概率及条件概率
for i in range(len(labels)):
img = data_map[i, :]
label = labels[i]
for j in range(feature_len):
conditional_probability[label][j][img[j]] += 1
# 将概率归到[1.1001]
for i in range(class_num):
for j in range(feature_len):
# 经过二值化后图像只有0,1两种取值
pix_0 = conditional_probability[i][j][0]
pix_1 = conditional_probability[i][j][1]
# 计算0,1像素点对应的条件概率
probalility_0 = (float(pix_0)/float(pix_0+pix_1))*1000 + 1
probalility_1 = (float(pix_1)/float(pix_0+pix_1))*1000 + 1
conditional_probability[i][j][0] = probalility_0
conditional_probability[i][j][1] = probalility_1
return conditional_probability
其中部分说明如下:
由于 Python 浮点数精度的原因,784个浮点数联乘后结果变为 Inf,而 Python 中 int 可以无限相乘的,因此可以利用python int 数据类型的特性对先验概率与条件概率进行一些改造。
先验概率: 由于先验概率分母都是 N,因此不用除于 N,直接用分子即可。
条件概率: 条件概率公式如上说明济代码所示,我们得到概率后再乘以1000000 (最小的可能性为1/784,同时需要尽量保存概率精度,这里保存到白万分之一,因此乘以1000000),将概率映射到[0,1000000]中,但是为防止出现概率值为0的情况,人为的加上1,使概率映射到[1,1000001]中。3
模型预测的方法就是根据上面训练出来的朴素贝叶斯模型,对任一个新的样本 x ,分别计算它是类别 j 的条件下的后验概率,取最大后验概率的类别即可。
代码如下:
# 计算概率
def calculate_probability(img, label):
probability = int(prior_probability[label])
for i in range(len(img)):
probability *= int(conditional_probability[label][i][img[i]])
return probability
def Predict(testset, test_labels):
predict = []
accuracy = []
right = 0
rows, cols = testset.shape
for row in range(rows):
# 图像二值化
img = testset[row, :]
max_label = 0
max_probability = calculate_probability(img, 0)
for j in range(1, 10):
probability = calculate_probability(img, j)
if max_probability < probability:
max_label = j
max_probability = probability
predict.append(max_label)
if max_label == test_labels[row]:
right += 1
if (row+1) % 500 == 0:
accuracy.append(float(right)/(row+1))
return float(right)/len(test_labels), np.array(predict), accuracy
以上就是这次朴素贝叶斯法的理论及实战啦。
下次是 K 近邻算法在手写识别上的应用。
李航《统计学习方法》第四章 ↩︎
THE MNIST DATABASE ↩︎
李航《统计学习方on实现朴素贝叶斯分类器(MNIST数据集)](https://blog.csdn.net/wds2006sdo/article/details/51967839) ↩︎
用朴素贝叶斯法对MNIST数据集分类 ↩︎