贝叶斯要解决的问题: 如何计算逆向概率
正向概率:已知袋子里有 M 个黑球, N 个白球,摸一个球摸出黑球的概率是多大?
逆向概率:一个未知的袋子里有一些黑球和白球,随机摸出一个或者好几个球,观察摸出的球可以对袋子里的黑球白球的比例做出什么样的推测?
举一个更形象的例子:
已知学校中的60%的人是男生,40%的人是女生,其中男生总是穿着长裤,女生则一半穿长裤,一半穿裙子
正向概率:随机选择一个男生或者女生,他/她穿长裤/裙子的概率是多少?
逆向概率:迎面走来一个穿着长裤的人,不能确定ta的性别,你能推断出ta是男生/女生的概率是多少?
条件概率的公式为 P(X|Y)
,表示在已知 Y 情况下 X 发生的概率
所以对于正向概率,即我们已知男生女生,只需要根据题目中的概率直接就可以计算穿长裤和穿裙子的概率:
对于逆向概率,我们想求的是 P(男生|穿长裤)
和 P(女生|穿长裤)
,这并不好直接计算
贝叶斯公式有一个推导式: P(X|Y) = P(XY)/P(Y)
,所以这个问题可以转化为 P(男生并且穿长裤)/P(穿长裤)
和 P(女生并且穿长裤)/P(穿长裤)
这时分子分母都是可以计算的式子. 假设总人数 N ,穿长裤的人数为 N*P(男)*1+N*P(女生)*0.5
,男生并且穿长裤的人数为 N*P(男)*1
,女生并且穿长裤的人数为N*P(女)*0.5
,上下相除 N 被约掉
我们可以将分子的 P(XY)
分解, 等价于 P(Y|X)*P(X)
,具体来说就是P(男生并且穿长裤) = P(穿长裤|男生)*P(男生)
所以我们在求逆向概率的时候得到了一个神奇的变换:
贝叶斯公式就是在计算逆向概率的时候我们遇到一个不好直接求的条件概率,但是如果我们便于计算其反过来的条件概率,变换之后就很容易计算了
计算中我们注意到一个问题,就是这个情况下只有男生女生两类,也就是说穿长裤的不是男生就是女生,所以P(穿长裤) = P(穿长裤|男生)*P(男生) + P(穿长裤|女生)*P(女生)
,分解一个大的概率P(X)
,它可以由几种情况组成,我们可以写成公式
接下来考虑一个更为复杂也更为实际的情况.如何判断一封邮件是否是垃圾邮件?也就是说我们需要求出 P(垃圾邮件|邮件内容)
,很显然这个概率明显不好求. 我们使用贝叶斯公式
P(垃圾邮件|邮件内容) = P(垃圾邮件和邮件内容) / P(邮件内容) = P(邮件内容|垃圾邮件) * P(垃圾邮件) / P(邮件内容)
其中最后的 P(邮件内容)
对结果并没有影响,因为P(正常邮件|邮件内容)的分母也有此项,可以认为是一个常数,也就是说 P(垃圾邮件|邮件内容) 正相关于 P(邮件内容|垃圾邮件) * P(垃圾邮件)
所以现在我们将判断一封邮件是否是垃圾邮件这个问题的概率转化为 P(垃圾邮件) * P(邮件内容|垃圾邮件)
,那么怎么求求这两个的概率呢?
这一部分的概率称为先验概率,先验概率prior probability
是指根据以往经验和分析得到的概率,比如P(硬币正面朝上)=0.5,可以认为是根据大数定律,频率趋近于概率,也就是说我们找足够多的数据样本(10万封邮件或者更多),那么其中垃圾邮件出现的频率(6万次)就可以认为是P(垃圾邮件) = 6/10 = 0.6
,这一部分的概率是根据一个巨大先验集(训练集)来确定的
另一部分就是垃圾邮件中邮件内容出现的概率了,显然不可能完整的计算整封邮件内容,考虑到一封邮件是由词 ABCD... 组成,这个概率可以被拆开,
正常情况下一封邮件的每一个词之间都是有前后文关联的,"我喜欢打篮球"和"喜欢打蓝我球"显然是不同的语义,这个概率应该被写作
P(邮件内容|垃圾邮件) = P(A|垃圾邮件) * P(B|A,垃圾邮件) * P(C|B,A,垃圾邮件) ....
也就是说每一个词出现的概率都需要计算前面的词已经出现的过的概率,这个计算量是巨大的.朴素贝叶斯的思想就是体现在这里,假设每个特征之间是相互独立的. "我喜欢打篮球"和"喜欢打蓝我球",只要是这五个字的排列组合我都认为是同一种情况没有区别,这大大减少了计算量
P(邮件内容|垃圾邮件) = P(A|垃圾邮件) * P(B|垃圾邮件) * P(C|垃圾邮件) ...
也就是我们只需要统计出先验集(训练集)的垃圾邮件中邮件内容的每个词出现的概率就可以了,这时会产生一个问题,如果这个词没有出现过那该怎么做呢?
对于一个从未见过的词,在训练集中没有对应的概率值, P(X|垃圾邮件) = 0 ? ,这显然是不合适的,因为我们计算概率 P(邮件内容|垃圾邮件)的时候需要把每个词的概率相乘.某一项为0显然是我们不希望看到的结果.
而这个错误的造成是由于训练量不足,会令分类器质量大大降低。为了解决这个问题,我们引入 Laplace校准
(拉普拉斯平滑),它的思想非常简单,就是对每个类别下所有划分的计数加1,这样如果训练样本集数量充分大时,并不会对结果产生影响,并且解决了上述频率为0的尴尬局面
举个例子: 如果垃圾邮件中有 2个"售",3个"买",...,现在的词是"购",在原数据集中并没有出现,那么对于垃圾邮件中每个词数量加一,变为3个"售",4个"买",1个"购"....,这样每个类都加了一个当数据集足够大时基本没什么影响.
素贝叶斯分类的优缺点
优点:
缺点:
在垃圾邮件分类中,比较常用的数据集
使用email数据集
python main.py --email
使用搜狗数据集
python main.py --sougou
import os
from utils import *
from collections import defaultdict
import argparse
from time import sleep
import math
from dataset import *
stop_word_set = [',', '.', ':', ';', '(', ')', '[', ']',
'{', '}', '<', '>', '/', '\\', '|', '?'
, '!', '@', '#', '$', '%', '^', '&', '*',
'~', '`', '+', '=', '_', '-', '\n', '\t', '\r', ' ']
stop_word_dir = 'dataset\\SogouC\\stopwords_cn.txt'
with open(stop_word_dir, 'r', encoding='utf-8', errors='ignore') as f:
stop_word_set_cn = f.read().split('\n')
def delete_stop_word(word, type='cn'):
for stop_word in stop_word_set:
word = word.replace(stop_word, '')
for number in ['0', '1', '2', '3', '4', '5', '6', '7', '8', '9']:
word = word.replace(number, '')
if type == 'cn':
for i in range(26):
word = word.replace(chr(ord('a') + i), '')
word = word.replace(chr(ord('A') + i), '')
word = word.replace(' ', '')
# remove chinese character
for c in ['。', ',', ':', ';', '(', ')', '【', '】',
'{', '}', '<', '>', '/', '\\', '|', '?', '!',
'@', '#', '$', '%', '^', '&', '*', '~', '`', '+', '=', '_', '-', '、']:
word = word.replace(c, '')
return word
def load_text(file_path, file_type='en', total=False):
with open(file_path, 'r', encoding='utf-8', errors='ignore') as f:
if total:
return f.read()
content = f.read().replace(' ', '')
return delete_stop_word(content, file_type)
def main(args):
LANGUAGE = 'en'
if args.email:
LANGUAGE = 'en'
print('naive bayes classifier for email in english')
dataset,test_set = build_email_dataset(language=LANGUAGE)
elif args.sougou:
LANGUAGE = 'cn'
print('naive bayes classifier for sougou in chinese')
dataset,test_set = build_sougou_dataset(language=LANGUAGE)
else :
print('please specify the dataset')
return
total = 0
correct = 0
for file_path in test_set:
words = load_text(file_path,LANGUAGE,total=True)
print('-'*50)
print(words)
print('-'*50)
true_label = test_set[file_path]
naive_bayes_label = calculate_naive_bayes(dataset,load_text(file_path,LANGUAGE))
print('true label:',true_label)
print('naive bayes label:',naive_bayes_label)
if naive_bayes_label == true_label:
correct += 1
total += 1
print(f'accuracy: {100*correct/total} %')
def calculate_naive_bayes(dataset,words):
possibility = {}
for class_name,category_cnt in dataset['category_cnt'].items():
possibility[class_name] = math.log(category_cnt/dataset['total_cnt'])
class_names = dataset['category_cnt'].keys()
for word in words:
for class_name in class_names:
total_word_number = sum(dataset[class_name].values())
if word in dataset[class_name].keys():
possibility[class_name] += math.log((dataset[class_name][word]+1)/(total_word_number+len(dataset[class_name])))
else:
possibility[class_name] += math.log(1/(total_word_number+len(dataset[class_name])+1))
print(possibility)
label = max(possibility,key=possibility.get)
return label
def build_email_dataset(language,root_dir = "dataset\\email"):
dataset = {}
category_cnt = {
'ham':0,
'spam':0
}
ham_dir = os.path.join(root_dir, 'ham')
spam_dir = os.path.join(root_dir, 'spam')
ham_vocabulary = defaultdict(int)
spam_vocabulary = defaultdict(int)
for file_name in os.listdir(ham_dir)[:-5]:
category_cnt['ham'] += 1
words = load_text(os.path.join(ham_dir,file_name),language)
for word in words:
if word.startswith('http') or word.startswith('www'):
continue
ham_vocabulary[word]+=1
for file_name in os.listdir(spam_dir)[:-5]:
#print('processing spam file:', file_name)
category_cnt['spam'] += 1
words = load_text(os.path.join(spam_dir,file_name),language)
for word in words:
if word.startswith('http') or word.startswith('www'):
continue
spam_vocabulary[word]+=1
dataset['ham'] = ham_vocabulary
dataset['spam'] = spam_vocabulary
dataset['category_cnt'] = category_cnt
dataset['total_cnt'] = sum(category_cnt.values())
test_set = {}
for file_name in os.listdir(ham_dir)[-5:]:
file_name = os.path.join(ham_dir,file_name)
test_set[file_name] = 'ham'
for file_name in os.listdir(spam_dir)[-5:]:
file_name = os.path.join(spam_dir,file_name)
test_set[file_name] = 'spam'
return dataset, test_set
def build_sougou_dataset(language, root_dir = "dataset\\SogouC"):
dataset = {}
category_cnt = {}
test_set = {}
classlist_path = os.path.join(root_dir, 'ClassList.txt')
data_path = os.path.join(root_dir,'Sample')
with open(classlist_path,'r',encoding='utf-8') as f:
lines = f.readlines()
for line in lines:
class_dir, class_name = line.strip('\n').split('\t')
dataset[class_name] = defaultdict(int)
category_cnt[class_name] = 0
for file_name in os.listdir(os.path.join(data_path,class_dir))[:-1]: # use the last file as test set
category_cnt[class_name] += 1
words = load_text(os.path.join(data_path,class_dir,file_name),language)
for word in words:
dataset[class_name][word]+=1
last_file = os.listdir(os.path.join(data_path,class_dir))[-1]
last_file = os.path.join(data_path,class_dir,last_file)
test_set[last_file] = class_name
dataset['category_cnt'] = category_cnt
dataset['total_cnt'] = sum(category_cnt.values())
return dataset, test_set
if __name__ == '__main__':
parser = argparse.ArgumentParser()
parser.add_argument('--email',action='store_true')
parser.add_argument('--sougou',action='store_true')
args = parser.parse_args()
main(args)