【NLP】新闻文本分类----基于机器学习的文本分类

【NLP】新闻文本分类----基于机器学习的文本分类

    • 机器学习模型
    • 文本表示方法
      • one-hot
      • Bag of Words
      • N-gram
      • TF-IDF
    • 基于机器学习的文本分类
      • 词袋法 + 岭回归分类器`
      • TF-IDF + 岭回归分类器
      • 不同参数下的TF-IDF算法
        • TF-IDF参数解读
        • 改变不同参数的F1结果
          • 改变ngram_range的参数
      • TF-IDF算法与其他分类器模型

机器学习模型

机器学习是对能通过经验自动改进的计算机算法的研究。机器学习通过历史数据训练出模型对应于人类对经验进行归纳的过程,机器学习利用模型对新数据进行预测对应于人类利用总结的规律对新问题进行预测的过程。

文本表示方法

在机器学习算法的训练过程中,假设给定
N个样本,每个样本有 M个特征,这样组成了N×M的样本矩阵,然后完成算法的训练和预测。同样的,在计算机视觉中可以将图片的像素看作特征,每张图片看作height×width×3的特征图,一个三维的矩阵来进入计算机进行计算。

但是在自然语言领域,上述方法却不可行:文本是不定长度的。文本表示成计算机能够运算的数字或向量的方法一般称为词嵌入(Word Embedding)方法。词嵌入将不定长的文本转换到定长的空间内,是文本分类的第一步。

one-hot

这里的One-hot与数据挖掘任务中的操作是一致的,即将每一个单词使用一个离散的向量表示。具体将每个字/词编码一个索引,然后根据索引进行赋值。

One-hot表示方法的步骤如下:

一.句子示例

句子1:我 爱 北 京 天 安 门
句子2:我 喜 欢 上 海

二.对所有句子的字进行索引,即将每个字确定一个编号:
{
‘我’: 1, ‘爱’: 2, ‘北’: 3, ‘京’: 4, ‘天’: 5,
‘安’: 6, ‘门’: 7, ‘喜’: 8, ‘欢’: 9, ‘上’: 10, ‘海’: 11
}
在这里共包括11个字,因此每个字可以转换为一个11维度稀疏向量:

我:[1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
爱:[0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0]

海:[0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1]

Bag of Words

Bag of Words(词袋表示),也称为Count Vectors,每个文档的字/词可以使用其出现次数来进行表示。

句子1:我 爱 北 京 天 安 门
句子2:我 喜 欢 上 海
直接统计每个字出现的次数,并进行赋值:

句子1:我 爱 北 京 天 安 门
转换为 [1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0]

句子2:我 喜 欢 上 海
转换为 [1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1]

在sklearn中可以直接用CountVectorizer函数来实现这一步骤:

from sklearn.feature_extraction.text import CountVectorizer
corpus = [
    'This is the first document.',
    'This document is the second document.',
    'And this is the third one.',
    'Is this the first document?',
]
vectorizer = CountVectorizer()
vectorizer.fit_transform(corpus).toarray()

N-gram

N-gram与Count Vectors类似,不过加入了相邻单词组合成为新的单词,并进行计数。

如果N取值为2,则句子1和句子2就变为:

句子1:我爱 爱北 北京 京天 天安 安门
句子2:我喜 喜欢 欢上 上海

TF-IDF

TF-IDF 分数由两部分组成:第一部分是词语频率(Term Frequency),第二部分是逆文档频率(Inverse Document Frequency)。其中计算语料库中文档总数除以含有该词语的文档数量,然后再取对数就是逆文档频率。

TF(t)= 该词语在当前文档出现的次数 / 当前文档中词语的总数
IDF(t)= log_e(文档总数 / 出现该词语的文档总数

基于机器学习的文本分类

词袋法 + 岭回归分类器`

# Count Vectors + RidgeClassifier

import pandas as pd

from sklearn.feature_extraction.text import CountVectorizer
from sklearn.linear_model import RidgeClassifier
from sklearn.metrics import f1_score

train_df = pd.read_csv('../data/train_set.csv', sep='\t', nrows=15000)

vectorizer = CountVectorizer(max_features=3000)             #计算
train_test = vectorizer.fit_transform(train_df['text'])     #计算tf-idf值

clf = RidgeClassifier()
clf.fit(train_test[:10000], train_df['label'].values[:10000])

val_pred = clf.predict(train_test[10000:])
print(f1_score(train_df['label'].values[10000:], val_pred, average='macro'))

计算结果为0.7422037924439758。

TF-IDF + 岭回归分类器

用skcit-learn实现tf-idf算法,其主要运用了两个函数,CountVectorizer类会将文本中的词语转换为词频矩阵。例如矩阵中包含一个元素a[i][j],它表示j词在i类文本下的词频。它通过fit_transform函数计算各个词语出现的次数,通过get_feature_names()可获取词袋中所有文本的关键字,通过toarray()可看到词频矩阵的结果。

# TF-IDF +  RidgeClassifier

import pandas as pd

from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.linear_model import RidgeClassifier
from sklearn.metrics import f1_score

train_df = pd.read_csv('../data/train_set.csv', sep='\t', nrows=15000)

tfidf = TfidfVectorizer(ngram_range=(1,3), max_features=3000)    #设定参数值
train_test = tfidf.fit_transform(train_df['text'])               #计算tf-idf值

clf = RidgeClassifier()
clf.fit(train_test[:10000], train_df['label'].values[:10000])

val_pred = clf.predict(train_test[10000:])
print(f1_score(train_df['label'].values[10000:], val_pred, average='macro'))

得到结果为0.8719098297954606。

不同参数下的TF-IDF算法

TF-IDF参数解读

在库调用中,TfidfTransformer + CountVectorizer = TfidfVectorizer。
值得注意的是,CountVectorizer()和TfidfVectorizer()里面都有一个成员叫做vocabulary_(后面带一个下划线),这个成员的意义是词典索引,对应的是TF-IDF权重矩阵的列,只不过一个是私有成员,一个是外部输入,原则上应该保持一致。
即vectorizer = TfidfVectorizer(stop_words=stpwrdlst, sublinear_tf = True, max_df = 0.5)
关于其他参数的解读如下:

input:string{‘filename’, ‘file’, ‘content’}

如果是'filename',序列作为参数传递给拟合器,预计为文件名列表,这需要读取原始内容进行分析

如果是'file',序列项目必须有一个”read“的方法(类似文件的对象),被调用作为获取内存中的字节数

否则,输入预计为序列串,或字节数据项都预计可直接进行分析。

encoding:string, ‘utf-8’by default

如果给出要解析的字节或文件,此编码将用于解码

decode_error: {‘strict’, ‘ignore’, ‘replace’}

如果一个给出的字节序列包含的字符不是给定的编码,指示应该如何去做。默认情况下,它是'strict',这意味着的UnicodeDecodeError将提高,其他值是'ignore'和'replace'

strip_accents: {‘ascii’, ‘unicode’, None}

在预处理步骤中去除编码规则(accents),”ASCII码“是一种快速的方法,仅适用于有一个直接的ASCII字符映射,"unicode"是一个稍慢一些的方法,None(默认)什么都不做

analyzer:string,{‘word’, ‘char’} or callable

定义特征为词(word)或n-gram字符,如果传递给它的调用被用于抽取未处理输入源文件的特征序列

preprocessor:callable or None(default)

当保留令牌和”n-gram“生成步骤时,覆盖预处理(字符串变换)的阶段

tokenizer:callable or None(default)

当保留预处理和n-gram生成步骤时,覆盖字符串令牌步骤

ngram_range: tuple(min_n, max_n)

要提取的n-gram的n-values的下限和上限范围,在min_n <= n <= max_n区间的n的全部值

stop_words:string {‘english’}, list, or None(default)

如果未english,用于英语内建的停用词列表

如果未list,该列表被假定为包含停用词,列表中的所有词都将从令牌中删除

如果None,不使用停用词。max_df可以被设置为范围[0.7, 1.0)的值,基于内部预料词频来自动检测和过滤停用词

lowercase:boolean, default True

在令牌标记前转换所有的字符为小写

token_pattern:string

正则表达式显示了”token“的构成,仅当analyzer == ‘word’时才被使用。两个或多个字母数字字符的正则表达式(标点符号完全被忽略,始终被视为一个标记分隔符)。

max_df: float in range [0.0, 1.0] or int, optional, 1.0 by default

当构建词汇表时,严格忽略高于给出阈值的文档频率的词条,语料指定的停用词。如果是浮点值,该参数代表文档的比例,整型绝对计数值,如果词汇表不为None,此参数被忽略。

min_df:float in range [0.0, 1.0] or int, optional, 1.0 by default

当构建词汇表时,严格忽略低于给出阈值的文档频率的词条,语料指定的停用词。如果是浮点值,该参数代表文档的比例,整型绝对计数值,如果词汇表不为None,此参数被忽略。

max_features: optional, None by default

如果不为None,构建一个词汇表,仅考虑max_features--按语料词频排序,如果词汇表不为None,这个参数被忽略

vocabulary:Mapping or iterable, optional

也是一个映射(Map)(例如,字典),其中键是词条而值是在特征矩阵中索引,或词条中的迭代器。如果没有给出,词汇表被确定来自输入文件。在映射中索引不能有重复,并且不能在0到最大索引值之间有间断。

binary:boolean, False by default

如果未True,所有非零计数被设置为1,这对于离散概率模型是有用的,建立二元事件模型,而不是整型计数

dtype:type, optional

通过fit_transform()或transform()返回矩阵的类型

norm:‘l1’, ‘l2’, or None,optional

范数用于标准化词条向量。None为不归一化

use_idf:boolean, optional

启动inverse-document-frequency重新计算权重

smooth_idf:boolean,optional

通过加1到文档频率平滑idf权重,为防止除零,加入一个额外的文档

sublinear_tf:boolean, optional

应用线性缩放TF,例如,使用1+log(tf)覆盖tf

改变不同参数的F1结果

改变ngram_range的参数

分别将ngram_range设定为(1,1)(1,2)(1,3)(1,4)(1,5)得到计算的F1值如下:

result = []
for rrange in label_list:
    tfidf = TfidfVectorizer(ngram_range = rrange, max_features=3000)
    train_test = tfidf.fit_transform(train_df['text'])

    clf = RidgeClassifier()
    clf.fit(train_test[:10000], train_df['label'].values[:10000])

    val_pred = clf.predict(train_test[10000:])
    result.append(f1_score(train_df['label'].values[10000:], val_pred, average='macro'))
ngram_range F1精度
(1,1) 0.8591560167309494
(1,2) 0.8720847996197074
(1,3) 0.8719372173702
(1,4) 0.8736955495856327
(1,5) 0.8754515156321874

【NLP】新闻文本分类----基于机器学习的文本分类_第1张图片

由此可见,选择(1,5)时精度更佳。

TF-IDF算法与其他分类器模型

在使用了回归分类器后,进一步使用朴素贝叶斯、随机森林、支持向量机和进行训练,得到不同的F1值如下:

#  TF-IDF  +  MultinomialN

from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.naive_bayes import MultinomialNB
from sklearn.metrics import f1_score

train_df = pd.read_csv("C:/nlp/train_set.csv",sep = '\t', nrows=15000)

tfidf = TfidfVectorizer(ngram_range=(1,3), max_features=3000)    #设定参数值
train_test = tfidf.fit_transform(train_df['text'])               #计算tf-idf值

clf = MultinomialNB(alpha=0.2)#参数自己选 当然也可以不特殊设置
clf.fit(train_test[:10000], train_df['label'].values[:10000])

val_pred = clf.predict(train_test[10000:])
print(f1_score(train_df['label'].values[10000:], val_pred, average='macro'))



#   TF-IDF  +  RandomForestClassifier

from sklearn.ensemble import RandomForestClassifier
train_df = pd.read_csv("C:/nlp/train_set.csv",sep = '\t', nrows=15000)

tfidf = TfidfVectorizer(ngram_range=(1,3), max_features=3000)    #设定参数值
train_test = tfidf.fit_transform(train_df['text'])               #计算tf-idf值

clf = RandomForestClassifier(n_estimators=200, max_depth=3, random_state=0)
clf.fit(train_test[:10000], train_df['label'].values[:10000])

val_pred = clf.predict(train_test[10000:])
print(f1_score(train_df['label'].values[10000:], val_pred, average='macro'))


#   TF-IDF  +  SVM

from sklearn import svm
train_df = pd.read_csv("C:/nlp/train_set.csv",sep = '\t', nrows=15000)

tfidf = TfidfVectorizer(ngram_range=(1,3), max_features=3000)    #设定参数值
train_test = tfidf.fit_transform(train_df['text'])               #计算tf-idf值

clf = svm.SVC(decision_function_shape='ovo')
clf.fit(train_test[:10000], train_df['label'].values[:10000])

val_pred = clf.predict(train_test[10000:])
print(f1_score(train_df['label'].values[10000:], val_pred, average='macro'))

得到的F1精度值见下表:

模型 F1精度
SVM 0.2159824820732837
随机森林 0.88306356221917752
朴素贝叶斯 0.8011443888777521

因此在以上四种模型的对比中,可以进行后续调参进一步完善最佳参数,提高F1评价指标。

你可能感兴趣的:(【NLP】新闻文本分类----基于机器学习的文本分类)