基于TensorFlow的CNN/RNN用于文本分类

代码链接:
https://github.com/wonderfultina/NLP
环境
Python 3
TensorFlow 1.3以上
numpy
scikit-learn
scipy

数据集
本文采用了清华NLP组提供的THUCNews新闻文本分类数据集的一个子集。
本次训练使用了其中的10个分类,每个分类6500条,总共65000条新闻数据。

类别如下:

体育, 财经, 房产, 家居, 教育, 科技, 时尚, 时政, 游戏, 娱乐
数据集划分如下:

训练集: 500010
验证集: 500
10
测试集: 1000*10
从原数据集生成子集的过程请参看helper下的两个脚本。其中,copy_data.sh用于从每个分类拷贝6500个文件,cnews_group.py用于将多个文件整合到一个文件中。执行该文件后,得到三个数据文件:
cnews.train.txt: 训练集(50000条)
cnews.val.txt: 验证集(5000条)
cnews.test.txt: 测试集(10000条)

预处理
data/cnews_loader.py为数据的预处理文件。
read_file(): 读取文件数据;
build_vocab(): 构建词汇表,使用字符级的表示,这一函数会将词汇表存储下来,避免每一次重复处理;
read_vocab(): 读取上一步存储的词汇表,转换为{词:id}表示;
read_category(): 将分类目录固定,转换为{类别: id}表示;
to_words(): 将一条由id表示的数据重新转换为文字;
process_file(): 将数据集从文字转换为固定长度的id序列表示;
batch_iter(): 为神经网络的训练准备经过shuffle的批次的数据。
经过数据预处理,数据的格式如下:
基于TensorFlow的CNN/RNN用于文本分类_第1张图片
CNN卷积神经网络
配置项
CNN可配置的参数如下所示,在cnn_model.py中。
class TCNNConfig(object):
“”“CNN配置参数”""

embedding_dim = 64      # 词向量维度
seq_length = 600        # 序列长度
num_classes = 10        # 类别数
num_filters = 128        # 卷积核数目
kernel_size = 5         # 卷积核尺寸
vocab_size = 5000       # 词汇表达小

hidden_dim = 128        # 全连接层神经元

dropout_keep_prob = 0.5 # dropout保留比例
learning_rate = 1e-3    # 学习率

batch_size = 64         # 每批训练大小
num_epochs = 10         # 总迭代轮次

print_per_batch = 100    # 每多少轮输出一次结果
save_per_batch = 10      # 每多少轮存入tensorboard

CNN模型
具体参看cnn_model.py的实现。
大致结构如下:
基于TensorFlow的CNN/RNN用于文本分类_第2张图片
训练与验证
运行 python run_cnn.py train,可以开始训练。
若之前进行过训练,请把tensorboard/textcnn删除,避免TensorBoard多次训练结果重叠。
在验证集上的最佳效果为94.12%,且只经过了3轮迭代就已经停止。
准确率和误差如图所示:
基于TensorFlow的CNN/RNN用于文本分类_第3张图片
测试
运行 python run_cnn.py test 在测试集上进行测试。
在测试集上的准确率达到了96.04%,且各类的precision, recall和f1-score都超过了0.9。
从混淆矩阵也可以看出分类效果非常优秀。

RNN循环神经网络
配置项
RNN可配置的参数如下所示,在rnn_model.py中。
class TRNNConfig(object):
“”“RNN配置参数”""
# 模型参数

embedding_dim = 64      # 词向量维度
seq_length = 600        # 序列长度
num_classes = 10        # 类别数
vocab_size = 5000       # 词汇表达小 
num_layers= 2           # 隐藏层层数
hidden_dim = 128        # 隐藏层神经元
rnn = 'gru'             # lstm 或 gru

dropout_keep_prob = 0.8 # dropout保留比例
learning_rate = 1e-3    # 学习率

batch_size = 128         # 每批训练大小
num_epochs = 10          # 总迭代轮次

print_per_batch = 100    # 每多少轮输出一次结果
save_per_batch = 10      # 每多少轮存入tensorboard

RNN模型
具体参看rnn_model.py的实现。
大致结构如下:
基于TensorFlow的CNN/RNN用于文本分类_第4张图片
训练与验证
这部分的代码与 run_cnn.py极为相似,只需要将模型和部分目录稍微修改。
运行 python run_rnn.py train,可以开始训练。
在验证集上的最佳效果为91.42%,经过了8轮迭代停止,速度相比CNN慢很多。
准确率和误差如图所示:
基于TensorFlow的CNN/RNN用于文本分类_第5张图片
测试
运行 python run_rnn.py test 在测试集上进行测试。

你可能感兴趣的:(NLP,Tensorflow,TensorFlow,文本分类,CNN,RNN)