import tensorflow as tf
import os
FLAGS = tf.app.flags.FLAGS
tf.app.flags.DEFINE_string("tfrecords_dir", "./data/tfrecords/captcha.tfrecords", "验证码tfrecords文件")
tf.app.flags.DEFINE_string("letter", "abcdefghijklmnopqrstuvwxyz0123456789", "验证码字符的种类")
def captcha_read(filelist):
"""
读取验证码图片内容 转为张量
:param filelist: 路径+文件名列表
:return:
"""
# 1. 构造图片文件队列
file_queue = tf.train.string_input_producer(filelist)
# 2. 构造阅读器读取内容
reader = tf.WholeFileReader()
key, value = reader.read(file_queue)
# 3. 对图片解码
image = tf.image.decode_jpeg(value)
# 因为在批处理时所有样本形状必须定义,而image_resize目前的通道还未固定,固定大小到[60,180,3]。
image.set_shape([60, 180, 3])
# 4. 进行批处理 [1000,60,180,3 ]
image_batch = tf.train.batch([image], num_threads=1, capacity=1000, batch_size=1000)
return image_batch
def dealwithlabel(label_str):
"""
将目标值数字化
:param label_str:目标值数据 [['2a2j'],['w2cm']...]
:return:
"""
# 构建字符索引 {0:'a', 1:'b'......}
num_letter = dict(enumerate(list(FLAGS.letter)))
# 键值对反转 {'a':0, 'b':1......}
letter_num = dict(zip(num_letter.values(), num_letter.keys()))
# 构建标签的列表 [[13, 25, 15, 15], [22, 10, 7, 10],..]
array = []
# 给标签数据进行处理[["2a2j"]......]
for string in label_str:
letter_list = [] # [1,2,3,4]
# 循环找到每张验证码的字符对应的数字标记
for letter in string:
letter_list.append(letter_num[letter])
array.append(letter_list)
# 将array转换成tensor类型
label = tf.constant(array)
return label
def write_to_tfrecords(image_batch, label_batch):
"""
将图片内容和标签写入到tfrecords文件当中
:param image_batch: 特征值
:param label_batch: 标签值
:return: None
"""
# 转换类型
label_batch = tf.cast(label_batch, tf.uint8)
# 建立TFRecords 存储器
writer = tf.python_io.TFRecordWriter(FLAGS.tfrecords_dir)
# 循环将每一个图片上的数据构造example协议块,序列化后写入
for i in range(1000):
# 取出第i个图片数据,转换相应类型,图片的特征值要转换成字符串形式
image_string = image_batch[i].eval().tostring()
# 标签值,转换成整型
label_string = label_batch[i].eval().tostring()
# 构造协议块
example = tf.train.Example(features=tf.train.Features(feature={
"image": tf.train.Feature(bytes_list=tf.train.BytesList(value=[image_string])),
"label": tf.train.Feature(bytes_list=tf.train.BytesList(value=[label_string]))
}))
writer.write(example.SerializeToString())
# 关闭文件
writer.close()
return None
if __name__ == '__main__':
# 1. 构造路径文件名列表
namelist = os.listdir("./data/captcha/")
filelist = [os.path.join("./data/captcha/", name) for name in namelist]
# 2. 根据图片名称获取目标标签数据 (去掉后缀.jpg)
labellist = [name[:-4] for name in namelist]
# 3. 读取图片转换为张量
image_batch = captcha_read(filelist)
with tf.Session() as sess:
# 定义一个线程协调器
coord = tf.train.Coordinator()
# 开启读取文件的线程
threads = tf.train.start_queue_runners(sess, coord=coord)
# 处理字符串标签到数字张量
label_batch = dealwithlabel(labellist)
# 将图片数据和内容写入到tfrecords文件当中
write_to_tfrecords(image_batch, label_batch)
# 回收子线程
coord.request_stop()
coord.join(threads)
import tensorflow as tf
FLAGS = tf.app.flags.FLAGS
tf.app.flags.DEFINE_string("captcha_dir", "./data/tfrecords/captcha.tfrecords", "验证码数据的路径")
tf.app.flags.DEFINE_integer("batch_size", 100, "每批次训练的样本数")
tf.app.flags.DEFINE_integer("label_num", 4, "每个样本的目标值数量")
tf.app.flags.DEFINE_integer("letter_num", 36, "每个目标值取的字母的可能性个数")
# 定义一个初始化权重的函数
def weight_variables(shape):
w = tf.Variable(tf.random_normal(shape=shape, mean=0.0, stddev=1.0))
return w
# 定义一个初始化偏置的函数
def bias_variables(shape):
b = tf.Variable(tf.constant(0.0, shape=shape))
return b
def read_and_decode():
"""
读取验证码数据API
:return: image_batch, label_batch
"""
# 1、构建文件队列
file_queue = tf.train.string_input_producer([FLAGS.captcha_dir])
# 2、构建阅读器,读取文件内容,默认一个样本
reader = tf.TFRecordReader()
# 读取内容
key, value = reader.read(file_queue)
# tfrecords格式example,需要解析
features = tf.parse_single_example(value, features={
"image": tf.FixedLenFeature([], tf.string),
"label": tf.FixedLenFeature([], tf.string),
})
# 解码内容,字符串内容
# 1、先解析图片的特征值
image = tf.decode_raw(features["image"], tf.uint8)
# 1、先解析图片的目标值
label = tf.decode_raw(features["label"], tf.uint8)
# print(image, label)
# 改变形状
image_reshape = tf.reshape(image, [60, 180, 3])
label_reshape = tf.reshape(label, [4])
print(image_reshape, label_reshape)
# 进行批处理,每批次读取的样本数 100, 也就是每次训练时候的样本
image_batch, label_btach = tf.train.batch([image_reshape, label_reshape], batch_size=FLAGS.batch_size,
num_threads=1, capacity=FLAGS.batch_size)
print(image_batch, label_btach)
return image_batch, label_btach
def fc_model(image):
"""
进行预测结果
:param image: 100图片特征值[100, 60, 180, 3]
:return: y_predict预测值[100, 4 * 36]
"""
with tf.variable_scope("model"):
# 将图片数据形状转换成二维的形状
image_reshape = tf.reshape(image, [-1, 60 * 180 * 3])
# 1、随机初始化权重偏置
# matrix[100, 60 * 180 * 3] * [60 * 180 * 3, 4 * 36] + [4 * 36] = [100, 4 * 36]
weights = weight_variables([60 * 180 * 3, 4 * 36])
bias = bias_variables([4 * 36])
# 进行全连接层计算[100, 4 * 36]
y_predict = tf.matmul(tf.cast(image_reshape, tf.float32), weights) + bias
return y_predict
def predict_to_onehot(label):
"""
将读取文件当中的目标值转换成one-hot编码
:param label: [100, 4] [[13, 25, 15, 15], [19, 23, 20, 16]......]
:return: one-hot
"""
# 进行one_hot编码转换,提供给交叉熵损失计算,准确率计算[100, 4, 36]
label_onehot = tf.one_hot(label, depth=FLAGS.letter_num, on_value=1.0, axis=2)
print(label_onehot)
return label_onehot
def captcharec():
"""
验证码识别程序
:return:
"""
# 1、读取验证码的数据文件 label_btch [100 ,4]
image_batch, label_batch = read_and_decode()
# 2、通过输入图片特征数据,建立模型,得出预测结果
# 一层,全连接神经网络进行预测
# matrix [100, 60 * 180 * 3] * [60 * 180 * 3, 4 * 36] + [104] = [100, 4 * 36]
y_predict = fc_model(image_batch)
# [100, 4 * 36]
print(y_predict)
# 3、先把目标值转换成one-hot编码 [100, 4, 36]
y_true = predict_to_onehot(label_batch)
# 4、softmax计算, 交叉熵损失计算
with tf.variable_scope("soft_cross"):
# 求平均交叉熵损失 ,y_true [100, 4, 36]--->[100, 4*36]
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(
labels=tf.reshape(y_true, [FLAGS.batch_size, FLAGS.label_num * FLAGS.letter_num]),
logits=y_predict))
# 5、梯度下降优化损失
with tf.variable_scope("optimizer"):
train_op = tf.train.GradientDescentOptimizer(0.0003).minimize(loss)
# 6、求出样本的每批次预测的准确率是多少 三维比较
with tf.variable_scope("acc"):
# 比较每个预测值和目标值是否位置(4)一样 y_predict [100, 4 * 36]---->[100, 4, 36]
equal_list = tf.equal(tf.argmax(y_true, 2),
tf.argmax(tf.reshape(y_predict, [FLAGS.batch_size, FLAGS.label_num, FLAGS.letter_num]),
2))
# equal_list 100个样本 [1, 0, 1, 0, 1, 1,..........]
accuracy = tf.reduce_mean(tf.cast(equal_list, tf.float32))
# 定义一个初始化变量的op
init_op = tf.global_variables_initializer()
# 开启会话训练
with tf.Session() as sess:
sess.run(init_op)
# 定义线程协调器和开启线程(有数据在文件当中读取提供给模型)
coord = tf.train.Coordinator()
# 开启线程去运行读取文件操作
threads = tf.train.start_queue_runners(sess, coord=coord)
# 训练识别程序
for i in range(1000):
sess.run(train_op)
print("第%d批次的准确率为:%f" % (i, accuracy.eval()))
# 回收线程
coord.request_stop()
coord.join(threads)
return None
if __name__ == "__main__":
captcharec()
最后训练的准确率总是上不去,不知道是数据准备出错还是模型定义不合理,连50%都没有,总的思路应该没有问题,有知道的大神请帮忙解答,不胜感激。