深度学习tensorflow实战笔记(2)图像转换成tfrecords和读取

     上一篇博客介绍了如何把自己的一般数据放进去txt文件并读取训练全连接神经网络(多层感知机),但是如何把自己的图像数据投入到神经网络中做训练呢,当然,可以把图像写入到txt文件中,然后做reshape,这种方法效率太低,操作复杂,并且内存占用率太高。所以本篇博客介绍如何把自己的图像数据转成tensorflow平台标注的tfrecords格式,并读取tfrecords数据。下一篇博客介绍如何使用tfrecords数据用作CNN的训练。

1、准备数据

      首选将自己的图像数据分类分别放在不同的文件夹下,比如新建data文件夹,data文件夹下分别存放up和low文件夹,up和low文件夹下存放对应的图像数据。也可以把up和low文件夹换成0和1。根据自己数据类别,自己设定。如图所示

      深度学习tensorflow实战笔记(2)图像转换成tfrecords和读取_第1张图片

深度学习tensorflow实战笔记(2)图像转换成tfrecords和读取_第2张图片

深度学习tensorflow实战笔记(2)图像转换成tfrecords和读取_第3张图片

     以上三张图片注意看目录。这样数据就准备好了。

2、将图像数据转换成tfrecords

      直接上代码,代码中比较重要的部分我都做了注释。
import os
import tensorflow as tf 
from PIL import Image
import matplotlib.pyplot as plt
import numpy as np

sess=tf.InteractiveSession()
cwd = "D://software//tensorflow//data//"  #数据所在目录位置
classes = {'up', 'low'} #预先自己定义的类别,根据自己的需要修改
writer = tf.python_io.TFRecordWriter("train.tfrecords")  #train表示转成的tfrecords数据格式的名字

for index, name in enumerate(classes):
    class_path = cwd + name + "/"
    for img_name in os.listdir(class_path):
        img_path = class_path + img_name
        img = Image.open(img_path)
        img = img.resize((300, 300))  #图像reshape大小设置,根据自己的需要修改
        img_raw = img.tobytes()              
        example = tf.train.Example(features=tf.train.Features(feature={
            "label": tf.train.Feature(int64_list=tf.train.Int64List(value=[index])),
            'img_raw': tf.train.Feature(bytes_list=tf.train.BytesList(value=[img_raw]))
        }))
        writer.write(example.SerializeToString()) 
writer.close()

3、从tfrecords中读取数据

      直接上代码:

#读取文件
def read_and_decode(filename,batch_size):
    #根据文件名生成一个队列
    filename_queue = tf.train.string_input_producer([filename])
    reader = tf.TFRecordReader()
    _, serialized_example = reader.read(filename_queue)   #返回文件名和文件
    features = tf.parse_single_example(serialized_example,
                                       features={
                                           'label': tf.FixedLenFeature([], tf.int64),
                                           'img_raw' : tf.FixedLenFeature([], tf.string),
                                       })

    img = tf.decode_raw(features['img_raw'], tf.uint8)
    img = tf.reshape(img, [300, 300, 3])                #图像归一化大小
   # img = tf.cast(img, tf.float32) * (1. / 255) - 0.5   #图像减去均值处理,根据自己的需要决定要不要加上
    label = tf.cast(features['label'], tf.int32)        

    #特殊处理,去数据的batch,如果不要对数据做batch处理,也可以把下面这部分不放在函数里

    img_batch, label_batch = tf.train.shuffle_batch([img, label],
                                                    batch_size= batch_size,
                                                    num_threads=64,
                                                    capacity=200,
                                                    min_after_dequeue=150)
    return img_batch, tf.reshape(label_batch,[batch_size])

需要注意的地方:

img = tf.cast(img, tf.float32) * (1. / 255) - 0.5   #图像减去均值处理,根据自己的需要决定要不要加上
#特殊处理,去数据的batch,如果不要对数据做batch处理,也可以把下面这部分不放在函数里
    img_batch, label_batch = tf.train.shuffle_batch([img, label],
                                                    batch_size= batch_size,
                                                    num_threads=64,
                                                    capacity=200,
                                                    min_after_dequeue=150)

如果不需要把数据做batch处理,则函数的第二个形参batch_size就去掉,函数直接返回img和label。也可以把batch处理部分放在函数外面,根据自己的需要自己修改一下。

4、转换和读取函数的调用

tfrecords_file = 'train.tfrecords'   #要读取的tfrecords文件
BATCH_SIZE = 4      #batch_size的大小
image_batch, label_batch = read_and_decode(tfrecords_file,BATCH_SIZE)  
print(image_batch,label_batch)    #注意,这里不是tensor,tensor需要做see.run()处理   

   下面就定义session,执行即可,有一个地方需要注意,

image_batch, label_batch = read_and_decode(tfrecords_file,BATCH_SIZE)   #需要注意

   虽然能够把数据读取出来,但是不是tensor,在训练的时候需要image,label=sess.run([image_batch,label_batch])处理后,才能投入训练。具体细节下一篇博客再做详细介绍。


你可能感兴趣的:(tensorflow-深度学习)