YOLOV3在win10+TensorFlow环境下的学习运用----------一、环境搭建

  1. Dataloader

我们是来实现YoloV3的,说到dataload,我想告诉大家第一个干货:使用tensorflow官方的datasets库. 如果你不看本教程,这个大部分人肯定不知道,来看看人家tensorflow给你准备了多少数据集的dataset类:https://github.com/tensorflow/datasets
YOLOV3在win10+TensorFlow环境下的学习运用----------一、环境搭建_第1张图片load coco之前,先从mnist来体验一下tfds (先安装一下tensorflow_datasets):

import tensorflow as tf
import tensorflow_datasets as tfds
tf.enable_eager_execution()
dataset = tfds.load(name="mnist", split=tfds.Split.TRAIN)
# Build your input pipeline
dataset = dataset.shuffle(1024).batch(32).prefetch(tf.data.experimental.AUTOTUNE)
for features in dataset.take(1):
  image, label = features["image"], features["label"]

上面简单的演示了一下如何从tensorflow导入数据,当然这还只是第一步,还没有涉及到如何准备自己的数据,但是请大家记住两点:

标准的数据导入方式,最好使用tf.data.DatasetAPI;
不要使用老版本的一些API,比如上面的eager模式其实没有必要,更不需要从contrib import,因为2.0没有contrib了, 2.0以下还是得加。
以前你可能会看到一些采用 make_one_shot_iter() 这样的方法导入数据。同样,这个方法也被弃用了,直接用 take(1).

OK, 让我们来导入一个稍微复杂一点的分类数据吧,用fashion-mnist:

import tensorflow as tf
import tensorflow_datasets as tfds

dataset, metadata = tfds.load('fashion_mnist', as_supervised=True, with_info=True)
print(metadata)
train_dataset, test_dataset = dataset['train'], dataset['test']
train_dataset = train_dataset.shuffle(100).batch(12).repeat()

for img, label in train_dataset.take(1):
    img = img.numpy()
    print(img.shape)
    print(img)

我这里尽量的精简代码。这基本上就涵盖了我们需要的所有步骤,我们可以归纳一下,在最新版本的tensorflow中, 如何构建一个自己的dataset loader:

所有的data最终都是一个 tf.data.Dataset ;

熟悉 tf.data.Dataset 的一些相关操作比如shuffle,repeat等可以简单的对数据进行一些处理;

在for循环里面就可以拿到你需要的input和label;

在上面这个例子中,你就可以拿到你需要的数据的了(每一个epoch训练所需):

(12, 28, 28, 1)
[[[[  0]
   [  0]
   [  0]
   ...
   [  0]
   [  0]
   [  0]]

  [[  0]
   [  0]
   [  0]
   ...
  ]]]

上面的尺寸12,是因为我们之前设定了一个12的batchsize,通道为1是因为我们的数据只有一个通道。请注意,这一点跟pytorch不同,pytorch是通道位于长宽前面,当然这影响不大,因为如果你稍有不慎写错了你的网络会出问题,最终你是能够发现的.

接下来要来一点复杂点的操作了,接下来我们要构造一个自己的dataset类,它属于tf.data.Dataset类型,它返回的一张图片,以及图片里面目标的boundingbox的array(多个目标有多个box,每个box是4个点坐标)。这为我们后面输入到yolov3模型之中做准备。我们有两种方式来做:

用tfrecord,实现提取数据保存到tfrecord中,但我认为这种操作方式比较麻烦;
直接在线的从本地读取数据,边训练边读,这也是pytorch的运作方式
尽管我们有这些方式可以选择,但是我们需要选择一种最理智的方式,也就是一劳永逸的方式,采用第一种应该是最好的。这样我们以后所有的检测类型数据集,都可以使用一个统一化的tfrecord接口来读取,而你要做的,仅仅只是写一个脚本将检测数据标注转化为tfrecord文件。后面就只需要读取这个tfrecord文件即可。

那么思路就出来了,我们需要先写一个转换器,把coco转化成tfrecord!首先让我们来实际一下,应该在tfrecord里面存储什么内容:

IMAGE_FEATURE_MAP = {
     
    'image/width': tf.io.FixedLenFeature([], tf.int64),
    'image/height': tf.io.FixedLenFeature([], tf.int64),
    'image/filename': tf.io.FixedLenFeature([], tf.string),
    'image/source_id': tf.io.FixedLenFeature([], tf.string),
    'image/key/sha256': tf.io.FixedLenFeature([], tf.string),
    'image/encoded': tf.io.FixedLenFeature([], tf.string),
    'image/format': tf.io.FixedLenFeature([], tf.string),
    'image/object/bbox/xmin': tf.io.VarLenFeature(tf.float32),
    'image/object/bbox/ymin': tf.io.VarLenFeature(tf.float32),
    'image/object/bbox/xmax': tf.io.VarLenFeature(tf.float32),
    'image/object/bbox/ymax': tf.io.VarLenFeature(tf.float32),
    'image/object/class/text': tf.io.VarLenFeature(tf.string),
    'image/object/class/label': tf.io.VarLenFeature(tf.int64),
    'image/object/difficult': tf.io.VarLenFeature(tf.int64),
    'image/object/truncated': tf.io.VarLenFeature(tf.int64),
    'image/object/view': tf.io.VarLenFeature(tf.string),
}

我们将一张图片存入为一个tf.train.Example的格式,那么我们就可以从tfrecord里面load我们想要的内容。为了编写一个前后端分离的数据load器,我们先来看一下如何写一个转换器,将coco转换成tfrecord。
coco转tfrecord
假设我们将coco数据加载,封装为一个字典,比如下面这样的:

img_data = {
     
  'pixel_data': bytes,
  'bboxes': [[0.2, .3, .4, .5], [.1, .3, .4, .5]],
  'labels': [23, 34]
}

在这里,需要记住一条理念:tfrecord 将所有的标注看做是一类,什么意思呢?上面的所有的xmin是一类,ymin是一类,label是一类,这也就是说,它虽然是一个整体,但是我们将其看做一类,这样其实可以大大的节省存储空间以及提高数据读取效率。

拿到了一个img_data之后,我们只需要转成 tf.train.Example:

def dict_to_coco_example(img_data):
    """Convert python dictionary formath data of one image to tf.Example proto.
    Args:
        img_data: infomation of one image, inclue bounding box, labels of bounding box,\
            height, width, encoded pixel data.
    Returns:
        example: The converted tf.Example
    """
    bboxes = img_data['bboxes']
    xmin, xmax, ymin, ymax = [], [], [], []
    for bbox in bboxes:
        xmin.append(bbox[0])
        xmax.append(bbox[0] + bbox[2])
        ymin.append(bbox[1])
        ymax.append(bbox[1] + bbox[3])

    example = tf.train.Example(features=tf.train.Features(feature={
     
        'image/height': dataset_util.int64_feature(img_data['height']),
        'image/width': dataset_util.int64_feature(img_data['width']),
        'image/object/bbox/xmin': dataset_util.float_list_feature(xmin),
        'image/object/bbox/xmax': dataset_util.float_list_feature(xmax),
        'image/object/bbox/ymin': dataset_util.float_list_feature(ymin),
        'image/object/bbox/ymax': dataset_util.float_list_feature(ymax),
        'image/object/class/label': dataset_util.int64_list_feature(img_data['labels']),
        'image/encoded': dataset_util.bytes_feature(img_data['pixel_data']),
        'image/format': dataset_util.bytes_feature('jpeg'.encode('utf-8')),
    }))
    return example

OK,关于这个转换器,其实你可以轻而易举的从github获取,本仓库包含了一个转换器,在tools里面,地址:http://github.com/jinfagang/yolov3_tf2 .

事实上,关于tfrecord转换被很多人吐槽,同时它也存在很多弊端,它的缺点十分明显:

且不说转换麻烦(得写两次脚本),占用的存储空间极大,coco转完可能得有40-60多个G,总的数据集都没有这么大;
check数据比较麻烦。
本教程以及附带仓库实现的转换脚本绝非事网上传播的版本,很多人说用别人的代码不好,也有人说什么东西都得自己原创,我觉得这是两个极端,很多东西都原创你会浪费很多时间,但是如果什么东西都照搬你会进入别人的坑。就比如你从网上找一个coco转tfrecord的脚本你至少会遇到两个问题:1. 没有兼容2.0 api,很多接口2.0事没有的;2. 你根本无法用,我在写这篇文章的时候就参考了一些实现,有一个看起来来官方的教程把所有的coco数据读入内存然后再一个一个存。这得多大的内存才不会被系统进程杀死?感兴趣或者不服的朋友可以拿开源的自己去试一试,能使用算我输。

但是不管怎样,转换为tfrecord却可以极大地提高运行的效率。不过作为一个不喜欢全家桶的,我并不喜欢tensorflow的所有生态。我更喜欢简单的一点的东西。那么我们就写一个及其简单的数据load器吧,我们使用 tf.data.Dataset.from_data_slice 这个接口来load数据:

挖坑 还有点问题

coco从tfrecord读取

继续秉承有始有终的理念,既然我们打算用tfrecord存了,那就得用tfrecord读取. 使用tfrecord读取数据,你需要知道你存储进入tfrecord的键,以及键的值的属性。假设你已经使用我们上面的转换器将coco转换为了tfrecord,接下来我们来读取。但是实现得知道一下这两个概念的区别: tf.io.FixedLenFeature vs tf.io.VarLenFeature:
简单来说,对于一个example,比如一张图,图里面很多目标,此时不变的参数比如图片的宽高,图片本身等是不变的,就是FixedLenFeature, 剩下的,每一个目标的坐标,类别都是可变的,用VarLenFeature来Parse。
最后大家要记住,我们存入tfrecord的坐标是相对于长宽归一化之后的坐标。而且是xmin, ymin, xmax, ymax的格式,示意图如下:

           w        (xmax, 
 --------------------ymax)
|                       |
|                       | h
|                       |
|                       |
(xmin,------------------
 ymin)

这样你就理解了。从tfrecord里面读取的核心代码为:

IMAGE_FEATURE_MAP = {
     
    'image/width': tf.io.FixedLenFeature([], tf.int64),
    'image/height': tf.io.FixedLenFeature([], tf.int64),
    'image/encoded': tf.io.FixedLenFeature([], tf.string),
    'image/format': tf.io.FixedLenFeature([], tf.string),
    'image/object/class/label': tf.io.VarLenFeature(tf.int64),
    'image/object/bbox/xmin': tf.io.VarLenFeature(tf.float32),
    'image/object/bbox/ymin': tf.io.VarLenFeature(tf.float32),
    'image/object/bbox/xmax': tf.io.VarLenFeature(tf.float32),
    'image/object/bbox/ymax': tf.io.VarLenFeature(tf.float32),
}


def parse_tfrecord(tfrecord, class_table):
    x = tf.io.parse_single_example(tfrecord, IMAGE_FEATURE_MAP)
    x_train = tf.image.decode_jpeg(x['image/encoded'], channels=3)
    x_train = tf.image.resize(x_train, (416, 416))
    # get numpy from x_train
    label_idx = x['image/object/class/label']
    labels = tf.sparse.to_dense(label_idx)
    labels = tf.cast(labels, tf.float32)
    y_train = tf.stack([
        tf.sparse.to_dense(x['image/object/bbox/xmin']),
        tf.sparse.to_dense(x['image/object/bbox/ymin']),
        tf.sparse.to_dense(x['image/object/bbox/xmax']),
        tf.sparse.to_dense(x['image/object/bbox/ymax']), 
        labels
    ], axis=1)
    paddings = [[0, 100 - tf.shape(y_train)[0]], [0, 0]]
    y_train = tf.pad(y_train, paddings)
    return x_train, y_train

读取完之后结果为:

[[[ 55.136402  28.81095    5.887802]
  [ 57.346348  30.408487  12.177647]
  [ 63.429108  35.506042  23.28702 ]
  ...
  [147.12724  157.8195   244.47337 ]
  [149.68645  156.49413  244.49413 ]
  [153.94672  158.59761  247.27217 ]]]

[[3.6451563e-01 5.6343752e-01 6.3064063e-01 9.8710418e-01 6.2000000e+01]
 [1.5937500e-03 5.8324999e-01 8.3454686e-01 1.0000000e+00 6.7000000e+01]
 [7.4493748e-01 5.4381251e-01 9.3201560e-01 9.6404165e-01 6.2000000e+01]
 [1.6859375e-02 5.4172915e-01 1.9550000e-01 8.0014580e-01 6.2000000e+01]
 [5.7471877e-01 5.5056250e-01 7.9214060e-01 1.0000000e+00 6.2000000e+01]
 [8.4270310e-01 6.0450000e-01 1.0000000e+00 9.7752082e-01 6.2000000e+01]
 [5.6937498e-01 5.3452080e-01 6.5165627e-01 5.9002084e-01 6.2000000e+01]
 [2.3776563e-01 5.3472918e-01 3.6028126e-01 5.9537500e-01 6.2000000e+01]
 [1.6875000e-03 7.7752084e-01 5.0562501e-02 1.0000000e+00 6.2000000e+01]
 [4.6593750e-01 4.8993751e-01 5.9564060e-01 5.6093752e-01 8.6000000e+01]]

分别是x_train 和 y_train. 有这么几点是需要注意的:

存入的图片是BGR格式的,并且它的resize会进行int和float之间的转换,这将导致结果和opencv差异!!这听起来似乎不可思议,即便他们使用相同的interplate方法,但这个差异可以暂时忽略!

最后的y_train的尺寸是要进行padding的,关于为什么需要padding,主要是为了进行batch,否则你每个批次都不同,因为每张图片目标不同,会出现一些不必要的结果,而padding之后并不影响最终结果。比如我们每张图片都padding到100个目标,其他的填0,是一个不错的策略。

关于最后一列的label,其实目前我们还不需要进行one-hot, 至于以后要不要one-hot,我们后面再讲。

好了,数据准备就绪,接下来可以开始训练了。总结一下tf2.0 的数据读取:

要拿到具体的值,你需要用take(1) 才能拿到,在读取的过程中只能拿到tensor,由此可以看出,tf2.0的eager execution还没有完全适配,也可能根本无法在那里实现(还是得用图);

总体来说,这个方法还是比较麻烦,但是以后省事,你如果要换新的数据,只要把标注存入tfrecord即可,数据读取器可以完全不变。(顺便注意,存入tfrecord的类别是id,不是text,我们不在数据中读取text,保持数据读取器与数据集无关的原则).

  1. yolov3网络编写

我们花了大量的时间来研究tf2.0的数据读取,这其实是非常值得的。接下来我们将要继续深入,在tf2.0中,使用keras相关的layer API来搭建yolov3网络。但是在这之前,我依旧准备舍近求远,我们来完成一个更简单的任务先,也是为以后做铺垫。

tf2.0 编写MobileNetV2分类花
用tf2.0编写一个MobileNetV2来进行分类tf_flowers, 关于这个数据集,我们上面有介绍,可以非常方便的使用 tensorflow_datasets 来进行,这一个小节的重点是编写一个MobileNetV2网络。

你可能感兴趣的:(YOLO,tensorflow)