基于CNN的婴儿睡觉状态识别(上)—模型训练

前言

   最近在和同学做一个智能婴儿床的创业项目,项目涉及到了对婴儿的睡眠状态的识别,整个流程下来相当于一次简单的CNN图像分类,虽然只是个Toy Model,但作为练手也是很有收获的,识别内容主要有两点:

1、很多婴儿在睡觉时候会乱动踢掉被子,识别婴儿有没有盖着被子反馈给温控器,如果被子被踢掉了,就相应升高温度。

基于CNN的婴儿睡觉状态识别(上)—模型训练_第1张图片

2、婴儿长时间不换睡姿容易得扁头症,识别婴儿的睡姿,若持续时间太长则辅助婴儿翻身。

基于CNN的婴儿睡觉状态识别(上)—模型训练_第2张图片
扁头症

以下主要介绍识别的实现流程,首先是采集训练集

训练集采集

训练集主要用模型娃娃,然后拿单反拍摄,效果如下

基于CNN的婴儿睡觉状态识别(上)—模型训练_第3张图片
好像有点吓人

  为了识别结果的鲁棒性,训练集应该尽量全面一些,因此我们对于不同被子褶皱纹理、不同被子倾斜角度、婴儿不同睡姿:平躺、左侧躺、右侧躺、趴睡等不同睡姿,甚至于灯光的角度亮度都做了变化,不盖被子状态也是同理,最终共拍摄不盖被子样本+盖被子样本共277张。

  但是显然,277张样本对于CNN来说不够多,过拟合的风险很高,因此需要数据增强。

数据增强

  所谓数据增强,就是把图片缩小一点,放大一点,旋转一点,翻转一下来扩充训练集,如果不这么做的话,过拟合的几率是非常大的,直接上代码

导入图片

from PIL import Image
import numpy as np
import matplotlib.pyplot as plt
img = Image.open('./baby.png')
img = np.array(img)
plt.imshow(img)
plt.show()

翻转

flipped_img = np.fliplr(img)
plt.imshow(flipped_img)
plt.show()

平移

for i in range(HEIGHT, 1, -1):
  for j in range(WIDTH):
     if (i < HEIGHT-20):
       img[j][i] = img[j][i-20]
     elif (i < HEIGHT-1):
       img[j][i] = 0
plt.imshow(img)
plt.show()

其余不再赘述,可自行查看相关博客。
最终图像增强了大概4倍,得到训练集共1300张左右。

训练集预处理

前处理主要包括两点:压缩图像,归一化,做完前处理后才能丢进网络训练。

图像压缩

  我们的单反非常牛啤,每张都有4K的分辨率(4096×2160)。。。 因此图像压缩是必要的,否则这么大的图像不知道训练到猴年马月了。

  通常训练的图像会把图像压缩至32X32的像素大小( 李飞飞的Imagenet好像就是这么做的)不过我们本身样本不多,而且网络不大,压到这么小会严重失真,因此我们最终把图像压缩到128X128像素大小,上代码

from PIL import Image
import os
from glob import glob
 
fpath = filepath+"baby"
size = (128, 128)   # 要调整成为的尺寸
files = glob( fpath + "**/*.JPG", recursive=True) + glob(fpath + "**/*.jpg", recursive=True)
total = len(files) #总文件数
cur = 1 #当前文件序号
print("共有" + str(total) + "个文件,开始处理")
print("-----------------------------------")
for infile in files:
    try:
       # 分离文件名和后缀
        print("进度:" + str(cur) + "/" + str(total) + "   " + infile)
        img = Image.open(infile) # 打开图片文件
        mg.thumbnail(size, Image.ANTIALIAS) # 使用抗锯齿模式生成缩略图(压缩图片)
        img.save(infile, "JPEG") # 自动覆盖源文件

        cur = cur + 1
 
    except OSError:
        print(infile + "文件错误,忽略")

我们来看下缩小后的效果

基于CNN的婴儿睡觉状态识别(上)—模型训练_第4张图片
未压缩.png
基于CNN的婴儿睡觉状态识别(上)—模型训练_第5张图片
压缩后.png

归一化

  归一化是通过特定操作,让输入等比例缩放或平移,最终保持在(0,1)的范围内。归一化非常有必要,否则很难收敛甚至不能收敛,归一化同时能有效增加收敛速度,提高模型精度。

未归一化:

基于CNN的婴儿睡觉状态识别(上)—模型训练_第6张图片

归一化:

基于CNN的婴儿睡觉状态识别(上)—模型训练_第7张图片

  可见归一化能有效防止训练时梯度走之子型,步长也能比较均等,对于训练的收敛是有帮助的。

  对于RGB图像类数据,每个像素点有RGB三通道,每个通道的值为0~255之间,通常图像归一化有两种方法:
   1.以0.5为中心的压缩方式,将每个像素的RGB值简单除以255,就能将所有值压缩到0~1的范围内了。
   2.以0为中心的压缩方式,将每个像素的RGB值除以127.5,这样值在0~2之间,之后再减去一个1,使得值的分布为(-1—1)之间。

  我采用的是方法1,方法1与2的区别应该只是表达习惯的区别,实际上对训练结果应当不影响。

Tensorflow下小型CNN模型建立

  以前做类似图像二分类的时候用过迁移学习,就是把VGG-16的网络最后几层包括softmax拆掉,补上两层全连接,再对全连接层的参数做训练即可。

  然而因为此次需要把模型导入至树莓派,内存不能超过500M,而VGG-16光是参数就好几个G了,所以需要自己写小型CNN来实现。

1、读取训练集

先前归一化后的训练集用numpy保存为了train_x.npy与train_y.npy两个文件,用Load指令加载到环境中,因为要采用Mini—batch的方式,对训练集作了打乱

train_x = np.load("C:/Users/Administrator/Desktop/fzdl/data/train_x.npy")
train_y = np.load("C:/Users/Administrator/Desktop/fzdl/data/train_y.npy")
index=np.arange(1108)
np.random.shuffle(index)
train_x = train_x[index]
train_y = train_y[index]
2、定义权重、偏置、卷积层、池化操作

唯一要注意的是权重要用tf.truncated_normal的方式来定义,以实现权重初始化的随机性,否则可能造成梯度无法下降导致训练失败。

卷积层与池化层都采用了same padding,即操作时会自动在图像外围补充一圈数字0,使得卷积或池化操作后图像规格不会小一圈;池化采用了常用的最大池化max_pool

def weight_variable(shape, name):
    initializer = tf.truncated_normal(shape, stddev=0.1)
    return tf.Variable(initializer, name = name)

def bias_variable(shape, name):
    initializer = tf.constant(0.1, shape=shape)
    return tf.Variable(initializer, name = name)

def conv2d(x, W):
    
    return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')

def max_pool_2x2(x, name):
    
    return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME', name = name)

3、搭建网络

来到最关键的部分,首先定义两个placeholder做参数传入,要记得给输入xs命名,因为以后单片机模型转化过程会需要输入节点名字

第一维参数定义成None,代表可以为任意的值,这样传多大的batch进去都不用回头修改,是比较方便的写法

xs = tf.placeholder(tf.float32, [None, 128, 128,3], name = 'input')   # 128x128
ys = tf.placeholder(tf.float32, [None, 2])

来到正式搭建网络步骤,我们将网络写成一个inference(x)的函数,规格为两层卷积,两层全连接,最后softmax输出。

激活函数统一采用relu,每层卷积操作后接最大池化,卷积层过度到全连接层要reshape一遍

def inference(x):
    
    W_conv1 = weight_variable([3, 3, 3, 16], 'W_conv1') # patch 5x5, in size 3, out size 16
    b_conv1 = bias_variable([16], 'b_conv1')
    h_conv1 = tf.nn.relu((conv2d(x, W_conv1) + b_conv1), name = 'conv1') # output size 128x128x16
    h_pool1 = max_pool_2x2(h_conv1, 'pool1')                                         # output size 64x64x16
    
    ## conv2 layer 
    W_conv2 = weight_variable([3, 3, 16, 32], 'W_conv2') # patch 5x5, in size 16, out size 32
    b_conv2 = bias_variable([32], 'b_conv2')
    h_conv2 = tf.nn.relu((conv2d(h_pool1, W_conv2) + b_conv2), name = 'conv2') # output size 64x64x32
    h_pool2 = max_pool_2x2(h_conv2, name = 'pool2')                                         # output size 32x32x32
    
    ## flatten
    h_pool_flat = tf.reshape(h_pool2, [-1, 32 * 32 * 32])
    
    ## fc1 layer
    W_fc1 = weight_variable([32 * 32 * 32, 64], 'W_fc1')
    b_fc1 = bias_variable([64], 'b_fc1')
    h_fc1 = tf.nn.relu((tf.matmul(h_pool_flat, W_fc1) + b_fc1), name = 'fc1')
    h_fc1 = tf.nn.dropout(h_fc1, keep_prob = 0.9, name = 'dropout')
    
    ## fc2 layer
    W_fc2 = weight_variable([64, 2], 'W_fc2')
    b_fc2 = bias_variable([2], 'b_fc2')
    prediction = tf.nn.bias_add(tf.matmul(h_fc1, W_fc2), b_fc2, name = 'output')  
    prediction = tf.nn.softmax(prediction, name = 'softmax_output')
    
    return prediction

4、损失函数、优化器

损失函数为交叉熵,优化器为adam,很平常的选择,没什么好说的

prediction = inference(xs)
cross_entropy = tf.nn.softmax_cross_entropy_with_logits(labels = ys, logits = prediction)
_loss = tf.reduce_mean(cross_entropy)
train_step = tf.train.AdamOptimizer(1e-4).minimize(_loss)

5、开始训练

首先定义准确率acc,再定义saver以保存训练好的模型,然后就把定义好的各种东西直接run就好了。

bool_acc = tf.equal(tf.arg_max(prediction, 1), tf.arg_max(ys, 1))
acc = tf.reduce_mean(tf.cast(bool_acc, tf.float32))
saver = tf.train.Saver()

with tf.Session() as sess:
    
    init = tf.global_variables_initializer()
    summary_writer = tf.summary.FileWriter(log_dir, sess.graph)
    sess.run(init)
    
    loss_vec = []
    acc_vec = []
    
    for i in range(max_epoch):
        start = time.clock()
        loss, accuracy, _ = sess.run([_loss, acc, train_step],feed_dict={xs: train_x, ys: train_y})
        
        loss_vec.append(loss)

        time_cost = time.clock() - start
        print ('step %d, loss = %.4f, accuracy = %.4f, it costs %g' % (i + 1, loss, accuracy, time_cost),'s')
            
        if i + 1 == max_epoch:
            accc = sess.run(_acc, feed_dict={xs: train_x, ys:train_y})
            print(accc)
            saver.save(sess, os.path.join(model_save_path,model_name), global_step = i)

另外,本来打算用mini-batch的,然而发现运行的飞快,根本用不着了,最后还是用fullbatch完成了训练,共训练250步,约220步的时候就达到收敛,Loss降到了0.01左右,accuracy达到了100%


基于CNN的婴儿睡觉状态识别(上)—模型训练_第8张图片
训练结果

结语

  实际上还是缺了一些步骤,做得还不够讲究:
  比如没有防止过拟合的措施,应该加入dropout;
  没有分割出一部分交叉训练集,准确率虽然在训练集上很高,但是可能是过拟合造成的假象;
  按Andrew ng的说法,还应该调整各种参数去画学习曲线,然后觉得下一步的优化;

  不过由于项目时间有限,目前以能用就行作为唯一要求,而且在后续导入树莓派后发现运气很好的,并没有过拟合,识别效果非常好~~~

  不过未来有时间总之还是得继续优化的。。
模型训练的代码请移步至我的github:https://github.com/huangchuhccc/baby_recognition_by_Horned_sungem_using_tensorflow
后续嵌入树莓派+角峰鸟的流程请移步至下篇
https://www.jianshu.com/p/dd190c5dcbcd
后续又实现了利用婴儿是否入睡的判定与微信的实时提醒,请移步这篇博客:
https://www.jianshu.com/p/45918d2ed025

你可能感兴趣的:(基于CNN的婴儿睡觉状态识别(上)—模型训练)