百度PaddlePaddle之PaddleHub识别《青春有你2》小姐姐

百度PaddleHub识别《青春有你2》小姐姐

    • 一、任务简介
    • 二、任务实践
    • 三、总结

一、任务简介

图像分类是计算机视觉的重要领域,它的目标是将图像分类到预定义的标签。近期,许多研究者提出很多不同种类的神经网络,并且极大的提升了分类算法的性能。本文以自己创建的数据集:青春有你2中选手识别为例子,介绍如何使用PaddleHub进行图像分类任务。
AiStudio下
#CPU环境启动请务必执行该指令
%set_env CPU_NUM=1
#安装paddlehub
!pip install paddlehub==1.6.0 -i https://pypi.tuna.tsinghua.edu.cn/simple

二、任务实践

二、任务实践
Step1、基础工作

加载数据文件

导入python包
In[9]

#!unzip -o /home/aistudio/dataset/file.zip -d ./dataset/

In[5]

import paddlehub as hub

Step2、加载预训练模型

接下来我们要在PaddleHub中选择合适的预训练模型来Finetune,由于是图像分类任务,因此我们使用经典的ResNet-50作为预训练模型。PaddleHub提供了丰富的图像分类预训练模型,包括了最新的神经网络架构搜索类的PNASNet,我们推荐您尝试不同的预训练模型来获得更好的性能。
In[7]

module = hub.Module(name=“resnet_v2_50_imagenet”)

[2020-04-26 22:29:48,966] [ INFO] - Installing resnet_v2_50_imagenet module
[2020-04-26 22:29:49,005] [ INFO] - Module resnet_v2_50_imagenet already installed in /home/aistudio/.paddlehub/modules/resnet_v2_50_imagenet

Step3、数据准备

接着需要加载图片数据集。我们使用自定义的数据进行体验,请查看适配自定义数据
百度PaddlePaddle之PaddleHub识别《青春有你2》小姐姐_第1张图片

from paddlehub.dataset.base_cv_dataset import BaseCVDataset
   
class DemoDataset(BaseCVDataset):	
   def __init__(self):	
       # 数据集存放位置
       
       self.dataset_dir = "dataset"
       super(DemoDataset, self).__init__(
           base_path=self.dataset_dir,
           train_list_file="train_list.txt",
           validate_list_file="validate_list.txt",
           test_list_file="test_list.txt",
           label_list_file="label_list.txt",
           )
dataset = DemoDataset()

Step4、生成数据读取器

接着生成一个图像分类的reader,reader负责将dataset的数据进行预处理,接着以特定格式组织并输入给模型进行训练。

当我们生成一个图像分类的reader时,需要指定输入图片的大小

data_reader = hub.reader.ImageClassificationReader(
    image_width=module.get_expected_image_width(),
    image_height=module.get_expected_image_height(),
    images_mean=module.get_pretrained_images_mean(),
    images_std=module.get_pretrained_images_std(),
    dataset=dataset)

Step5、配置策略

在进行Finetune前,我们可以设置一些运行时的配置,例如如下代码中的配置,表示:

use_cuda:设置为False表示使用CPU进行训练。如果您本机支持GPU,且安装的是GPU版本的PaddlePaddle,我们建议您将这个选项设置为True;

epoch:迭代轮数;

batch_size:每次训练的时候,给模型输入的每批数据大小为32,模型训练时能够并行处理批数据,因此batch_size越大,训练的效率越高,但是同时带来了内存的负荷,过大的batch_size可能导致内存不足而无法训练,因此选择一个合适的batch_size是很重要的一步;

log_interval:每隔10 step打印一次训练日志;

eval_interval:每隔50 step在验证集上进行一次性能评估;

checkpoint_dir:将训练的参数和数据保存到cv_finetune_turtorial_demo目录中;

strategy:使用DefaultFinetuneStrategy策略进行finetune;

更多运行配置,请查看RunConfig

同时PaddleHub提供了许多优化策略,如AdamWeightDecayStrategy、ULMFiTStrategy、DefaultFinetuneStrategy等,详细信息参见策略

config = hub.RunConfig(
    use_cuda=False,                              #是否使用GPU训练,默认为False;
    num_epoch=3,                                #Fine-tune的轮数;
    checkpoint_dir="cv_finetune_turtorial_demo",#模型checkpoint保存路径, 若用户没有指定,程序会自动生成;
    batch_size=3,                              #训练的批大小,如果使用GPU,请根据实际情况调整batch_size;
    eval_interval=40,                           #模型评估的间隔,默认每100个step评估一次验证集;
    strategy=hub.finetune.strategy.DefaultFinetuneStrategy())  #Fine-tune优化策略;

Step6、组建Finetune Task

有了合适的预训练模型和准备要迁移的数据集后,我们开始组建一个Task。

由于该数据设置是一个二分类的任务,而我们下载的分类module是在ImageNet数据集上训练的千分类模型,所以我们需要对模型进行简单的微调,把模型改造为一个二分类模型:

获取module的上下文环境,包括输入和输出的变量,以及Paddle Program;
从输出变量中找到特征图提取层feature_map;
在feature_map后面接入一个全连接层,生成Task;
input_dict, output_dict, program = module.context(trainable=True)
img = input_dict["image"]
feature_map = output_dict["feature_map"]
feed_list = [img.name]

task = hub.ImageClassifierTask(
    data_reader=data_reader,
    feed_list=feed_list,
    feature=feature_map,
    num_classes=dataset.num_labels,
    config=config)

Step5、开始Finetune

我们选择finetune_and_eval接口来进行模型训练,这个接口在finetune的过程中,会周期性的进行模型效果的评估,以便我们了解整个训练过程的性能变化。

run_states = task.finetune_and_eval()

Step6、预测

当Finetune完成后,我们使用模型来进行预测,先通过以下命令来获取测试的图片

import numpy as np
import matplotlib.pyplot as plt 
import matplotlib.image as mpimg

with open("dataset/test_list.txt","r") as f:
    filepath = f.readlines()

data = [filepath[0].split(" ")[0],filepath[1].split(" ")[0],filepath[2].split(" ")[0],filepath[3].split(" ")[0],filepath[4].split(" ")[0]]

label_map = dataset.label_dict()
index = 0
run_states = task.predict(data=data)
results = [run_state.run_results for run_state in run_states]

for batch_result in results:
    print(batch_result)
    batch_result = np.argmax(batch_result, axis=2)[0]
    print(batch_result)
    for result in batch_result:
        index += 1
        result = label_map[result]
        print("input %i is %s, and the predict result is %s" %
              (index, data[index - 1], result))

[2020-04-26 22:31:17,470] [ INFO] - Load the best model from cv_finetune_turtorial_demo/best_model
2020-04-26 22:31:17,818-WARNING: paddle.fluid.layers.py_reader() may be deprecated in the near future. Please use paddle.fluid.io.DataLoader.from_generator() instead.
[2020-04-26 22:31:18,219] [ INFO] - PaddleHub predict start
[2020-04-26 22:31:18,878] [ INFO] - PaddleHub predict finished.

[array([[0.81341505, 0.00856604, 0.08489282, 0.0844561 , 0.00866995],
       [0.0852652 , 0.6539915 , 0.17045574, 0.06606334, 0.02422424],
       [0.14397141, 0.00107641, 0.4876539 , 0.34398958, 0.02330877]],
      dtype=float32)]
[0 1 2]
input 1 is dataset/0ysx/68.jpg, and the predict result is 虞书欣
input 2 is dataset/1xjq/52.jpg, and the predict result is 许佳琪
input 3 is dataset/2zxt/42.jpg, and the predict result is 赵小棠
[array([[0.00447683, 0.04703745, 0.01029564, 0.8001978 , 0.13799225],
       [0.03391783, 0.00143983, 0.02255425, 0.06035765, 0.88173044]],
      dtype=float32)]
[3 4]
input 4 is dataset/3aq/40.jpg, and the predict result is 安崎
input 5 is dataset/4wcx/64.jpg, and the predict result is 王承渲

三、总结

  初学python并且第一次接触人工智能,没想到百度的飞桨用起来这么方便,一周的时间就能用百度飞桨的paddlehub来做图像识别。以前一听到AI就会自然的想的大学学的线性代数、微积分、概率论这些,甚至还有什么混沌学、模糊理论、贝叶斯网络等概念。脑壳痛。。。。
  没想到学了几天用python和paddlehub来实现AI的一些功能,感觉人工智能应用这么简单方便了,对于做企业IT业务的我来说,我认为直接可以将百度的人工智能框架模型应用在客户的业务之中,以前客户无法实现或很难实现的业务需求现在有了可以落地的方案了。
  比如我之前服务过的一家做汽车轮毂的企业,当时它们生产线下来的轮毂还是人工去判断轮型,现在完全可以用paddlehub的预处理模型来进行学习得到可用的轮型识别模型。

你可能感兴趣的:(AI,深度学习,paddlepaddle)