每日BGM分享 ——后继者
day4的作业做得不是很好,主要是在数据处理方面,所以直到今天才写这篇文章。
任务简介
图像分类是计算机视觉的重要领域,它的目标是将图像分类到预定义的标签。近期,许多研究者提出很多不同种类的神经网络,并且极大的提升了分类算法的性能。本文以自己创建的数据集:青春有你2中选手识别为例子,介绍如何使用PaddleHub进行图像分类任务。
最终实现的结果如下:
#环境配置
#CPU环境启动请务必执行该指令,若用GPU请忽略
%set_env CPU_NUM= 1
#调用框架
#安装paddlehub
!pip install paddlehub==1.6.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
#解压数据文件到指定目录下
#说明:数据库需要自己爬取
!unzip -o train.zip -d dataset/
import paddlehub as hub
#加载预训练模型
#模型的选择可以去paddlehub上自行查阅适合自己任务的
module = hub.Module(name="resnet_v2_50_imagenet")
#数据准备
#包括训练集,验证集,测试集以及数据标签的建立
#其中三个数据集的比例可以设置为8:1:1,当然如果有任务要求的话可以自定义比例
from paddlehub.dataset.base_cv_dataset import BaseCVDataset
class DemoDataset(BaseCVDataset):
def __init__(self):
# 数据集存放位置
self.dataset_dir = "."
super(DemoDataset, self).__init__(
base_path=self.dataset_dir,
train_list_file="dataset/train_list.txt",
validate_list_file="dataset/validate_list.txt",
test_list_file="dataset/test_list.txt",
label_list_file="dataset/label_list.txt",
)
dataset = DemoDataset()
print(dataset)
#这一步只是看下数据集中的图片而已
#可以不写这部分
import matplotlib.pyplot as plt
import matplotlib.image as mpimg
img = mpimg.imread('dataset/data1/anqi/1.jpg')
img1 = mpimg.imread('dataset/data1/yushuxin/1.jpg')
img2 = mpimg.imread('dataset/data1/xujiaqi/29.jpg')
img3 = mpimg.imread('dataset/data1/wangchengxuan/2.jpg')
img4 = mpimg.imread('dataset/data1/zhaoxiaotang/1.jpg')
plt.figure(figsize=(9,9))
plt.subplot(1,5,1)
plt.imshow(img)
plt.axis('off')
plt.subplot(1,5,2)
plt.imshow(img1)
plt.axis('off')
plt.subplot(1,5,3)
plt.imshow(img2)
plt.axis('off')
plt.subplot(1,5,4)
plt.imshow(img3)
plt.axis('off')
plt.subplot(1,5,5)
plt.imshow(img4)
plt.axis('off')
plt.show()
print(" 安崎 虞书欣 许佳琪 王承渲 赵小棠")
生成数据读取器
接着生成一个图像分类的reader,reader负责将dataset的数据进行预处理,接着以特定格式组织并输入给模型进行训练。
当我们生成一个图像分类的reader时,需要指定输入图片的大小
data_reader = hub.reader.ImageClassificationReader(
image_width=module.get_expected_image_width(),
image_height=module.get_expected_image_height(),
images_mean=module.get_pretrained_images_mean(),
images_std=module.get_pretrained_images_std(),
dataset=dataset)
配置策略
在进行Finetune前,我们可以设置一些运行时的配置,例如如下代码中的配置,表示:
use_cuda:设置为False表示使用CPU进行训练。如果您本机支持GPU,且安装的是GPU版本的PaddlePaddle,我们建议您将这个选项设置为True;
epoch:迭代轮数;
batch_size:每次训练的时候,给模型输入的每批数据大小为32,模型训练时能够并行处理批数据,因此batch_size越大,训练的效率越高,但是同时带来了内存的负荷,过大的batch_size可能导致内存不足而无法训练,因此选择一个合适的batch_size是很重要的一步;
log_interval:每隔10 step打印一次训练日志;
eval_interval:每隔50 step在验证集上进行一次性能评估;
checkpoint_dir:将训练的参数和数据保存到cv_finetune_turtorial_demo目录中;
strategy:使用DefaultFinetuneStrategy策略进行finetune;
更多运行配置,请查看RunConfig
同时PaddleHub提供了许多优化策略,如AdamWeightDecayStrategy、ULMFiTStrategy、DefaultFinetuneStrategy等,详细信息参见策略
config = hub.RunConfig(
use_cuda=False, #是否使用GPU训练,默认为False;
num_epoch=6, #Fine-tune的轮数;
checkpoint_dir="cv_finetune_turtorial_demo",#模型checkpoint保存路径, 若用户没有指定,程序会自动生成;
batch_size=5, #训练的批大小,如果使用GPU,请根据实际情况调整batch_size;
eval_interval=10, #模型评估的间隔,默认每100个step评估一次验证集;
strategy=hub.finetune.strategy.DefaultFinetuneStrategy()) #Fine-tune优化策略;
组建Finetune Task
有了合适的预训练模型和准备要迁移的数据集后,我们开始组建一个Task。
由于该数据设置是一个二分类的任务,而我们下载的分类module是在ImageNet数据集上训练的千分类模型,所以我们需要对模型进行简单的微调,把模型改造为一个二分类模型:
input_dict, output_dict, program = module.context(trainable=True)
img = input_dict["image"]
feature_map = output_dict["feature_map"]
feed_list = [img.name]
task = hub.ImageClassifierTask(
data_reader=data_reader,
feed_list=feed_list,
feature=feature_map,
num_classes=dataset.num_labels,
config=config)
开始Finetune
我们选择finetune_and_eval接口来进行模型训练,这个接口在finetune的过程中,会周期性的进行模型效果的评估,以便我们了解整个训练过程的性能变化。
run_states = task.finetune_and_eval()
预测
当Finetune完成后,我们使用模型来进行预测,先通过以下命令来获取测试的图片
import numpy as np
import matplotlib.pyplot as plt
import matplotlib.image as mpimg
import matplotlib.pyplot as plt
import matplotlib.image as mpimg
with open("dataset/test_list.txt","r") as f:
filepath = f.readlines()
data = [filepath[0].split(" ")[0],filepath[1].split(" ")[0],filepath[2].split(" ")[0],filepath[3].split(" ")[0],filepath[4].split(" ")[0]]
label_map = dataset.label_dict()
index = 0
run_states = task.predict(data=data)
results = [run_state.run_results for run_state in run_states]
for batch_result in results:
print(batch_result)
batch_result = np.argmax(batch_result, axis=2)[0]
print(batch_result)
for result in batch_result:
index += 1
result = label_map[result]
print("input %i is %s, and the predict result is %s" %
(index, data[index - 1], result))
img = mpimg.imread(data[0])
img1 = mpimg.imread(data[1])
img2 = mpimg.imread(data[2])
img3 = mpimg.imread(data[3])
img4 = mpimg.imread(data[4])
plt.figure(figsize= (10,10))
plt.subplot(1,5,1)
plt.imshow(img)
plt.axis('off')
plt.subplot(1,5,2)
plt.imshow(img1)
plt.axis('off')
plt.subplot(1,5,3)
plt.imshow(img2)
plt.axis('off')
plt.subplot(1,5,4)
plt.imshow(img3)
plt.axis('off')
plt.subplot(1,5,5)
plt.imshow(img4)
plt.axis('off')
plt.show()
print(" 安崎 虞书欣 许佳琪 王承渲 赵小棠")
解决办法:
1.图片爬取之后要进行人工复检,重命名等工作。
2. 一定要确定文件路径的准确性。
3. 写代码时要细心。