产品经理也能动手实践的AI(四)- 多标签识别,图像分割

上一篇讲了

产品经理也能动手实践的AI(三)- 深入图像识别,在线辨猫

,形象的说明了SGD的原理,就是如何将一个线性函数你和到我们预设的散点图上。今天主要讲2个案例,1个核心模块,分别是卫星图像的多标签识别,图片分割着色,数据块这个核心模块。

这也是图像识别的最后一课了,我承认到这里可能就有点枯燥了,因为有很多需要消化的东西,不过我觉得重点是大概理解这是怎么一回事儿,以及把自己关注的点研究明白,不见得每个细节都要在一开始搞明白。

接下来就会讲解NLP和协同过滤,而且这节课也没有什么特别全新的东西,都是细节上的提升或者更详细的讲解。而我印象最深的就是u-net这个模型,以及他的lr(指代Learning Rate学习率,下文都会直接用lr来代替)训练方式,是先增后降。


1.概览

本节课主要讲解的是多标签识别(用卫星图像预测天气),图像分割(用不同颜色区分行人、道路、房子等),还有支持这两种类型的核心模块 - data block。

这是卫星图片,以及对应的标签

产品经理也能动手实践的AI(四)- 多标签识别,图像分割_第1张图片

这是如何将一副路边的图像,用无人驾驶的视角按类别变成色块

产品经理也能动手实践的AI(四)- 多标签识别,图像分割_第2张图片

2.1核心流程

  • 下载数据(这一节主要来源于公共数据库)

  • 创建databunch(data block的核心流程)

    • 准备输入的数据

    • 划分训练组和验证组数据

    • 给输入的数据打标签

      • 「可选」变形

      • 「可选」增加测试组

    • 转化成databunch

  • 创建learner

  • 开始训练

  • 调优


2.2核心数学概念

  • 产品经理也能动手实践的AI(四)- 多标签识别,图像分割_第3张图片
  • 产品经理也能动手实践的AI(四)- 多标签识别,图像分割_第4张图片
  • 通用逼近定理:当有一组线性和非线性函数,你就可以做出一个无线接近任意函数的函数。


2.3核心机器学习概念

  • flip翻转:在transform的时候,可以随机水平翻转或者垂直翻转图像,来提高训练的准确度,默认是水平翻转,比如训练识别猫的AI,而识别卫星图像的就可以同时垂直旋转;

  • warp透视:和45度拍照显脸小是一个道理,就相当于对一个正面拍摄的照片做了一个透视处理,虽然都是你本人,但是在图像上呈现的效果不同,所以这样的处理可以提高识别准确度;

  • normailize规范化:后面会专门讲

  • threshold阈值:主要是多标签时用,因为识别时会有N个结果,不像单标签,选最大的那个就行(argmax),这里要选threshold值以上的;

  • DataSet:数据集,只有getitem和len属性

  • DataLoader:用于把DataSet中的数据,按要求抽取成一个个mini-batch

  • DataBunch:训练组DataLoader和验证组DataLoader的组合

  • Mixed Precision Training 混合精确训练:创建learner时用16bits代替32bits,需要GPU支持


2.4核心Python、FastAI、Jupyter等命令

  • !:是在Jupyter Notebook中执行命令行的操作,如:# ! conda install -y -c haasad eidl7zip

  • Pandas:处理表格数据和常用库,比如查看数据:df = pd.read_csv(path/'train_v2.csv')

  • partial:Python3的特性,可以非常方便的生成一个具备固定参数的函数,这样代码看起来就更好懂,比如:acc_02 = partial(accuracy_thresh, thresh=0.2)

  • .shape:Image.shape 会给出这个tensor的大小,主要是包含channels,类似于维度,这个之后会讲 (channels x height x width)

  • .plot:把学习过程的数据打出来,loss,lr,等各种指标

  • lambda:匿名函数,即没有函数名的函数,例如输入x返回x+1:result = lambda x:x+1

  • 双斜杠:Python里相除取整的意思,比如size = src_size//2 


3.1实例详细分析(用卫星图像预测天气)

上一节讲的是通过Google image自己找图片然后自己下载下来,打上标签。这一届直接用Kaggle竞赛提供的数据。

  • 下载数据

    • 注册Kaggle

    • 安装Kaggle下载工具 ! pip install kaggle --upgrade

    • 授权

      • 创建API Token - kaggle.json

      • 下载并传到自己的Jupyter目录

      • 接受该卫星项目许可(不然会遇到下载失败情况)

    • 下载数据下载 kaggle competitions download -c competition_name -f file_name.

    • 解压缩数据 需要安装edil7zip

  • 创建DataBunch

    • 先养成查看数据的习惯,看目录结构,看数据样本 pd.read_csv

    • 准备输入的数据 ImageFileList.from_folder(path)

    • 划分训练组和验证组数据 random_split_by_pct(0.2)

    • 给输入的数据打标签 label_from_csv()

      • 「可选」变形 transform(tfms, size=128)

      • 「可选」增加测试组

    • 转化成databunch databunch().normalize()

  • 训练模型

  • 调优

    • 核心小技巧:先训练128x128尺寸的图像,然后再用迁移学习,训练256x256尺寸的图像,这样又快又准


3.2实例详细分析(图像分割,用不同颜色区分行人、道路、房子等)

  • 下载数据,通过内置的Camvid数据库

  • 查看数据,找到一条数据,用open_mask打开看看

  • 创建databunch  SegmentationItemList.from_folder(path_img)

  • 创建learner 使用u-net代替CNN来训练模型

  • 开始训练 

  • 调优


3.3原理详细分析

learn.recorder.plot_losses() 

产品经理也能动手实践的AI(四)- 多标签识别,图像分割_第5张图片

learn.recorder.plot_lr()

产品经理也能动手实践的AI(四)- 多标签识别,图像分割_第6张图片

为什么lr会先升后降呢,这就是fit_one_cycle做的方式,因为相对而言,这种学习效率更高,形象点说就是先探探路,然后再大步走,感觉方向对了,就逐渐放慢脚步,然后到达那个最优点。如下演示的是以一个固定的lr,如下分别是lr为0.1,0.7,0.99,1.01时的机器的学习路径,看到0.7是最快接近底部,也就是loss最低的时候,而过低的lr和过高的lr都会影响效率,而高到一定程度反而会无法触达底部。

这是一种比较理想的情况,而实际应用中不会有这么平滑的弧度,肯定有各种小坑,而那时,固定的lr很容易陷到某一个小坑中而得到了不够理想的准确度,俗称拟合不足。

所以这里采用了更加动态的lr,只需要设定一个上限值,系统就会自动生成一个lr的抛物曲线,然后得到更准确的模型。

4.最后

本节课还讲了一个用回归模型识别头部中心点的例子,以及如何用IMDB数据预测评论的正负面情绪(NLP),之后的课程有更详细的讲解,所以这里就先不展开。

你可能感兴趣的:(产品经理也能动手实践的AI(四)- 多标签识别,图像分割)