WWDC2018之Create ML(一)

WWDC2018刚刚过去一个不到一个月,开发者们是不是对iOS12的新特性蠢蠢欲试,在WWDC2018上,库老板发布了iOS12,watchOS 5,macOS Mojave和tvOS12。这次发布会升级了ARKit2,CoreML2,新增了Create ML。那么,我们一定很好奇新增的这个Create ML是什么?和CoreML又有什么关系,下面我带大家看一下。

Create ML是什么?

如果你用过CoreML的话,你应该知道,使用CoreML的前提是你需要机器学习已经训练好的模型,这个模型怎么来呢?使用tensorflow等神经网络框架训练出来,然后通过苹果的工具转换成相应的格式才能使用,但是这样的话,你需要学习相应的神经网络算法,写相应的神经算法去训练模型,这样学习成本成吨的上涨。这个时候,Create ML的出现,能够让你更加轻松的训练出模型,苹果是不是很贴心呢!

如何去做?

下面我将一步一步的演示最基本的做法!
我们都知道CoreML主要用于识别图像和自然语言,那么,我们这一篇以识别图像作为演示。

环境

电脑系统:macOS Mojave
Xcode版本:Xcode 10 beta2
开发语言:Swift4.2

制作图像分类器

目标:分类猫、狗、狮子、老虎、羊的图片
1.数据预处理
首先我们要收集猫、狗、狮子、老虎、羊的不重复图片数据,里面的80%的图片当做训练集,20%的图片当做测试集。
新建一个叫Training Data的文件夹,这个文件夹当做训练集的总文件夹,再这个文件夹再新建要分类的文件夹。

WWDC2018之Create ML(一)_第1张图片
Training Data的文件目录结构

新建一个叫Testing Data的文件夹,这个文件夹当做测试集的总文件夹,和Training Data一样,里面再新建分类的子文件夹。
WWDC2018之Create ML(一)_第2张图片
Testing Data的文件目录结构

总分类文件夹下的每个子分类的图片张数必须要一样,Training Data的每个子分类的图片至少10张,图片的数量越大,学习后的精确度越高,学习的时间也越长。这些图像不必是相同的大小,也不必是任何特定的大小,最好使用299x299以上像素的图像。比较常用的图像格式都可以,例如JPEG and PNG都可以。
下面我将使用每个分类总共使用50张图片,Training Data下各个分类下的文件夹下的图片数目分别是40张,Testing Data下的各个分类下的文件夹下的图片数目分别是10张.
2.新建一个macOS的Playground文件,注意这里必须选择macOS类型的,如果是iOS或者tvOS的话是无法导入Create ML库的。
WWDC2018之Create ML(一)_第3张图片
创建playground

3.新建好之后可以输入创建图片分类器UI的代码
WWDC2018之Create ML(一)_第4张图片
生成并启动Live View

这个时候我们再最右面看到图片分类器的Live View。后面的所有操作都是根据这个来操作的。
4.开始操作
展开Live View的ImageClassifier,我们可以看到好多陌生名词,我们一一解释下:
WWDC2018之Create ML(一)_第5张图片

Max iterations:迭代次数。默认是10,越大训练的时间越长,但是不要过大,所以可以通过逐步的增加迭代次数来改善正确率。
Augmentation下面有4个选项,这4个选项是为了通过Flip(翻转),Rotate(旋转),Expose(曝光),Shear(裁剪)四种方式对同一张图片进行处理,这样的话,一张图片经过这四种处理,就变成多张图片。更有利于模型学习,这种技术叫做数据增强。一般情况下,数据不足的情况下会用这种方式来提高训练的准确性。
WWDC2018之Create ML(一)_第6张图片
数据增强

这里有一个bug,部分机型测试时在勾选Augmentation的时候训练时,Live View会消失,这可能是数据增强之后数据集变大对内存的压力也变大的的原因。
下面开始训练:可以将Training Data文件夹拖到虚框里或者在上面的Training Data的Choose..选择Training Data文件夹。这时候,数据就会开始训练,因为我这里迭代次数默认是10,训练的时候,Live View会有进度条,控制台也会有进度的打印。最后结果如下:
WWDC2018之Create ML(一)_第7张图片
训练结果的准确度

这里会有人疑问,为什么训练也会有正确率?
答案是作为训练过程的一部分,图像分类器会自动将训练数据分割成训练部分和验证部分,这两者都会影响训练,但方式不同。由于分割是随机进行的,所以每次训练模型时,您可能会得到不同的结果。
我们从控制台也可以看出这一点。
WWDC2018之Create ML(一)_第8张图片
训练时的控制台的输出

这里是将训练集中的5%拿出来做验证部分,结果也可以看出来验证的正确率100%。
如果你看了官方文档,官方文档给出的训练结果截图和我这种情况不一样,那么不要慌!因为当验证部分和训练部分的准确度不一样的时候,就会出现分别显示训练部分和验证部分的准确度。下面是官方文档演示的结果截图:
WWDC2018之Create ML(一)_第9张图片
官方示例截图

然后,再将Testing Data文件夹拖进去。得到结果:
WWDC2018之Create ML(一)_第10张图片
测试结果的准确度

上面显示测试集预测的准确度为100%,下面是每张测试数据的图片的测试结果。
WWDC2018之Create ML(一)_第11张图片
测试时的控制台的输出

从控制台可以看出进度和每一分类的准确度。
从结果来看我们这个模型准确率已经很高了,这样差不多就完成了,最后只要把模型保存下来就够了。
WWDC2018之Create ML(一)_第12张图片
最后的编辑保存

填写Author,Description,License,Version,选好保存的地址,点一下Save按钮就保存下来了。
这样我们就可以使用训练好的模型用CoreML去happy的去创建app了。

你可能感兴趣的:(WWDC2018之Create ML(一))