iOS Core ML 2.0

1.Core ML,您可以将机器学习模型集成到您的应用程序中

image

2.Core ML是特定于域的框架和功能的基础。核心ML支持视觉图像分析,自然语言的自然语言处理,语音转换音频文本,SoundAnalysis用于识别音频声音。Core ML本身建立在低级原语之上,如Accelerate和BNNS,以及Metal Performance Shaders
image

3.Core ML是支持扩展的模型类型
屏幕快照 2019-07-01 上午1.19.20.png

这个中的模型都可以用来转换。
Core ML Tools
https://pypi.org/project/coremltools/
4.Vision 总结
(1)Core ML可以看做一个模型的转换器,可以将一个 ML Model 格式的模型文件自动生成一些类和方法,可以直接使用这些类去做分析,让我们更简单的在app中使用训练好的模型。
(2)Vision本身就是能对图片做分析,他自带了针对很多检测的功能,相当于内置了一些Model,另外Vision也能使用一个你设置好的其它的Core ML Model来对图进行分析。
(3)Vision就是建立在Core ML层之上的,使用Vision其实还是用到了Core ML,只是没有显式地直接写Core ML的代码而已。

你可能感兴趣的:(iOS Core ML 2.0)