iOS11 新特性-Core ML (一)简介

WWDC 2017开发者大会上,苹果发布了面向开发者的机器学习API,包括面部识别的视觉 API、自然语言处理 API,这些 API 集成了苹果所谓的 Core ML 框架;Core ML 的核心是加速在 iPhone、iPad、Apple Watch 上的人工智能任务,支持深度神经网络、循环神经网络、卷积神经网络、支持向量机、树集成、线性模型等。详细资料参考Core

ML。

使用 Core ML,你可以将训练好的机器学习模型整合到你的应用中。它支持以下操作系统:

iOS11.0+Beta

macOS 10.13+Beta

tvOS 11.0+Beta

watchOS 4.0+Beta

训练好的模型(trained model)是将一个机器学习算法应用到一个训练数据集之后所得到的结果。然后该模型可以基于新的输入数据而进行预测。比如,如果一个模型在一个地区的历史房价数据上进行了训练,那么它就可能能够根据房子的卧室和浴室数量来预测房价。


Core ML 是域特定的框架和功能的基础。Core

ML 支持用于图像分析的 Vision;用于自然语言处理的 Foundation(比如 NSLinguisticTagger

类)和用于评估已经学习到的决策树的 GameplayKit。Core ML 本身构建于低层面的原语(primitives)之上,比如

Accelerate、BNNS 和 Metal Performance Shaders。

Core ML 为设备性能进行了优化,从而减少了内存占用和功耗。严格在设备上运行能够确保用户数据的隐私,并且能保证你的应用在没有网络连接时也能够工作和响应。

你可能感兴趣的:(iOS11 新特性-Core ML (一)简介)