TensorFlow Lite 指南

TensorFlow Lite
TensorFlow Lite 指南

TensorFlow Lite 是一组工具,可帮助开发者在移动设备、嵌入式设备和 IoT 设备上运行 TensorFlow 模型。它支持设备端机器学习推断,延迟较低,并且二进制文件很小。

TensorFlow Lite 包括两个主要组件:解释器用来
转换器是模型的格式转换,优化,提高性能,减小模型大小

TensorFlow Lite 解释器,它可在手机、嵌入式 Linux 设备和微控制器等很多不同类型的硬件上运行经过专门优化的模型。
TensorFlow Lite 转换器,它可将 TensorFlow 模型转换为方便解释器使用的格式,并可引入优化以减小二进制文件的大小和提高性能。

边缘机器学习

TensorFlow Lite 旨在让您轻松地在网络“边缘”的设备上执行机器学习,而无需在设备与服务器之间来回发送数据。对开发者来说,在设备端执行机器学习有助于:

  1. 缩短延迟:数据无需往返服务器
  2. 保护隐私:任何数据都不会离开设备
  3. 减少连接:不需要互联网连接
  4. 降低功耗:网络连接非常耗电

TensorFlow Lite 支持各种设备,从超小的微控制器到功能强大的手机,不一而足。

要点:

当所有 125 多个受支持的运算符均建立关联后,TensorFlow Lite 二进制文件的大小约为 1 MB(针对 32 位 ARM build);如果仅使用支持常见图像分类模型(InceptionV3 和 MobileNet)所需的运算符,TensorFlow Lite 二进制文件的大小不到 300 KB。

使用入门

如需开始在移动设备上使用 TensorFlow Lite,请访问使用入门。如果您要将 TensorFlow Lite 模型部署到微控制器,请访问微控制器。

主要特性

预训练模型,适用于可根据您的应用自定义的常见机器学习任务。

开发工作流程

使用 TensorFlow Lite 的工作流包括如下步骤:

  1. 选择模型
    您可以使用自己的 TensorFlow 模型、在线查找模型,或者从我们的预训练模型中选择一个模型直接使用或重新训练。

  2. 转换模型
    如果您使用的是自定义模型,请使用 TensorFlow Lite 转换器将模型转换为 TensorFlow Lite 格式,只需几行 Python 代码就能搞定。

  3. 部署到您的设备:请使用TensorFlow Lite 解释器(提供多种语言的 API)在设备端运行您的模型。

  4. 优化您的模型
    请使用我们的模型优化工具包缩减模型的大小并提高其效率,同时最大限度地降低对准确率的影响。

如需详细了解如何在项目中使用 TensorFlow Lite,请参阅使用入门

后续步骤

想继续了解 TensorFlow Lite 吗?下面是一些后续步骤:

  1. 访问使用入门,了解 TensorFlow Lite 使用流程的分步介绍。
  2. 如果您是移动开发者,请访问 Android 快速入门或 iOS 快速入门。
  3. 了解适用于微控制器的 TensorFlow Lite。
  4. 浏览我们的预训练模型,和下面的示例是一个网址
  5. 试试我们的示例应用。

你可能感兴趣的:(TF-lite,lite,tensorflow)