今早谷歌在自家的科研博客上发文,宣布开源MobileNets——一组移动端优先的计算机视觉模型。通过TensorFlow Mobile,这些模型可以在脱机状态下在移动设备上高效运行。
量子位将原文编译如下:
近几年来,伴随着神经网络不断将视觉识别技术向前推进,深度学习已经为计算机视觉领域的进步贡献了太多太多。而这其中的许多技术,包括对物体、地标、logo和文本的识别等,都是通过云视觉API在联网设备上实现的。
但我们相信,移动设备计算力的不断提升,将可能让用户在脱机状态下随时、随地地接触到这些技术。然而,在设备端和嵌入式应用上的视觉识别面临着诸多挑战——在资源受限的环境下,这些模型必须利用有限的计算力、能耗和空间来保证运行的速度与精确度。
今天我们很高兴地宣布开放MobileNets,一个为TensorFlow所准备、移动端优先的计算机视觉模型包,其设计考虑了设备端和嵌入式应用上首先的资源,力图最大化地提升精确度。MobileNets具有小规模、低延迟、低功耗的特点,为多种不同应用案例中的资源限制进行了参数化设计。和Inception这类主流的大型模型一样,这些模型同样可以用于分类、检测、嵌入、分割等任务。
这次开源包含了MobileNets的模型定义,它在TensorFlow上使用了TF-Slim以及其他16个用于全规模移动项目的预训练ImageNet分类检查点。通过TensorFlow Mobile,这些模型能够在移动设备上高效运行。
致谢:
核心贡献者:Andrew G. Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, Hartwig Adam
特别感谢: Benoit Jacob, Skirmantas Kligys, George Papandreou, Liang-Chieh Chen, Derek Chow, Sergio Guadarrama, Jonathan Huang, Andre Hentz, Pete Warden
Code:
https://github.com/tensorflow/models/blob/master/slim/README.md
Paper:
https://arxiv.org/abs/1704.04861
TensorFlow Mobie的官方指南:
https://www.tensorflow.org/mobile/
【完】