ai人工智能是如何建模_妨碍AI建模赛马

ai人工智能是如何建模

技术市场成熟的一个重要里程碑是,领先的替代产品范围缩小到双向竞争。 现在,它描述了AI建模框架的市场,在AI建模框架的环境中,数据科学家可以构建和训练统计驱动的计算图。

AI建模赛马的范围缩小到TensorFlow与PyTorch

如今,由Google开发的TensorFlow和由Facebook开发的PyTorch无疑是AI建模框架中的佼佼者 ,他们在使用率,份额和发展势头上都远离了其他市场。

[在InfoWorld上深入学习机器学习 : 最好的机器学习和深度学习库 | 机器学习和深度学习的最佳开源软件 通过InfoWorld大数据和分析报告时事通讯深入分析和大数据。 ]

尽管TensorFlow在工作数据科学家中仍然占有主要的市场份额 ,但PyTorch在关键用户群中进展很快。 根据这项最新研究 ,PyTorch已成为学术和其他研究职位中数据科学家的压倒性选择。 而TensorFlow继续被企业AI,深度学习和机器学习开发人员广泛采用。 PyTorch已凭借与Python生态系统的无缝集成,更完善的API设计以及某些临时分析的更佳性能等优势来建立自己的追随者。

展望未来,大多数工作数据科学家可能会在他们的大部分工作中使用TensorFlow和PyTorch的某种混合,这些将在大多数商业数据科学家工作台中提供。 这两个框架的最新功能更新都不尽人意,因为它符合定义了核心功能并且用户将功能同等胜过强大的功能差异的市场。

TensorFlow 2.0 :Google改进了TensorFlow的API,删除了冗余符号,提供了一致的命名约定,并推荐Keras作为主要的高级API以便于使用。 该供应商已引入默认的急切执行功能,这使TensorFlow开发人员可以立即检查其对变量和其他模型组件的更改如何影响模型性能。 开发人员现在可以创建一个单一模型,然后通过附加框架TensorFlow.js和TensorFlow Lite将其部署到浏览器,移动设备和服务器上。 现在,在Volta和Turing GPU上混合使用几行代码,就可以将训练精度提高三倍。

Google已承诺在不久的将来对框架进行更新,该框架将集成一个中间表示编译器,以导出模型,以便在非TensorFlow后端和各种硬件目标上轻松执行。

PyTorch 1.3 :Facebook增加了对量化的支持,这是对PyTorch模型进行编码以减少服务器或移动设备上的精度推断的能力,以及在训练模型后对其进行量化的能力。 该框架现在支持命名张量,从而可以编写更简洁的机器学习代码。 此外,Facebook增加了对Google Cloud张量处理单元的支持,以促进对机器学习模型的更快训练。 供应商已经引入了PyTorch Mobile,用于在从Android和iOS设备开始的边缘设备上部署机器学习模型; CryptTen , PyTorch中用于加密机器学习的工具; Captum ,一种用于机器学习模型可解释性的工具。

谷歌和Facebook正在大力投资以发展各自的框架,以满足日益增长的复杂的AI建模需求。 从在今年的TensorFlow开发者峰会和去年的TensorFlow开发者峰会 上发布的各种公告中,可以清楚看出Google致力于发展TensorFlow的承诺。 Facebook最近推出了许多PyTorch增强功能,以缩小与TensorFlow在平台支持,功能覆盖范围和性能方面的差距。 我们可以预期会定期看到此类增强功能的脉搏,并将重点明确放在Facebook的年度F8开发者大会上。

旧版AI框架逐渐被遗忘

两年前,这种市场整合似乎并非不可避免。 尽管TensorFlow当时已经取得了巨大的成功,但似乎其他开源框架(例如AWS开发的Apache MXNet , Microsoft Cognitive Toolkit(CNTK)和Facebook开发的Caffe2 )也可能会加入进来。在工作数据科学家中。

虽然当时存在,但PyTorch是一堆竞争者之一,其中包括Apache Singa,BigDL,Chainer,DeepDist,Deeplearning4j,DistBelief,分布式深度学习,DLib,DyNet,OpenDeep,OpenDL,OpenDL,OpenNN,PaddlePaddle,PlaidML,Sonnet之类的竞争者之一和Theano。 这些框架中的大多数仍然存在,并且在各个行业中用于不同的AI,深度学习和机器学习项目。 但是,在数据科学文献中提到它们的人越来越少了。

随着Facebook加强对PyTorch的关注,它故意放弃了对先前的框架Torch或Caffe2的投资,后者先前已推向市场。 在运营上,Facebook现在在PyTorch中构建和训练其大多数AI模型,就像Google在TensorFlow上构建其庞大的支持AI的云计算基础架构一样。

如果大多数竞争者在接下来的几年中消失,而赞成目前发酵中出现的任何主要框架,这也就不足为奇了。 PyTorch肯定会进展顺利,研究人员中越来越多的PyTorch实际上保证了他们将来将其引入AI工作,初创公司和其他商业活动中。

一些观察者甚至认为,PyTorch的日益普及预示着TensorFlow最终会下降。 我认为预测为时过早,有以下几个原因:

  • TensorFlow不需要使用Python,它的服务器运行时开销超过某些企业愿意在生产服务器上运行的开销。
  • TensorFlow Lite可嵌入在移动二进制文件中,而Python解释器则不能。
  • TensorFlow Serving具有无停机模型更新,模型之间的无缝切换以及在预测时进行批处理等功能,这是PyTorch所缺乏的。

独立AI建模框架的重要性在逐渐降低

现在,许多AI工具供应商都提供了与框架无关的建模平台,该平台可能会为濒临灭绝的旧框架提供新的生命周期。 这些开放的建模环境(在当今领先的数据科学工作台中实现)支持TensorFlow,PyTorch和其他流行的开源框架。

加速开放式AI建模平台的普及是行业对几个抽象层的采用,这些抽象层加在一起使在一个框架前端构建的模型可以在任何其他受支持框架的后端执行。 这些开放的抽象层包括:

  • 高级建模接口 :Keras运行在TensorFlow和其他AI后端之上,提供了高级Python API,用于AI模型的快速原型设计和编程。 由AWS和Microsoft开发的Gluon框架定义了一个Python API,用于在MXNet,CNTK和其他可能的其他AI后端上简化AI编程。 此外,PlaidML提供了一个开源抽象层,该层可以在具有Nvidia,AMD或Intel支持OpenCL的GPU的开发平台上运行。 PlaidML建立在Keras API的基础上,据其开发商Vertex.AI称,它将与TensorFlow,PyTorch和Deeplearning4j库以及后端集成在一起。
  • 共享模型表示 :开放式神经网络交换(ONNX)提供了许多AI建模框架都支持的共享模型表示。 Keras API支持跨工具共享该框架中定义的计算图。 多级中间表示是一种较新的规范,提供了表示格式和编译器实用程序库,它们位于模型表示和生成特定于硬件的代码的低级编译器/执行程序之间。
  • 跨框架模型编译器 :多种行业规范使在一个前端工具中创建的AI模型可以自动编译,以在异构后端平台和芯片组上高效执行。 这些计划包括NNVM编译器 , NGraph , XLA和TensorRT3。 开放神经网络规范提供了可重定向的编译框架,可将ONNX模型转换为优化的二进制形式,以便在目标平台上进行推理。

不久之后,它将与您用来构建和训练机器学习模型的前端建模工具无关紧要。 无论您在何处构建AI,端到端数据科学管道都将自动格式化,编译,容器化或以其他方式提供服务,以实现从云到边缘的任何位置的最佳执行。

翻译自: https://www.infoworld.com/article/3451896/handicapping-the-ai-modeling-horse-race.html

ai人工智能是如何建模

你可能感兴趣的:(大数据,编程语言,python,机器学习,人工智能)