科大讯飞试水英特尔硬件解决方案,不排除大规模应用的可能

摘要:科大讯飞试水英特尔KNL、KNM芯片用于深度学习模型的离线训练,试水CPU+FPGA(英特尔A10)方案用于在线预测。

记者:王艺 [email protected]

2017年4月9-11日,第五届中国电子信息博览会(暨CITE2017)在深圳会展中心举行。在人工智能产业发展高峰论坛,CSDN记者受邀出席英特尔与科大讯飞联合采访。采访过程中,科大讯飞深度学习平台研发总监张致江与英特尔技术专家共同向现场媒体介绍了科大讯飞与英特尔在深度学习离线计算以及在线预测方面正在展开的合作。

科大讯飞试水英特尔硬件解决方案,不排除大规模应用的可能_第1张图片

英特尔是世界范围内的老牌芯片厂商,自2016年收购Nervana开始发力人工智能领域,希望以底层技术驱动人工智能的发展。目前,在国内,英特尔已与包括科大讯飞、商汤科技等多家人工智能公司展开合作。

现阶段,产业界及学术界普遍认为,人工智能是算法与芯片高度契合的产物。作为人工智能算法及硬件层面的两位主流玩家,2016年11月,英特尔与科大讯飞签署了一个为期三年的关于人工智能技术合作的框架。

科大讯飞成立于1999年,此前以其语音识别技术为业界所熟知。现在,科大讯飞正式从语音公司转型为人工智能公司。业务范围从人工智能的“能听会说”(即语音相关技术)层面,扩展到“能看会认”(即图像相关技术),再到“能理解会思考”(即认知与自然语言处理相关技术)的层面。

科大讯飞一直致力于算法层面的研究与落地,已经形成自身独特的神经网络、数据结构模型以及数据处理方式。科大讯飞欲寻求更契合其需求的硬件合作伙伴,使其软件解决方案能够以更优的性能、更低的能耗落地。在此前一段时间的实验过程中,科大讯飞发现,英特尔的至强融核芯片加速处理器KNL以及即将上市的KNM在深度学习的离线训练方面更具优势,FPGA芯片A10在在线预测层面比主流的CPU方案能耗更低。关于具体的技术细节,科大讯飞深度学习平台研发总监张致江向在场记者做出如下解释。

KNL和KNM在离线训练层面的性能已经与现在主流的深度学习处理方案相近,且尚在深度优化中,加之其打破内存方面的限制、且具有易编程等特性,科大讯飞在未来会重点考虑将其用作平台的加速芯片。经过此次合作带来的优化之后,KNL及KNM能够支持科大讯飞在深度学习过程中的半精度及更低精度的计算。在在线预测层面,传统的方法是使用CPU方式进行预测, 但随着业务的增长,所需的服务器数量也呈线性增长,加之能耗考虑,总使用成本的增长速率将比线性更快。科大讯飞试水用CPU+FPGA的方案做在线预测,发现在一台服务器中插入一块FPGA加速处理器,所达到的性能远超过3-4台CPU服务器,进而有效地降低了服务器成本及能耗费用。具体来说,科大讯飞在实验中采用英特尔收购的Altera公司的A10芯片,取得了很好的效果。虽然在通讯领域,A10普遍不被看好,但科大讯飞发现A10更适合深度学习及大数据的应用场景,A10运用了一些独特的设计方式,更适合数据中心的加速。

双方表示,目前此方案已进行至“研究后阶段”,基本工作已经准备就绪,正在做最后的整理及流程优化。目前KNM加速处理器尚未上市,预计在KNM上市的同时,上述解决方案也将在科大讯飞落地,且不排除有大规模应用的可能。今后,双方也将继续加强合作,以技术共同推动AI在教育、医疗、车载、公共安全等各个方面的落地。


图片描述

图片描述

你可能感兴趣的:(深度学习,人工智能,机器学习,神经网络,CITE)