AI一体机的现状及商业化分析

前言:笔者之前研究了一下AI一体机,目前在AI领域搬搬砖,所以把自己关于AI一体机的研究分享给大家,欢迎大家讨论。文章略长,干货满满。

本篇报告主要从三个方面来给大家介绍AI一体机:

Part1: 什么是AI一体机,AI企业为什么要做一体机;

Part2: 主流AI一体机分析及现状总结;

Part3: AI一体机商业化的核心

1. 什么是AI一体机,AI企业为什么要做一体机

1.1 首先先介绍什么是AI一体机:

我所认为的AI一体机,分为两个大类:

第一大类是平台型AI一体机。平台型一体机是将平台产品与硬件结合,硬件其实就是服务器。平台型的产品是不限使用场景的,具体的场景化落地还需要在平台型的产品上再继续搭应用和解决方案。比如说第四范式的先知机器学习平台或者是百度的金融大脑机器学习平台。第四范式搭载先知平台的一体机是SageOne, 百度搭载金融大脑的一体机叫百度ABC一体机。这两款一体机,如果想在上面搭建一些反欺诈模型,反洗钱模型等。还需要数据科学家继续在平台上面建模。所以在具体的场景中,这两款AI一体机还不能实现真正的开箱即用;

第二大类是场景化AI一体机。场景化AI一体机是将具体场景下的解决方案和服务器或者是边缘计算终端进行结合。(区分一下产品和解决方案,具体场景下的应用我们叫解决方案,不分具体场景使用的一些平台我们把它称为产品,比如第四范式的先知平台,百度的语音自训练平台,内容审核平台等)。场景化AI一体机里面的硬件可以是服务器,也可以是边缘计算终端。比如说依图-华为一体机,就是将视频处理分析算法和服务器结合了。百度的眼底检测一体机,就是眼底检测模型和一个检测设备相结合。检测设备就是边缘计算终端。

这里专门说一下AI一体机和智能硬件的区别。其实每一家公司的叫法不一样,比如说人脸识别一体机。商汤科技的官网,把它叫做人脸识别一体机,但是旷视科技的官网把它叫做智能硬件。所以个人觉得一体机和智能硬件之间,并没有一个明确的界限。和大型服务器结合的肯定是一体机。而和边缘计算终端结合的,每家叫法不一样,我这边统一也称为AI一体机。都是软硬结合,怎么称呼并不重要,只要它和服务器或者是边缘计算终端结合了,原则上都可以称为一体机。比如说有的厂商将人脸识别算法和摄像头结合了,摄像头里面含有芯片直接可以计算。你如果说这只能叫智能硬件。那百度的眼底检测一体机,原则上也就是眼底检测模型和一个含有芯片可以计算的检测设备结合在了一起,也不能叫一体机。所以AI一体机和智能硬件之间并没有明确的界限。

所以一句话来说AI一体机:根据不同的需求,将对应的产品或解决方案提前部署合适的服务器上或者是边缘计算终端上,打包在一起的一整套解决方案。

1.2 AI企业为什么要做一体机

AI一体机这个概念其实提出蛮早了,2017年9月15日,百度在云智峰会上推出了和浪潮合作的百度ABC一体机,拉开了序幕。那么这些AI企业为什么要推出AI一体机了?目的是什么了?难道就是为了捆绑销售,卖软件的同时也卖硬件?多一份利润。其实AI企业推出一体机的目的肯定有刚刚说的想多一份利润,但并不是主要目的,主要原因有三点:

性能(针对平台型AI一体机):我们知道平台型AI产品都是软件产品,软件产品也分机器学习的产品,CV视觉的产品,NLP产品,语音识别产品等。不同产品所使用的AI技术是不一样的,机器学习产品肯定是Machine Learning,CV产品目前市场主要用深度学习+卷积神经网络(CNN),NLP和语音识别产品是深度学习+循环神经网络(RNN)。那么问题来了,不同的AI技术其实对服务器的要求是不一样的。传统时代的服务器,我们把它统称为应用型服务器,使用服务器里面的CPU来跑各种服务应用。因为以前非大数据时代和AI时代,不需要跑如此大规模的数据计算,所以普通的服务器CPU就可以满足了。但进入大数据时代和AI时代,对服务器的性能要求不一样了,而且产品使用的AI技术不同,对服务器芯片的要求也是不一样的(具体关于服务器芯片这一部分和不同技术对应什么样的芯片,下一页会专门讲述)。很多AI企业在将AI软件产品卖给甲方的时候,甲方为其配套的普通应用型服务器无法发挥出软件产品的最大性能。打个比分,正常匹配该软件产品的AI服务器(我们把专门针对AI软件进行定制化的服务器叫AI服务器),跑结果出来可能只需要1s,但是普通应用型服务器可能要5s。很多时候性能层面不仅仅只是软件层面的提升,硬件层面也要提升。所以AI一体机里面的硬件是最适合这款软件产品的AI服务器,可以发挥出软件的最大性能。一句话来说叫做:软硬深度融合,提升AI应用全流程性能。

成本(针对平台型AI一体机):这里所说的成本不是说一台AI一体机的价格比单独的软件和一台传统的应用型服务器加起来的价格便宜。正常的一台AI一体机的价格会比单独的软件还有一台传统的应用型服务器加起来的总价贵。主要是因为AI服务器价格比传统的应用型服务器价格贵太多。这里的成本是Total Cost of Ownership。如果我们想达到预期的性能,可能我们需要用5台传统的服务器,但是AI服务器,我们可能只需要1台。5*Price(应用型服务器)>1*Price(AI服务器)。主要一台AI一体机可以发挥出原本五台服务器的效果,从这个层面来说降低了采购成本。还有一个很大的成本降低是交付成本,软件和硬件之间也是需要配置的,不是无缝连接的。正常一个项目的交付都是,先等着甲方把服务器采购好,然后AI企业安排交付人员进场进行各种调试配置。首先甲方采购服务器就需要花很长时间,然后采购来的服务器又需要和软件之间进行各种配置调试,如果需要在多台服务器上进行安装调试的话,整个的交付成本是很高的。甲方如果着急使用,很多时候是没法满足的。而一体机的形式,AI企业已经将软件部署在了服务器上,各种配置已经调试好。就像自行车一样,买来的新车需要各种调试配置才能发挥出最大的性能。而这一切AI一体机已经完成了,可以开箱即用,节省了很大的交付成本和时间成本。还有一点就是空间成本,大的企业如百度都是几千台服务器甚至上万台服务器在用,如果在性能不变的情况下可以减少服务器的数量,这将会省下非常大的空间成本,很多企业是专门租一栋大楼或者好几层来放服务器。一句话来说就是降低企业的TCO(Total Cost of Ownership)。前两部分结合起来,对于平台型的AI产品,AI一体机的方案主要是为了给客户提供一个性价比更高的方案。性能和价格结合在一起,AI一体机的性价比更高。

场景化定制(针对场景化AI一体机):场景化定制,严格意义上来说不是AI企业要做一体机的目的,更多是AI企业想大力发展的方向。回到前面的平台型AI一体机,大家应该都知道目前AI在国内面临一个问题,就是落地难的问题。很多企业采购了AI平台以后,不知道该怎么用,找不到场景来切入。所以现在AI企业都是将平台型的产品拆解成一个个场景下的具体解决方案,或者直接就根据场景下的需求提出解决方案,和原本的平台不搭嘎。AI企业希望找到一个可以大范围适用,规模化复制的场景,提出一套标准的解决方案,然后规模化复制起来。比如目前CV公司都在做的安防领域,就可以认为是一个大范围适用,规模化复制的场景。一旦一个产品成熟了,就可以在市场上大规模推广起来,快速地带来现金流。而如果这个解决方案针对的场景有限,无法大规模复制。这次项目完结了,就完结了,下一次遇到其他客户又提出不一样的需求,又得重新开发。这种模式,已经不是卖解决方案了,而是一种卖人力的方式。这很明显不是AI企业想要的,所以AI企业希望找到可以大范围适用,规模化复制的场景,在此场景中又可以让软硬件结合,降低交付成本,实现真正的开箱即用,何乐而不为了。

提出第三点不是说平台型产品没有市场,其实很多场景化的解决方案都是在平台型产品上面搭建的。比如说AI企业给银行业的做的信用卡申请反欺诈模型,这里面不仅有机器学习模型。还有很大一部分要涉及到大数据计算,涉及到Spark等大数据计算框架。机器学习平台的产品就提供了大数据计算框架,在平台上搭建这些模型更高效,当然搭建一个模型还需要很多其他的辅助,比如说数据的倒入,清洗,特征工程,训练,测试结果的对比等。这些在机器学习平台型产品上都提供了相应功能,所以很多时候场景下的解决方案都是在平台上面搭建的。当企业对于AI的需求更多,需要在很多场景下进行建模,训练的时候,拥有一个AI平台就十分重要。这个平台可以是机器学习平台,CV平台也可以是一个NLP平台等。介绍完这些我们具体来看目前市场上比较主流的一些AI一体机的案例,它们属于哪一类AI一体机。

2. 主流AI一体机分析即现状总结

2.1 AI芯片

首先在介绍各个实例的时候,先简单介绍一下AI芯片,方便大家理解后面各个案例的AI属性,这到底是一个非常强的AI一体机,还是就是一个简单的软件和服务器的结合。我们之前提到AI服务器,那它和普通应用型服务器最大的差异在哪?

先介绍一个概念:异构服务器。

异构服务器:采用GPU/FPGA/ASIC等协助处理器与CPU共同组成一台服务器。这些协助处理器帮助CPU一起计算。(协处理器和中央处理器都是芯片的一种)简单来说就是一个CPU已经算不过来了,需要其他协助处理器一起帮助CPU进行计算。

为什么会出现异构服务器:以前服务器上面的应用计算都是由CPU来处理,CPU是中央处理器,可以处理各类的计算和应用。比如现在的机器学习,CV,NLP,语音识别等都可以用CPU来跑。在芯片行业存在一个定律叫做摩尔定律(由英特尔创始人之一戈登-摩尔提出的),简单来说就是芯片的性能每隔18个月就会因为技术的进步而提高一倍。在以前非大数据和AI时代,芯片的进步可以跟的上数据和技术对算力的要求。在大数据时代和AI时代,对于算力的要求越来越高,摩尔定律下CPU的进步已经不能满足对于算力的要求了。而且摩尔定律现在已经被打破了,传统的18个月已经变为36个月了。所以人们需要新的芯片设计流程和专用芯片来满足大数据时代和AI时代对于算力的要求。这时候诞生了ASIC和FPGA。GPU很早之前就诞生了。下面一个一个介绍:

CPU:Central Process Unit,中央处理器。之前也说了CPU可以处理各类问题,但是计算效率不高。可以简单地认为CPU是人体的大脑,大脑的70%用来处理逻辑,剩下的30%才用来计算。因为它要处理各类问题,所以它的逻辑单元就需要很多很强,这样才能将各类问题分析好,交给计算单元来计算。就相当于这个CPU需要对数列,三角函数,平面几何,立体几何等各种问题进行分析转化成最后的加减乘除,交给计算单元计算。所以CPU的特点是可以处理各类问题,但是计算效率低,因为计算单元少。

GPU:Graphic Process Unit,图形处理器。其实GPU诞生的很早,在很早以前就被用于游戏里面的图形画面的计算。后来被用在人脸识别领域,AI图像处理领域,因为这些也是对图形画面进行处理计算。GPU和CPU差不多反过来,30%是逻辑处理单元,70%是计算处理单元。因为GPU主要处理图形问题,问题相对没有那么复杂,不需要大量的逻辑处理单元来分析,然后主要是一些并行的计算,所以计算单元多。强调一点GPU也可以处理其他的算法,只是运算速度很差,还比不上CPU。GPU处理图形相关问题性能很好。

ASIC:Application-Specific Integrated Circuit,特定应用集成电路,全定制化芯片的统称。因为CPU和GPU都不是专门为AI算法所设计的芯片,里面有很多逻辑单元AI算法用不到。比如现在这个算法专门处理三角函数,那么你原本芯片里面处理平面解析几何的逻辑就用不到,不如把这部分全部改为计算单元。所以到了AI时代,很多芯片厂商就开始设计专门针对某一个AI算法的芯片,就诞生了ASIC芯片。每一个ASIC芯片都只能处理某一特定的AI算法,它是为了让性能最大化,通过硬件编程语言,直接将这一类算法写进了芯片里面。

简单介绍芯片的运行逻辑,方便大家理解ASIC,FPGA与CPU和GPU之间的差异。我们的程序都是软件,都是用软件编程语言如C++,Python等,我们在用芯片运行程序的时候,芯片是硬件没法直接读懂这些软件语言,需要通过一层“译码”转换成硬件可以读懂的硬件编程语言。就相当于,我们的硬件只能读懂英文,你给他中文(C++),法语(Python),它需要通过中间一道指令集(词典,谷歌翻译,中译英,法译英)进行翻译,然后才能计算。如果现在这个ASIC芯片只处理某一类算法(如西班牙语),因为它只处理这一类算法,所以事先可以将这一类算法(西班牙语),通过硬件编程语言(直接将西班牙语翻译成英语)写进芯片里面,省去“译码”这一过程。所以这类芯片就没有指令集(词典,谷歌翻译,西班牙译英),省去了译码过程,因为事先知道处理哪类算法(西班牙语),所以已经翻译好了。但如果这时候你让此类芯片处理一个新的算法(如阿拉伯语),此类芯片因为没有指令集(词典,谷歌翻译)就没法处理。所以一个具体的ASIC芯片只能处理某一类算法,不像CPU,GPU那样可以处理很多种算法。而且一款ASIC芯片的上市速度很慢,和传统的CPU更新速度差不多,至少要2年左右的时间才可以大规模量产一款ASIC芯片。

FPGA:Field Programmable Gate Array,现场可编程门阵列,半定制化芯片的统称。刚刚说了ASIC芯片,只能处理某一类特定算法。这样就会面临一个风险,就是万一这个算法被淘汰了怎么办,如果这个算法被淘汰了,这款ASIC芯片也要被淘汰了。大家可以想象到研发一款芯片需要投入的资源,如果一款芯片随便就被淘汰了,对于芯片厂商需要承担的损失就太大了。所以芯片厂商在此基础上推出了FPGA芯片,半定制化芯片。原理上和ASIC芯片一样,也是提前通过硬件编程的语言将算法写进芯片。但是了相当于半成品 ,FPGA芯片是ASIC芯片的前奏。比如说现在要研发一个芯片处理一个算法(如西班牙语),ASIC芯片的做法是做全套,把所有关于该算法(西班牙语)都提前通过硬件编程语言写进芯片。FPGA的做法是将部分模块化的程序译码,提前写入芯片,然后具体运行的时候,再通过硬件编程语言将这些这么模块组合在一起。举个例子,我们现在想要有一个保时捷911汽车模型,我们给出设计图纸,ASIC的做法是直接做一个和图纸上一模一样911模型(如下图右图),做模型的过程很复杂,需要较长的时间,但是一旦模型成功就可以批量生产出911。FPGA的做法和乐高玩具一样,生产很多部件,然后再拼成911(如下图左图),拼的过程就相当于硬件编程语言再编程。因为这个保时捷911是拼起来的,所以观感就和设计图纸上的有一定差距,但因为是生产部件,所以时间短,但是后期又需要组装,所以批量化生产成本高。

FPGA是可重构芯片,上市速度要比ASIC芯片快很多,但是整体性能要比ASIC芯片差。针对某类算法生产芯片时,一般都会用FPGA先做验证,证明这个芯片的所有的功能都是对的。然后再用ASIC方法去做,最后大规模生产。(后面会专门写一篇帖子来介绍CPU、GPU、ASIC、FPGA具体的原理和之间详细的差异)

上面是针对每一类芯片我列出的市场上一些样例芯片的性能。衡量芯片性能的主要是能耗比这一个指标,可以很明显地看出ASIC>>FPGA>GPU>CPU(FLOPS浮点计算基础知识可以参考这篇文章https://blog.csdn.net/zwqjoy/article/details/83539439)。价格GPU和FPGA最贵,CPU和ASIC类芯片比较便宜。ASIC举例是寒武纪的一款芯片:DianNao。FPGA举例是目前世界上最大的FPGA厂商美国赛灵思的一款芯片。(之前分享的时候有人提出GPU里面举的例子Tesla K80已经被淘汰了。这个我查了一下Tesla K80确实不是目前主流的GPU卡了,主流的是Tesla V100、P4.但是市场还在卖啊,亚马逊,京东都有在卖,不能说被市场淘汰了。我拿Tesla K80举例用的是传统的GPU卡来举例,如果我用阿里旗下平头哥新出的GPU 含光800来举例作为GPU,我在这里纠正过一个理解,含光800虽然是GPU卡,但它是专门为图像处理定制的,它可以认为是一款ASIC芯片了,不是传统意义上的GPU,我在此处只想拿一个传统的GPU卡来举例,部分数据引用腾讯云社区。)

介绍完这些芯片,下面具体分析这些案例的时候,我们就可以清晰地了解案例里面的AI一体机是什么配置,配置的是否合理,AI属性有多强,软硬件深度融合,是否真正的“深度”。下面按照时间的顺序由远及近为大家介绍每个案例。

2.2 百度ABC一体机(链接:https://www.jiqizhixin.com/articles/2018-03-29-2)

百度ABC一体机是AI领域一体机的先驱,17年的时候就推出了第一代百度ABC一体机,18年三月份又推出新款的ABC一体机,19年目前没有新闻。百度在国内AI领域可以说是从事的AI细分方向最多的:人脸识别,语音识别,NLP,机器学习等,百度全部都在做,而且做的都还不错,百度也有自己面向金融领域的机器学习平台:金融大脑和深度学习平台:PaddlePaddle。百度推出的这款ABC一体机,硬件层面是和浪潮合作的,可以支持安装4-16块NVIDA Tesla P4的GPU加速卡。这意味着什么,这意味着这个一体机主要面向的是深度学习领域的,因为GPU卡主要是用来处理深度学习的(我在2.1里面的图片也介绍了,GPU主要用来处理图形计算的,图形计算主要是用深度学习CNN,GPU也可以处理NLP,语音识别下的深度学习RNN,但效果比深度学习CNN差,主要RNN的并行计算少)。机器学习的任务GPU卡就起不到加速的作用。软件层面了,新闻中举例是拿人脸识别训练来举例的,但是从实际商业角度来说,没有哪家公司会买一体机自己回去训练人脸识别。为什么?最重要的一点完全没有必要。市场上现成的人脸识别服务不要太多,价格又便宜,效果又好。所以百度这款ABC一体机,就是可以和不同的软件进行结合,当然还是之前说的软件主要是深度学习的框架。然后根据甲方的要求,百度提前将软件部署在服务器上,然后再根据甲方每天的服务量,计算量等,配置一定数量的GPU加速卡(上限最多16块)。所以百度的这款ABC一体机可以认为是客户要什么解决方案或者平台产品,我就把它提前部署在浪潮这款服务器上。一句话总结就是这是一款将现有的不同软件和硬件直接组合的平台型AI一体机。

百度还有一款AI一体机产品(AI训练一体机:https://cloud.baidu.com/product/ape.html),曾经我在给别人分享的时候,有人提到过这款产品。这款产品并不能算在百度ABC一体机这个产品序列里面。从官网的介绍,这款AI一体机主要是供客户跑深度学习训练任务的。我们要区分两点,一个是预测,一个是训练。上面的ABC一体机主要是预测的,百度在对外提供的解决方案时是已经训练好的,不需要客户从零开始训练的,客户直接可以使用对新的任务进行预测,比如人脸识别,一体机直接会给出结果二者是否匹配。而这款AI一体机是供客户进行训练的。百度官网举了两个例子:一个是浦发银行信用卡中心的反欺诈领域的应用,还有一个是中国人寿深度学习软硬一体机平台的搭建。第一个例子我持怀疑态度,因为以我对金融反欺诈的了解,这完全是一个机器学习和大数据计算的任务,和深度学习一点都不搭嘎。一体机上配上GPU卡,GPU卡根本无法对机器学习的任务进行加速,因为GPU卡从一开始就不是为机器学习任务设计的,根本无法为机器学习的任务进行加速。就好像汽油发动机,往里面加再多柴油,都跑不起来一样。第二个例子中国人寿的深度学习平台,我不知道中国人寿买这个深度学习平台来训练什么?目前AI的发展,还没有到说一个普通的技术人员对机器学习,深度学习完全不懂,给他一个机器学习平台和深度学习平台,让他自己学习使用,然后训练出来的模型就可以商用了,完全达不到这个效果。训练出来的模型“还可以”和真正的商用是完全不一样的。就像给一个拥有C1驾照的普通人一台法拉利,教他怎么开法拉利,最后他就可以跑出和舒马赫一样的效果,这有着天壤之别。所以这款AI训练一体机,我对商用目前存疑。专业的人士使用专业的设备才能让设备发挥出最好的性能。

市场上一般说百度的AI一体机,都是指百度的ABC一体机。

2.3 依图-华为AI一体机(链接: https://www.yitutech.com/cn/news/依图科技携手华为在gtc-2018发布ai一体机)

依图华为AI一体机,可以算是CV领域一体机的先驱,这款AI一体机是依图直接将自己的智能识别算法部署在了华为的G2500服务器上。G2500服务器是2017年9月上市的,这款一体机是2018年3月推出的,G2500服务器是华为专门面向视频处理领域推出的服务器。依图正好直接拿来用了。华为G2500是异构服务器,可以支持最多添加16块Tesla P4 GPU卡,和百度的ABC一体机的GPU加速卡完全一样。然后又在存储和工作环境温度的容忍度进行了优化。这里提出一点,一个服务器最多可以添加多少块GPU加速卡是受到服务器硬件架构限制的,不是说一台服务器想装多少块GPU加速卡,就装多少块GPU加速卡。就和汽车一样,不是想装多少个发动机就装多少个发动机,它是受到整体框架限制的。如果想提高添加GPU加速卡的数量,就需要对服务器整体架构进行再优化,这也是一个很大的工程,需要时间来让这些服务器硬件厂商进行研发的。目前市场上了解到的就是一个服务器最多配16块GPU加速卡。因为这款服务器可以配置的GPU加速卡多,所以可以最多对256路的视频进行对比分析(256路就是256个摄像头拍摄的内容)。这款一体机肯定不是平台型的AI一体机,因为它不能让客户在一体机上继续进行开发建模等。如果是场景化,这款AI一体机又没有针对具体某个场景,虽然是视频对比分析处理,但是视频对比有很多具体的场景:城市里的监控视频对比分析,学校里的监控视频对比分析。我暂且将这款AI一体机归类到场景化AI一体机。

一句话总结就是软硬件直接结合,并没有进行定制化优化的场景化AI一体机。(GPU加速卡现在已经是一个标品了,Nvida公司推出的Tesla P4 GPU卡面向的是整个深度学习领域,并不是说用了GPU加速卡就是进行了定制化优化。因为这款GPU加速卡面向的是整个深度学习领域,人脸识别,语音识别都是深度学习神经网路领域,但二者需要的逻辑是不同的,所以使用同一款GPU加速卡,必然内部有一些处理逻辑是二者分别用不到的)

2.4 第四范式-浪潮AI一体机(链接:https://www.4paradigm.com/ai-appliance/sageone)

第四范式浪潮AI一体机:SageOne 。2019年6月20日,第四范式在自己的新品发布会上专门推出这款一体机:SageOne。第四范式和浪潮在18年的时候就推出了一体机,叫Prophet AIO,国内首个针对超大规模数据挖掘与机器学习计算问题所推出的AI一体机产品。Prophet AIO和百度,依图的一体机比较类似,就是直接和现成的浪潮服务器进行了结合。而SageOne在Prophet AIO的基础上对硬件进行了专门的优化,同时也对软件进行了相应的适配。第一是配置了一款自研的加速芯片。第四范式和Intel有联合实验室,在英特尔现有的芯片A10(这款芯片在英特尔官网没有找到名称完全一样的,只找到了ARRIA 10 FPGA芯片https://www.intel.cn/content/www/cn/zh/products/programmable/fpga/arria-10.html)基础上,使用硬件编程语言OpenCL再针对机器学习算法进行了定制化的优化。所以这款加速芯片就相当于我之前介绍的FPGA类芯片。因为市场上现有的加速卡都是GPU卡,GPU卡没法给机器学习任务加速,所以第四范式自己研发了一个FPGA的加速芯片。第二是采用100GE/RoCE网络,因为机器学习使用的是分布式计算,需要很多台服务器,每台服务器之间需要进行数据传输,各服务器实例间的网络I/O就会成为性能瓶颈。第四范式使用100GE/RoCE网络,针对此通信协议,专门调整了原有的先知平台配置代码。通过以太网使用远程直接内存访问,用高速网络减少大批量数据传输时CPU的开销,解决网络I/O瓶颈问题。然后客户可以在SageOne上配置的机器学习平台进行各个场景下的机器学习建模,如:精准营销、反欺诈、反洗钱等。SageOne这款AI一体机,就专门针对了软件进行了硬件优化,而不是直接采用了现有的服务器产品,同时软件也进行了相应配置的调整。一句话来说这是一款软硬件深度结合的平台型AI一体机。

2.5 百度眼底筛查一体机(链接:https://www.tmtpost.com/3707586.html)

这是一款场景化AI一体机,百度在医疗AI领域推出的一款一体机。传统人们去医院看眼科疾病,都需要有经验的医生根据自己的经验来判断每个病人得各类眼科疾病的可能性,判断是否需要进行下一步人工干预。很多小医院或者经验少的医生都没法看出病状。而这款AI一体机就起到了很好的作用,大幅降低看病时间,又提高了覆盖范围。人们看眼科疾病不需要全部都去省中心的大医院了。这款AI一体机本身边缘计算终端就是一个检测设备,没有特别强的AI属性。在上面部署的眼底筛查模型是一个机器学习模型,相对于我们现在人脸识别模型啊,语音识别技术什么的,难度也没有那么高。主要是提供足够多的历史患病客户的数据进行学习。所以这款AI一体机,最核心的就是找到了一个场景,而且这个场景是可以大范围适用,规模化复制的。换到另外一家医院,还是这款AI一体机,不需要专门再去定制。一句话总结:这是一款和场景强结合的AI一体机。软硬件的AI难度都没有那么大,关键在于如何在医疗这个细分领域里找到场景落地,还有一点很重要的是和医院合作拿到足够的眼疾患者的数据进行学习,同时在使用这款机器时医院可以及时返回新患者的诊断数据,使得该眼底筛查模型可以不停学习,变得越来越智能。

2.6 萌状元学习AI一体机

最后举的这个例子,是一款To C的AI一体机。这款AI一体机就没有大家想的那么高大上。只是在一个类似于Ipad的边缘计算终端上集成了很多基础的AI技术,如语音识别,AR,人脸识别等等,使得小朋友的学习更有趣。这款学习机今年刚刚推出,未来会不会像很早以前的步步高和小霸王那样,风靡一时,我们不得知。但是这个案例也告诉我们,AI一体机,没有我们想的那么高大上。对于AI企业来说最核心的是,推出一款产品能够带来利润,才是最关键的。AI一体机再高大上,B端客户和C端客户用不起来也是白搭。

2.7 总结对比分析

将举的五个现实中的例子进行总结,我们需要特别关注的两点就是“软硬是否深度融合”以及“是否可大规模复制”。为什么重点关注这两点?第一点代表AI一体机的AI属性到底有多强,是否就是简单地把软硬件组装在一起。第二点代表AI一体机是否可以在市场上快速推广开来,给企业带来现金流。首先看第一点“软硬是否深度融合”,之前案例也分析了只有第四范式的AI一体机做到了软硬件深度融合,百度和依图的AI一体机其实简单地理解就是直接将软件部署在了现成的服务器上,双方都没有进行定制化优化。把单独的软件和硬件拆开,都是优化的AI产品,但是组装成AI一体机,就有种捆绑销售的感觉。这一点第四范式就做的相对较好,软硬件进行了融合,并不是直接拿现成的组装在了一起。但我们同时也要思考一个问题就是是否所有的AI一体机都要“软硬件深度融合”。“软硬件深度融合”的目的是发挥出最大的性能,但有些场景其实并不是追求极致的性能,而是软硬件结合在一起满足实际需求,让客户更方便。就像百度眼底检测一体机和萌状元一体机,这两个一体机追求的是满足实际需求,软硬件并没有前面介绍的那么高大上,但是客户确实真正需要这款产品,都可以大范围规模化复制,解决了最后一公里问题。

第二点“是否可大范围规模化复制”,“是否可大范围规模化复制”有两个要求:第一个是真正实现了开箱即用,第二个是否可以大范围适用起来,快速地在市场推广带来现金流。第一点:虽然是一体机,但是很多时候并没有解决“最后一公里”的问题。比如说平台型的AI一体机,很多时候客户的需求还是基于场景的,客户购买一个AI平台自己回去建模,这个是不现实的。当然随着客户内部应用AI的场景越来越多,肯定需要一个AI平台,但是目前AI并没有找到很多场景来进行落地,这一天离得还有点远。第二个是同一套解决方案在不同客户那里直接进行复用,而不是同一套解决方案到客户那里,还需要重新进行较大程度的定制化研发,安排科学家和算法工程师驻场。对于百度,依图,第四范式的AI一体机,理论上是可以大范围规模化复制。但是目前在大客户内部还没有找到大量的AI应用场景,大客户购买这种平台型AI一体机的动机都不足,更不用说中小型客户了。我相信未来AI会应用在各个领域和各种场景,但这一天还有点远,离平台型AI一体机大范围规模化复制到来那一天还有点远。

同时我们将1.2 里面AI企业为什么要做AI一体机的3个目的结合实际案例对比一下:

性能(针对平台型AI一体机):中国大部分的AI企业都是做软件的,而AI一体机需要软硬件深度融合。目前国内的AI企业具有硬件芯片研发能力的太少了,因为研发芯片第一时间很长,第二个很烧钱。大部分的AI企业根本不具备这个实力,所以推出AI一体机时,只能和市场上现成的一些服务器进行结合,比如百度,依图。虽然这些服务器CPU,GPU加速卡肯定也在不停的优化,但毕竟人家是一个面向所有AI企业通用的产品,肯定达不到所谓的深度融合。

成本(针对平台型AI一体机):在当前AI应用落地较少的情况下,对于中小型客户来说并没有降低TCO。因为它购买来一台一体机,一体机很多时候计算资源属于闲置状态。因为在企业内部还没有找到那么多的AI应用场景,不需要用到如此高端的一体机,普通服务器即可。尤其是机器学习领域,目前的机器学习任务用CPU来跑效果就已经很好了。

场景(针对场景化AI一体机):大部分AI企业还没有找到大范围可规模化复制的场景落地。目前AI领域做的最好的场景化落地,应该就是CV领域的安防。场景化落地都如此困难,更不用说场景化AI一体机了。即使可以找到这种场景,但是能否复制起来还有一个很重要的一点就是产品的价格。百度的眼底筛查一体机,一台机器20万。新闻里面介绍目前百度还主要是以捐赠的方式来给医院使用。萌状元AI一体机,单台机器接近10000元,问世6个月以来,在京东上的销量很一般。

整体来说想在市场上推出一款脱颖而出的AI一体机,目前看来任重而道远。

3. AI一体机商业化的核心

最后这两点,是我认为AI一体机商业化的核心。

短期:寻找规模化可大范围复制的场景应用,打包成一体机解决方案,实现真正的开箱即用。虽然之前介绍了百度眼底筛查和萌状元一体机目前存在的问题,但不可否认这是短期内AI一体机商业化需要重点发展的方向。第一适用范围广,总会有客户来买,从100个客户中找1个客户来买,总比从10个客户中找1个客户来买简单。第二规模化复制,可以降低AI企业的交付成本,这能够让产品快速地推广起来。如何找到此类场景,也是需要AI企业和客户进行合作的,所以现在各大AI企业都在招聘对于某个行业比较了解的资生人士。比如说对医疗,零售,金融,制造行业等了解的人。个人比较看好医疗和金融行业,因为这两个行业的客户相对来说都有钱,前期产品较贵的情况下,如果产品真的有用,客户也买得起,愿意尝试。

长期:芯片是关键,如果芯片受制于人,那么AI一体机的性能和价格都将受制于人。在招聘网站上可以看见AI头部公司都在招聘芯片研发人员,为什么做软件的AI企业要去招做硬件的芯片研发人员?简单来说就是芯片重要啊,芯片有可能未来会制约这些AI企业的发展。第一如果自身没有芯片研发能力,那么AI企业开发出来的软件想要找到最合适的加速卡,只能寄希望于芯片厂商推出一款合适的加速卡。逻辑还是之前说的,芯片厂商推出的一定是通用的,不会专门为了一家AI企业进行定制。所以性能很难保证。第二就是产品的价格和AI企业的利润很难保证。拿国内服务器市场占有率第一的浪潮举例,2017年浪潮全年营业额254.88亿元,但是净利润不到2%,也就是做100亿元的生意,结果还赚不到2亿元。逻辑就是服务器的三大件:CPU,内存,磁盘核心科技,都掌握在别人手里,浪潮只能干点边边角角的事情。一体机的价格,AI企业根本决定不来,因为服务器的价格他们决定不了。而且国产服务器厂商自身利润都已经很低了,如果AI企业希望双方合作,再靠卖硬件可以赚点钱,只能提高AI一体机的价格,这样产品的价格就完全没有优势。AI企业在投标时,虽然要看解决方案的效果,但是不同AI企业之间的效果差异越来越小了。能否中标的一个重要因素就是价格,如果AI企业可以自己掌握芯片研发的技术,就可在较低价格中标的同时还可以保证自身利润。所以这也是为什么目前头部AI企业都在招聘芯片研发人才,独立研发芯片。

近期正好做了AI一体机方面的研究,分享出来,供大家参考,欢迎大家讨论提意见~

你可能感兴趣的:(AI一体机的现状及商业化分析)