「G」Talk是一档聚焦于戈壁创投持续关注赛道的投资人对话栏目,我们通过投资人与创业者之间的问答和思辨,尝试梳理出创始人、CEO们在所属赛道创业道路上的行业knowhow以及他们未来无限的可能。
第一期对话我们邀请到了戈壁创投合伙人胡唐骏先生对话趋动科技CEO王鲲博士。6月8日,趋动科技对外宣布获得了由戈壁创投领投的近千万美元Pre-A轮投资。胡唐骏先生认为,随着全球AI产业发展的持续加速,AI应用在各行各业加速落地,AI技术也随之成为科技巨头的标配。而在日渐成熟的AI产业中,有一片尚待开垦的蓝海市场——AI算力。
2020年,是真正意义上的新基建元年,市场普遍焦虑的“资本寒冬季”其实是加速市场发展、沉淀的关键节点。AI的场景落地甚至因由突如其来的疫情,一定程度上刺激了线上数字化的进程。而对于创业者而言,还是需要足够的核心竞争力来应对外界各种复杂的变化。而AI 算力作为AI技术与产业大规模发展的巨大驱动力,将成为整个新基建的核心支撑。但一方面算力昂贵,多年来难以实现“平民化”;另一方面,拥有大量算力的用户也面临着如何实现资源池化的新课题。
在这一背景下,戈壁创投迅速锁定了趋动科技这一深耕AI算力十多年的团队,在第一次见面即一拍即合。基于多年toB领域的投资经验,我们认为一个团队的产品、技术和服务能力并为“三驾马车”,在创业公司的发展中起着至关重要的作用。趋动科技凭借对用户痛点的深刻认知以及技术和行业的前瞻性,在王鲲博士的带领下在一年内就迅速站稳AI算力市场,聚拢了多个行业头部客户,很好地验证了戈壁创投的这一观点。
胡唐骏:趋动科技正在做的事情?
王鲲博士:当前,全球AI算力需求迅猛增长。2012年至今,云端AI算力已经增长了超过30万倍,且在可预见的将来,仍将保持相当高的增速。
同时,在包括互联网、安防、教育、医疗、智能制造及自动驾驶等行业,越来越多的用户开始将AI应用到生产场景之中,趋动科技看到了AI的高速发展,也看到了用户的诸多痛点。
AI市场里用户的痛点是什么?是算力昂贵。
因为用户缺乏AI算力的资源池化和虚拟化技术,导致AI资源尤其是算力的利用率非常低,从而增加了成本。此外,用户没有办法很好地实现资源池化,因此也不能在数据中心内高效地调度和使用AI算力。
趋动科技看到了AI用户的这些痛点,基于这些痛点以及团队的技术背景,推出了国际领先的AI算力虚拟化和资源池化解决方案,帮助客户构建数据中心级AI加速器资源池,用户可以共享使用数据中心内任何一台服务器之上的AI算力。
此外,通过帮助用户构建高效的AI算力资源池,不但能够帮助用户提高算力的利用率,从而降低成本,而且能够帮助用户将AI应用的开发和部署变得更加简洁与快捷。
事物发展的三个阶段make it work 、make it perform and make it cheap。AI算法已经让我们能够做到很多以前做不到的事情,人脸识别、目标检测、语音识别等等。都已经进入make it work的阶段。而算力的强大才能够实现make it perform,以前可能一年才能完成的事情,现在一周甚至一天就能够完成。只有当AI技术在各行各业落地,才能真正成为人类社会不可忽视的一部分,而AI算力的平民化则是这一趋势中不可忽视的一个阶段。
AI算力是AI技术与产业大规模发展的巨大推动力,趋动科技认为AI算力的平民化是必然趋势,让每个企业都能够用得起高效率、高性能的算力是趋动科技的任务与挑战,也是产业发展的必然。
胡唐骏:能否从客户角度深入剖析我们对于“AI算力平民化”的追求?
王鲲博士:目前,趋动科技主要的客户中,除了使用公有云的,还有很多使用的是私有云或者混合云。
从客户角度而言,趋动科技目前的客户大部分拥有大量的AI算力,对他们而言,资源池化的价值比虚拟化技术的价值更高。因为虚拟化技术主要解决的是芯片在多个用户间共享的问题,而资源池化解决的是更高层次的问题。
例如,很多用户可能在数据中心里有几百台、上千台服务器,他们也有几千块甚至上万块的加速卡,对于这类用户而言,他们不但关心每张卡的效率,也关心整个数据中心从资源池角度的利用率和使用效率。
除了有公有云的客户,还有一些客户,如互联网行业或AI行业的巨头,可能使用自建的私有云,在AI算力池化方面也有非常强烈的需求。
虽然需求一直存在,但AI算力的资源池化却是一个比较新的课题。
数据中心的三个最主要的支柱是计算、存储和网络,其中存储与网络的资源池化和软件定义已经发展得较为充分,但AI算力的软件定义和资源池化才刚刚开始。
所以,趋动科技的起步较早,从技术角度而言,趋动科技提供的解决方案是当前市场上最好的选项之一。在AI算力池化这个新兴的蓝海市场,这是趋动科技的核心竞争力。
胡唐骏:如何在成立如此短时间内取得这么好的成绩?
王鲲博士:首先,团队层面。
我本人博士毕业于中国科技大学计算机系,是中国科学院优秀博士论文奖,以及全国优秀博士论文提名奖获得者。博士毕业以后供职过三家IT行业巨头公司:IBM中国研究院、微软亚太研发集团以及戴尔EMC中国研究院。离职创办趋动科技之前,我是戴尔EMC中国研究院的院长。
趋动科技的核心骨干团队,包括技术团队、市场销售团队都有着IBM研究院、微软研究院、EMC研究院以及像BAT、字节跳动等国内外顶级科技公司的工作背景,这些同事有着非常长时间的研究和工作经验。
此外,我们从十年前,甚至更早就开始研究CPU虚拟化、FGPA虚拟化、GPU虚拟化的课题,整个团队有着非常长时间的合作经验技术积累,一直在芯片虚拟化和资源池化的方面,长期从事研究和开发的工作。
也就是说,趋动科技在芯片虚拟化和资源池化方面曾做过长期的研究和开发工作,长时间的积累与沉淀是趋动科技能够快速发展的核心原因。
我们看到,GPU资源池化市场是一个很明显的依靠技术的市场,除了持续不断的积累所带来的厚积薄发,趋动科技始终保持在研发层面的巨大投入,并通过建立且不断完善的人才引进机制,确保在技术层面的领先地位。
其次,市场环境层面。
2019年成立至今,我们在市场上看到了一些从去年到今年都没有变化的一部分,也看到了一些发生变化的部分。首先,没有改变的趋势是AI技术仍然在全球范围内快速发展:AI的应用仍然在各个行业持续落地,整个行业、整个社会乃至整个全球对AI算力的需求依然高速增长。虽然我们在这个时间周期经历了一些“黑天鹅”事件,但实际上我们看到,整个行业的发展态势是比较稳定的。
另外,在AI产业的高速发展中,国产AI芯片火速崛起,5G产业持续催生出新的场景和新的应用,像云游戏、云VR这样的应用,让我们看到除了AI场景以外,其实还有其他新的场景出现在拓展市场的边界,继续拉动人类社会对于算力的需求,也给我们的发展带来越来越好的市场环境,这是在发生变化的部分。
再次,企业层面。
经由多年的课题研发,我们预判未来的AI算力市场一定会有一个高速的增长。在这其中,趋动科技作为独立第三方软件公司有独特的优势——对所有的硬件芯片来讲,趋动科技都是完全独立的第三方。因此,我们可以投入研发力量,在国产AI芯片市场中尽量多的支持硬件芯片厂商。
实际上,我们已经支持了寒武纪的MLU100,还有几家国产芯片,我们也在陆续支持之中。未来,我们的愿景是帮助企业用户和芯片用户构建一个异构的加速器资源池,用户可以基于自己对价格、成本、算力、性能等各方面的考虑,采购不同厂商的加速芯片,用户的AI应用不需要修改代码就能运行在由我们的软件所构建的异构加速器资源池之上,充分利用来自不同厂商的加速芯片,这是我们的目标和愿景,当然从技术上这样的愿景挑战也是非常大的。
而从硬件芯片厂商的角度而言,其更多的精力会放在自家芯片的研发以及性能调优、工具链等方面的工作上,反而会跟趋动科技形成了非常好的互补关系。
每家芯片厂商都会努力把芯片做得更好,软件做得更完备,而趋动科技作为独立的第三方软件厂商,会尽量地在同一平台上兼容多家芯片,最终实现合作共赢,让企业客户能够用得上物美价廉而又灵活的AI算力。
胡唐骏:对于我们已有客户的落地情况进展?可以分享一些案例么?
王鲲博士:分享两个我们在头部互联网企业的典型用户案例。他们都需要使用AI算力GPU资源池来提高效率,达成业务目标。
第一个案例,客户是一家头部互联网电商平台。我们知道人工智能里既有推理任务,也有训练任务。这个客户有大量的在线推理任务要跑。他们的推理任务有一个特点,就是既要使用相当一部分GPU资源,也要使用相当一部分的CPU的资源。在这种情况下,假如没有我们的GPU资源池化技术,这个任务就必须要放在一个GPU服务器上去跑。而当跑在GPU服务器上以后,客户很快就发现了他们的CPU成为瓶颈,GPU利用率无论如何都不能够提升。因为“整个木桶的短板”并不在GPU上而在CPU上。
客户在使用我们的软件之前也考虑过让开发部门来改代码,把这个推理任务拆成两个部分:CPU上一个部分和GPU上一个部分。可在实际上,首先这种拆任务的做法成本非常高,其次这种做法也无法通用。第一个碰到这种情况的业务部门要改,第二个业务部门遇到了类似的问题也得改代码,这个方法并不通用。
而使用我们的GPU池化软件就很好地帮他解决了这个问题。我们能够帮客户建立一个GPU资源池,客户可以把所有这些推理业务直接跑在纯CPU的服务器上,通过网络来使用资源池里面的远程的GPU,而客户的代码完全不需要做任何修改,就可以直接跑起来。
所以在这种情况下,第一我们解决了客户的问题,他们的CPU、GPU都可以充分利用。第二,客户完全不需要改任何代码,成本非常低,可以很快上线,运行效果也非常的好。从结果看,我们的软件帮助客户显著地提高了GPU利用率,降低了成本。
另外一个案例是头部互联网搜索的客户,也是想要使用GPU资源池。不过他们的业务不是推理而是训练。客户有很多台GPU服务器,有的是4卡服务器,有的是8卡服务器。他们的需求是把所有GPU卡都统一纳入到一个资源池来管理。举个例子,如果是100台8卡服务器,客户希望看到的不是100个8张卡的小资源池而是1个800张卡的大资源池,在这一个资源池里他们希望能够做到任何训练任务都能够跑起来。建成资源池之前,如果服务器只有8张卡,如果要跑一个超过8卡的训练,它是跑不起来的。
我们帮助他们构建了一个巨大的GPU资源池,使他们能够跑更大规模的训练任务。这是给客户带来的第一个好处,其次原来的多台GPU服务器,就像是一个个小水桶,可能会导致每一台服务器在运行中有一些剩余的零散的卡,比方说这台服务器剩一张卡,那台服务器剩两张卡,这种情况是很普遍的。
在这种情况下,这些零散的碎片化的资源是很难利用起来的。但是在我们的软件框架之下,我们把所有GPU卡全部放在一个资源池里面,就不会存在这种碎片化的资源情况。这台机器剩一张卡,那台机器剩两张卡,没有关系,我们可以把这三张卡放在一起给到用户的另一个任务,把它用起来,使得整个的资源池里没有这样的碎片,利用率自然就会变得更高,用户的业务也可以跑得更快。
这两个案例是目前两个非常典型的,一个是训练的任务,一个是推理的任务,他们都有非常强的资源池化需求,也都是头部的客户。他们的使用场景不一样,但他们的需求点对我们的软件来说,是非常接近的。
胡唐骏:资本寒冬和疫情对行业以及你们有什么影响?
王鲲博士:近年来,很多媒体和投资机构经常提到资本寒冬,其实从资本角度而言算不上寒冬,而是回归理性,回归商业本质。
从大环境角度而言,不管是面对资本寒冬还是新冠疫情,真诚地创造价值、做有意义的事情的企业并不会死亡,倒下的企业其实已经处在慢性死亡的过程中,只不过被外力加速了进程。
一个公司从初创时期的idea一直做到上市乃至成为巨头,本身就要经历各种风雨,没有哪家企业能够一直保持顺风顺水的状态。经受住疫情考验的公司,反而会凤凰涅槃,拥有更加旺盛的生命力和竞争力,其实有利于推动实体经济和前沿技术的发展。
我们在疫情期间看到,大部分客户对于降本增效的需求是在快速而且显著提升的,也就是我们通常提到的要加速线上化、数字化。这对我们来讲其实是一件非常好的事情。趋动科技猎户座资源池化解决方案软件的本质就是帮助用户降低算力的成本,借由AI算力的平民化让客户降本增效。所以可以肯定地讲,这次疫情之于我们,不但没有让我们的业务发展减速,反而是加快了我们业务的开展。
我们团队是从国家法定假期结束后的第一天就恢复了上班。虽然我们都是远程在家办公 ,但是借助各种视频会议系统,大部分客户也很早就启动了远程办公,而且我们的软件部署也支持远程操作,这是软件企业的优势之一。越来越多的客户来了解我们的软件能帮他们做什么,如何协助他们降本增效。
我们目前覆盖了头部的几十家互联网、AI、还有公有云等领域的企业,他们都在使用或试用我们的软件。我们已经是公有云国际巨头AWS的技术合作伙伴,让AWS的客户能够使用我们的技术。
胡唐骏:我们未来大方向层面的规划?
王鲲博士:趋动科技未来主要有两方面的规划:第一是保持大规模的研发投入,以确保技术层面的市场领先地位;第二是加速商业化进程。
趋动科技在市场上的技术是领先的,我们要始终保持这种技术上的领先性,我们会持续加大研发投入,吸引最优秀的人才加入我们,这始终是我们的核心要务之一。不管未来除了AI行业、云游戏、云VR,趋动是否进入其他领域,这一点都不会变。
目前,趋动科技已经搭建了完整的售前、销售、市场团队。在COO石凤华的领导下,正在非常高效地开展相关工作,我们会持续地加大市场方面的投入,加速商业化进程。
趋动科技刚刚完成了由戈壁创投领投的新一轮融资,从资本层面获得了极大的助力,有利于实现刚刚提到的研发投入和加速商业化进程这两个重要任务。未来我们也会在融资方面继续关注,在合适的时间节点,再来看后续的资本层面的支持。
和有趣的人交流,猎云读者群欢迎你