人工智能各层思维导图

人工智能各层思维导图

人工智能各层思维导图_第1张图片

基础层

GPU

随着CPU摩尔定律的终止,传统处理器的计算力已远远不能满足海量并行计算与浮点运算的深度学习训练需求,而在人工智能领域反应出强大适应性的GPU成为标配。GPU比CPU拥有更多的运算器(Arithmetic Logical Unit),只需要进行高速运算而不需要逻辑判断,其海量数据并行运算的能力与深度学习的需求不谋而合。因此,在深度学习上游训练端(主要用于云计算数据中心),GPU是第一选择。目前,GPU的市场格局以英伟达为主(超过70%),AMD为辅,预计3~5年内GPU仍然是深度学习市场的第一选择。

FGPA

FPGA是现场可编程门阵列。下游推理端更接近终端应用,更关注响应时间而不是吞吐率,需求更加细分。目前来看,下游推理端虽可容纳GPU、FPGA、ASIC等芯片,但随着AI的发展,FPGA的低延迟、低功耗、可编程性(适用于传感器数据预处理工作以及小型开发试错升级迭代阶段)将凸显出来。在FPGA的市场份额中,Xilinx为49%,主要应用于工业和通信领域,近年亦致力于云计算数据中心的服务器以及无人驾驶的应用。Altera(已被英特尔收购)的市场份额约为40%,定位跟Xilinx类似。莱迪斯半导体(LatticeSemiconductor)的市场份额约为6%,主要市场为消费电子产品和移动传输,以降低耗电量、缩小体积及缩减成本为主。Microsemi(Actel)的市场份额约为4%,瞄准通信、国防与安全、航天与工业等市场。目前,Altera的FPGA产品被用于微软Azure云服务中,包括必应搜索、机器翻译等应用中。

ASIC

ASIC是Application SpecificIntegrated Circuit的英文缩写。AI芯片的计算场景可分为云端AI和终端AI。英伟达首席科学家William Dally将深度学习的计算场景分为三类,分别是数据中心的训练、数据中心的推断和嵌入式设备的推断。前两者可以总结为云端的应用,后者可以概括为终端的应用。终端设备的模型推断方面,由于低功耗、便携等要求,FPGA和ASIC的机会优于GPU。终端智能芯片的一个经典案例是苹果的A11神经引擎,它采用双核设计,每秒运算次数最高可达6000亿次。2017年9月,苹果发布了iPhoneX,搭载64位架构A11神经处理引擎,实现了基于深度学习的高准确性面部识别解锁方式(FaceID),并解决了云接口(Cloud-Based API)带来的延时和隐私问题,以及庞大的训练数据和计算量与终端硬件限制的矛盾。

TPU

随着人工智能革新浪潮与技术进程的推进,AI芯片成了该领域下一阶段的竞争核心。2016年5月,谷歌发布了一款特别的机器学习专属芯片:张量处理器(Tensor Processing Unit,TPU),2017年又推出了它的第二代产品(CloudTPU)。据谷歌称,第一代TPU仅能够处理推理任务,而第二代TPU还可以用于机器学习模型的训练,这个机器学习过程中重要的部分完全可以在单块、强大的芯片上进行。

SOC

SOC(System on Chip),指的是片上系统,MCU只是芯片级的芯片,而SOC是系统级的芯片,它既MCU(51,avr)那样有内置RAM,ROM同时又像MPU(arm)那样强大的不单单是放简单的代码,可以放系统级的代码,也就是说可以运行操作系统(将就认为是MCU集成化与MPU强处理力各优点二合一)。
SOC,是个整体的设计方法概念,它指的是一种芯片设计方法,集成了各种功能模块,每一种功能都是由硬件描述语言设计程序,然后在SOC内由电路实现的;每一个模块不是一个已经设计成熟的ASIC“器件”,只是利用芯片的一部分资源去实现某种传统的功能。
这种功能是没有限定的,可以是存储器,当然也可以是处理器,如果这片SOC的系统目标就是处理器,那么做成的SOC就是一个MCU.

你可能感兴趣的:(人工智能)