【CSDN编者按】1月2日,阿里巴巴发布《达摩院2020十大科技趋势》,十大科技趋势分别是:人工智能从感知智能向认知智能演进;计算存储一体化突破AI算力瓶颈;工业互联网的超融合;机器间大规模协作成为可能;模块化降低芯片设计门槛;规模化生产级区块链应用将走入大众;量子计算进入攻坚期;新材料推动半导体器件革新;保护数据隐私的AI技术将加速落地;云成为IT技术创新的中心 。
新的画卷,正在徐徐展开。未来走势几何?CSDN特邀CSDN博客专家马超,为各位读者略作解读和延伸。
作者 | 马超
责编 | 胡巍巍
出品 | CSDN(ID:CSDNnews)
近些年,总感觉时间过得飞快,2019一转眼,就成过眼云烟。虽然没能来一场说走就走的旅行,但是世界那么大,总还是要睁开眼睛去看一下。比如,接下来的2020年,会有哪些黑科技即将占据C位?笔者将带大家共同来进行盘点。基于本文的词云如下,可作为2020年的关键词参考。
基础学科方面的自主创新,是我们实现赶超、后来居上、跨越发展的根本途径。而且近年来,我们在量子计算、新材料科学等方面,的确令人十分期待。
2019年,科技巨头间的"量子霸权"争霸赛,让量子计算这个高深的概念,走入大众视线。先是2019年10月份,谷歌在《自然》杂志发文称,仅需要200秒,即可完成超算上万年才能完成的计算量。不过这样的结论,随后也遭到IBM等公司的公开反对。
中国在量子计算方面也是成果丰硕,比如近日中科院院士潘建伟教授与德国、荷兰的科学家合作,首次实现20光子输入60×60模式干涉线路的玻色取样量子计算,在四大关键指标上,均大幅刷新国际记录,逼近实现量子计算研究的重要目标"量子霸权"。
由于量子单元并不是简单的0、1态,而是一个相干叠加态,因此容错量子计算和演示实用量子优势,一直是业内期待攻坚突破的里程碑,是量子计算实用化的转折点,想达到其中任何一个都将是十分艰巨的任务。目前,我国量子计算将进入技术攻坚期。预计2020年,量子计算领域将会经历投入增大、竞争激化、产业化加速和生态更加丰富的阶段。
目前,主流的经典晶体管制程是7nm,不过由于量子纠缠效应的存在,业内对于3nm以下制程的芯片,普遍持悲观态度。在摩尔定律放缓、以及算力和存储需求爆发的双重压力下,科学界也在寻求对于经典半导体材料——硅的替代方案。目前以Bi2Se3、 Sb2Te3、 Bi2Te3为代表的拓扑绝缘体等,能够实现无损耗的电子和自旋输运,使全新的高性能逻辑和互联计算单元的成为可能。
新型磁性材料和新型阻变材料,能够带来高性能磁性存储器如SOT-MRAM和阻变存储器。考虑到传统半导体材料硅,已经接近潜力极限,再想提高性能,只能在新型材料方面,找到突破口。所以,笔者认为,2020年这方面很可能迎来突破。
在2019年之前,中国芯片行业中,流传一句话叫:"除了水和空气,剩下的都是从国外买的。"听起来似乎很夸张,但实际上一点也不夸张。除技术之外,过高的芯片成本、过长的投资回报周期,都是阻碍行业发展的拦路虎。如何降低芯片成本、以及提高运算效率,是当今各大企业所考虑的首要难题。
2019年乌镇互联网大会上,阿里旗下的平头哥芯片公司,率先开源一款物联网芯片(MCU),笔者已经在《百行代码解读阿里 AloT 芯片平台无剑 100》做过详细解读。由于传统芯片设计模式,无法高效应对快速迭代、定制化与碎片化的芯片需求。以RISC-V为代表的开放指令集、相应的开源SoC芯片设计、高级抽象硬件描述语言和基于IP的模板化芯片设计方法,推动了芯片敏捷设计方法与开源芯片生态的快速发展。
此外,基于芯粒(Chiplet)的模块化设计方法,用先进封装的方式,将不同功能的"芯片模块"封装在一起,从而可以跳过流片,快速定制出符合应用需求的产品,也进一步加快了芯片交付。2020年,中国在芯片方面的投资,肯定会更进一步加大。那么,这种模块化的芯片设计模式,能否让中国的芯片行业,更上一层楼?这尤其值得期待。
AI自从AlphaGo出圈以来,它在自然语言处理、图像识别、语音合成等"听、说、看"的感知智能领域达到、甚至超越人类所能达到的水平。但是,我们却只能找到统计联系、而无法找到因果关系。
2016年,李世石对阵AlphaGo第四局的"神之一手"78手,直接导致AlphaGo的崩盘。这不仅体现了人类智慧,也反映出AI感知智能的不足之处。
未来,认知智能将从认知心理学、脑科学及人类社会历史中汲取灵感,并结合扩领域知识图谱、因果推理、持续学习等技术,去建立稳定获取和表达知识的有效机制,从而让知识能够被机器理解和运用,以及让AI能够回答为什么的问题,最终实现从感知智能到认知智能的关键突破。
笔者在参加2019年BDTC大数据年会时就观察到,因果推理等认知智能领域的话题,得到了业内极大关注。因此,我们也有理由相信,2020年,通过外部知识、逻辑推理或者领域迁移的认知智能,或将迎来突破。
除了基础科研方面的突破,物联网、AI、云计算等新兴技术发展新动向,也同样值得关注,具体如下:
随着5G的落地、IoT设备数量的爆发、边缘计算概念的提出,使得工业生产的各个要素,得以深度整合。这将促进制造效率提高、产品质量改善、产品成本和资源消耗的降低,并将传统工业提升到智能工业的新阶段。从当前技术发展和应用前景来看,物联网在工业领域的供应链管理、生产过程工艺优化、产品设备监控管理、环保监测及能源管理、工业安全生产管理等方面,都发挥了巨大作用,其帮助人类实现了工控系统、通信系统和信息化系统的智能化融合。
通过物联网+方案,制造企业将实现设备自动化、搬送自动化和排产自动化,进而实现柔性制造。同时,工厂上下游制造产线能实时调整和协同。这将大幅提升工厂的生产效率、及企业的盈利能力。对产值数十万亿、乃至数百万亿的工业产业而言,提高5%-10%的效率,就会产生数万亿人民币的价值。所以,物联网+工业,必将在2020年迎来爆发。
传统单体智能,无法满足协调大规模智能设备共同完成实时感知和决策等工作。但随着物联网协同感知技术、5G高速通信技术的发展,多智能体之间的协同合作,将会成为可能。
多智能体协同,将使物联网进一步智能化,并进一步强化智能系统的价值。比如,大规模智能交通灯调度,将实现动态实时调整;仓储机器人协作,将完成货物分拣的高效协作;无人驾驶车可以感知全局路况;群体无人机协同,将高效打通最后一公里配送,超大规模的智能终端合作成为可能。
目前,深度学习需要采用规模非常庞大的网络、存储很多参数以及完成大量计算。同时,在这些计算过程中,会生成大量数据。为完成这些计算,芯片设计中,会增加很多运算单元,如几千到几万个运算单元。随着运算单元数目的增加,每个运算单元能够使用的存储器的带宽和大小都在减小。因此,存储器会成为计算瓶颈。
由于深度学习并不属于通用计算的范畴,冯·诺伊曼(John von Neuman)架构的存储和计算分离,已经不适合数据驱动的人工智能应用需求。频繁的数据搬运,导致的算力瓶颈以及功耗瓶颈,已经成为更先进算法探索的限制因素。类似于脑神经结构的存内计算架构,将数据存储单元和计算单元融合为一体,这样能显著减少数据搬运,提高计算并行度和能效。而计算存储一体化,在硬件架构方面的革新,也将突破AI算力瓶颈。
笔者在《神龙飞天,国士王坚》中,曾经介绍过在阿里神龙服务器和飞天操作系统的加持下,阿里、乃至整个云服务中的虚拟化层,所带来的损耗,正在被不断降低。
云服务凭借其标准化、弹性化的优势,使得用户只需专注应用开发,无需关注基础设施及基础服务。而且,通过云原生的资源交付方式,计算效率、易用性、用户的计算和运维成本都会得到优化。可以说,云服务变得像电力和自来水一样无处不在,它还会成为数字经济时代基础设施。
技术本身,不全是冷冰的。很多新兴技术,也会带来一定的人文关怀,比如:
数据流通所产生的合规成本越来越高。使用AI技术保护数据隐私,正在成为新的技术热点,其能够实现在保证各方数据安全和隐私的同时,联合使用方实现特定计算,解决数据孤岛、以及数据共享可信程度低的问题。这样,不仅可以实现数据价值,还能避免数据泄露风险。
2020年,除了央行基于区块链的数字货币,很可能会进行试点以外,随着BaaS(Blockchain as a Service,区块链即服务)将进一步降低企业应用区块链技术的门槛。
专为区块链设计的端、云、链各类固化核心算法的硬件芯片等,也随着国家大力扶持应运而生。而这会帮助我们实现物理世界资产与链上资产的锚定,进一步拓展价值互联网的边界、实现万链互联。之前区块链发展过于偏向于虚拟化,而通过正本清源,目前区块链产业发展,也越来越贴近实体经济。
当下,BAT等头部企业,在区块链方面的专利储备非常雄厚。2020年,肯定会涌现大批创新区块链应用场景以及跨行业、跨生态的多维协作,日活千万以上的规模化生产级区块链应用,将会进入寻常百姓家。
版权声明:本文为CSDN博主「CSDN资讯」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/csdnnews/article/details/103813668