2019年人工智能研发热点回眸

摘要 :2019年,人工智能学科各分支取得了一系列进展,并在众多领域得到广泛应用。本文遴选5G通信网络、区块链技术、脑机接口技术、AI芯片、AI教育、人脸识别、军事智能化等作为代表,回顾2019年人工智能领域的热点事件。

 

关键词 人工智能;2019年科技进展;重大科技进展

 

人工智能研究领域诞生于19世纪50年代。人工智能致力于使机器和系统以类似于人智能的水平运行。它经历了进步和挑战,并且由于现代计算能力和数据存储技术的飞速发展,近年来得到了复兴。人工智能一般会涉及推理,数据拟合,聚类和优化等的子问题,这些子问题利用遗传算法和人工神经网络[1]的方法得以初步解决。具体地说,人工智能学习技术已经为各种问题构建了通用框架,并取得了长足的进步,从而产生了跨各个领域的最新技术。

1、5G通信网络

通信和网络技术的最新进展产生了许多新颖的无线服务,如无人飞行器信到智能认知网络和大型物联网系统等。要在无线蜂窝系统的第五代(5G)上实现这些新兴应用,就需要应对与频谱共享和管理有关的众多挑战。实际上,大多数5G应用将高度依赖于智能频谱管理技术,该技术应适应动态网络环境,同时还可以保证高可靠性和高质量的体验。在这种情况下,包括深度学习,卷积神经网络和强化学习等在内的人工智能(AI)技术的使用可以在由AI驱动的频谱管理方面发挥非常重要的作用。

AI技术可以应用于各种无线系统或网络中的频谱管理。首先,大数据在5G和物联网系统中的广泛应用,可以有效地探索频谱管理以进行网络优化,从而真正运营自组织的5G网络。通过使用AI管理,人们可以使无线设备智能地学习其频谱环境,从而做出更明智,更主动的频谱管理决策。其次,认知无线电(CR[2]无疑将成为实现未来智能无线网络的关键技术。在CR中,具有AI增强型认知科学和数据分析功能的频谱管理将发挥重要作用。此外,在AI辅助频谱管理的理念的推动下,未来的CR网络可能会通过新功能进行升级,例如提供采用智能认知,先进的无线信号处理,或自适应无线资源管理等。同时物联网可以说是下一代无线网络最重要的应用之一。为了实现物联网,人工智能辅助频谱管理将成为关键的基本技术,可智能地协调数量紧张的频谱资源,智能地缓解干扰以及处理异构信息。此外,未来的无人机网络有望在没有基础设施覆盖的情况下为无线设备提供经济高效的无线连接。通常呈现异构和多层结构的现有UAV网络通常需要在地面有不同频段上运行的UAV,它们之间才能相互通信,在这些网络中,非常需要具有AI功能的强大的频谱管理技术。由于不同无人机系统的各不相同的特点,利用智能管理实现的频谱移动性和频谱共享将有可能允许在未来的大型网络中实现高速率,低延迟和超可靠的通信[3]

2、区块链技术

区块链可能带来巨大的经济和社会影响。区块链通过密码验证身份和交易并创建不可变记录的能力,可以增强信任度。人工智能在重复性任务中计算机的性能优于人类。它的判断力和智力不受情感,感觉和需求的影响。具有更好的记忆力并可以处理大量信息,因此提高了效率,并为节省成本和创造新的机会。更为重要的是,人工智能和区块链具有强大的互补能力,会对行业和市场的表现产生巨大影响。每一个都具有改善另一个的性能和功能的能力[4]

结合两个技术生态系统,可以有效解决人工智能和区块链的许多缺点[5]AI算法依靠数据或信息来学习,推断和做出最终决策。当从可靠,安全,可信赖和可信的数据存储库或平台收集数据时,机器学习算法会更好地工作。

区块链充当分布式账本,可以在该账本上以所有挖掘节点经过加密签名,验证和同意的方式存储和处理数据。区块链数据具有高完整性和高弹性存储,不能被篡改的特性。当将智能合约用于机器学习算法来制定决策和执行分析时,这些决策的结果将是可信赖的且无可争议的[6]。人工智能与区块链的整合可以为人工智能提供收集,存储和利用的高度敏感的信息,创建安全,不变,分散的系统[7]。此方式可以显着改进,以保护各个领域(包括医疗,个人,银行和金融,交易以及法律数据)中的数据和信息的安全。

如图1显示,人工智能在许多区块链平台的使用中获得好处,这些平台可以执行机器学习算法并跟踪存储在分布式P2P存储系统上的数据。这些数据通常来自智能连接产品,这些产品包括各种来源,例如物联网设备,群体机器人,智能城市,建筑物和车辆。还可以利用云的功能和服务进行链下机器学习分析和智能决策以及数据可视化。

2019年人工智能研发热点回眸_第1张图片

1 AI对新兴技术的影响概览

Fig.1 An overview of AI in relation tofast emerging technologies

3 脑机接口技术

脑机接口(BCI)为人们提供了一种无需行动即可传达信息的方式。取而代之的是,人们进行脑力活动,例如想象运动或计数,这些活动会产生计算机可以检测到的特定大脑活动模式。然后计算机向用户实时提供反馈。

所有BCI都有四个组成部分。首先,传感器必须可以检测大脑活动。大多数BCI通过非侵入性手段来检测大脑活动,也有一些BCI使用植入的电极可以提供有关大脑活动的更多详细信息。其次,自动信号处理软件必须识别并区分反映用户意图的大脑活动。第三,外部设备必须基于信号处理模块的结果提供某种反馈。这可能涉及在监视器上显示单词,移动外骨骼或控制假肢。最后,操作环境必须控制其他三个组件之间以及与最终用户之间的交互方式[8]

2019717日,马斯克宣布Neuralink公司的脑机接口技术获得突破性进展,与之前的技术相比,对大脑的损伤更小,并且传输数据能力更强。Neuralink表示,它已经用该技术对动物进行了多次手术,并且成功地放置了“细微的线”的电路,使机器能被动物的大脑控制,有大约87%的成功概率。

Neuralink在向柔韧,可扩展的脑机接口发展方面有重大突破,该接口将通道数相比之前的数量增加了一个数量级。系统包含三个主要组件:超细聚合物探针,神经外科手术机器人和定制的高密度电子设备。微型定制电子设备,使我们能够同时从所有电极流传输完整的宽带电生理数据。将该系统打包以用于长期植入,并定制开发了的在线峰值检测软件,该软件可以以低延迟检测动作电位。该系统构成了最先进的,并且是面向完全植入式人脑-机器接口的平台。


Nerualink已经开发出定制工艺,所需要的最小的神经探针由多种生物相容性薄膜材料制作。聚酰亚胺主要组成了这些探针中使用的主要基板和电介质,其中封装金薄膜迹线。每个薄膜阵列均由“传感器”区域和具有电极接触和走线特征的“螺纹”区域组成,在该区域中,可进行信号放大和采集的定制芯片与薄膜相接[9]

2019年人工智能研发热点回眸_第2张图片

2脑机接口模型

Fig.2 The model of Brain-computerinterface

4AI芯片

机器学习算法在许多应用中都取得了重大进步。但是,它们在最新平台上的硬件实现仍然面临一些挑战,并受到各种因素的限制,例如内存容量,内存带宽和互连开销等[10],所以开发专为人工智能的优化的芯片,对人工智能的发展和应用十分重要。

2019年,新型人工智能芯片“天机芯(Tianjic由清华大学类脑计算研究中心施路平团队研发成功。这是世界首款异构融合类脑芯片,在中国芯片和人工智能两大领域实现了在《自然》论文零的突破。“天机芯”具有速度快、性能强、功耗低的特点。未来,随着“天机芯”的发展,可以为人工通用智能的研究提供更高效、迅速、灵动的计算平台,还可用于其他领域的应用开发,促进人工通用智能研究,赋能到其他行业。

有两种通用方法开发通用人工智能:面向计算机科学和面向神经科学。由于它们的编码方案和表达方式存在根本性不同,因此这两种方法依赖于不兼容且截然不同的平台[11],从而减慢了人工智能的发展。人们非常希望有一个通用平台来支持受神经科学启发的模型和算法和流行的基于计算机科学的人工神经网络。天机芯(Tianjic集成了两种方法以提供一个协同、混合的平台。该芯片采用了多核架构,具有混合编码方案的流线型数据流和可重新配置的构建块,不仅可以轻松实现灵感来自大脑的电路和多种编码方案,还可以适应基于计算机科学的机器学习算法。同时该芯片是一个专用平台,可支持当今横跨神经科学和计算机科学领域的大多数神经网络模型,这些模型通常使用不同的方式来表示信息。我们已经重新审查了计算机科学领域(例如MLPCNNRNN)使用最广泛的神经网络模型和神经科学领域(例如SNN,基于速率的生物启发式神经网络等),以此为基础我们提出了一个统一的表示,以使模型的实现与轴突,突触,树突,躯干和路由器隔间保持一致。我们确定了SNNANN神经元之间的相同点和不同点,并根据它们各自的功能将操作和转换安排到这些区室中。通过对齐数据流,芯片 可以在单个或混合范例中灵活地实现各种模型[12]。实验中演示的无人自行车系统中多种模型和算法的同步处理仅使用了一块芯片,实现了实时目标检测,跟随,语音控制,躲避障碍和控制平衡。

3“天机芯”自行车

Fig.3 Tianjic bike

5 AI教育

人工智能在教育领域的贡献十分重要。从机器人教学到开发用于答卷评估的自动化系统,人工智能始终为老师和学生提供帮助。研究表明,AI是所有启用NLP的智能导师系统的核心。这些系统有助于培养诸如自我反思,回答深层问题,解决问题矛盾,产生创造性问题以及做出选择等[13]

人工智能可以使学校和教师的重复性工作极大的简化,教育工作者花费大量时间进行考试评分,评估功课并为学生提供宝贵的反馈意见。随着AI教育的逐步成熟,可以使用AI技术来自动化测试的多种评分任务。这意味着教授将有更多的时间陪伴他们的学生,而不是花费大量的时间为他们评分;人工智能可以针对每个学生,生成适合该学生的学习内容,定制化教科书,帮助学生尽可能的发挥自己的潜能。同时AI教育打破了地域的界限,学生可以在任何地方任何时间,学习自己感兴趣的任何课程[14]

国外已相继研发出诸多智能教育系统. 例如: 美国匹兹堡大学的Brusilovsky 教授[15]针对学生的兴趣爱好、学习经历和知识量的多少进行用户建模, 为满足学习者与系统交互过程中的个性化学习需求, 相继开发了ELM-ART, InterBook, KnowledgeSea,AnnotatEd,TaskSieve 等智能学习系统, 后来的许多研究成果都是在其基础上的改进和补充.。澳大利亚墨尔本皇家理工大学Wolf教授、及希腊雅典大学的Papanikolaou及荷兰爱因霍芬科技大学DeBra 教授等人也分别研发了INSPIREAHA!iWeaver等个性化教育系统[16]

国外研发的多款产品已成功应用于个性化教育的教学实践中, 并取得了一定的成效.。以DreamBox Learning的侧重个性化学习诊断为例, 其作为一个在线学习平台可以自动适应用户学习进度, 通过分析每个学生的学习过程,提供数学化理解能力评估, 然后以最适合学生的方式去提示和鼓励学生向正确的方向学习。普渡大学的跟踪数据表明, DreamBox Learning有效提高了学生的整体成绩。

6 人脸识别

人工智能技术在近期的快速发展,特别是电子技术和计算机科学的发展,首次有可能广泛地部署生物识别系统。如今,它们存在于边界访问控制,监视,智能手机身份验证,取证和在线服务(例如电子学习和电子商务)等大量场景中。

在所有现有的生物特征中,目前是最广泛的特征之一就是人脸识别。自60年代以来,人们就一直在研究将人脸识别为一种识别手段,随着计算机视觉的发展,它在90年代有了特殊的意义[17]。人脸生物识别的特点是在一定距离内非侵入式采集,以及人脸的良好识别特性以执行身份识别。

近期很多场景都会广泛的应用人脸识别技术,同时对人脸识别的欺骗也层出不穷,通常,可以通过向传感器(例如,照相机)呈现目标人员的照片,视频或3D蒙版来欺骗人脸识别系统。由于面部表情(例如社交媒体,视频监控)的暴露程度高,以及高分辨率数码相机,打印机或数字屏幕的价格低廉,使用照片和视频是最常见的攻击类型。

人脸识别系统试图区分真实用户,而不是确定提供给传感器的生物特征样本是真实的还是假的。人脸识别技术通常被认为是能够自动区分呈现给传感器的真实生物特征和人工合成伪像的技术。为了创建防攻击的面部识别系统,必须选择适当的辨别人脸伪造技术。之后,辨别人脸伪造技术与人脸识别系统的集成可以在不同级别进行融合,即得分级别或决策级别融合[18]

第一种可能性是使用评分级别融合,这是一种流行的方法,因为它简单易行,并且在多模式生物识别系统融合中获得了良好的效果。在这种情况下,生物特征数据会同时输入到面部识别系统和辨别人脸伪造系统中,并且每个数据都会计算自己的得分。然后,来自每个系统的分数将合并为一个新的最终分数,用于确定样本是否来自真正的用户。这种方法的主要优点是它的结果反馈迅速,因为这两个模块同时执行其操作。这个事实可以在具有良好并行计算规范的系统中使用,例如具有多核/多线程处理器的系统。

结合辨别人脸伪造技术和人脸识别系统的另一种常见方法是串行方案,在该方案中,辨别人脸伪造系统首先做出决定,并且只有在确定样本来自活人的情况下,才由样本进行处理。由于这种决策级融合,面部识别系统将搜索与生物特征样本相对应的身份,从而事先知道该样本并非来自演示攻击。另一方面,在串行方案中,尝试访问的平均时间将更长,辨别人脸伪造模块和面部识别模块的连续延迟。但是,这种方法避免了在伪造攻击下人脸识别系统的额外工作,因为计算将在早期阶段结束[19]

攻击者可以使用许多没有限制的欺骗,每种欺骗都有不同的性质。因此,重要的是收集具有新方案的新数据库,以便开发更有效的辨别人脸伪造的算法。否则,将很难提高面部识别系统安全性。

7 军事智能化

在过去的十年中,研究人员在人工智能(AI)和相关技术(量子计算,大数据,物联网,小型化以及机器人技术和自主性)的发展中取得了重要的里程碑,例如,2014年,设计世界上最好的围棋程序(AlphaGo)的AI专家预测,要击败人类围棋冠军还要再过十年。GoogleDeepMind仅在一年后就实现了这一技术壮举。

推动这一发展的关键因素包括:(1)计算性能呈指数增长;(2)扩展的数据集; 3)机器学习技术和算法的实现方面的进展(尤其是在深度神经网络领域); 最重要的是,(4)人工智能的商业兴趣和投资迅速增长。(5)至少自第二次世界大战以来,部分自主系统已用于军事技术,但是机器学习和人工智能的最新进展代表了一个根本性的转折点。(6)人工智能可能给军事力量带来根本性的变化,其意义在于重新调整力量平衡。(7)特别是各个国家之间的地缘政治竞争。各国将不可避免地受到开发AI能力的竞赛的影响。世界各国领导人已迅速认识到人工智能具有变革性的潜力,并相信其在未来会成为国家安全的重要组成部分[20]

2016年,美国国防部就发布了国家人工智能研究与发展战略计划,这是有关AI机器学习的一系列研究之一,内容涉及AI振兴美国军事主导地位的潜力。国防部副部长罗伯特·沃克:我们无法证明这一点,但我们认为我们正处于AI和自主性的拐点处。国防部还建立了国防部创新实验组,以促进五角大楼和硅谷之间的紧密合作。军事力量带来根本性的改变可能就来自人工智能,继续发展一系列军事用途的人工智能技术,为寻求成为科学技术超级大国打下良好基础,以期发掘美国在军事上的脆弱性。俄罗斯已准备在2025年将其全部军事力量的30%替换成机器人。总而言之,国家级的目标和计划证明了全球各国对人工智能对国家安全和战略演算的变革性(或军事技术革命)潜力的认可。

美军DARPA在军事智能化方向大力投入,从终身学习项目(L2M)项目、“指南针”项目、KAIROS项目等,到近期发展的“可解释的人工智能”(XAI)项目、“不同来源主动诠释”(AIDA)项目、“确保AI抗欺骗可靠性GARD)项目,这些都是在军事领域的人工智能的应用性研究。其中“可解释人工智能”旨在开发出革命性的机器学习技术,希望可以形成一套理论架构,能够解释人工智能得出的结论。可解释的机器学习系统将具有表征其优缺点的能力,解释其原理,并能够表达对它们未来行为的理解。实现该目标的方法是改进或开发新的机器学习技术,以产生更多可解释的模型。这些模型将结合最先进的人机界面技术,将模型转换为有效的,并且最终用户可以理解解释对话框。策略是采用各种技术,以生成一系列方案,这些方案将为未来的开发人员提供一系列包。解释性交易空间与性能并重的设计选项[21]。

2019年人工智能研发热点回眸_第3张图片

4可解释人工智能模型

Fig.4 The model of Explainable ArtificialIntelligence

8 结论

人工智能正在广泛的与各个领域相结合,促进各个领域朝着智能化方向发展。希望能合理利用人工智能,使人们在生活的各个方面享受到人工智能带来的便利。通过对人工智能技术的不断完善,营造更美好的智能世界。

 

参考文献(References)

[1]     SchmidhuberJ. Deep learning in neural networks: An overview[J]. Neural networks, 2015, 61:85-117.

[2]    Learned R E. Cognitive radio method andapparatus for achieving ad hoc interference multiple access wirelesscommunication: U.S. Patent 10,299,281[P]. 2019-5-21.

[3]    Li Z, Ding Z, Shi J, et al. Artificialintelligence (AI)-driven spectrum management[J]. 2019.

[4]     KshetriN. Complementary and Synergistic Properties of Blockchain and Artificial Intelligence[J].IT Professional, 2019, 21(6): 60-65.

[5]     PanarelloA, Tapas N, Merlino G, et al. Blockchain and iot integration: A systematicsurvey[J]. Sensors, 2018, 18(8): 2575.

[6]     FerrerE C. The blockchain: a new framework for robotic swarm systems[C]//Proceedingsof the Future Technologies Conference. Springer, Cham, 2018: 1037-1058.

[7]     MarwalaT, Xing B. Blockchain and artificial intelligence[J]. arXiv preprintarXiv:1802.04451, 2018.

[8]     GugerC, Allison B Z, Mrachacz-Kersting N. Brain-Computer Interface Research: AState-of-the-Art Summary 7[M]//Brain-Computer Interface Research. Springer,Cham, 2019: 1-9.

[9]     Musk E.An integrated brain-machine interface platform with thousands of channels[J].Journal of medical Internet research, 2019, 21(10): e16194.

[10]  Du X,Krishnan G, Mohanty A, et al. Towards Efficient Neural Networks On-a-chip:Joint Hardware-Algorithm Approaches[J]. arXiv preprint arXiv:1906.08866, 2019.

[11]  BenjaminB V, Gao P, McQuinn E, et al. Neurogrid: A mixed-analog-digital multichipsystem for large-scale neural simulations[J]. Proceedings of the IEEE, 2014,102(5): 699-716.

[12]  Pei J,Deng L, Song S, et al. Towards artificial general intelligence with hybridTianjic chip architecture[J]. Nature, 2019, 572(7767): 106-111.

[13]  Sa P K,Bakshi S, Hatzilygeroudis I K, et al. Recent Findings in Intelligent ComputingTechniques[J]. Proceedings of the 5th ICACNI, 2017, 1.

[14]  杨宗凯.个性化学习的挑战与应对[J].科学通报,2019,64(Z1):493-498.

[15]  FarzanR, Brusilovsky P. AnnotatEd: A social navigation and annotation service forweb-based educational resources[J]. New Review of Hypermedia and Multimedia,2008, 14(1): 3-32.

[16]  Wolf C.iWeaver: towards' learning style'-based e-learning in computer scienceeducation[C]//Proceedings of the fifth Australasian conference on Computingeducation-Volume 20. Australian Computer Society, Inc., 2003: 273-279.

[17]  Turk MA, Pentland A P. Face recognition using eigenfaces[C]//Proceedings. 1991 IEEEComputer Society Conference on Computer Vision and Pattern Recognition. IEEE,1991: 586-591.

[18]  FierrezJ, Morales A, Vera-Rodriguez R, et al. Multiple classifiers in biometrics. Part1: Fundamentals and review[J]. Information Fusion, 2018, 44: 57-64.

[19]  EvansN. Handbook of Biometric Anti-Spoofing: Presentation Attack Detection[M]. Springer,2019.

[20]  JohnsonJ. Artificial intelligence & future warfare: implications for internationalsecurity[J]. Defense & Security Analysis, 2019, 35(2): 147-169.

XuF, Uszkoreit H, Du Y, et al. Explainable AI: a brief survey on history,research areas, approaches and challenges[C]//CCF International Conference onNatural Language Processing and Chinese Computing. Springer, Cham, 2019:563-574.

摘自《科技导报》2020.1

你可能感兴趣的:(2019年人工智能研发热点回眸)