基于 AI 的 5G 技术 | 尤肖虎

基于 AI 的 5G 技术 | 尤肖虎

中国科学信息科学 前天
作者:尤肖虎 张川 谈晓思 金石 邬贺铨


摘 要
第五代移动通信(5G)技术将为移动互联网的快速发展提供无所不在的基础性业务能力,在满足未来10年移动互联网流量增加1000倍发展需求的同时,为全行业、全生态提供万物互联的基础网络技术。相对已有的移动通信技术,5G技术适用面更为广泛,系统设计也更为复杂。重新复兴的人工智能(AI)技术为5G系统的设计与优化提供了一种超越传统理念与性能的可能性。《中国科学:信息科学》最新录用了尤肖虎教授等撰写的评述“基于AI的5G技术——研究方向与范例”。该评述在概述5G移动通信关键技术的基础上,梳理了AI技术在5G系统设计与优化方面富有发展前景的若干发展方向,并给出了有关5G网络优化、资源最优分配、5G物理层统一加速运算以及端到端物理层联合优化等若干典型范例。


01

引言

5G是面向2020年之后发展需求的新一代移动通信系统,其主要目标可概括为“增强宽带、万物互联”。5G 应用被划分为3个典型的场景:增强型的移动宽带(eMBB)、海量连接的机器通信(mMTC),以及高可靠、低时延的物联网应用(URLLC),并规定了多个维度的关键技术指标需求,包括:峰值速率、频谱效率、时间延迟、网络可靠性、连接密度及用户体验速率等。大规模天线阵列、密集网络、新型波形复用与信道编译码(如极化码),以及毫米波接入将成为5G无线网络的核心关键技术。

5G另一项富有前景的关键技术是网络虚拟化与切片技术,其基本思想是将5G网络构建在云计算平台上,通过计算资源的隔离、动态调配与迁移,实现网络资源的灵活调配,以适应未来5G极为丰富的应用场景。

5G技术标准正处于不断完善与成熟的过程中。国际标准化组织3GPP于2017年12月公布了第1个5G技术标准,支持非独立组网(NSA)与eMBB功能。2018年6月14日,3GPP批准了5G独立组网(SA)技术标准,5G自此进入了产业全面冲刺的新阶段。

在4G技术基础上,5G新无线接口(5G NR):
对已有的多输入多输出(MIMO)技术进行了增强,引入了大规模天线阵列技术;
对OFDM时隙结构和时频资源块(RB)划分方案进行了补充,提出了更为灵活的空中接口技术;
预计下一个5G标准版本将引入非正交多用户接入(NOMA)技术,以支撑广域覆盖的中低速率物联网应用;
沿用了前期的分布式无线网络构架,将无线网络功能单元划分为分布式单元(DU)和中心单元(CU),并引入了基于云计算的网络虚拟化与切片技术。

5G 技术应用范围的扩展使得其系统设计和优化更为复杂。传统移动通信系统的优化目标主要体现在,对系统传输速率和移动性能力的支持方面。5G NR 将其应用特性的支持能力进一步扩展至:时间延迟、网络可靠性、连接密度,以及用户体验速率等多个关键性能指标(KPI)方面。5G N系统设计需要在这些KPI之间进行折中与优化。而且灵活空中接口、网络虚拟化与切片技术的引入,极大地增加了系统设计的复杂性,并为5G网络运维和优化带来了极大的挑战。可喜的是,人工智能(AI)技术为5G系统的设计与优化提供了一种超越传统理念与性能的可能性,已成为业界重点关注的研究方向。3GPP、ITU等组织均提出了5G与AI相结合的研究项目。

AI技术诞生于20世纪中叶,几经沉浮,近年来借助于现代计算和数据存储技术的迅猛发展而再次复兴。AI技术涵盖遗传算法和人工神经网络两大类,其本身是一种普适性的机器学习技术。凡是给定场景涉及到了数据的统计、推断、拟合、优化及聚类,AI均能找到其典型应用。根据训练数据的标签(label)或对应关系是否已知来区分,AI学习算法可以粗略地分为监督学习和非监督学习两类。而增强学习算法既不是一般意义上的非监督学习算法,也不是监督学习算法,因此又自成一类。以上三类学习算法的特点和典型范例包括:

监督学习
在监督学习中,每个训练数据组(data pair)都是由一个输入对象和一个期望的输出值组成的,其目标是习得输入和输出数据的一种的函数关系,并依据该函数关系推断其他输入数据可能的输出值。监督学习的一种典型范例即为图1所示的深度神经网络(DNN)的训练。该训练方法通过一组先验的数据对(data pairs)对多层人工神经网络节点间的加权系数进行离线训练。当训练收敛后,该分层人工神经网络可以实现对新的数据的辨识与推断。

非监督学习
非监督学习的训练数据是无标签的数据。通过非监督学习,我们试图找到这些数据中隐藏的结构。自组织映射(SOM)网络的训练就用到了非监督学习方法。在SOM中,任意维度的无标签训练数据被输入一个人工神经网络,转换为低维度(通常为二维)的离散映射(map),并通过非监督学习算法对权重向量有选择性地微调,以拓扑有序的方式自适应地执行这种变换。

增强学习
增强学习的典型例子是:可在线处理的增强学习方法。它基于智能实体(Agent)与环境(Environment)之间的动态交互。当智能实体感知到环境信息后,依据自己采取动作(Action)所可能带来的奖赏(Reward)或惩罚(Penalty),确定下一步动作,并进一步观察环境的反应,循环往复,直至收敛至某一稳态目标

两种常见的学习方法如下:

反向传播学习算法
反向传播(BP)学习算法是分层人工神经网络中最为经典的训练算法,是最速下降优化算法的一种具体形式。其目标是通过迭代,调整节点间的加权系数,使得分层人工神经网络的输出逐步接近已知的输出。有关BP算法的动态参数优化及加速实现形式,可参见作者早期的有关论文[You 1992; You 1995]。有关分层人工神经网络拓扑结构的选择,以及如何避免陷入局部最优,可参见作者早期的论文[You 1997]。而今,B学习算法被广泛用于训练深度神经网络(DNN),并取得了良好的效果。拥有两层或更多隐藏层(hidden layer)的神经网络均可被称为DNN。卷积神经网络(CNN)是一类常见的前馈DNN,其隐藏层包含:卷积层、池化层、全连接层及归一化层。 CNN也可以使用反向传播算法进行训练,并能在图像和语音识别等方面给出比其他DNN更好的结果。

Q学习算法
Q学习算法又称为Bellman算法,是增强学习最为经典的算法。其基本思路是:选择某一函数(Q 函数),作为衡量一个智能实体执行某种动作的代价(奖励或惩罚)函数;该智能实体根据所处的环境,对所有可能的动作进行Q函数评估,并从中选择出奖励成份最大的动作,并加以行动。Bellman给出了Q函数常见的迭代更新形式,从而使该智能实体的动作、环境的变化和Q函数的调整能以在线的方式实现。Q 算法的迭代收敛性证明可参见论文[Watkins 1992]。

传统数据科学的AI机器学习算法(例如线性模型(linearmodels)、决策树(descision tree)、k均值聚类(k-means clustering)等)日臻成熟并已经部分投入商用。而近年来,深度学习方法(例如DNN、CNN、增强学习等)迅速发展,并在认知技术等领域取得了重大突破,受到了前所未有的关注。与此同时,元学习(meta-learning)等深度学习算法的新分支也在不断开拓中,提出了“学会学习”等崭新的概念。例如,Finn等[Finn 2017]提出的未知模型元学习法(model-agnostic meta-learning,MAML)不会对模型的形式做任何假设,也没有为元学习引入额外的参数,极易应用于许多领域,包括分类、回归和增强学习等。近期AI技术的发展在文献[Wu 2018; Zhou 2018; Zhong 2017]中有详细的总结。

这些新技术使深度学习方法适用于更广泛、更复杂的场景,也为AI在通信等领域中的应用制造了新的机遇。


02

AI应用于5G系统的发展方向

作为普适性的机器学习技术,AI 可以广泛地应用于5G 系统设计和优化的各个环节,大体上涉及三类技术问题: 组合优化问题、检测问题及估计问题

组合优化问题
5G NR的资源分配问题是一个典型的组合优化问题。它需要从资源池中穷举出一组最优的资源配置方式,并据此将资源分配给网络覆盖范围内的多个用户,最大化资源利用效率。

检测问题
再如,5G通信最优接收机的设计就是一个典型的检测问题,其目标是对接收信号进行辨识,确定对应的发射信号,并使检测错误概率最低。

估计问题
5G通信的信道参数的准确估计是实现系统相干接收的必要条件。它需要根据5G 系统所发送的导频信号(事先确知),估计出无线信号传播从发射端到接收端所历经的信道畸变

AI技术在5G系统中的应用已有大量的文献可供参考,但并非所有的研究均有潜在的发展生命力。

首先,移动通信系统本身经过长期的发展,已经拥有了较为完备的经典设计和处理方法。大量实践已经证明,这些经典方法在工程上极为有效,且易于实现。

其次,移动通信系统通常存在性能界(如香农容量限),现有的方法经过精心设计已经可以充分逼近上述性能界。例如,文献[Gao 2009]中给出了逼近MIMO容量界的一种设计方法,其只需对功率最优注水分配问题进行简单的迭代,便可使MIMO的性能充分逼近香农容量界。这意味着,即使采用先进的AI学习技术,也无法超越这些经典算法。

第三,AI学习本身也有明显的局限性,无论是BP算法还是Q算法均存在训练的收敛时间问题。能否满足移动通信系统实时处理的需求,需要进行较为充分的评估。最后,与经典的方法相比,AI学习算法的计算复杂度通常较高,如果不能带来性能上的明显提升,其本身显然不具备足够的竞争力。

这里,并非否定AI技术在5G系统设计与优化中的潜在价值。相反,5G系统中存在大量传统方法难以建模、求解、或高效实现的问题,为AI技术在5G中的有效应用提供了可能。同时,一些新的AI算法正在不断发展中,为AI在5G中的应用提供了新的机遇。因此,有必要对AI技术在5G系统设计与优化中的典型问题进行梳理,从而确定其在5G系统中更有潜在应用价值的研究方向。

为此,本文将AI 在5G中的应用问题划分为以下四种类型:无法建模问题、难以求解问题、统一模式高效实现问题、及最优检测与估计问题。我们将看到: 对于前两类问题,由于缺乏有效的传统解决方案,AI技术通常更具应用潜力。而对于后两类问题,AI技术相对于传统的解决方案是否在性能或实现上具备更强的竞争力,则视其具体解决方案而定。四类问题具体分析如下:

无法建模问题
移动通信系统的网络优化涵盖一类难以统一建模的技术问题,如覆盖问题、干扰问题、邻区选择、及越区切换问题等,其运维通常更多地依赖于工程人员的实践经验。相比之下,5G系统涉及的应用场景更为综合、KPI种类更多,特别是5G NR中基于大规模天线阵列的密集波束应用,需要引入更高维度的优化参数,对网络运维带来了更为艰巨的挑战。5GNR另一个难以建模的问题是KPI优化。如前所述,5G NR的KPI涉及峰值速率、频谱效率、时间延迟、网络可靠性、连接密度及用户体验速率等多个维度,这些指标往往是相互依赖或相互矛盾的,因而难以建立全局性的优化模型。

难以求解问题
5GNR涉及一系列资源分配问题,包括: 小区间时频资源块分配、正交导频资源分配、波束分配、大规模MIMO多用户聚类及无线网络虚拟化资源池调配等。这些问题的模型优化目标是使得整个无线网络的吞吐率最大化,并满足一定程度的用户服务比例公平性。其最优解求解问题通常属于NP-hard类型的组合优化,对应的计算复杂度随系统规模的增加而指数增长。传统的解决方法一般将此类问题进行静态分割,从而以较低的计算量获取次优的解决方案。AI技术则为此类问题的解决提供了可能的技术途径。

统一模式高效实现问题
5GNR涉及一些基本功能模块的级联组合。以5G NR的物理层为例,涉及大规模MIMO多用户空时处理、NOMA信号检测及LDPC码和Polar码信道编译码等功能模块。上述每个功能模块算法各不相同,但理论上均可以单独采用AI学习技术逐一加以解决。这启发我们,可用统一的、基于AI技术的软硬件方案解决5G NR物理层所有的关键功能模块,从而简化系统的设计流程、加速工程实现的进程、提高物理层实现的可配置性,并最终降低系统实现成本、提高实现效率。

最优检测与估计问题
将AI应用于5G系统的直观的想法是,用人工神经网络来取代传统发射机和接收机的基本功能模块。如前所述,基于人工神经网络训练的方法,其无线传输性能最多也只能接近香农容量界;但相对于经典的优化设计方法,其计算量可能更为庞大,且训练所需的收敛时间也会限制其实际应用。另一个更值得探讨的研究方向是,使用AI技术进行跨层联合优化,包括:物理层与媒体控制层的联合优化、信源与信道的联合优化及算法设计与硬件实现的联合优化等,这些均是传统方法所难以解决的。


03

AI应用于5G系统的典型范例

本节将具体介绍AI应用于5G系统的四个典型范例: 网络自组织与自优化、时频资源最优分配、5G通用加速器、及5G物理层端到端优化。

3.1 网络自组织与自优化
自组织网络(SON)已被3GPP列为LTE网络优化关键技术。相比于传统无线通信,5G应用场景更为复杂,网络优化与管理更为艰难,因此对SON的技术需求将更为强烈。SON包括了网络自配置、自优化、及自愈合三项功能,旨在淡化传统人工干预,实现网络规划、网络配置、及网络优化的高度自动化,以节省运营成本,降低人为故障。文献[Wang 2015; Klaine 2017; Perez-Romero 2016]对AI技术在SON中的应用进行了总结,涉及基站自主参数配置、动态规划、迁移学习,网络故障的自动检测与定位,及网络参数的自动优化等,所采用的AI方法包括人工神经网络学习、蚁群优化、及遗传算法等

下面以文献[Gomez-Andrades 2016]提出的自动故障分析为例,介绍AI技术在SON中的具体应用。为了实现LTE网络自动故障诊断,AI技术需要克服两大问题:
现有大量数据的KPI种类多,又缺乏已知的故障标签,难以进行简单的归类诊断;
鉴于人工诊断的成本较高和能力有限,需要尽量减少人工参与。

因此,研究者结合监督和无监督两种学习方法,提出了基于AI的故障诊断系统。诊断分为以下几步:
步骤 1
利用图2所示的无监督的自组织映射(SOM)算法实现对无标签高维度数据的初步分类。多种类的KPI指标带来了高维的历史数据。SOM作为人工神经网络,通过训练能将任意维的输入数据在输出层映射成二维神经元网络。神经元的拓扑结构即代表了原数据的分布情况: 越相近的神经元,其映射的原数据越接近。 这样就实现了高维数据的低维表示和初步聚类。
步骤 2
完成SOM训练之后,我们再对SOM建立的神经元进行一次无监督的聚类。因为神经元之间的欧氏距离即表示其映射数据之间的差异,所以基于欧式距离的沃德(Ward)聚类算法即可实现对神经元的聚类。
步骤 3
经过以上两个步骤,数据已经被分为几个大类。此时,再引入专家对分好类的数据进行故障分析,有监督地贴上故障标签

以上三个步骤完成了故障诊断系统的设计,建立了一套自动的诊断流程,如图4所示。此后产生的新数据在输入该系统之后,将先由SOM定位到最接近的神经元,再由该神经元的类别标签判断其是否故障以及原因。在诊断一定数量的新数据之后,以上三个步骤可以再次被执行用以验证和更新系统。文献[Gomez-Andrades 2016]的仿真结果表明,即便在主要使用无监督学习进行构建、并且人工参与量极低的情况下,上述自动故障诊断系统仍能达到非常高的诊断准确率。

3.2 时频资源最优分配

相比于4G LTE-A,5G NR将面临更为复杂的OFDM时频资源块(RB)分配问题,以适应5G三种典型的应用场景。图5给出了一个典型的多小区、多用户下行链路RB分配示意图。其中,同一小区内不同用户的RB分配是正交的,系统整体干扰主要取决于相邻小区用户RB的分配方案。假设每个用户的信息容量可在信干比(SIR)测量值的基础上得出,则系统RB最优分配的目标是使所有用户的信息容量之和最大化。这是一个典型的NP-hard组合优化问题,所需的计算量与覆盖范围内移动用户数的阶乘成正比。

以基于Q学习算法的应用为例。假设某一智能实体负责上述移动用户的RB分配,则该智能实体的动作可以遵循以下原则对用户RB进行更新:
在同一小区内,选择SIR较好的空闲RB分配给用户;
不断更新本小区SIR最差用户的RB,以寻求更好的系统性能;
对于同一RB,把本小区SIR最差的用户与邻小区SIR最好的用户进行配对或分簇。

前两个原则易于理解,而第三个原则旨在避免位置相近、且处于小区边缘的用户被分配相同的RB。此时,相邻基站无论如何调整发射功率,这些用户均无法同时获得正常工作所需的SIR。

智能实体在动作集合确定后,以所有用户的信息容量之和最大化为准则,选择当前最优的动作对RB进行调整,并按照Bellman公式对Q函数进行实时更新。如此迭代操作,直至Q函数趋于稳定。

上述迭代过程还应与用户的功率最优分配相结合。文献[Wang 2017]基于博弈论框架,给出了多小区用户采用相同RB时的最优功率分配方法。如果系统需要进一步考虑用户QoS的比例公平性,可引入拉格朗日乘子法,构造相应的动作评估准则和Q函数。文献[Bogale 2018; Li 2017]对AI在5G资源分配中的一些应用进行了总结和展望。而\cite{35。3}也初步提出了增强学习方法在5G新框架中的网络切片技术方面的新应用。

3.3 5G通用加速器

相比于4G,5G的基带处理需要考虑更多的模块,例如:大规模MIMO检测、NOMA检测及Polar码译码等,这会使硬件面积增加,实现架构不规律。可以注意到,尽管5G基带模块众多,但所有功能均可以用基于因子图的置信传播算法实现。针对特定的基带功能,置信传播算法只需确定变量符号集、变量间关系等参数,而保持其余的部分不变。因此可以用一个基于置信传播的、参数可配置的通用加速器实现整个基带功能。

尽管基于置信传播的算法可以实现5G通用加速器,但受其性能限制,置信传播算法在一些场景下仍然无法满足要求。为此我们尝试在置信传播通用加速器的基础上,实现基于AI的5G通用加速器。我们可以通过以下两种方式,将一个置信传播算法改进为一个性能更好的AI算法。
方法一
将置信传播算法改为深度神经网络(DNN)算法。方法如下:
将置信传播算法的因子图复制多次,并按照原有的方式连接为一个深度神经网络,复制次数等于置信传播算法的迭代次数。
对DNN进行训练。Xu等[Xu 2017]提出的基于DNN的polar码译码器,Tan等[Tan 2018]提出的基于DNN的MIMO检测器等是方法一在基带模块上实现的范例。

方法二
将置信传播算法改为卷积神经网络(CNN)算法。方法如下:
将置信传播算法的因子图节点排列在图片上,其中每个像素代表一个节点。像素相邻意味着其对应的节点在因子图中相连。
用连接得到的图像对CNN进行训练。Liang等[Liang 2018]提出的BP-CNN信道译码器应用了方法二。

AI技术中的神经网络算法具有高度的自适应性与可靠性。通过将基带算法转化为神经网络能够处理的问题,我们受益于以下两方面:
系统性能的提升;
硬件架构的统一。

观察神经网络的算法,我们发现CNN核心操作是卷积运算,而DNN核心操作为二维矩阵乘法运算。二维脉动阵列可以同时完成上述两种运算。因此利用同一脉动阵列,只需对输入数据进行合理调度,即可同时实现CNN与DNN的功能,从而实现基于AI的5G通用加速器。文献[Xu 2018a]综合研究了神经网络的高效量化策略以及硬件实现。一种二维脉动阵列架构如图6所示,可以看出其高度的规整性和可扩展性。

文献[Xu 2018b]指出,在由信道编码、信道、信道均衡器及译码器组成的系统中(如图7),接收机的均衡器与译码器分别可用CNN和DNN实现。对应的AI加速器有两种实现方案。

硬件消耗优先的设计
我们可将整个接收机折叠为一个通用处理器。通用处理器首先工作于均衡器模式(CNN),输入为来自信道的信息,输出被保存下来;然后工作于译码器模式(DNN),将刚保存的结果作为输入,输出最后的译码结果。
吞吐速率优先的设计
接收机由两个通用处理器组成流水线,两个处理器分别工作在均衡器和译码器模式。

可以看出,相比于传统实现,通用处理器可带来更多硬件设计自由度,以更好的满足不同系统要求。

3.4 5G物理层端到端优化

AI算法在物理层若干模块上成功实现了功能优化,例如:Lv等[Lv 2004]提出的基于神经网络的调制模式识别,Xu等[Xu 2017]提出的DNN极化码译码器,及Liang等[Liang 2018]提出的基于DNN的MIMO检测算法等。在两个或多个物理层模块的联合优化问题中,AI算法也得到了成功的应用,例如Xu等[Xu 2018b]提出的基于神经网络的信道均衡和信道译码的联合优化。文献[Wang 2017; O’Shea 2017]均对AI在物理层各模块的应用进行了较全面的总结。但单个模块的优化并无法保证整个物理层端到端通信的整体优化,而端到端通信的实现中,多个基于迭代算法的AI模块的拼接反而会带来更高的训练和计算复杂度。因此,我们需要一种对物理层端到端的联合优化方法。

文献[O’Shea 2017a]提出将物理层通信看作一个端到端的信号重构问题,并应用自编码器概念来表示物理层通信过程,进行端到端通信的联合优化。自编码器是一种无监督深度学习算法,属于神经网络,通过学习输入信息的压缩形式来进行压缩信息的重构。在利用自编码器构建的端到端通信模型中,编码、调制、信道均衡等物理层模块,被简单表示为发射端,信道和接收端三个模块:发射端和接收端都分别表示为全连接的DNN,其中发射端连接一个归一化层来确保输出值符合物理约束,接收端则连接一个softmax激活函数层,最后输出一组概率向量来决定接收到的信息。两者中间的AWGN信道则用神经网络的一个噪声层(noise layer)表示,从而将通信系统表示为结构如图8所示的大型自编码器。该自编码器基于端到端的误比特率(BER)或误块率(BLER)表现进行训练,完成训练的自编码器即可基于接收信号对传输信号进行重构。

图 8

自编码器方法不基于任何经典的编码、检测方法,而是将整个端到端通信构筑为一个用于信息重构的DNN并进行联合优化。在难以建立准确模型的复杂现实环境中,自编码器方法不采用经典模型,而是利用大量数据的支撑和机器学习算法的强大功能来“学习”复杂的信道状况,从而优化整个通信过程。同时,它也有效避免了多种模块拼接而产生的多层网络所带来的高复杂度和大计算量。O’Shea 等[O’Shea 2017a]将自编码器模型推广到干扰信道的多用户通信模型上,而[O’Shea 2017b]则将这种自编码器优化方法推广到MIMO上,通过增加信道矩阵相关模块,形成了如图9所示的MIMO自编码器通信模型。文献[O’Shea 2017b]的实验结果均显示自编码器方法建立了一种可用于不同CSI信息,天线数等情况下的统一物理层框架,并且在更低的计算复杂度下可通过 “学习” 得到比经典方法更低的误比特率。而上述端到端优化策略可以利用上文所述的 “基于AI的5G通用加速器” 加以高效实现。

图 9

04
结束语
5G突破了传统移动通信系统的应用范畴,在大幅提升传统移动互联网服务能力的同时,将应用的触角渗透至各行各业的物联网应用,从而演变成为支撑全社会、全行业运行的基础性互联网络。以统一的技术框架支撑极度差异化的繁杂应用,5G技术的发展正面临着前所未有的挑战。AI技术的新一轮复兴及迅猛发展,为应对上述挑战并超越传统移动通信设计理念与性能提供了潜在的可能性。

AI技术在5G移动通信系统中应用,已有大量的研究文献可供借鉴。本文并非试图全面地总结该领域已有研究成果,而是希望厘清AI技术在5G系统中最有发展生命力的研究方向,并通过在这些方向上的进一步努力,使5G系统性能与实现的便利性可以显著超越传统移动通信系统。基于本文所给出的若干典型应用范例,我们有理由期待上述努力在不远的未来取得显著的成效。

文章出版信息:
基于AI的5G技术——研究方向与范例
尤肖虎,张川,谈晓思,金石,邬贺铨
中国科学: 信息科学, doi: 10.1360/N112018-00174

(长按并识别二维码,免费下载原文PDF)

参考文献:
[You 1992] Yu (You) X H. Can backpropagation error surface not have local minima. IEEE T Neural Networ, 1992, 3(6): 1019-1021
[You 1995] Yu (You) X H, Chen G A, Cheng S X. Dynamic learning rate optimization of the backpropagation algorithm. IEEE T Neural Networ, 1995, 6(3): 669-677
[You 1997] Yu (You) X H, Chen G A. Efficient backpropagation learning using optimal learning rate and momentum. Neural Netw, 1997, 10(3): 517-527
[Watkins 1992] Watkins C J C H, Dayan P. Q-learning. Mach Learn, 1992, 8(3-4): 279-292
[Finn 2017] Finn C, Abbeel P, Levine S. Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks. arXiv preprint, 2017. https://arxiv.org/abs/1703.03400
[Wu 2018] Wu J X, Gao B B, Wei X S, et al. Resource-constrained deep learning: challenges and practices. Sci Sin Inform, 2018, 48(5):501
[Zhou 2018] Zhou Z H. Machine learning: recent progress in China and beyond. China Science Review, 2018, 5(1):20
[Zhong 2017] Zhong Y X. Artificial intelligence: Concept, approach and opportunity. Chinese Science Bulletin 2017, 62(22):2473
[Gao 2009] Gao X Q, Jiang B, Li X, et al. Statistical eigenmode transmission over jointly-correlated MIMO channels. IEEE T Inform Theory, 2009,55 (8): 3735-3750
[Wang 2015] Wang X F, Li X H, Leung V C M. Artificial intelligence-based techniques for emerging heterogeneous network: State of the arts, opportunities, and challenges. IEEE Access, 2015, 3: 1379-1391
[Klaine 2017] Klaine P V, Imran M A, Onireti O, et al. A Survey of machine learning techniques applied to self-organizing cellular networks. IEEE Commun Surv Tut, 2017, 19(4): 2392-2431
[Perez-Romero 2016] Perez-Romero J, Sallent O, Ferrs R, et al. Knowledge-based 5G radio access network planning and optimization. In: Proceedings of IEEE International Symposium on Wireless Communication Systems (ISWCS), 2016: 359-365
[Gomez-Andrades 2016] Gomez-Andrades A, Munoz P, Serrano I, et al. Automatic root cause analysis for LTE networks based on unsupervised techniques. IEEE T Veh Technol, 2016, 65(4): 2369-2386
[Wang 2017] Wang J H, Guan W, Huang Y M, et al. Distributed optimization of hierarchical small cell networks: A GNEP framework. IEEE J Sel Area Comm, 2017, 35(2): 249-264
[Bogale 2018] Bogale T E, Wang X, Le L B. Machine intelligence techniques for next-generation context-aware wireless networks. arXiv preprint, 2018. https://arxiv.org/abs/1801.04223
[Li 2017] Li R, Zhao Z, Zhou X, et al. Intelligent 5G: When cellular networks meet artificial intelligence. IEEE Wirel Commun, 2017, 24(5):175-83.
[Xu 2017] Xu W H, Wu Z Z, Ueng Y L, et al. Improved polar decoder based on deep learning. In: Proceedings of IEEE International Workshop on Signal Processing Systems (SiPS), 2017:1-6
[Tan 2018] Tan X S, Xu W H, Be’ery Y, et al. Improving massive MIMO belief propagation detector with deep neural network. arXiv preprint, 2018. https://arxiv.org/abs/1804.01002
[Liang 2018] Liang F, Shen C, Wu F. An iterative BP-CNN architecture for channel decoding. IEEE J Sel Top Signa, 2018, 12(1): 144-159
[Xu 2018a] Xu W H, You X H, Zhang C. Efficient deep convolutional neural networks accelerator without multiplication and retraining. In: Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2018: 1-5
[Xu 2018b] Xu W H, Zhong Z W, Be’ery Y, et al. Joint neural network equalizer and decoder. In: Proceedings of IEEE International Symposium on Wireless Communication Systems (ISWCS), 2018:1-6
[Lv 2004] Lv X Z, Wei P, Xiao X C. Automatic identification of digital modulation signals using high order cumulants. Electronic Warfare, 2004, 6:1
[Wang 2017] Wang T Q, Wen C K, Wang H Q, et al. Deep learning for wireless physical layer: Opportunities and challenges. China Commun, 2017, 14(11): 92-111
[O’Shea 2017] O’Shea T, Hoydis J. An introduction to deep learning for the physical layer. IEEE Trans on Cogn Commun Netw, 2017, 3(4): 563-575
[O’Shea 2017b] O’Shea T J, Erpek T, Clancy T C. Deep learning based MIMO communications. arXiv preprint, 2017. https://arxiv.org/abs/1707.07980

你可能感兴趣的:(AI,5G)