上世纪50年代, 以香农(Claude Elwood Shannon )为首的科学家共同研究机器模拟的相关问题,形成了人工智能的雏形。”人工智能”一词最初在1956 年达特茅斯学会上被提出,初期的人工智能主要在机器学习、定理证明、模式识别、问题求解、专家系统及人工智能语言等方面取得了不少成就,上世纪70年代后许多国家都开展了人工智能的研究,这段时间涌现了大量的研究成果,尤其是专家系统的研究在多种领域中取得了重大突破,各种不同功能、不同类型的专家系统如雨后春笋般地建立起来,产生了巨大的经济效益及社会效益。上世纪90年代以来,计算机算力不断增加,人工智能的桎梏被打破,同时其他信息技术与互联网技术的快速普及推动了人工智能实现规模化商用,而人工智能应用的普及也推动了其技术的发展,自此,人工智能进入高速发展阶段。
人工智能的定义目前还没有形成统一,我国《人工智能标准化白皮书(2018年)》将人工智能定义为是利用数字计算机或者由数字计算机控制的机器,模拟、延伸和扩展人类的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术和应用系统[1]。加州大学伯克利分校人工智能系统中心创始人斯图尔特·罗素(Stuart Russell)将人工智能分为像人一样思考的系统、像人一样行动的系统、理性思考的系统、理性行动的系统四类[2]。
人工智能目前的主要领域分为计算机视觉、语音识别与合成、机器学习、自然语言处理、知识图谱等,图1显示了我国2019年科技企业在不同的人工智能领域的实际研发投入情况。计算机视觉是一门使计算机像人类通过视觉了解世界一样,对图像进行分析与识别,读取其中的信息。语音识别、自然语言识别与计算机视觉类似,都是指计算机对声音信号与文本语言进行类人的分析与识别,以获取其中的信息。机器学习主要是计算机通过对数据的分析实现对规则的学习,实现自身算法性能的提高。知识图谱是一种展示知识结构关系与发展进程的技术,通过可视化技术为学科研究提供有价值的参考。
数据来源:中国金融科技发展报告(2020)
图 1 2019年中国科技企业AI主要领域算法研发投入情况
机器学习(Machine Learning, ML)是人工智能领域最能体现其智能性的分支,主要是计算机通过对已知情况的数据集进行分析后,生成可以面对新情况的模型算法。机器学习与人类学习的过程十分类似,我们在学习时往往会通过以往的经验对新遇到的情况作出判断,实际上机器学习中的计算机也是这样。
设想一个人从未见过刺角瓜,但现在因为某种原因需要经常吃这种水果,所以需要学习怎样在市场上挑选好吃的刺角瓜,那么他可以先随机买一筐刺角瓜,吃的时候注意观察好吃与不好吃的刺角瓜分别有什么特征,特征包括表皮颜色、表皮粗糙程度、体积大小、香味大小、饱满程度等,每一个刺角瓜都可以在这几个方面做出评价。在吃到一定数量了之后,往就能够学习到哪种特征的刺角瓜更好吃了,之后再去市场买刺角瓜就可以依据学习到的经验进行挑选购买并品尝,以验证他学习到的挑瓜经验是否有效了。这个学习过程对应到机器学习中,”挑选好吃的刺角瓜”是学习目标,”随机买回来的一筐刺角瓜”是训练数据集,”一边观察特征一边吃”就是训练过程,”得到哪种特征的瓜好吃的经验”就是模型算法,从训练数据集中获取规律生成模型算法的能力就是泛化能力,而”去市场挑选购买并品尝”就是进行测试。再具体一点,随机买的那筐刺角瓜也就是训练数据集中,对于计算机来说,每一个刺角瓜都是一条数据,这条数据包括表皮颜色、表皮粗糙程度、体积大小、香味大小、饱满程度这几个维度的数据,可以将其想象成如同表1 的一张表格。那么计算机就需要通过某种办法基于这些数据生成一种判断模型,例如可以认为表皮颜色为黄透红且体积小的瓜好吃,并通过这个模型对下一个遇到的刺角瓜进行判断。
表1 训练集数据示意
数据\特征 |
表皮颜色 |
表皮粗糙程度 |
体积大小 |
香味大小 |
饱满程度 |
是否好吃 |
刺角瓜1 |
黄透红 |
粗糙 |
大 |
小 |
干瘪 |
否 |
刺角瓜2 |
黄透绿 |
中等 |
大 |
中等 |
饱满 |
否 |
刺角瓜3 |
纯黄色 |
粗糙 |
小 |
大 |
中等 |
是 |
刺角瓜4 |
黄透红 |
光滑 |
小 |
小 |
饱满 |
是 |
…… |
…… |
…… |
…… |
…… |
…… |
…… |
当然这只是一种很简单的学习任务,我们可以称之为二分类问题,因为它得出的预测结果为只有好吃与不好吃两类。我们还可以进一步将问题扩展为预测刺角瓜是甜的、酸的、苦涩的,还是无味的,那么这就变成了多分类问题。如果再进一步,将刺角瓜的好吃程度打分,0为最不好吃,1为最好吃,预测的结果是连续分布的,那么就变成了回归问题。这种有确定的分类或取值范围的机器学习任务往往是以建立一种映射关系为目的,将输入的数据以n种特征建立为n维的输入空间,通过一种特定的方法映射到输出空间中,实现对新数据的预测。
品尝刺角瓜并对其进行评价的过程在机器学习中称为标记,当然这个”标记”也是个名词,代表这条训练数据自带的结果,例如好吃、不好吃或者好吃程度的评分就可以作为数据的标记。分类问题与回归问题等带有标记的机器学习问题称为监督学习,不带有的标记的称为无监督学习,聚类问题就是无监督学习的代表。因为无监督只有特征值没有标记,最后也不知道应该将这些处理成什么样,所以一般是将这些数据根据其特征的相似性进行分类,但具体分为哪几类并没有明确的规定,一般用在潜在类别的预测以及数据压缩等场景。除了有监督学习与无监督学习之外,还有介于这二者之间的半监督学习,半监督学习的训练集中既包括有标签数据也包括无标签数据,通常情况下无标签数据占多数,在实际应用中还不太普及,常规的半监督算法有自训练算法与半监督支持向量机等。
机器学习中可以认为计算机需要学习的是一种确实存在的普遍规律,当计算机对训练数据的分析的不够深刻,没能学习到普遍规律时,称为欠拟合;当计算机对数据的分析程度过高,导致学习到了除普遍规律以外的其他只存在在训练集中特殊规律,称为过拟合。在进行机器学习时,需要在欠拟合与过拟合之间寻找平衡,达到最佳效果。另外,机器学习算法必然有其归纳偏好,但什么样的偏好更优呢?机器学习中最常见的一个原则为奥卡姆剃刀,其内容为”若有多种假设与观察一致,则选择最简单的那个”,也就是说应该选择最简单的规律作为学习成果。
机器学习包含多种算法,不同算法的预测结果可能完全不同,那么对一个机器学习算法进行测试与评价也是个非常重要的问题。训练数据集完成训练后,需要对训练成果进行测试,测试的数据需要与训练集有所区别,这些用于测试评价的数据被称为测试集。获但取数据时往往不分训练集和测试集,那么就需要将数据进行训练集与测试集的划分,常见的划分与测试方法有留出法、交叉验证法、自助法等。留出法即直接将数据分为两部分,以其中较多的一部分作为训练集,另一部分作为测试集。交叉验证法是留出法的变体,因为直接分为两部分往往会有测试偏差,那么就进行多次划分取平均值,具体方法是将数据集通过分层采样分为n等份,将第i份(i∈[1,n])数据作为测试集,剩下的作为训练集,这样就有n种划分的方法,依次用这n种方法进行训练和测试,将这n次测试结果取平均值即为交叉验证的结果。自助法是通过自助采样对数据进行有放回的多次采样,即数据可以重复,那么无论采样多少次,理论上一定会有一部分数据不会被采到,那么将采样到的数据作为训练集,将未被采到的数据作为测试集,直接进行测试。自助法一般用在数据样本规模较小的情况,而在数据样本规模较大时通常会采用交叉验证。
在测试集中进行测试时,有多种评价指标可以对算法模型的性能进行评价。回归任务的性能大多使用均方误差来进行度量,而对于分类任务来说,可选择错误率、精度、查准率、查全率、受试者工作特征(ROC)与其曲线下面积(AUC)作为性能评价指标。前四项望文生义,比较好理解,而ROC指标不太常见,它是指将每个测试数据的真正例率作为纵轴,假正例率作为横轴标定离散点并将其连接后绘制的曲线,实际上反映的是数据按学习目的(例如刺角瓜的好吃程度)进行排序的正确程度,AUC作为ROC曲线下的面积数值一般一般在0.5到1之间,数值越大说明算法的分类能力越强。在进行模型比较与专业的算法竞赛中,往往主要依据AUC对算法的优劣进行评价。
机器学习的算法非常多,在此仅以几种最基础最常用算法为例进行解释:
·决策树(Decision Tree, DT)
决策树一般用在分类问题中,是一种基于特征对实例进行分类的算法。学习时,利用训练数据,根据损失函数最小化的原则建立决策树模型;预测时利用决策模型对新遇到的数据进行分类。
一棵典型的决策树包括一个根节点、若干个内部节点与若干个叶节点,根节点中包含全部的训练样本数据,每个内部节点代表一个特征的判断,训练样本通过内部节点后逐步被划分到子节点中,直至被全部划分到叶节点为止,每个叶节点代表一种分类结果。所以决策树最重要的是内部节点的规则,也就是要依据什么特征,怎样判断划分数据,才能保证最终叶节点的分类结果最可靠,这就是决策树学习过程中的特征选择与决策树生成过程。另外, 在学习中往往为了保证划分的更加准确,内部节点的划分会有大量的重复,导致了决策树的分支过多产生过拟合问题,为了避免过拟合,我们需要对决策树进行剪枝处理。剪枝策略包括在节点划分前进行的预剪枝与在生成树后再进行的后剪枝两种,预剪枝的时间开销小但存在一定的欠拟合风险,后剪枝通常会保留更多的分支,但由于是在生成了完整的树之后才进行的剪枝,往往需要较大的剪枝开销。
·神经网络(Artificial Neural Network, ANN)
神经网络是是指计算机模拟生物的神经系统,以神经元为单位对事物做出反应的一种模型。事实上神经网络是一个非常大的概念,而此处所指的神经网络仅包括与机器学习相关的神经网络学习。
神经网络是由多个神经元相互连接组成,且神经元之间的连接带有一定的权重,信号在神经元网络之间进行传递时,每经过一个神经元都会通过其特定函数(激活函数)的处理,最终得到整个系统的处理结果。感知机是一种最基本的神经网络,仅由两层神经元组成,输入层神经元接受外部信号,并传给具有激活函数的输出层神经元,但因为只有单层含有激活函数的功能神经元,感知机在实际应用中的使用场景非常有限。目前的主流神经网络都是多层的,多层神经网络的学习能力要比单层强很多,常见的多层神经网络算法包括误差逆传播(Back Propagation)网络、径向基函数(Radial Basis Function)网络、竞争型学习(Compitition Learning)网络等。
通常情况下,神经网络的层数越多、模型越复杂时,相应能完成的学习任务就越复杂,但是复杂的神经网络往往容易产生过拟合问题、训练效率低且有极大的训练开销。近年来,随着大数据时代的到来与微电子技术的发展,训练复杂模型的可行性逐渐提高,最近热度很高的深度学习就是高复杂度神经网络的代表。深度学习与普通的神经网络相比,含有更多的特征代表层数,如果将神经网络看作是黑盒的话,那么可以将称特征代表层为隐层,增加隐层的数量比增加神经元的数量更能提高模型的复杂程度,如此看来,深度神经网络其实就是层数很多很深的一种神经网络,常见的深度神经网络包括卷积神经网络(Convolutional Natural Network)和深度信念网络(Deep Belief Network)等。
·支持向量机(Support Vector Machine, SVM)
支持向量机是一种对数据进行二元分类的广义线性分类器,最简单的支持向量机思想可以理解为将含有二维特征并带有标记的数据集投射在二维平面坐标系中,形成带标记的二维散点图,而支持向量机的任务则是在此平面空间上找到一条线将这些样本散点按照标记划分为两部分,当面对待分类数据时,只要将数据标记在平面中并观察其被线划分到哪部分即可。当然在实际的应用中的特征维数往往是大于2的,那么划分空间的就不是一条线,而是一个平面,这个平面在支持向量机中被称为划分超平面。划分超平面的选择需要考虑多种因素,最重要的是要能够在数据样本存在一定噪声的时候所受的影响小,具备足够的鲁棒性。另外,很有可能无法在以特征数量为样本空间维数的原始样本空间中,找到划分超平面,那么可以将样本空间进行非线性变换,将其映射到更高维的空间中,在高维空间中寻找划分超平面,只要原始样本空间的维数有限,那么一定可以找到一个存在划分超平面的高维空间。总体来说,支持向量机就是利用升维和线性化来进行模式分类,在最优化求解计算上利核展开定理在原特征空间进行对偶求解。
·k近邻(k-Nearest Neighbor, KNN)
K 近邻学习是一种特殊的机器学习方法,因为它没有正式的模型训练过程,是一种典型的懒惰学习方法。其主要思想是每个样本都可以用它最接近的K个邻近值来代表,如果一个样本在特征空间中的K个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。K的取值在k近邻算法中十分重要,会直接导致分类结果的不同,k值的确定往往需要与实际情况相结合。
k近邻算法每次进行判断时都需要计算所有样本与待学习样本的距离,计算开销非常大,因此通常需要对已知样本进行处理与剪辑,以保证减小计算开销并保证预测的合理性。K 近邻算法更适合在样本容量较大时运用,在小样本容量的场景往往不具有可靠性。
·集成学习
集成学习是混合运用多个机器学习方法来完成学习任务,通过不同学习器的合理组合,往往可以获得比单一学习器更优的性能。多个学习器的结合策略有很多,对于回归任务通常会采取直接对不同学习器学习结果取平均值或加权平均值的的平均法。对于分类任务则通常采用投票法,包括绝对多数投票法、相对多数投票法和加权投票法等。当训练数据集样本容量较大时,还可以使用学习法,即通过另一个学习器将这些学习器结合到一起,进行二次学习。
智能认知的是数据分析模型与机器学习模型结合下的实际应用,主要包括以下几种应用场景。
计算机视觉(Machine Vision, MV)指用图像采集设备与计算机代替人眼人脑,对目标进行识别、跟踪和测量等功能,并进一步对图形进行处理,是一种能够从图像或者多维数据中获取有效信息的人工智能系统。计算机是觉得应用范围目前包括控制过程、导航、事件检测、组织信息、造型对象或环境、相互作用和自动检测七类,有非常广阔的应用场景,例如基于事件检测的生物身份信息识别、基于导航的智能驾驶与导弹制导、基于造型对象的医学影像分析等。计算机视觉主要有图像分类、目标追踪与语义分割三种关键技术。
图像分类实际上是一种机器学习的分类任务,一般先通过特征提取对图像的通用特征进行选择,然后使用机器学习训练分类模型,最终实现图像的分类。图像分类目前使用最广泛的是深度学习算法,其在分类精度与分类效率上都具有优势。目标追踪的用途包括单目标跟踪、多目标跟踪、行人重识别、多目标多摄像头跟、姿态跟踪等,其使用的算法主要有相关滤波算法、检测跟踪结合算法与深度学习相关算法。语义分割则是对图片进行逐级分割后的小图片进行语义理解,用途主要为识别图片中的特定物体,卷积神经网络及其变体是当前语义分割的主流算法。
语音识别(Speech Recognition, SR)是将语音信号转化为电信号并进行一系列信号预处理后,对语音信号进行特征提取,将提取出的特征与数据库中的特征进行比对,最终识别出语言内容,这些基础的信号处理比对技术与人工智能相关性较小,在此不展开描述。当前语音识别的难点主要在于噪声的处理与模型的鲁棒性,实际应用中的噪声往往是持续存在的,其规律性往往难以确定,通常会干扰识别的结果。语音识别模型的鲁棒性也是当前的一大难题,在发出声音时的环境、情绪等因素都会对最终语音信号的生成产生很大的影响。因此,语音信号的噪声消除工作与处理模型鲁棒性的提升都需要机器学习来进行优化,当前应用比较广泛的方法是深度学习。
自然语言处理(Natural Language Processing, NLP)是指计算机处理文本语言并提取有效信息的过程,是人工智能中最为困难的问题之一。广义的自然语言处理也包括语音识别,但一般情况下自然语言处理仅指对文本进行处理。自然语言处理的主要的分析内容包括即语音分析、词法分析、句法分析、语义分析和语用分析,主要任务方向有分类、匹配、翻译、结构预测及序列决策等。统计自然语言处理运用了推测学、机率、统计的方法来解决容易出现高度模糊问题的长难句,当套用实际文法对长难句进行分析时会产生出成千上万中可能性,在进行消歧时通常会用到语料库比对以及机器学习和资数据挖掘等人工智能技术。
另外,由于不同模态的信息对不同类型词汇的贡献度不同,还发展出了动态可以分别针对词类和词汇的融合机制,对其不同模态赋予不同的权重,建立动态多模态模型,以更好地进行词汇表示。利用相关或相似词汇作为弱监督学习信号,让模型在学习相关或相似词汇的过程中,通过动态融合的多模态机制,对不同类型的词汇赋予不同的权重,可以在较大程度上提高词汇识别、处理和表示的质量[3]。
知识图谱(knowledge graph, KG)是以图的形式表现客观世界中的实体(概念、人、事物)及其之间关系的知识库,现已发展成为语义搜索、智能问答、决策支持等智能服务的基础技术之一[4]。知识图谱可以理解为一张巨大的由多个节点构成的复杂版思维导图,如果图中有两个节点之间存在关系,他们就会被一条无向边连接在一起,这个节点就是实体(Entity),而它们之间的这条边就是关系(Relationship)。
知识图谱的架构主要包括逻辑结构和体系架构,逻辑结构可分为模式层与数据层两个层次,数据层主要是由一系列的事实组成,而知识将以事实为单位进行存储,知识数据以”实体-关系-实体”或”实体-属性属性值”的三元组形式存在,并以Neo4j、JanusGraph等图数据库作为存储介质。模式层构建在数据层之上,是知识图谱的概念模型和逻辑基础,对数据层进行规范和约束。模式层主要是通过本体库来规范数据层的一系列事实表达,本体是结构化知识库的概念模板,通过本体库而形成的知识库,具有层次结构强、冗余程度小等优点。体系结构指知识图谱构建模式的结构,大规模知识库的构建与应用需要多种智能信息处理技术的支持,这些技术即为知识图谱的核心技术,例如从数据中提取出实体、关系、属性等知识要素的知识抽取技术;消除实体、关系、属性等指称项与事实对象之间的歧义,形成高质量的知识库的知识融合技术;在已有的知识库基础上继续挖掘隐含的知识以扩展知识库的知识推理技术等。目前的知识图谱技术主要用于智能语义搜索、关联性追溯与深度问答系统等。
人工智能是机器的智能,能够完成复杂的智力任务,因此是一种通用性极高的技术。人工智能能够结合的应用场景及其广泛,包括制造、交通、医疗、政务、金融等大部分行业,并且可以与其他各种技术相互补充,有极强的技术溢出效应。
人工智能往往使用包含多个隐层的复杂算法模型,导致输入与输出的数据关系无法被明确解释,虽然算法模型输出的结果可以被验证是有效的,但算法的使用者只能被动接受这个结果,而无法对过程有清晰的理解。这就导致了人工智能像一个看不透的黑色箱子一样,大家对其内部情况全然不知,只知道输入与输出,却没有具体的过程。
数据是人工智能的基础,人工智能往往通过数据对规则进行学习,进而形成算法。那么数据的质量会很大程度上影响到人工智能算法,在人工智能的世界中,数据就是规则与规律的缩影,不完整或者倾向性明显的数据可能会导致算法出现问题,甚至导致人工智能的不可控。
每一种信息的来源或者形式都可以称为是一种模态,广义的多模态可以是听觉、触觉、嗅觉等人类能够感知到的不同类型的信息,或者是压力、温度、电流、加速度等传感器探测到的不同类型的信息,而狭义的多模态可以是同一种大类下不同小类的信息,例如不同的语言、不同方式下的电流监测值、不同的温度单位等也都可以算是多模态信息。人就是典型的多模态学习者,因此人工智能的未来必然会与多模态学习相关。
人工智能下的多模态学习,顾名思义,是通过机器学习的方法实现处理和理解多源模态信息能力的一种技术。当前多模态的主要研究方向包括多模态表示学习、模态映射、模态对齐、多模态融合和协同学习等,其中表示学习是将原始数据转换成为能够被机器学习来有效开发的形式;模态映射是将一种模态的信息通过特定方式转换为另一种模态信息;模态对齐负责在来自同一个实例的不同模态信息的子集中寻找对应关系,以时间维度对齐与空间维度对齐为主;多模态融合主要是合并信息并处理信息的冗余,主要算法包括贝叶斯决策、稀疏表示和深度学习等。
联邦学习最初的设计目标是为保证进行大数据交换时,在保障信息安全与个人隐私安全的前提下,多个参与方或者计算节点之间开展联合高效的学习。联邦学习本质上是一种分布式机器学习框架,但与广义的分布式学习的差别在于联邦学习中各分节点的数据不是独立同分布的,且分节点性能不同、通信连接不稳定。在实际应用中,分布式学习一般使用性能相似连接稳定的服务器群,联邦学习一般使用的是用户的是个人计算机或是移动端等设备。联邦学习目前有两种主要的框架,分别是客户端-服务器架构与对等网络架构。客户端-服务器架构中各个数据持有方根据自己的条件和规则在本地训练模型后,将脱敏后的参数汇总到中央服务器进行计算,完成计算后再下发回各个联邦学习参与方更新其本地的模型,直至全局模型达到较好的效果为止。对等网络架构中,各个联邦学习参与方之间可以直接进行通信,不需要借助第三方或是中心节点,整个系统的安全性更高,但也需要更多的通信成本。
当前的联邦学习的优化方向主要包括减少节点间连接次数的通信优化方向、避免分节点上传的特征被反推的隐私保护方向、客户端-服务器架构程的客户端攻击与服务器防御的鲁棒性优化方向、选择可靠客户端的客户端筛选方向以及异步聚合优化方向等。联邦学习能够解决数据流通性与数据隐私性之间的矛盾,打破数据孤岛并实现各组织之间的协作。随着技术的发展,联邦学习使用的模型已经不仅限于神经网络与深度学习,还包括联邦线性模型、联邦树模型、联邦支持向量机、等普通机器学习算法,其主要的发展趋势是基于人工智能协同计算和协作网络,优化分布式安全计算框架,继续解决节点之间联合建模的效率问题。
迁移学习是把已训练好的模型(预训练模型)参数迁移到新的模型上,在新任务中帮助新模型的训练,可以通俗地理解为机器在有了一定学习能力的基础上,再继续学习相关领域的知识时会更加容易,所以通过迁移学习我们可以将已经学到的模型参数通过某种方式来分享给新模型,从而加快并优化模型的学习效率,不用像传统的网络那样从零学习。迁移学习中将已有的知识称为源域,将需要新学习的知识称为目标域,源域与目标域不相同但有一定的相似性。迁移学习利用源域或源任务中已有的知识来协助学习目标域或目标任务中的新知识,其关键就是找到源域与目标域或源任务与目标任务之间的共性,它们的共性涵盖样本实例、特征表达、网络架构或网络参数等方面。挖掘出这些共性之后,再进行知识迁移,得到一个新的模型,可以实现对目标域的样本进行分类或识别,并有效完成目标任务[5]。
迁移学习主要包括实例迁移学习方法、特征迁移学习方法、参数迁移学习方法和关系迁移学习方法四种方法[6]。实例迁移法的主要思想是根据某个相似度匹配原则从源域数据集中挑选出和目标域数据相似度比较高的实例,并把这些实例迁移到目标域中帮助目标域模型的学习;特征迁移法主要是在源域和目标域之间寻找典型特征代表来进一步弱化两个域之间的差异从而实现知识的跨领域迁移和复用;参数迁移法就是寻找源域数据和目标域数据之间可以共享的参数信息,从而可以把已获得的参数知识迁移;关系迁移法假定源域数据之间的关系和目标域数据之间的关系存在一定的相关性,通过建立源域数据的关系模型与目标域数据的关系模型的映射模型来实现关系知识的迁移。当前迁移学习主要是基于有监督学习进行,随着深度学习在无监督和半监督领域的应用越来越广泛,深度迁移学习算法正在逐步发展。
人工智能的过程不可知性,使人工智能在一些领域的应用受到了很多限制,例如基于人工智能的信贷决策并没有直接提供决策的具体依据,在信贷申请方对信贷决策方提出异议时,信贷决策方因无法提供有效的解释而可能会面临官司或者监管机构的质询。若要获得人工智能模型的”解释”,要先理解机器学习模型的方法,并确定模型解释方法的标准以及模型的解释范围。除此之外,可理解性和可解释性这两个专业术语经常需要注意区分,可理解性主要是指向人类提供可理解的能力,多指代原模型即可理解,而可解释性指使用解释作为人类和智能模型之间的接口,作为模型代理能够被人类所理解,倾向于指代原模型不可理解,而需要构造事后模型进行解释[7]。
可解释机器学习(Interpretable Machine Learning, IML)分为全局可解释与局部可解释两种,局部可解释主要关注某个节点的特征变化,并分析其影响周围局部区域其他节点的结果以获取局部特征空间的因果变化,目前已经取得了部分进展。全局可解释需要理解模型的结构和各个组成部分如何发挥作用,以及模型的子集如何影响整个模型的决策。机器学习模型的维数通常较高,这就导致了全局解释实现困难,但实现全局可解释是可解释机器学习最终的实现目标,未来需要重点在此领域进行突破。
[1] 中国信息通信研究院.人工智能标准化白皮书(2018年) [M].中国信息通信研究院.2018.
[2] 斯图尔特·罗素.人工智能:一种现代的方法[M].人民邮电出版社.2010.
[3] 杨涛,贲圣林,杨东,宋科,刘勇.中国金融科技运行报告(2020)[M].北京:社会科学文献出版社,2020:29-30.
[4] 黄恒琪,于娟,廖晓,席运江.知识图谱研究综述[J].计算机系统应用,2019,28(06):1-12.
[5] 朱应钊.异构迁移学习研究综述[J].电信科学,2020,36(03):100-110.
[6] 王惠.迁移学习研究综述[J].电脑知识与技术,2017,13(32):203-205.
[7] 孔祥维,唐鑫泽,王子明.人工智能决策可解释性的研究综述[J/OL].系统工程理论与实践:1-20[2021-03-08].http://kns.cnki.net/kcms/detail/11.2267.N.20201116.1422.002.html.