俄勒冈州立大学教授、AAAI 前主席 Thomas G. Dietterich
文/CSDN周翔
7 月22 - 23 日,由中国人工智能学会、阿里巴巴集团 & 蚂蚁金服主办,CSDN、中国科学院自动化研究所承办的第三届中国人工智能大会(CCAI 2017)在杭州国际会议中心盛大开幕。
在本次大会上,俄勒冈州立大学教授、AAAI 前主席 Thomas G. Dietterich 发表了主题为《构建强健的人工智能:原因及方式》的演讲。
在演讲中,Thomas G. Dietterich 综合考虑了“已知的未知”情况(对不确定情形有一个明确的模型)以及“未知的未知”情况(模型不完整或有错误), 介绍了 7 种用于保证 AI 系统安全可靠的方法。
以下是 Thomas G. Dietterich 的演讲全文,AI科技大本营略做修改:
感谢大会的邀请,非常高兴今天有机会在这边演讲。
我今天的演讲跟前面那些可能有所不同,技术性没那么强。当然,我也会讲到一些数学知识,但更多的内容还是关于人工智能所面临的挑战,以及我们现在所用的一些安全的解决方法。
首先,我会讲一讲我们对于强健 AI(robust artificial intelligence)的需求、其后的目的何在。然后,我要谈一下,在模型不完整的时候,我们的 AI 系统需如何来正常工作。
我们知道,现在世界上还有很多东西是人工智能不知道的,我们的目标就是要知道,有什么样的方法能让 AI 研究社区来解决这些问题。
人工智能已经有 61 年的历史了,我们怎样才能应对人工智能的不确定性,特别是这些未知的未知(unknown unknowns)?
近年来,人工智能在技术上的长足进展,让我们可以考虑一些高风险领域的进一步应用,比如无人驾驶、自动帮医生做手术的外科手术机器人,还有在金融市场从事自动化交易的人工智能,另外还有一些基础设施相关的人工智能,比如我的同事正设法用人工智能来提升电网的管理效率。
当然,也有一些极富争议的应用,例如,具备自主攻击能力的武器系统。我认为这是一个很糟的主意,世界各国应该就此协商,签署一份限制此类自主攻击武器研发的条约。
所有这些系统都要去做出很多事关生死的重大决策,而人工智能和机器学习历经多年的坎坷挣扎,如今不过是勉强能用。我们并没有太多的时间来思考高风险应用上的强健性问题,但我们需要系统在面对错误时也能十分稳定地运行、不出故障。
这里的错误包括很多方面:比如说,有时候会有人为的错误,还有一些会是网络攻击,或是设计者和使用者一开始就要求系统去做错误的事情,但我今天要讲的两个重点,则集中在不正确的模型与无法建模的意外现象方面。
为什么我如此担心那些无法建模的现象呢?其实有两个原因:
一是我们没有办法对世界上所有东西都建模;
二是没有必要对所有东西都进行建模。
就人工智能的历史而言,我们所讨论的问题集中在两个方面:
其一是先验条件问题(qualification problems),我们无法把某个行动所有的先决条件全都数字化。比如说一辆车要起步,那么燃料、电池、车钥匙就要考虑在内,但还有其他的条件我们可能就忘记了,此类我们所无法完整考虑的先决条件是无穷无尽的。
另一个是分支问题(ramification problems),也就是说,我们无法把一个行动可能会产生所有的后果加以数字化。这里,我认为同样重要的一点是,不要把所有的东西都进行建模。
我们都知道,机器学习关于错误率的基本理论是,模型的出错率与其复杂程度成正比,与样本的大小成反比。如果数据量很小的话,我们就不能用特别复杂的模型,尤其是深度网络,因为它们相当复杂。其后果就是,在样本很小的情况下,我们的模型就必需非常简单。我们的模型要比现实世界简单,尽管这一点大家心知肚明,但我们还是要使用简单的模型。我们必须慎重地模型,因为这是优化预测准确度的方法。
一个 AI 系统,是需要在没有对整个世界完全建模的情况下有用的。当我们看一些安全至关重要的应用时,它会有什么结果呢?
接下来我会讲一讲达到强健 AI 的一些方法,以及我们作为一个研究社区的一些想法。
首先从生物学来看,进化其实并不是优化,其实它只是选择在这个环境能够存活下来的有机物。我们可以说,生物学上的进化其实就是选择最强健的物种。因为,这个地球上现存的物种经历了各种挑战,比如说气候变化等等。
我们能够存活下来,是因为我们要跟很多的其他的动物进行竞争,他们让我们更强壮。同时,我们还有很多不同的个体的组成的群体。
另外,我们在每个人内部也是冗余,比如说每个基因都可以分为隐性和显性,这样我们可以把自身没用到基因传给未来的子孙后代,让我们得以保持基因的多样性。我相信,生物学给了我们很多关于强健的 AI 系统的启发。
这是我的演讲大纲。首先,我会讲“robustness to known unknowns”,我们的模型包含了反应外界重要因素的变量,但是我们对他们是不确定的。接下来,我会讲“robustness to unknown unknowns”,针对没有建模的现象。
1. 针对不确定性的决策
在上个世纪50年代的时候,我们第一个想法就是在不确定的情况下怎么进行决策。
我们来看一些标准的策略过程。首先,我们会观察 Y,然后要选择Action(行动) A,来让它的期望值达到最好的效果。我们把这样的决策进行建模:E[U|A, Y],希望把期望的效应达到最大化。
我们可以将该不确定性模型定义为 P[U| A, Y],这是你通常会看到的东西。在任意一本有关人工智能的书或者经济学的书里,都可以看到。
看看上面这个图,我们这边有两种不同的 Action:Action a1 和 Action a2。如果选择 a1,我们会得到如红线所示的结果,如果选择 a2,我们会得到如红线所示的结果。两者期望的效益是一样的,但是 a2 的变化比较大一些,有较高的上行风险和下行风险。
如果说对它们进行优化,其实两种都是非常好,但是很多人对 AI 系统里面的风险非常的敏感。如果说你对于风险敏感,那么更多地可能会选择 a1。
2. 强健的优化
实际上,许多 AI 推理问题都可以理解为优化问题。我们来讲课本里的一个简单线性问题,如上图所示,这里面有两个变量,分别是 x1、x2,以及两个限制条件:(a*x1 + b*x2)小于等于 r,(c*x1 + d*x2)小于等于 s。
随着绿色箭头的方向,目标是在增长的,因此我们可以在这个可行区域内找到最佳优化点。
假设我们对这些限制不确定,那么我们需要使用不确定区间。这个的想法是,我们有常数a、b等等,我们不知道他们确切的值,但是我们知道他们属于一个不确定区间。比如,a 的不确定集合是 U。这是对不确定性的另一种表达方式,但是更实用。
现在我们想最大化目标值,但是我们该如何解决这些不确定区间带来的问题呢?假设红线是我们这些常量的替代值,那么这里的交叉点就是最优解决方案。当然这在我们的问题中是不可能出现的,区域优化在对新问题来说是不适用的的。当限制条件不确定时,规划的解决方案可能不可行,这将导致非常严重的问题。
对此我们该怎么办?
其中一个方案是使用极小化极大算法(一种找出失败的最大可能性中的最小值的算法)来消除不确定性。我们有 adversary,并允许从不确定集合中选择a、b等常量的值。为了最大限度地较小我们可以实现的最佳目标,在选择目标之后,将其最大化,我们便可以得到稳健的解决方案。然而这种方案太过保守。
根据 Bertsimas 在 MIT 的工作,这里有一个很重要的思想:给 adversary 加一个 budget。
现在我们可以分类讨论bugdet B。当设置 B 为 0 时,我们会得到最初的线性方程。如果B 很大,那么这个我们就有很大的可能性达不到目标。所以我们可以通过 B 来预测结果到底如何。这是针对“ budget on adversary ”强优化的最新想法。
现在有一些非常有趣理论:现有一些 AI 算法是可以被看作鲁棒性优化的。其中一个例子是支持向量机监督学习设置。我们给一些未知函数 y = f(x)训练样本,并且给出了一个损失函数 L(y(hat),y),当正确答案为 y 时,观察输出 y(hat)。
然后,我们想找到能够将损失总和最小化的 h,公式如上图所示。
在Xu,Caramanis & Mannor 2009 年的论文中,如上图所示,他们展示了这种正则化的方法相当于强优化。
3. 优化对风险敏感的目标
现在,让我们考虑一下,如何利用马尔科夫决策过程(Markov decision process)来对风险敏感的目标进行优化。他决策流程的最大问题是你必须先观察这世界找到策略设定回馈,你要设定最终的目标、反馈。
想象一下标准的马尔科夫决策问题,我们通过代理(agent)来观察这个世界的状态,这个代理会根据一些政策来采取行动,并收到回馈(reward)。比如,下围棋的时候一直到游戏结束才能得到 reward,但是在驾驶汽车时,每做一次正确决定就会得到一次 reward,或者至少免受惩罚。
另外,我们还需要一个总回馈参数。我们来看一下,如果策略是固定的,我们要执行它,你可能要调整其他的一些参数,可以想像我们所收到的回馈参数会有这样的概率的分布,可以看到,它有一个下行的风险。我们要优化这个目标,让它尽可能避免下行的风险。我们现在使用的是 CVaR(Conditional Value at Risk) ,如上图所示。
这里可以得出一个结论:优化 CVaR,对模型的错误有更好的鲁棒性。
其实还有很多的例子,这边我就不谈了,因为时间的关系我们看下一部分。
4. 检测异常
首先,我们可以检测到模型里的缺陷。或许我们不能修正他们,但是至少我们可以检测出来。如果我们能检测到模型里的某个异常,那么我们就可以寻求用户的帮助,或者我们可以采取一些我们认为比机器学习到的更安全的措施。
比如,我们可以监测预测类别的分布。试想一下,我们在做手写字符的识别系统,在英语里面,我们知道字符其实是有一定的分布频率的:最常见的英语字符是“E”,第二常见的是“T”等等。我们可以观察一下模型的分类器,看看预测的分布是怎样的,如果两者相差很大,那么很可能是出了问题。
另一种方法是“Markov Decision Process(马尔科夫决策过程)”。举个例子,如果我们正在玩游戏,并希望达到某个目标,那么我们玩的时间越长,离达成目标的距离就越近。
比如,这是我们的预期价值函数,这是解决问题的步骤。通常情况下,我们在玩游戏或者按计划执行时,我们是在朝上走的,最大限度的让价值最大化。当然,当我们做的不好的时候,我们可以看到有些曲线的轨迹并不是朝上走的。看起来就像我们脱离了轨道,这或许意味着我们的模型存在一些问题。
另外一件可以做的事就是监测辅助规律。Hermansky 写过一篇很有意思的论文,是关于语音识别的里面的未知的未知。在做语音识别的时候,你可以为不同的频段,比如低频、中频、高频,训练单独的识别器。在自然语言中,你发出的两个音节之间是有时间间隔的,因此我们可以监控这些间隔时长。如果我们发现分类器给出的分布结果和我预期的差别很大,那么我们就可以探测哪个地方出了问题。
Hermansky 提出了一个解决方案:弄清楚哪些频段其实是噪音,因为在给定的环境中,有一些类型的噪音源其实是集中在某一个频段的。
另外一个例子要追溯到 1992 年的一个自动驾驶汽车项目。当时的这个系统很简单,只有一个车道保持系统和一个自动转向系统,当时是用神经网络做的。在这个神经网络里,有一个摄像头用来拍摄道路、树木等,然后这些信息会通过 4 个隐藏单元,用来预测转向指令。
此外,这 4 个隐藏单元对输入的图片进行重构,这样就可以比较原始图片和重构后图片之间的差异,如果两者之间的差异较大,那么这个转向命令就是不可信的。
在这一想法中,相同的隐藏层要完成两项,因此我们可以监测这些隐藏单元。如果重构后的图片差异很大,那么这些隐藏单元的这项任务完成的并不好,这也就意味着,在预测转向命令任务这一任务上,这些隐藏单元可能也做的很差。
我们可以做的另外一件事就是观察一场情况。如上图所示,我们的训练样本的分布是Ptrain,通过这些训练样本,我们训练处分类器。我们的测试样本的分布则是Ptest。如果训练样本的分布和测试样本的分布相同,那么我们系统的准确性就能得到保障。但是通常情况下,测试样本和训练样本的分布是不一样的,在这种情况下,我们应该怎样做呢?
当然,你肯定听说过领域适应(Domain Adoption)和迁移学习。我要讲的可能是稍微简单一点的问题,仅仅只需要检测测试数据是否与训练数据不同,这个例子是基于我在计算机视觉领域的一项研究工作。
此前,我曾参加过一个生态学的项目。当时我们想要衡量美国淡水河流的健康程度,于是环保部门派了一些人去收集这些河流里的昆虫标本,将昆虫的分布状态作为判断标准。
我们要做的是建立一个计算机视觉系统,来对这些昆虫进行分类,而那些户外的工作人员收集了 29 种昆虫作为训练的数据集。后来,我们利用这些数据训练一个监督学习系统,而且运行结果也不错。
但是,很快我们发现,有的测试数据并不是这 29 类中的一种,有可能是其他的昆虫、或者小石头、叶片、垃圾等等。
我们要怎样做呢?
此前我们曾做过很多关于异常检测的工作,这里的方法很简单,就是在系统里加一个一场检测器,它主要用来负责检测新图片。如果这张图片与训练数据中的图片看起来很陌生,那么它就会给定一个“异常分数”,如果这个分数超过某个阈值,那么系统就会“拒绝”这张图片,如果低于这个阈值,那么就可以放行,进入到下一步——分类器。
这里是一个初步的研究,我们训练的分类器时候只用了两个类别的数据,但是实际的测试数据包括 26 类。
实际上,还有很多其他的尝试,其中一些可能比我们现在的要好。比如Open Category Classification ,Change-Point Detection,Covariate Shift Correction,Domain Adaptation,这些都是和这些问题相关的。
5. 使用更大的模型
另外一种思路是直接增大模型。如果我们的模型缺少外界世界的信息,那么为什么我们不把模型做大一点,直接让模型具备更多的世界表征?而这就涉及到之前Hans Uszkoreit(德国人工智能研究中心科技总监、北京人工智能技术中心总监兼首席科学家)所讲的:创建一个大型的知识库,特别是要从网络文档中抓取信息。
当然,这样做也存在一个通病。每当给一个模型增加一个新的组成部分,那么这个模型就会多一个出错的可能性。如果你在用这个模型做推理工作,那么很可能会出现错误。这实际上是另外一种过拟合的问题。
当我们想要避免额外的错误时,就需要让知识库保持简单。
6. 使用因果模型
还有一种思路是使用因果模型。 因果模型仅仅需要很少的训练数据,而且它们还以迁移到新的问题领域。
想象一下,采用因果模型,我们甚至可以对太阳和黑洞内部正在发生的事情做很好的预测。虽然不管以前还是现在,我们都没有相关数据,但是我们有可以信任的因果模型,可以派上用场。
7. 组合模型
AI 领域里另一个比较重要的思想是“组合(ensemble)”。每一个模型都可能会有不完整或者不正确的地方,但是将这些模型组合起来,我们可以做的更好。在做的各位可能大多都知道 Kaggle 的竞赛,获胜者往往用的是“组合”的方法。
比如,IBM 的 Watson 实际上就是一个巨大的“组合”。它拥有超过 100 种技能来完成各种任务。此外,必应、百度、谷歌等也用到了很多技能的组合,比如,这些搜索引擎会综合排名、事实得分(evidence score)等方法来确定给用户呈现哪些搜索结果。
总结
上面这张图,列举了现有的可以帮助我们构建强健计算机系统和 AI 系统的各种方法。
首先,针对已知的未知,也就是当我们有一个模型,但是想要检测里面的错误时,要怎么办?正如我刚才所讲,我们可以在概率模型上使用“Risk Sensative Decision Making”的方法,或者我们可以利用对抗式的方法来进行优化。
接着,我谈到了“robustness to unmodeled phenomena”,这里针对的是未知的未知。刚刚我提到,我们有一系列的办法可以探测模型是否不完整,以及为什么有时会失效。但是,有的时候,我们能做的只有向人类寻求帮助。可以大胆猜测,大部分的 AI 模型都还太小、太简单。未来,我们需要比现在大得多的知识库,这样我们才能使用更大的模型。
此外,我还介绍了因果模型,这些模型类似于迁移学习,一个模型可以适用于不同的场景。最后,我提到了组合模型的方法。
今天,新一代的 AI 系统正被用于各种令人激动的领域,值得注意的是,其中很多应用都涉及到与人身安全相关的高风险决策,因此,我们需要构建强健的 AI 系统来解决这些问题。
AI 系统不可能对所有情况建模,因此这些系统需要在建模不完全或者包含某些错误情况时也能正常运行。
除了上述提到的这些思路,我们还需要更多的想法,我希望未来在座的各位也能有所贡献。
谢谢大家!
在AI科技大本营微信公众号(rgznai100)会话回复“CCAI”,打包下载本次大会嘉宾的演讲PPT。
CCAI 2017 精彩回顾
CCAI 2017 | 中国工程院院士李德毅:L3的挑战与量产
CCAI 2017 | 周登勇:众包中的统计推断与激励机制
CCAI 2017 | 漆远:蚂蚁金服 AI 技术大揭秘, 开放“模型服务平台”
CCAI 2017 | 香港科技大学计算机系主任杨强:论深度学习的迁移模型
CCAI 2017 | AAAI 执委 Toby Walsh: AI 是中性技术,如何用它更好地为人类服务
CCAI 2017 | 日本理化学研究所杉山将:弱监督机器学习的研究进展
CCAI 2017 | Hans Uszkoreit:如何用机器学习和知识图谱来实现商业智能化?
CCAI 2017 | 史元春:科幻与创新
CCAI 2017 | 王颖:论人工智能与艺术
CCAI 2017 | 柳崎峰:金融机构的市场机遇与实践
CCAI 2017 | 张敏:当人工智能“科学遇到艺术”的一点杂谈
CCAI 2017 | 张胜誉:个性化推荐和资源分配在金融和经济中的应用
CCAI 2017 | 王蕴红:人工智能科学与艺术的鉴赏创作
CCAI 2017 | 王坚博士致辞:人工智能是推动科技发展的动力
CCAI 2017 | 李德毅院士大会致辞:中国人工智能步入新阶段
CCAI 2017 | 谭铁牛院士致辞:人工智能新热潮下要保持清醒头脑,设定科学的目标