深度置信网络_神经网络现在还能告诉你它什么时候不可信了!

越来越多的人工智能系统广泛应用于深度神经学习网络而被人熟知,它用来通知对人类健康和安全至关重要的决策,例如在自动驾驶或医疗诊断中。这些网络善于识别大型复杂数据集中的模式,以帮助决策。但我们怎么知道他们是正确的呢?麻省理工学院和哈佛大学的Alexander Amini和他的同事们想找出答案。

他们开发了一种神经网络快速处理数据的方法,不仅输出预测值,还根据可用数据的质量输出模型的置信度。这种进步可能会拯救生命,因为深度学习在今天的现实世界中已经得到了应用。网络置信度等级可以是自动驾驶车辆确定“通过交叉口时一切都很清楚”和“可能很清楚,所以停车以防万一”之间的区别。

深度置信网络_神经网络现在还能告诉你它什么时候不可信了!_第1张图片

目前用于神经网络的不确定性估计方法往往计算成本高,而且对于瞬间决策相对较慢。但Amini的方法,被称为“深度证据回归”,加速了这一过程,并可能导出更安全的结果。麻省理工学院计算机科学与人工智能实验室Daniela Rus教授小组的博士生Amini说:“我们不仅需要有高性能模型的能力,还需要能够理解当我们不能信任这些模型时的情况。”。

“这一想法很重要,适用范围很广。它可以用来评估依赖于学习模型的产品。通过估计一个学习模型的不确定性,我们还可以了解到从模型中预期会有多大的误差,以及哪些缺失的数据可以改善模型,”Rus说。

深度置信网络_神经网络现在还能告诉你它什么时候不可信了!_第2张图片

Amini将在下个月的NeurIPS会议上介绍这项研究。

有效不确定性

在经历了上下起伏的历史之后,深度学习在各种任务上展示出了显著的表现,在某些情况下甚至超过了人类的准确性。如今,无论电脑走到哪里,深度学习似乎都能进行。它为搜索引擎结果、社交媒体订阅和面部识别提供“燃料”。Amini说:“我们通过深度学习取得了巨大成功。“神经网络在99%的时间里都很擅长知道正确答案”,但是99%的人在命悬一线时无法做到这样。

“有一件事让研究人员无法逃避,那就是这些模型能够知道并告诉我们何时可能出错的能力“。Amini说,“我们真正关心的是这1%的时间,以及如何可靠有效地检测这些情况。”

神经网络可以是巨大的,有时充满了数十亿个参数。因此,仅仅为了得到答案,这可能是一个沉重的计算过程,更不用说置信水平了。神经网络中的不确定性分析并不新鲜。但是,以前的方法,源于贝叶斯深度学习,已经依赖于运行或采样神经网络多次来了解它的可信度。这个过程需要时间和记忆,这在高速交通中可能并不适用。

研究人员设计了一种仅从神经网络的一次运行中计算不确定性的方法。他们设计了一个具有大量输出的网络,不仅产生了一个决策,而且产生了一个新的概率分布,捕获了支持该决策的证据。这些分布,称为证据分布,直接捕获模型对其预测的信心。这包括基础输入数据以及模型最终决策中存在的任何不确定性。这种区别可以表明是否可以通过调整神经网络本身来减少不确定性,或者输入数据是否只是噪声。

置信度检验

为了测试他们的方法,研究人员从一个具有挑战性的机器视觉任务开始。他们训练他们的神经网络来分析单眼彩色图像,并估计每个像素的深度值(即距相机镜头的距离)。自动驾驶汽车可能会使用类似的计算来估计它与行人或其他车辆的距离,这不是一项简单的任务。

他们的网络性能与以前最先进的模型不相上下,但它也获得了估计自身不确定性的能力。正如研究人员所希望的那样,该网络预测出错误深度的像素具有很高的不确定性。Amini说:“它可以校准网络所造成的误差,我们认为这是判断新的不确定性估计器质量的最重要因素之一。”

为了对他们的校准进行压力测试,研究小组还显示,网络对“分布外”数据的不确定性更高,这是训练中从未遇到过的全新类型的图像。在他们对网络进行室内家庭场景培训后,他们向其提供了一批室外驾驶场景。该网络一直警告说,它对新奇的户外场景的反应是不确定的。这项测试突出了网络在用户不应完全信任其决策时进行标记的能力。在这些情况下,“如果这是一个医疗保健应用程序,也许我们不相信模型给出的诊断,而是寻求第二种意见,”Amini说。

该网络甚至知道照片何时被篡改,从而有可能防范数据操纵攻击。在另一项试验中,研究人员在一批他们提供给网络的图像中提高了对抗性噪声水平。这种影响是很微妙的,人眼几乎分辨不出,但是网络嗅出了这些图像,标记其输出的高度不确定性。这种对伪造数据发出警报的能力有助于发现和阻止对抗性攻击,这在假货时代越来越受到关注。

Deepemind的人工智能研究人员Raia Hadsell说,深度证据回归是“一种简单而优雅的方法,它推进了不确定性估计领域的发展,这对机器人学和其他现实世界的控制系统非常重要。这是以一种新颖的方式完成的,它避免了其他方法的一些混乱局面,例如采样或集合。这不仅使它优雅而且计算效率更高——这是一个成功的组合。”

深度证据回归可以提高人工智能辅助决策的安全性。Amini说:“我们开始看到越来越多的这种(神经网络)模型从研究实验室流入现实世界,进入可能危及生命后果的人类应用场景。任何使用该方法的人,无论是医生还是坐在乘客座位上的人,都需要意识到与该决定相关的任何风险或不确定性。”他设想该系统不仅可以快速标记不确定性,但也可以用它在危险情况下做出更保守的决策,比如自动驾驶车辆接近交叉口。

他说:“任何要实现可部署机器学习的领域最终都需要有可靠的不确定性意识。”。

(源自:MIT NEWS 该文仅用于学术交流 )


深度置信网络_神经网络现在还能告诉你它什么时候不可信了!_第3张图片

赞和在看点这里

4be993b4140af265b1840cc836effb62.gif

你可能感兴趣的:(深度置信网络)