智能社会:如何信任人工智能!

​在智能社会中,我们拥有智能汽车(也称为自驾驶汽车或自主车辆)。我们期望通过交通管理更好地流动,通过这些车辆提供的广泛而真实的数据推动交通管理,并利用智能算法(例如基于ai)进行分析。我们现在所认识的智能社会最突出的细节是物联网在最小层次上的普及。物联网在微观层面上的实现推动了自主学习算法的需求,因此重点关注人工智能。最终,他们共同努力形成一个智能的社会的更大图景。

智能社会:如何信任人工智能!_第1张图片
欢迎关注大数据周刊公众号


AI与算法

智能的社会现在不仅仅是一个想象,现在是时候我们开始回答与它有关的真正问题了。机器学习在智能社会的整体实施中的作用是由人类无法以经典方式分析所有数据的简单事实驱动的。“机器学习”这个词已经提供了这些算法中问题所在的一个指示词。机器正在学习,也就是说,它并不一定遵循人类容易理解的逻辑。这给我们带来了有趣的挑战,即了解机器学习和算法如何影响我们和智能社会的概念。技术哲学家叶夫根尼(叶夫根尼)为这种影响而创造的术语是“无形的带刺铁丝网”。

我们智能社会中无处不在的系统是由算法驱动的。这意味着他们直接影响到我们的决策,我们的生活,所以我们应该明白这是如何运作的。以下是几个例子:

目前,以数据为中心的应用程序已被广大公众广泛采用。一个特定的移动应用程序给用户提供了检测癌症类型的机会,并且准确度高。

“简单”算法,比如预测天气的方法已经影响到你如何计划你的年龄。谁没有改变他或她计划去海滩至少一次因为天气预报暗示有雷暴预期?

我们在汽车和手机上拥有的导航系统决定了应该使用的最佳路径。该决定是优化的,新数据来自所有可供选择的路径,我们的旅程。通过评估交通更新和其他影响,这些导航系统就能找到最好的导航系统。

人类现在依赖于这些系统,即使没有意识到这一点,这也就是为什么算法被称为“隐形铁丝网”。

你能信任人工智能吗?

当我们评估算法对我们生命的影响时产生的问题是:“我们能信任人工智能吗?”对于大多数个人和智能手机用户来说,首先最重要的问题就是世界各地的公司都在使用数据。收集到的数据在哪里,以及这些数据的分析如何与您的期望相符?这些都是所有用户的重要问题,也是我们想要回答的问题。

虽然人工智能和分析市场正在迅速发展,但信托赤字并没有显示出任何下降迹象。最近一些突出这一信任差距的统计数字是:

既然我们意识到当前的信任赤字,我们能做些什么呢?在利益相关者之间建立信任的锚是什么?毕马威会计师事务所确认了这些问题:

数据分析过程和数据本身是否属于顶级质量?当然,需求取决于领域和应用程序。银行交易和医疗诊断比营销活动对数据和数据分析过程的质量更加严格。

分析是否做了它打算做的事情?当数据或算法被重用时,这变得尤为重要。为某目的收集或开发的数据或算法并非每个定义适合于另一个用途。

是否使用了从伦理和监管角度考虑可以接受的数据和算法?基于性别的或基于年龄的歧视通常被法律禁止。数据分析必须明显符合所有法规,如在等。

当数据分析未能坚持上述锚时,会出现信任赤字。数据分析未能满足信任的锚,是广泛和众所周知的。gps的死亡是人们因gps判读失误而迷路的常见术语,而闪电的声誉导致了一种不可靠和不可预知行为的光环。有趣的是,足够的不可预测性是你最不希望从机器上得到的东西,而不是满足期望是获得信任差距最快的途径。其他快速的不满和声誉损害的方法是安全漏洞和意外偏见的发现。

智能的社会有一些有趣的连锁反应,例如在责任领域。研究表明,62%多名d&a专业人员认为,由自我驾驶引起的事故是建立软件和算法的组织的责任。

如何信任人工智能?

最后结果表明,数据科学家对于人工智能中信任的建立起着至关重要的作用。数据科学家负责开发数据分析和度量指标,因此它们在构建信任机制方面发挥着重要作用。

已经存在着许多控制和框架,作为管制发展的一种手段。软件质量和信息安全,以及财务建模的快速性等例子。事实原则也被建议为负责任的数据科学,代表公平、准确性、保密性和透明度;所有重要和必要的属性。

另一个能产生信任的因素是设计伦理,通过设计来扩展隐私。设计一个系统,这样就必须遵循正确的流程,即在技术上不可能绕过这些过程。只有正确的组织技术和技术措施结合起来才能使数据科学家正确地做正确的事情。

最后,第三方审查对于建立信任至关重要。这里是毕马威等担保公司的情况。毕马威已经对过去100年间财务报表进行了审计,现在已经进入数字保证。我们可以从财务报表审计工作如何运作中吸取宝贵经验教训。社会价值是至关重要的,也是致力于与社会信任的关系的意愿。这要求采取平衡的办法来实现透明度。

你可能感兴趣的:(智能社会:如何信任人工智能!)