AI寒冬将至?行业大咖呼吁重启AI再出发

  姓名:刘璇光  学号:15020150039

  转载自: 网易智能  有删节

【嵌牛导读】:人工智能被发现很难驾驭,AI承诺的前景在很大程度上还没有实现。

【嵌牛鼻子】:人工智能  算法  深度学习

【嵌牛提问】:人工智能的未来发展方向会如何?

【嵌牛正文】:

【网易智能讯 10月15日消息】AI仍在继续兴起,尽管它并没有成为人们所期待的那种广泛性力量。在过去几年中,AI领域的发展速度令人震惊。自2000年以来,活跃的AI初创企业数量增加了14倍,风投对AI初创企业的投资增加了6倍,需要AI技能的工作比例增长了4.5倍。

不过,领先的互联网数据统计机构Statista发布的调查结果显示,截止2017年,全球只有5%的企业在其流程和产品中广泛采用了AI,32%的企业尚未采用AI,22%的企业甚至没有采用AI的计划。知名AI研究人员菲利普·皮恩尼斯基(Filip Pieniewski)最近在科技媒体Venturebeat上撰文,阐述了他的观点,宣称“AI寒冬即将到来。”

皮恩尼斯基说:“我们现在正处于2018年中后期,AI领域的情况已经发生了变化。尽管表面上看似乎并非如此,比如NIPS会议仍然超受欢迎,企业公关团队在新闻发布会上仍然充斥着AI,美国连续创业家伊隆·马斯克(Elon Musk)仍在承诺打造无人驾驶汽车,谷歌也始终在推动吴恩达(Andrew Ng)的理念,即AI比电力更强大。但这种叙述已经开始崩溃。”

我们极力宣传无人驾驶汽车的愿景。今年春天早些时候,一名行人被无人驾驶汽车撞死,这一事件引起了人们的警觉,人们不仅质疑这项技术,还质疑无人驾驶系统决策的背后是否存在道德问题。无人驾驶汽车的问题不是在挽救1个人还是5个人之间做出简单的二元选择,而是在演变成一场关于良知、情感和感知的辩论,使机器做出合理决策的道路变得更加复杂。

皮恩尼斯基等人得出的结论是:全自动无人驾驶汽车的梦想可能比我们想象的遥远得多。AI专家们越来越担心,无人驾驶系统要想可靠地避免事故,可能还需要数年甚至数十年时间的努力。”

| 所谓的AI落地只是试点

让我们以史为鉴来看下,云计算和网络工业都花了大约5年的时间才开始对人们的生活产生重大影响,而这些行业影响市场的重大转变也花了近10年时间。我们正在为AI设想一个类似的时间表。正如平台技术、开源和封闭源系统以及AI技术方面经验丰富的工程主管凯伦·班尼特(Karen Bennet)解释的那样:

“为了让每个人都能采用,一款产品需要方便可用,需要是能够扩展至被所有人使用,而不仅仅是服务于数据科学家。该产品将需要考虑数据生命周期中数据捕获、准备、培训模型和预测等环节。随着数据被存储在云端,数据管道可以不断地提取,并准备用它们来训练模型,从而做出预测。模型需要借助新的训练数据不断改进,从而保持模型的相关性和透明性。这就是目标和希望。”

我(本文作者杰西·琼斯(Jessie Jones))和班尼特都来自科技和AI初创企业。我们所见证的以及在AI社区中与同行讨论中我们所意识到的是,我们正在众多商业问题上进行广泛的实验,然而这些实验往往停留在实验室中。这篇最近的文章证实了当今普遍存在的AI炒作问题:

“AI技术供应商往往会受到激励,让他们的技术听起来比实际中更强,但这也暗示了它们在现实世界中的吸引力比实际上更大……企业中的大多数AI应用程序不过是‘试点’。在AI领域兜售营销解决方案、医疗保健解决方案和金融解决方案的供应商,基本上只是在测试这项技术。在任何特定的行业中,我们发现,在销售AI软件和技术的数百家供应商中,只有大约三分之一的公司具备开发AI所需的技能。”

风投公司意识到,他们可能在一段时间内看不到投资回报。然而,AI还没有准备好迎接黄金时段的到来,原因之一就在于几乎无处不在的AI实验几乎都没有看到曙光。

| 算法需要负责任吗

我们听说过AI“黑箱”,即研究人员目前还不清楚AI如何做出决策。这种做法是在银行和大型机构面临要求问责制的合规标准和政策的情况下出现的。由于系统是作为“黑箱”操作的,只要这些算法的创建经过了审查,并且满足了关键涉众的一些标准,人们就可能对算法产生固有的信任。

鉴于大量证据表明开发中的算法存在缺陷,以及由此产生意想不到的有害结果,这种观点很快就引发了争议。我们的许多简单系统都像“黑箱”一样运作,超出了任何有意义的审查范围,原因包括公司有意保密、缺乏足够的教育以及缺乏了解如何批判性地检查输入、结果,最重要的是,不理解为何会出现这些结果。

班尼特表示:“如今,AI行业正处于企业准备采用的早期阶段。AI是非常有用的,可以通过大量的数据进行发现和分析,但是它仍然需要人类的干预作为对数据及其结果进行评估和行动指南。

班尼特还澄清说,如今的机器学习技术使数据能够被标记出来,以帮助识别真知灼见。然而,作为这个过程的一部分,如果有些数据被错误地标记,或者没有足够的数据训练,亦或者有问题的数据产生偏见,很可能会出现糟糕的决策结果。她还表示,目前的流程仍在不断完善:“目前,AI都是关于决策支持的,以提供洞察,让企业可以从中得出结论。在AI发展的下一个阶段,AI可将数据中的动作自动化,还有些额外的问题需要解决,比如偏见、可解释性、隐私性、多样性、伦理和持续的模型学习等。”

这表明,要想真正理解AI产品,需要有个关于对象和人的常识世界模型,以帮助AI去真正了解它们。一个模型只暴露在有限数量的标记对象和有限种类的训练中,这将限制这个常识世界模型的有效性。企业需要进行研究,以确定模型如何处理其输入,并以人类可以理解的方式得出其结论。亚马逊发布的面部识别技术Rekognition,是目前正在研发和许可使用的AI技术的典型例子,但其有效性存在明显的差距。

美国公民自由联盟发布的一项研究称:“亚马逊的技术将28名国会议员的照片与罪犯公开的脸部照片混淆了。鉴于亚马逊积极向美国各地的执法机构推销自己的Rekognition,这显示其还远远不够好。”算法正义联盟(Algorithmic Justice League)的创始人乔伊·布拉马维尼(Joy Buolamwini)在最近的一次采访中,呼吁暂停这项技术,称其无效,并需要更多监管。此外,在这些系统被公开发布之前,政府应该制定更多相关标准。

| 数据的完整性问题

如今的AI需要大量的数据才能产生有意义的结果,但无法利用其他应用程序的经验。虽然班尼特认为克服这些局限性的工作正取得进展,但是在模型以可扩展的方式应用之前,学习的转移是有必要的。然而,在某些情况下,AI可以在今天得到有效的应用,比如在图像、声音、视频和翻译语言方面的洞察力。

企业正在学习应该关注的问题:

1)数据的多样性,包括适当人群的代表性。

2)在创建算法的过程中确保不同的经验、观点和思维。

3)数据质量优先于数量。这些都是非常重要的,特别是随着偏见的引入,对AI的信任和信心数据都在下降。例如,在土耳其语中属于中性的语言,谷歌翻译中的AI模型在将其翻译成英语时却错误地预测了性别。

此外,癌症识别AI在图像识别训练时只使用皮肤白皙的人照片。从上面的计算机视觉例子中,乔伊·布拉马维尼(Joy Buolamwini)测试了这些AI技术,并意识到它们在识别男性VS女性或浅色VS深色皮肤方面更有效。识别男性的错误率低至1%,而识别深色皮肤女性的错误率则高达35%。这些问题的发生是因为没有使用多样化的数据进行培训。

班尼特承认:“AI的概念很简单,但通过获取越来越多的真实世界数据,算法会变得越来越聪明,然而要解释这些决策却变得极其困难。数据可能会不断变化,AI模型需要进行过滤,以防止错误的标签,比如将非洲人贴上大猩猩的标签,或者将熊猫误认为长臂猿。企业依靠错误的数据来做出决策,将导致更加糟糕的结果。”

幸运的是,由于AI的狭义存在,很少有公司会根据今天的数据做出重大商业决策。从我们所看到的情况来看,大多数解决方案主要是产品推荐和个性化营销沟通。由此得出的任何错误结论都不会对社会造成太大影响,至少目前如此。使用数据来进行业务决策并不新鲜,但发生变化的是使用结构化和非结构化数据的数量和组合正呈指数级增长。AI使我们能够持续性地使用来自他们源头的数据,并更快地获得洞察力。对于具有处理来自不同数据源的数据和结构能力的企业来说,这意味着巨大的机会。

然而,对于其他企业来说,大量的数据可能代表着一种风险,因为不同的来源和格式使得转换信息变得更加困难。这些信息来自电子邮件、系统日志、网页、客户记录、文档、幻灯片、非正式聊天、社交网络以及图像和视频更丰富的媒体。数据转换仍然是开发干净数据集和有效模型的绊脚石。

| 对隐私日益增长的需求

我和班尼特都曾在雅虎工作过,我们与强大的研究和数据团队合作,能够在我们的平台上对用户的行为进行仔细研究。我们不断地研究用户行为,了解他们在音乐、主页、生活方式、新闻等众多属性方面的倾向。当时,对数据使用没有严格的标准或规定。隐私被降级为平台上用户被动遵守的协议中的条款和条件,与今天的情况类似。

最近的剑桥分析公司滥用Facebook用户数据丑闻把个人数据隐私问题推到了风口浪尖。主要信贷机构(如Equifax)、最近的Facebook和Google +频繁发生的数据泄露,继续加剧了这一问题。2018年5月25日生效的欧洲《通用数据保护条例》(GDPR)将改变企业的游戏规则,特别是那些收集、存储和分析个人用户信息的公司。它将改变企业经营多年的商业规则。毫无节制地使用个人信息已经到了紧要关头,因为企业现在会意识到,数据的使用将受到重大限制。更重要的是,所有权之争更为激烈。

我们看到了定位广告的早期效果。这个价值750亿美元的行业,预计到2021年将以21%的年复合增长率增长,但仍受到Facebook和谷歌的寡头垄断的阻碍,它们获得了大部分收入。现在,GDPR加大了风险,让这些广告技术公司担负起更多责任。这种风险非常高,以至于(广告商)必须非常确定,你被告知的内容实际上是符合要求的。对于什么最终会构成违规,似乎存在着足够多的普遍困惑,人们对此采取了广泛的方法,直到你能够准确地了解合规。

尽管监管最终会削弱营收,但至少就目前而言,移动和广告平台行业也正面临着越来越多的审查,这些行业多年来一直在从消费者身上赚钱。这一点,再加上围绕既定实践的审查,将迫使行业改变收集、聚合、分析和共享用户信息的方式。对隐私进行操作需要时间、重大投资以及心态上的改变,这些将影响企业政策、流程和文化。

我们有时间在深度学习、其他AI方法以及有效从数据中提取价值的过程中研究这些问题。这种商业准备、监管、教育和研究过程的完成对于加快商业和消费者的步伐,确保一个适当约束技术的监管体系到位,以及让人类在更长时间内掌控科技的监管体系来说都是非常必要的。

你可能感兴趣的:(AI寒冬将至?行业大咖呼吁重启AI再出发)