如何创建以业务为中心的AI?

AI是企业的未来,这一趋势越来越明显。各种AI模型可以帮助企业节省时间、提高效率并增加收入。随着越来越多的企业采用AI,AI很快就不再是一种可有可无的能力,而是企业参与市场竞争的必备能力。 然而,作为一名业务决策者,采用人工智能可能会感到力不从心。除非具备很强的技术背景,否则,你可能对AI有很多不了解的地方。聘请技术团队,请他们处理与AI有关的一切,这似乎是一个很有吸引力的提议。 但这却是一个误区。AI要有效发挥作用,就必须以业务为中心,这意味着身为业务决策者,你在AI开发中的作用至关重要。以下三大技巧将帮助你创建更好的AI。

如何创建以业务为中心的AI?_第1张图片  

技巧一:创建AI时,防止在企业中出现“传声筒”现象

一个AI项目从构想到实施,有太多机会可能会出现“传声筒”现象。从心怀梦想的业务利益相关者到真正构建AI机器学习工程师或数据科学家,这一过程不可避免地要历经五个环节和三次管理变更。 就像童年时的“传声筒”游戏一样,在这个过程中会丢失很多信息。Brooke Wenig是Databricks的机器学习实践主管,她亲身经历了AI项目在组织中经历的“传声筒”效应,也深知其可能造成的损害。 Brooke在MyFitnessPal(一款应用程序,可用于记录自己的饮食和锻炼情况)实习时,她接到一项任务,需要她创建一个模型,对用户输入的食物(如水果、蔬菜等)进行分类。 Brooke花了六个多星期整理数据,并将映射关系创建为一个清晰的层次结构,结果却发现,她所创建的分组根本不是产品团队想要或所需要的。于是,她不得不从头开始重做。 时间和资源都被浪费了,没人曾经告诉她这款应用到底能从哪些分组中盈利,而她创建的分组结构从商业角度来看毫无价值。Brooke没有得到完成这项工作所需要的信息,原因出在业务人员(产品团队)与AI模型的执行人员没有紧密沟通。因此,项目连续几周完全处于停滞状态。 AI模型的创建不仅仅需要数据科学,商业决策更扮演了至关重要的角色。因此,作为一名业务决策者必须深度参与其中,确保AI模型的构建人员能够从对业务有益的角度切入。  

技巧二:选择正确的目标、KPI和阶段性节点

在AI解决方案中投入大量资金和资源,最终却产生了错误的结果,甚至是完全失败,这种情况并不罕见。事实上,即使在AI领域经验丰富的企业中,这种情况也非常普遍。企业做了所有“正确的”事,包括雇佣富有经验的人员,有很好的意向,但却仍然无法实现最初的目标,并最终付出高昂的代价。 例如,2013年10月,IBM宣布与德州大学安德森癌症中心建立了合作关系,这一消息激动人心。合作双方将利用IBM超级计算机沃森的认知计算系统将癌症研究推上新的高度。安德森癌症中心经过超过三年的努力、花费6200多万美元之后,这个项目却被搁置了,并且从未在任何一位患者身上真正使用过这种技术。 其中的一个原因是,安德森癌症中心团队没有正确地认识到、也未能深入理解AI可能影响的具体问题。将机器学习应用于“癌症治疗”这样宽泛的目标,很快就暴露出这项技术的局限性:AI模型需要解决现实中的特定问题,而不是遥远的未来目标。 AI需要进行持续的维护、管理和方向修正,才能继续提供有意义的、符合预期的输出。在启动一个项目时,如果对目标、成功的衡量标准、期望、阶段性目标和指导方针缺乏清晰的认识,成功的机会将微乎其微。安德森癌症中心的项目就是例证。 虽然你可能并不了解构建AI模型的复杂细节,但你却知道如何计划和完成一个项目。通过帮助建立正确的目标、成功的衡量标准和阶段性目标,你将能确保企业的AI模型不会偏离正轨。  

技巧三:考虑AI模型决策的伦理道德影响

AI可以对人们的生活产生真正的影响,所以AI模型的设计方式变得非常重要。使用AI势必将推动企业实现业务成果,这一点固然重要,但同时也必须考虑AI模型决策的伦理道德影响。 例如,如果决定优化AI模型,使其准确率达到90%,也就意味着在10%的情况下,AI模型会做出错误的决策。如果模型将客服需求分类为不同的优先级,也许这10%并不是什么大问题。但如果是利用AI模型识别性侵害报告,那么,10%的错误分类就可能造成严重的伦理道德失误,更不用说其代表的实质性责任。 如果要引入AI模型从事某些依赖于人类做出伦理道德决策的工作,你应该注意避免数据科学团队过于同质化。数据科学家的工作本质上是在模型中编入有意偏见,然后使模型做出决策。在提供数据并创建引入偏见的算法时,如果没有充分考虑通常依赖于人类判断的敏感领域,就有可能引入无意的偏见。 有关AI的伦理道德以及如何建立负责任的AI,可以查看这篇文章。 微软的推特聊天机器人Tay就是一个很好的例子。Tay本应通过研究用户在推特上发布的对话来学习如何通过推特与人交流。不幸的是,对于Tay从其他推特用户那里学到的内容,研究人员并没有筛选。结果,4chan给Tay提供了上百万个恶意对话的例子。Tay最终变成了一个宣扬纳粹主义极端聊天内容的机器人。 这种情况下,虽然决策者并不具体负责构建AI模型,但在其中发挥的重要作用却不容小觑。决策者必须表达对伦理道德的要求,并确保数据科学团队观点具有多样性,以防止无意的偏见。  

建立以业务为中心的AI

人工智能不是魔法。它是一系列技术的集合,可以用来做出服务于一系列目标的决定。人们创建AI,用人类收集和准备的数据来训练AI系统。 数据科学团队只了解AI的技术方面,只有你才是真正同时了解AI和业务的人。避免AI沦为企业版电话游戏;选择正确的目标、成功的衡量标准和阶段性目标;考虑道德影响,你就可以帮助确保企业AI更为成功,并更好地为用户服务。

你可能感兴趣的:(人工智能与机器学习,人工智能)