一个全球性的研究显示,人工智能将会创造新的工作机会,而要求的技能和培训将会让很多公司感到惊讶。
自动化在全球经济中将会消除大量工作岗位的威胁已经铁板钉钉。但随着人工智能系统演化得越来越精细复杂,另一波就业岗位会被取代也几乎会成为事实。
尽管未来的发展可能会令人沮丧,但我们仍相信:很多新的工作机会将会涌现——尽管这些工作看起来和现在的完全不同。
埃森哲公司对全球超过1000个正在使用/测试人工智能及机器学习系统的大公司进行调研,发现有很多全新的、只有人类能胜任的工作将出现。这些工作机会并不会替代之前已存在的工作岗位。这些岗位是崭新的,毫无先例,需要特殊的技能和特别的训练。(埃森哲公司的报告《公司如何通过信息化技术重塑商业》将会在这个暑假发布)。
更准确地说,埃森哲的研究揭示了三个全新的、由人工智能驱动的业务和技术类工作类别,我们称它们为培训师、解析者和维护者。这三类工作的从业者通过认知技术来完成工作任务,以确保机器完成的工作既有效又尽责——这是公平、透明、经得起审计的。
培训师
第一类新工作要求人类教授人工智能系统应该如何运转——这类工作正在迅速出现。一方面来说,培训师帮助自然语言处理器和语言翻译器减少错误。另一方面,培训师教授人工算法如何模仿人类的行为。
举例来说,客户服务机器人,需要被训练得对复杂且微妙的人类沟通有很好的识别。雅虎公司正在教授语言处理系统去识别那些人们真实的意思与表面意思不一致的语言。到目前为止,雅虎的工程师们开发出了能够在网站和社交媒体上识别反讽意思的算法,且准确度可达80%以上。
试想一下“同理心培训师”这一工作——致力于教会人工智能系统显示出同理心的人员。一家位于纽约、起源于麻省理工媒体实验室(Media Lab)的新创公司Kemoko Inc., d/b/a Koko,已经开发了一套机器学习系统,它可以帮助数字化助手(如苹果的 Siri和亚马逊的Alexa)在帮助人们解决问题时,显示出一定的同理心和深度。人们目前正在培训Koko算法,使之对正因一些原因感到沮丧的人给出同情的回应,例如,当人们因为行李丢失时,或者他们刚刚买入的产品是有缺陷的,亦或者虽经多次维修,网络服务依然不能正常使用。其目标是在人们身历问题或困难时,该系统能够拥有一些理解、怜悯甚至可能是幽默感。如果Koko的回应不适宜,一位人类培训者就可以帮助它纠正行动——然后随着时间的积累,这一机器学习算法就能更好地选择出最佳回应模式。
例如,如果没有同理心培训师,Alexa可能会在回复一位焦虑不安的顾客时,重复使用已提前录制的话语,如“对此我感到非常难过”,“某些时候,找位朋友倾诉或许能有帮助”。而在正确的培训下,Alexa就会给人们提供越来越多的帮助。下面逐字记录了使用Koko系统的Alexa对一位自述正在为即将到来的考试而不安的人的答复:“考试确实是一件非常有压力的事情,但是一点点焦虑感会帮助我们成功,让我们的思维变得更加敏锐……这是你的身体为自身行动而做出的准备,这真的是一件好事。我想或许你可以将你的神经作为秘密武器。我知道,说起来容易做着难,但是我还是认为你一定会比你想象的要做的好。”
解析者
第二种类型的新工作——解析者,是技术专家和商业领袖之间的桥梁。解析者将有助于提供清晰解释,随着人工智能系统的透明度提升,解析者的作用变得更加重要。许多管理人员对复杂的机器学习算法的“黑箱”特性感到不安,特别是当他们着力使用的系统推荐那些违背常规智慧的行动时。事实上,政府已经在考虑这个领域的规定。例如,欧盟的新通用数据保护法规将在2018生效,会有效地创建一个“解释的权利“,允许消费者质疑和反对纯粹基于算法的决定来影响他们。
部署先进的AI系统的公司需要一组核心员工,他们可以对非专业人士解释复杂算法的内部运作。例如,算法取证分析师将负责对任何算法的结果负责。当一个系统犯了一个错误,或者当它的决定导致了意外的负面后果时,取证分析师需要对事件进行“尸检”,以了解该行为的原因,并加以改正。某些类型的算法,比如决策树,能够比较直观地解释。但是其他例如机器学习机器人就复杂的多,这种情况下,取证分析师需要得到适当的培训和技能进行详细的剖析并解释他们的结果。
在这里,技术如“局部可理解的与模型无关的解释技术”(LIME,一种用于解释任何机器学习分类器的预测技术),解释了机器预测的基本原理和可信性,可以非常有用。LIME并不关心确切使用的人工智能算法。事实上,它不需要知道关于内部工作机制的任何事情。为了对任何结果进行事后检查,它对输入变量做了细微的改动,以观察这些改动是如何改变决策。利用这些信息,算法取证分析师可以精确定位导致特定结果的数据。
所以,举个例子,如果一个专业招聘系统已经锁定了一个做研发工作的最佳候选人,LIME分析师可以找出导致这一结论的变量(如在一个特定的、狭窄的领域的教育背景和深厚的专业知识)以及反对它的证据(如在团队协作工作方面缺乏经验)。利用这种技术,取证分析师可以解释为什么有人被雇佣或被晋升。在其他场景中,分析师可以帮助理解为什么一个人工智能驱动的制造流程会被停下,或为什么一个营销活动只能针对消费者的某个群体来做。
维护者
我们研究确定的最后一类新的工作类别 – 运维者 - 将有助于确保人工智能系统按照设想运行,并且可以非常紧迫地解决一些意想不到的后果。在我们的调查中,我们发现不到三分之一的公司对他们的AI系统的公平性和可审计性有很高的信心,不到一半的公司对这些系统的安全性有类似的信心。显然,这些统计数据揭示了持续使用人工智能技术需要解决的基本问题,这就是运维者将发挥关键角色的地方。
其中最重要的职能之一是道德合规经理。这个角色的个人将作为一种维护人类价值观和道德准则的监督和监察员 - 例如,如果信用审批的人工智能系统歧视某些行业或特定地理区域的人,就会进行干预。其他偏见可能更为微妙 - 例如,当有人询问“慈爱的祖母”时,搜索算法仅响应白人女性的图像。道德合规经理可以与算法取证分析师合作,找出导致这些结果的根本原因,然后实施适当的修复。
在未来,人工智能将会更加地进行自我管理。乔治亚理工学院的研究人员Mark O.Riedl和Brent Harrison已经开发出了可以通过阅读简单的故事进行伦理学习的、名为“堂吉诃德”的人工智能原型。根据Riedl和Harrison的说法,这个系统能够通过故事中的人们如何相互影响来工程还原人类价值观。“堂吉诃德”已经学习了例如,为什么抄袭不是好主意,追求效率是好的——除了与其它的重要注意事项发生冲突之外。但即使是这样的创新,人类伦理合规经理仍将在监测和帮助确保先进系统的正常运行方面发挥关键作用。
我们在这里所描述的工作类型是前所未有的,在各个行业内都会有着大规模的需求(更多的例子,请见“人工智能创造的代表性角色”)这一转变将给组织的培训和发展运营带来巨大的压力。它也会让我们对传统教育中就职业角色所已经设定的那些要求产生质疑。
比如,同理心培训师或许不需要持有大学文凭。那些只有高中教育背景和那些天生善解人意(一种可衡量的特质)的人们可以在企业内部培训中被传授必要的技能。实际上,这些新岗位的影响引领着“无领”劳动力的兴起,在制造业和其他行业中将逐渐取代传统的蓝领岗位。但是,在何地和如何培训这些工人没有定论。我们的观点是,问题的答案需要从组织的自我学习和发展运作开始。
另一方面,许多新工作,比如道德合规经理,可能需要高学历和高度专业化的技能。因此,就像组织必须解决为新兴的“无领”培训一部分劳动力的需求一样,他们必须重新设想人力资源流程,以更好地吸引、培养和留住高需求量的受过高等教育的专业人才。与许多技术转型一样,挑战往往比技术更人性化。