摘要:在人工智能飞速发展的今天,我们不断追求机器更加拟人化,只有机器具备更多类似人一般的功能,才能使机器智能更进一步,帮助人们分担更多任务,继而提升工作绩效。因此,众多科学家和学者把目光放在了对于人类认知的探索上,以求掌握人类的认知原理使机器像人一样认知、学习、推理和规划。本文列举了一些人类具有而机器目前尚未获得并且十分必要的能力,并对当前的发展趋势-人机混合智能与人机分工协作进行了描述和展望。
关键词:人工智能;人机混合智能;认知
人工智能的飞速发展为我们带来了许多便利,使机器逐渐从“自动化”迈向“智能化”,然而当前的人工智能还只是弱人工智能,在很大程度上还只是高级的自动化而并非真正的智能,而迈向真正智能的路上也遇到了很多瓶颈[1]。机器智能想要更接近人类智能,就要在很多方面更加“拟人化”,因探索人类的认知学习途径显得尤为重要,认知成为当前需要迫切解决的问题。当我们对人的认知过程有了充分的了解,探究出认知与技术的关系,并将这些应用在机器当中,利用机器来认知分析应用知识,将是人工智能未来的发展方向。
本文首先列举了一些人类具有而机器当前急需解决的难题,并给出了退而求其次的方法-机器辅助决策,最后对于当前技术最可能实现的人机混合智能进行了总结和展望。
我将从以下五个方面介绍当前机器智能远远不足的一些原因,也是人工智能想要有所突破急需解决的难题。
1.抽象和联想
人的记忆能量是有限的,即人对于学习过程并不是死记硬背的,按常理来说,没有庞大记忆存储空间的人类相比于机器的海量数据支撑起的强大数据库而言,学习过程应当更慢,然而事实并非如此。原因则在于人类的学习充满了抽象和联想,而机器不会。人类的记忆擅长关联,有关联的事物更容易被记住,当想起其中一种,自然而然会关联记忆到另外一种。比如看到香喷喷的饺子就会想到之前妈妈包饺子的场景,再比如路过某一家店会唤醒曾经在这里的记忆。除此之外,人类的学习是通过不断的失败后再学习,总结失败的规律,进行联想、知识迁移和关联学习,而不是像机器一样通过海量数据不断拟合至一个近似人类的状态。
在这里,人类的记忆错误的规律也十分有趣。在2021年认知技术大会上,中国科学院上海生命科学研究院研究员王立平提到,以人类记忆一串长数字为例,相比于记忆长数字,短一些的数字串记忆效果会更好,这也印证了人类记忆的存储空间较小。其次,在长串数字的记忆中,记忆效果并不是从开头到结尾线性递减,反而是开头和结尾的记忆效果更好,中间的记忆效果较差。再者,犯错的地方常常出现在相邻之处,比如把3、4记成了4、3,数字没问题,相邻的顺序更容易记错。倘若希望机器更加拟人,人类的记忆规律是否可以应用在机器对数据的存储和调用中。而且机器系统的抽象化该如何实现,如何刻画系统抽象化的结构,怎么判断事物的相似之处并方便机器通过找规律进行学习。目前机器只能通过提取数据的共同特征,找到共同特征进行“联想”,这种方法非常机械,还需要大量的特征标签。除了比较费时费力的海量数据标注,还有什么更简便的方法来实现事物的相似化联想,值得后续的思考。
2.机器的反馈
在人类什么都不做也不思考的时候,人类的大脑神经元也不都是静止的,大脑会在此时进行一个记忆的巩固。除此之外,人类的学习有一个反思的过程。正如前面提到,人类的学习是通过不断的失败后再学习,总结失败的规律,这里面就存在着人类的反思。反思可以促进知识的积累,价值的判断,从而促进人类的进步和不断发展。映射在机器当中,则是一个反馈的过程。
在大脑中以前馈输入为主,反馈回路并不多,人却可以很好的进行反思。当前的问题在于,清晰机器的反馈应该反馈些什么,反馈给谁,才能使机器的反馈达到人类反思的效果。反馈又该如何定量刻画,对于非线性的反馈又当如何处理。
3.数据-信息-知识-应用
数据是对客观事物记录下来的可以鉴别的符号,它包含有用的部分和冗余的部分。将数据进行处理,解释了数据有用的部分使数据有了意义,有意义的部分便称为信息。将信息构建联系,经过人脑加工提炼出来,便得到具有规律普适性的知识。将知识通过逻辑思维与系统设计,使知识有溢出价值,便形成了智慧。
对于机器而言,它只能处理数据,并不像人一样具备提炼出知识的能力,更不能很好的将已有知识应用起来。人类可以理解的知识如何转化使机器可以理解和执行,如何将客观数据和主观信息融合,如何将知识迁移应用在多领域,将是未来想要赋予机器真正智能的必经之路。
4.小样本学习
在海量数据支撑起机器智能的今天,机器只有通过大数据进行训练才能达到拟合人类智能的效果。比如深度学习,需要大量的标注样本才能发挥作用。然而很多情况下我们没有很多的样本和数据供给机器进行机器学习,例如医疗领域、安全领域等等很多问题是没有那么多标注数据的,获取标注数据的成本也非常大,而小样本情况下是不足以支撑机器学习的训练的。但是在实际应用当中,各种突发情况和变换的环境是没有办法提前通过大数据训练的,人类具备应对突发事件的能力,机器在对于小样本学习时准确率却低到离谱。如何使机器摆脱海量数据的前提条件,在处理小样本学习的时候也得心应手,是当前急需解决的难题。对于这种情况而言,深度学习等机器学习方法并不能很好的解决,或许可以从模糊决策树下手进行小样本学习的研究。
5.价值的判断
众所周知,人可以判断价值,而机器不可以。王立平老师在大会上提到,人类的大脑中具有进行价值判断的区域,而对于这一点怎么应用在机器当中,将是一个新的挑战。问题在于如何把判断性的东西变成机器可计算的东西,即如何将人类的算计转化为机器的计算。不仅如此,在价值判断上,还会涉及到伦理道德问题,以及价值判断出错后的问责问题,都是除了技术问题之外,阻碍机器价值判断发展的重要因素。
由于当前技术限制,以上很多方向我们在短期时间内无法解决。我们需要探究人类的认知机理,情感机理等等,才能将其转化应用在机器上,这需要很长的时间,需要不断地试错和打磨。那么在这段探索的期间,我们也不应该让机器得发展止步不前,退而求其次,我们依旧可以让机器不断更新迭代,让它拥有更加适配人类的功能。因此机器在某些情况下其实不一定非要拟人,一旦机器绝对拟人,便会涉及到伦理道德责任等等需要考虑的复杂情况,机器绝对的拟人不一定是好事。
1. 机器不一定要学会判断价值
虽说机器没有判断价值的能力而人有,那么人的价值判断一定是正确的吗?对于个人而言有价值的东西或许对集体而言是没有价值的,甚至是损害集体价值的,那么在一个人机环系统中,人来决定的价值走向或许是自私的,是不利于整个大环境的。在这种情况下,机器或许没有判断价值的能力,但是可以从价值判断的标准入手,来提醒人类规避不好的价值取向。机器不一定非要拟人,像人一样学会价值判断,只要可以及时向人类提供价值判断标准,来辅佐人类进行正确的价值判断即可。
2.机器不需要拥有人类的直觉
人的思考模式分成快思考和慢思考两个系统,快思考是依赖直觉的、无意识的思考系统,慢思考是需要主动控制的、有意识进行的思考系统[2]。快思考速度快,自行运行,可以快速给出答案,但是不一定对,比如我们受到情绪影响而做出的判断很容易出现偏差。慢思考是基于证据和数据搜集考证后做出的理性判断,结果往往是准确的。快思考类似于人的直觉和计算,而慢思考则类似于人的算计。
机器一定要拟人,拥有人类的直觉吗?答案是否定的。人类的直觉虽然速度快,但不一定准确,只图速度快对于计算能力很强的机器而言是完全没有必要的。因此对于机器而言,更要发挥它的长处。人类会习惯性第一时间调用快思考,而这种不准确的快思考尽量避免,计算的事情交给机器,所以当人类第一时间产生快思考时,选择机器提醒进行辅助决策,可以避免人类陷入思维困境。
由于技术上的限制和社会发展的硬性需求,人机混合智能逐渐成为当前最热门的发展趋势。人有人的优势,但也有工作速度慢、易疲劳等缺点,这些刚好可以由机器来弥补,而机器没有对价值进行判断,对情况进行推理等功能,这一部分便可交给人。人机协作,可以发挥出整个人-机-环境系统最大的功效。人机混合智能的出现,既减轻了人工作的负担,又避免了人不在环路可能产生的异常情况,是当前人工智能发展的必然。
人机混合智能,简单地说就是充分利用人和机器的长处形成一种新的智能形式[4]。人机混合智能理论着重描述一种由人、机、环境系统相互作用而产生的新型智能形式,它既不同于人的智能也不同于人工智能,它是一种物理性与生物性相结合的新一代智能科学体系。人机混合采用分层的体系结构,如图1。人类通过后天完善的认知能力对外界环境进行分析感知,其认知过程可分为记忆层、意图层、决策层、感知与行为层,形成意向性的思维;机器通过探测数据对外界环境进行感知分析,其认知过程分为目标层、知识库、任务规划层、感知与执行层,形成形式化的思维。相同的体系结构指明人类与机器可以在相同的层次之间进行融合,并且在不同的层次之间也可以产生因果关系。
图1 人机混合智能下人机分工示意图
然而人机混合智能当前也存在着一些问题需要注意和解决,其一是人机分工问题。什么样的任务应该交给人来做,什么样的任务应该交给机器,是否需要一个人机任务分配边界的标准来划定什么样的任务分配就是最优的。人易疲劳,会被情绪影响到工作绩效,而机器又不能离开人独立工作,那么什么样的人机分工是最优解还是目前需要探索的难题。
其二是降低系统认知负荷的问题。对于整个人机混合智能系统中,降低系统的认知负荷尤为重要。在人-机-环境组成的人机混合智能系统中,降低系统的认知负荷可以提升绩效。不管是减轻人类的认知负荷,还是减少机器处理无用的数据,或者是降低环境的冗余信息,都对于整个人机环境系统工程十分重要。可以采用有效的信息检索来减少无用数据的干扰,也可以通过机器的辅助决策来降低系统的认知负荷。
其三是信任问题。在机器进行辅助决策的时候,机器如果可以具备推理、联想、规划的能力,才能够增加人类对于机器辅助决策的信任。否则当机器提供辅助决策时,人类持有怀疑态度,不但不会降低系统的认知负荷,反而会使系统认知负荷增加。而目前的技术,显然机器还尚未具备那般完备的辅助决策能力。人对于机器的能力不信任不好,过信任也会出问题[3]。因此在机器辅助决策系统并不完善的当下,系统展示什么层级透明度的信息以及系统的可解释性在此时尤为重要。
参考文献 略