脑机增强问题

【脑机增强问题】OpenAI创始人兼CEO Elon Musk近期提出,人类可以延缓因为机器崛起变得无足轻重的命运,办法是与机器结合,成为电子人。

Musk的观点直截了当:通过利用机器学习和对深度学习这样的家数,人类大脑与计算机之间足够先进的接口可以让人类极大地增强自身能力。

假设硬件挑战问题最终被解决了,也还有更大的问题是我们对于这些复杂的神经网络究竟是怎么运作的仍难以理解和归纳。

我们信任简单的技术,比如计算器我们知道它会一直像我们希望那样计算精确。结果错误几乎永远是因为人输入的错误。

脑机增强的愿景之一是让我们成为算术超人。所以有了脑机接口的话,我们可以不必掏出计算器或者智能手机,只需要脑子过一遍公式然后“辅助”机器就可以把答案告诉我们了。

但如果我们试图接入由深度学习这样的机器学习提供的更先进功能时,情况就开始变得有些怪异了。

假设你在机场担任保安的角色,并且有了一个增强的脑机接口,机器可以自动扫描你每天看到的成千上万张人脸,然后警告你可能出现的安全风险。

大多数机器学习系统都收到一个臭名卓著的问题困扰,也就是一个人或者对象的外观出现一点小小的变化都会导致系统对此分类做出灾难性的错误判断。把一张人的图片变动不到1%,机器学习系统可能突然就会以为自己看到的是自行车。

恐怖分子或者犯罪分子可能会利用机器不同的漏洞来绕开安全检查,目前的在线安全已经出现了这种问题。人类自身尽管存在限制,但可能对这类漏洞具备免疫力。

尽管机器学习技术有不感情用事的美誉,但一样会像人类那样存在偏见,如果给它输送合适的数据的话,甚至还会表现出种族主义的行为。这种不可预测性对人类如何植入机器,更重要的是如何信任机器具有重大影响。

人类思想是复杂的、高度动态的活动。在上一节相同的安全场景下,就算有了足够先进的脑机接口,机器如何才能知道需要忽略哪些人类偏见呢?毕竟,无意识偏见是我们每个人都面临的挑战。如果该技术是在帮助你面试应聘者呢?

对受信任自主系统的研究涉及到两方面的问题,一是人类对机器的信任问题,二是机器对人类的信任问题。

战争机器人必须对人类下达的非法命令做出道德决定,脑机接口发生的事情正好与之呼应:机器既要解析人的想法,同时也要对人类思维当中深层次的无意识偏见进行过滤。

在防御的场景下,人类大脑理性的角色正在检查这一决定是否道德。但当人类大脑接入机器时,在由于机器利用的数据规模大到大脑无法理解的地步而造成干扰的情况下,人类又该作何判断呢?

从长期来看,这个问题将是人类是不是需要(如果是的话如何)参与到日益由机器来做出决策的过程当中的问题。很快,机器就将做出没人能看得明白的医疗决策。在这个过程当中,人类大脑可以以及应该扮演什么样的角色呢?

尽管人类最初在脑机系统中也许扮演着“有用”角色,但随着技术的不断改进,把人纳入到这个循环里面的理由也许会越来越少。

通过把人类大脑与人工大脑集成起来以保持人类的重要性这个想法很吸引人。有待观察的是在这里面人脑能作何贡献,尤其是在技术的发展节奏相对于人脑的进化速度是天壤之别的情况下。

银河湾推荐

2017.3.4

你可能感兴趣的:(脑机增强问题)