学习感悟-The mysterious mind

上传中...

如果非要给最有趣的事物排个名次的话,我想我会把研究广袤宇宙中万物运行规律的物理学和研究我们亲切又神秘的人类大脑的认知科学并列排在第一位。机器学习引发了我对人的学习过程的强烈好奇,在连锁反应下,又开始对研究大脑认知的神经科学产生兴趣。最近开始读认知科学家Steven Pinker的新书《How the Mind Works》,为了整理思路,于是打算学着写写读书笔记,希望能对后面的学习有所帮助。So,难道我们已经知道大脑是如何工作了吗?No and Yes,最近几年几乎各大国都开始了所谓的“脑计划”,还记得之前在北京听了清华教授张钹院士的一个关于中国“脑计划-类脑计算”的讲座,当时还问了张教授这个问题,答案无疑是“目前科学界对意识都还没有明确的定义,更谈不上研究了”(btw,很多科学家都这么认为),然而,事实上近几年大量的研究投入并非徒劳,人类已经在逐渐趋近真相。伴随着Gene Enginerring和 Neuroscience的蓬勃发展,AI(particularly machine learning)也引来了前所未有的发展,在这些领域的互相促进下,科学家们不断有了新的突破,似乎大脑如何工作这一神秘的领域已经开始慢慢浮出水面。(原本打算用英文写这个系列的读书笔记,但考虑到想让我老姐也看看我在想些什么,就中英混着来了。哈哈,老姐躺枪,请原谅)

大脑是一个通用计算框架。这似乎慢慢成了大家普遍认同的观点,但是也有一些持反对意见的科学家比如一直与Steven Pinker争论不止的心里学家Jerry Fodor,他认为图灵机(Turing Machines, 详情请wiki)这样的计算框架在模拟大脑的这个任务上是具有局限性的,比如他说Turing Machine无法实现abduction(诱导,欺诈之类的意思吧),看过电影Ex Machina(机械姬)的话,就很容易理解这里说的是什么了。这样的abduction确实是无法用“复杂的计算过程”(信息处理过程,这里只如今的图灵机计算框架)去模拟吗?我想目前没有人能回答。但换个角度看,大脑或许不是图灵机模式呢,或者说是很特殊的图灵机架构,比如它是可以用能保持计算连续性的神经图灵机(fully differentiable)来模拟的,Steven Pinker就认为大脑是通用计算框架,只不过不是图灵机, 我的intuition也告诉我,这是非常可能的。往这个方向对大脑进行反向工程,我想会是未来半个世纪内人工智能的热点。但是这里其实有个更值得深思的问题,为什么各国都争相投入开展脑计划,对大脑进行反向工程,它与太空探索一样重要吗?为什么人工智能的发展是如此inevitable?在不断认识和了解自身的路上,我们是否已经深刻领悟了某些深藏于宇宙的规律,它们或许比基础物质法则更加隐秘和难以理解。

回到《How the Mind Works》第一章,作者在试图说明一件事,心智(cognition or consciousness, 书中统称为 the mind)是一个搭建在很多模块化的生物组织器官之上的通用计算框架或者说computational system。Steven Pinker是进化主义者,主张心智是进化而来的,obviously,人是自然选择(natural selection)的产物,那作为人的一部分,如此复杂的心智自然也是自然选择的产物。作者在书的一开始就着重强调mind is not the brain,很显然,心智是大脑所做的事。因此,以进化论的角度来看(actually I prefer the word "perspective"), 进化的产物都只有一个目标:复制最大数量的基因。对,基因(lives are so deeply controlled by it), 人类被基因控制的程度远超乎我们的想象...不禁想起了黑客帝国。不得不承认这是近乎完美的工程设计,如果一切都没有被设计(没有造物主),那么宇宙这种self–containedness绝对体现了极致的美学。说到这其实我发现了自己内心深处潜藏的想法:作为一个更加完美的系统的一部分,心智是可以被”设计“出来的,这与作者观点一致。但要实现可不简单,我们需要sophisticated enough的心智理论和工程设计能力,世界上那么多的码农辛苦的敲了这么多代码,才带给我们如今的互联网电子虚拟世界和当今的整个人类的工业化水平。然而这些与mind engineering相比,或许都赶不上其复杂程度。作者也在书中第一章描述了模拟人类大脑功能的复杂性,并举人的视觉系统为例。之所以对心智的探索缓慢,最大的阻碍就是人类对大脑的了解程度的限制,而随着技术的进步,描绘出大脑完整的功能图谱已不再是impossible。

心智计算理论主张信念和意愿(belief and wish)其实都是信息,体现为符号(我更偏向于化学信号)的组合。我的学习经历告诉我这个地方就和机器学习中一个至关重要的方向息息相关,那就是knowledge representation。信息处理的过程其实就是在对知识表达的不断抽象,最终体现为化学信号并进行运动控制或者更深层的信息处理。我们面对的世界非常的复杂(决策空间的复杂性),但对于大脑而言他有自己的应对方法,那就是其对知识表达的组合能力-compositionality of representation。举个例子呢,比如说下棋,围棋的规则并不多,但却棋局能有上千万种变化,就是因为简单操作的不断组合。更直接的例子就比如我们的计算机,采用二进制,就0和1却能让你看电影,玩魔兽世界。所以,compositionality is crucial,这就不得不提neural networks(神经网络)了,天生就是为这个功能而生,这样也就不难理解为什么现在深度学习中深度人工神经网络能获得如此成功。我一直有个猜想(目前还没找到反例),世界就是建立在抽象层级之上的,对世界理解越深刻的人,他的representation抽象程度也就越高。

最近自己的好奇心完全被一个话题所吸引:记忆在心智计算过程中的作用。大脑拥有不算完美但却精巧至极的记忆存储及提取的机制,intuitively,个人觉得这是形成认知的非常重要的模块。能够完美地在神经网络结构中实现对working memory和long term memory的设计,并作用在连续预测过程中(prediction),不仅仅需要一个完全可微(differentiable)的计算系统,更需要精巧的工程设计。不过这只是整个心智计算系统的一小部分,待继续读这本书,结合自己的学习过程来慢慢研究和理解。


Jeven

2016.7.10

你可能感兴趣的:(学习感悟-The mysterious mind)