第一个乐观的观点:其实,用简单却强大的思想取代复杂的规律来解释一些现象,科学史上不乏这样的例子。比如,牛顿提出的万有引力理论,不仅解释了所有星体的运行原理,还能解释地球上的潮汐现象和抛物运动等。
门捷列夫的元素周期表 巧妙地解释了构成整个世界的神秘的化学物质,而这些规律又能被更简单的量子力学规律解释。又如生物界中太多的复杂性和多样性产生了诸多困扰,终发现答案是 自然选择作用的演化规律 。 第二个更乐观的观点:来自分子生物学对人类大脑的探究,需要多少基因信息来描述人类大脑的构造? 实验证明,基于对黑猩猩的所有基因序列的研究,发现黑猩猩和人类的相似度为96%左右。其中,与人类不同的DNA碱基对有1.25亿,而它总的碱基对总数约为30亿个。科学家根据以上的数据进行推演,人类思维最关键的原理存在于 1.25 亿比特上,采纳分子生物学对大脑的观点能将问题降低 9个数量级的复杂度,尽管令人振奋,但这未声明关于智能的简单算法是否可能。 怎样才算是“智能由简单算法产生”的证据?有些证据源自进化心理学和神经解剖学。20世界60年代,进化心理学家就发现了众多的人类一般性概念——在抚育及所有人类复杂行为中体现出来的共性。 作为对这些结论的补充, 神经解剖学的大量证据表明人类的很多行为由大脑的特定区域决定,而这些区域在所有人类身上看起来都是相似的 。 反方观点:某些人根据这些结果推断:对于大脑的不同功能,需要有不同的解释,所以大脑功能存在不可简化的复杂性,这也使得不太可能为大脑运作找出一个简单的解释(或者说简单的智能算法),例如著名的人工智能科学家 Marvin Minsky 就持有这样的观点。
在描述该理论的书中,Minsky 将自己的观察总结如下: 什么让我们变得智能?其实没有奥秘。智能从我们广泛的多样性中诞生,而非从任一简单、完美的原理中。作者观点:
尽管人类大脑的确包含不同的区域,各有不同的功能,但也 不能断言对于大脑功能不存在简单的解释,因为很可能这些不同的构造其实有着共同的原理 ,实际上也可以像彗星、行星、恒星的运动都是遵循引力一样,而 Minsky 和其他人都不能反驳这样的统一观点。 总而言之,按照乐观的说法,我不相信人类会找到关于智能的简单算法。具体而言,我不 相信我们终能通过简短的 (假设有上千行) Python (或者 C、Lisp等) 程序实现人工智能,我也不认为终能借由简单的神经网络实现人工智能。但我相信, 这样的程序或者神经网络值得不懈探索 。 这是获得见解的途径,通过追求这种进步,将来某天有望达到足够深的理解,从而设计出更高级的智能网络。因此,认为存在简单的智能算法是值得的。 20世纪 80年代,杰出的数学家和计算机科学家 Jack Schwartz 受邀参加一场人工智能倡导 者和怀疑者之间的辩论。辩论场面后失控,倡导者一直鼓吹研究进展非常惊人,怀疑者则非常悲观,认为人工智能完全不可能实现。Schwartz 保持超然的态度,在讨论升温时依然安静。在辩论间隙,他被问起有什么看法。 Schwartz 说道:“嗯,部分研究进展需要有数百个诺贝尔奖作为铺垫。” 我很认同这个观点。人工智能的关键是简单而强大的想法,我们能够也应该乐观地去探索这些想法。现在正需要很多这样的想法,我们仍然有很长的路要走! 原书豆瓣评分 9.5 哈工大研究生课程的高分讲义 深度学习的「the book」 迈克尔·尼尔森(Michael Nielsen) | 著朱小虎 | 译
本书深入讲解神经网络和深度学习技术,侧重于阐释深度学习的核心概念。作者以技术原理为导向,辅以贯穿全书的 MNIST 手写数字识别项目示例,介绍神经网络架构、反向传播算法、过拟合解决方案、卷积神经网络等内容,以及如何利用这些知识改进深度学习项目。学完本书后,读者将能够通过编写 Python 代码来解决复杂的模式识别问题。 以原理为导向,配有动态示例,直观展示了神经网络的数学模型原理。 注重实践,通过解决具体问题——教计算机识别手写数字——来介绍神经网络和深度学习的核心理论。目标读者:任何想要掌握深度学习的工程师、老师、学生、企业家、创业者都可读。
本书作者是谁
Michael Nielsen,物理学博士,现在是实验媒体研究工作室的联合创始人,曾是 YC Research 的 Research Fellow。 他是一名卓越的科学家与作家。致力于推进量子计算与现代开放科学运动。其著作具备精确专业、深入浅出、笔触幽默的特点。 其与 Issac Chang 合著的《量子信息与量子计算》是量子计算领域的经典之作,是物理学领域十大高引著作作之一(谷歌学术引用 41,466)。 受到来自麻省理工、IBM 沃森实验室、牛津大学、贝尔实验室等高校和机构的国际一流量子计算专家学者的推崇。http://michaelnielsen.org/
本书赞誉
可以上下滚动的图片
读者好评
可以上下滚动的图片
译者后记
译者简介: 朱小虎,University AI 创始人兼首席科学家、Center for Safe AGI创始人、谷歌开发者机器学习专家、百度深度学习布道者。和团队核心成员一起创建了 TASA、DL Center(深度学习知识中心全球价值网络)和 AI Growth(行业智库培训)等。举办过多场国际性人工智能峰会和活动。在多个技术平台写下了近百万字的人工智能精品技术内容。曾受邀为多所国内高校制定人工智能学习规划和教授人工智能前沿课程,也曾为多家世界500强企业提供人工智能方面的战略布局建议及落地实施等方面的咨询建议。
本书从翻译完成到出版经历了长达 4 年的时间,这其中的辗转周折自不用说。很早之前,我就读过《量子计算和量子信息》,便记住了 Michael Nielsen 这个名字,基于以上,专业需要又继续阅读的 Michael 的第二本书 Neural Networks and Deep Learning ,这本被誉为深度学习的「the book」,实验和讲解结合的相当自然,尤其是深度学习可解释性方面的解读,对我触动很大,也因此有了翻译的想法,让更多读者看到!
另外,为了让大家更好地学习此书,我们提供了 PyTorch 的实现。这是由我们团队的李竞支持的。也希望能有更多的同学加入进来。(https://github.com/tigerneil/NNDL-PyTorch)
尽管深度学习已经成为很多领域的默认选项,但是人工智能的发展和影响才刚刚进入一个深水期。此时更需从经典出发,找到新的启发和思考模式,才能更好地利用已有资源发展对整个人类更加有意义的技术。《深入浅出神经网络与深度学习》就是这样一本能够给你启发,引发思考的高质量技术书。我相信,你一定能从中找到点亮你未来的那个触发点。
《深入浅出神经网络与深度学习》 当当满开学季5折活动正在进行时 实付满200-40优惠码可以叠加使用优惠码:【9D8XUE】或 【RANCGY】(注意区分大小写)
使用渠道:当当小程序或当当APP
有效期:8月24日至9月7日
参与方式及评奖机制
欢迎在文章下方留言你的答案!截止北京时间 2020年 9月 9 日 晚 20:00,我们将从中选出5条优秀评论(注意不以点赞为依据),各赠送《深入浅出神经网络与深度学习》一本。
评奖说明
1、本期活动时间节点安排:
活动截止时间:2020 年 9 月 9 日 晚20:00
获奖公示时间:2020年 9 月 10 日 晚23:59 前,AINLP运营团队将在本篇留言下直接回复中奖粉丝联系并提供收件信息。
奖品领取流程:获奖粉丝根据留言提示尽快提供收件信息,若无疑义,奖品将于 2020 年 9 月 15日左右由人民邮电出版社直接发出。
2、AINLP运营团队会在12小时内筛选过滤掉不符合要求的评论,不予上墙展示。
3、如对本期活动及中奖结果有疑义,请联系AINLP小助手(id: ainlper)。
4、活动赞助请联系AINLP小助手(id: ainlper)
本文转载自公众号 图灵教育(ID:turingbooks)
原文链接:一份火爆AI圈的高分深度学习入门讲义,李航、马少平领衔多位科学家力荐!
欢迎加入AINLP技术交流群 进群请添加AINLP小助手微信 AINLPer(id: ainlper),备注NLP技术交流推荐阅读
这个NLP工具,玩得根本停不下来
征稿启示| 200元稿费+5000DBC(价值20个小时GPU算力)
完结撒花!李宏毅老师深度学习与人类语言处理课程视频及课件(附下载)
从数据到模型,你可能需要1篇详实的pytorch踩坑指南
如何让Bert在finetune小数据集时更“稳”一点
模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法
文本自动摘要任务的“不完全”心得总结番外篇——submodular函数优化
Node2Vec 论文+代码笔记
模型压缩实践收尾篇——模型蒸馏以及其他一些技巧实践小结
中文命名实体识别工具(NER)哪家强?
学自然语言处理,其实更应该学好英语
斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用
关于AINLP
AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。
阅读至此了,分享、点赞、在看三选一吧