人类公元纪年2019年伊始,深度学习技术也同样处在一个新的“开端”,宜review、宜展望。
MIT正在进行中的深度学习课程就全面描绘了当下的状态。
最近一节课,Lex Fridman老师展现了深度学习各方向的最领先状态,也回顾了过去两年间通往前沿的一步步进展。涉及自然语言处理、深度强化学习、训练和推断的加速等等。
这里的“领先”,只谈想法方向,无关基准跑分。
面对课上展现的大进展,甚至有网友说:
课前喝一杯?机器学习进展如此巨大,简直值得来一两瓶。
视频放出一天多,收获感谢无数。
量子位上完课,结合PPT写了笔记一份,分享给大家。
正式开始前,先来一份小目录。
这节课涉及的重大进展,共12个方面,分别是:
BERT和自然语言处理(NLP)
特斯拉Autopilot二代(以上)硬件:规模化神经网络
AdaNet:可集成学习的AutoML
AutoAugment:用强化学习做数据增强
用合成数据训练深度神经网络
用Polygon-RNN++做图像分割自动标注
DAWNBench:寻找快速便宜的训练方法
BigGAN:最领先的图像合成研究
视频到视频合成
语义分割
AlphaZero和OpenAI Five
深度学习框架
我们一个一个细说。
2018年是自然语言处理之年。很多圈内人把2012年称为深度学习的ImageNet时刻,因为这一年,AlexNet带来了计算机视觉领域的性能飞跃,激励着人们去探索深度学习在这一领域的更多可能性。
2016年到18年,NLP的发展也类似,特别是BERT的出现。
NLP的发展要从编码器-解码器架构说起。
上图展示了一个用于神经机器翻译的序列到序列(seq2seq)模型。RNN编码器负责将输入序列编码成固定大小的向量,也就是整个句子的“表征”,然后把这个表征传递给RNN解码器。
这个架构在机器翻译等领域很管用。
接下来发展出了注意力(Attention)。这种机制,不强迫网络将所有输入信息编码城一个固定长度的向量,在解码过程中还能重新引入输入序列,还能学习输入序列和输出序列中哪一部分互相关联。
比较直观的动态展示是这样的:
再进一步,就发展到了自注意力(Self-Attention),和谷歌“Attention is all you need”论文提出的Transformer架构。
Transformer架构的编码器用自注意力机制为输入序列生成一组表征,解码过程也使用注意力机制。
说完注意力的发展,我们再看一下NLP的一个关键基础:词嵌入。
词嵌入的过程,就是把构成句子的词表示成向量。传统的词嵌入过程用无监督方式将词映射成抽象的表征,一个词的表征参考了它后边的序列。
这是一个语言建模(language modeling)过程。
后来,有了用双向LSTM来做词嵌入的ELMo。
双向LSTM不仅考虑词后边的序列,也考虑它前边的。因此,ELMo词嵌入考虑了上下文,能更好地表征这个词。
接下来出现了OpenAI Transformer。
也就是用先预训练一个Transformer解码器来完成语言建模,然后再训练它完成具体任务。
经过这些进展的积累,2018年出现了BERT,在NLP的各项任务上都带来了性能的明显提升。
它可以用在各种各样的NLP任务上,比如说:
像ELMo一样创建语境化词嵌入;
句子分类;
句对分类;
计算句对的相似度;
完成选择题形式的问答任务;
给句子打标签;
完成普通的问答任务。
量子位之前有回顾2018年深度学习进展、NLP进展的文章,也都详细谈了BERT。
一文看尽2018全年AI技术大突破
不只有BERT!盘点2018年NLP令人激动的10大想法
特斯拉的出现毫不意外,量子位之前介绍过,Lex老师是马斯克的小迷弟。
作为神经网络大规模应用的代表,也的确值得一提。
Autopilot二代硬件使用了英伟达的Drive PX 2,还搭载了8个摄像头获取输入数据。
Drive PX 2上运行着Inception v1神经网络,运用摄像头获取的各种分辨率数据进行各种来计算,比如分割可以前进的区域,物体检测等等。
这套系统,已经把神经网络带进了车主们的日常生活中。
AutoML是机器学习界的梦想:
将机器学习的一方面或者整个流程自动化,扔一个数据集进去,让系统自动决定所有的参数,从层数、模块、结构到超参数……
谷歌的神经架构搜索,无论从效率还是准确率来看成绩都不错。
2018年,AutoML又有了一些新进展,AdaNet就是其中之一。
它是一个基于Tensorflow的框架,AutoML一样,也是用强化学习方法。不过,AdaNet不仅能搜索神经网络架构,还可以学习集合,将最优的架构组合成一个高质量的模型。
要进一步了解AdaNet,可以参考量子位之前的文章:
谷歌开源集成学习工具AdaNet:2017年提出的算法终于实现了
从2012年的“ImageNet时刻”到现在,图像识别的新算法层出不穷,成绩一直在提升。
而在计算机视觉里,数据量非常重要,数据增强(data augmentation)也是重要的提升识别率的方法。但是,关于数据增强的研究却不多。
2018年,Google继自动搜索神经架构之后,把数据增强这个步骤也自动化了。
AutoAugment能根据数据集学习这类图像的“不变性”,知道哪些特性是最核心的,然后,神经网络在增强数据时应该让核心特性保持不变。
比如说,它自动增强门牌号数据集的时候,会常用剪切、平移、反转颜色等方法,而在ImageNet这种自然照片数据集上,就不会剪切或者翻转颜色,只会微调颜色、旋转等等。
这个过程和计算机视觉里常用的迁移学习差不多,只不过不是迁移模型权重,而是迁移大型数据集体现出的数据增强策略。
进一步了解AutoAugment,推荐阅读:
利用AutoAugment提升深度学习性能
很多机构都在研究如何用合成数据来训练神经网络,英伟达是其中的主要势力。
英伟达非常擅长创造接近真实的场景,他们2018年一篇用合成数据训练深度神经网络的论文就充分利用了这一点,合成数据训练的模型,成绩完全不逊于真真实数据。
合成数据还非常灵活多变,比如说汽车、屋子,都能合成出各种各样的数量、类型、颜色、纹理、背景、距离、视角、灯光等等。
关心如何用合成数据训练模型?英伟达的这篇论文值得一读:
Training Deep Networks with Synthetic Data: Bridging the Reality Gap by Domain Randomization
https://arxiv.org/abs/1804.06516
在训练深度学习模型过程中,数据标注是非常耗时费力的环节。特别如果要标注出语义分割图,就更加麻烦。
Polygon-RNN++是一种自动标注图像的方法,能自动生成一个多边形,来标注出图像里的对象。
它用CNN提取图像特征,然后用RNN解码出多边形的顶点,提出多个候选多边形。然后,一个评估网络从候选中选出最好的。
这也是让深度学习尽可能自动化的一种努力。
Polygon-RNN++的主页上,能找到这一工具的论文、Demo、代码等各种资料:
http://www.cs.toronto.edu/polyrnn/
除了让深度学习尽可能自动化之外,还有一个一直受关注的研究方向:让它更易用。也就是快速、便宜。
斯坦福提出的DAWNBench基准,评估的就是模型的速度和成本。它测试各种模型、框架、硬件在ImageNet上达到93%准确率,CIFAR上达到94%准确率的训练、推断速度和成本。
官网在这里:
https://dawn.cs.stanford.edu/benchmark/
在快速廉价这方面,fast.ai有很好的成绩。他们用租来的亚马逊AWS的云计算资源,18分钟在ImageNet上将图像分类模型训练到了93%的准确率。
他们所用的方法,关键在于在训练过程中逐渐提高学习率、降低momentum,这样就可以用非常高的学习率来训练,还能避免过拟合,减少训练周期。
量子位曾经介绍过:
40美元18分钟训练整个ImageNet!他们说,这个成绩人人可实现
在用GAN合成照片这个方向上,2018年最受人瞩目的成就是DeepMind的BigGAN。
它所用的基本模型没有太大变化,关键在于提升训练规模,增大了模型的容量和训练的批次大小。
BigGAN还提交到ICLR匿名评审时,学界就已经沸腾,因为效果实在是堪称史上最佳。
现在,官方开放了BigGAN的Demo,人人都能上手体验:
史上最强GAN:训练费10万起,现在免费体验,画风鬼畜又逼真
这个领域有一项非常值得关注的研究,那就是英伟达和MIT的“Video-to-Video Synthesis”。
只要一幅动态的语义地图,你就可以获得和真实世界几乎一模一样的视频。
通过一个简单的白描草图,也能生成细节丰富、动作流畅的高清人脸:
甚至整个身子都能搞定,跳舞毫无压力:
论文、代码都已公布,量子位也比较详细地介绍过,可以到这里看:
真实到可怕!英伟达MIT造出马良的神笔
视觉感知的问题可以分为三大层级,目前研究最充分的,是分类,也就是图像识别。
然后,是目标检测:在一幅图像里,框出物体,识别出它是什么。
关于目标检测的研究非常多:
其中不少工作很exciting,但Lex老师认为哪一个都称不上“突破”。
而语义分割,是视觉感知问题的最高层级。
现在,这一领域的最好成绩属于DeepLab v3+。
关于语义分割的重要研究,可以说从2014年的FCN开始,经历了2015年的SegNet、Dilated Convolutions的发展,2016年出现了DeepLab v1、v2版本。
DeepLab系列用ResNet来提取图像特征,增加了全连接条件随机场(CRF)作为后续处理步骤,能捕捉图像中的局部和长距离依赖,优化预测图,还引入了空洞卷积。
在前两版的基础上,DeepLab v3又增加了多尺度分割物体的能力。
DeepLab的代码,在TensorFlow模型中:
https://github.com/tensorflow/models/tree/master/research/deeplab
用强化学习打游戏这件事,2018年也有明显进步。
这个领域最初的尝试,是DeepMind用强化学习算法玩了一遍雅达利的小游戏,推出了DQN。
随后,就是围棋AI AlphaGo广为人知的一系列发展:
从AlphaGo到AlphaZero的过程,也是一个越来越节约人工、机器自主性越来越高的过程。
AlphaZero掌握围棋、国际象棋、日本将棋三大棋类,但都是完美信息、规则清晰游戏。而OpenAI把目光投向了更混乱的试验场:Dota 2。
对于强化学习算法来说,Dota 2更接近真实世界的情况,它需要解决团队协作、长时间协调、隐藏信息等问题。
OpenAI在Dota 2上取得的进展如下:
2017年,他们的算法在1v1比赛中击败顶尖选手Dendi;
2018年,5v5的AI队伍OpenAI Five在Dota比赛TI上对战顶尖职业选手,输了两局。
两场比赛的回顾、技术解读、精彩片段,都在量子位曾经的报道里:
第一场回顾 - AI溃败,被Dota2职业战队打蠢!独家专访OpenAI:我们发现一个Bug
第二场回顾 - AI又输了!中国传奇Dota2冠军联手,OpenAI快速进化然并卵
赛后解读和精彩片段集锦 - 遇劣势变蠢、发语音嘲讽人类……OpenAI这些奇葩DOTA操作跟谁学的?
未来仍需努力。
回顾整个2018年,深度学习框架排名是这样的:
框架的格局会往什么方向发展?要看这样几个用户关心的因素:
学习曲线
开发速度
社区的规模和热情
用这一框架实现的论文数量
长期发展和稳定的可能性
工具生态
要展望2019,我们应该好好思考Hinton谈过的两个观点:
关于反向传播:“我的观点是把它完全抛弃,从头再来。”
“未来取决于我说什么都深切怀疑的那些研究生们。”
最后,附整节课视频(纯生肉,英语、无字幕):
以及PPT:
https://www.dropbox.com/s/v3rq3895r05xick/deep_learning_state_of_the_art.pdf?dl=0
量子位(公众号QbitAI)还在网盘传了一份PPT,在公众号对话界面回复“最前沿”可得。
— 完 —
请投“量子位”一票
加入社群
量子位AI社群开始招募啦,欢迎对AI感兴趣的同学,在量子位公众号(QbitAI)对话界面回复关键字“交流群”,获取入群方式;
此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。
进专业群请在量子位公众号(QbitAI)对话界面回复关键字“专业群”,获取入群方式。(专业群审核较严,敬请谅解)
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
喜欢就点「好看」吧 !