关于百度飞浆深度学习7日入门-CV疫情特辑的心得体会

 本次参加了百度飞浆的7天训练营,最初的原因是从智能车卓晴老师那里引进来的,知道了这次课程和AIstudio这个平台,同时也因为自己也一直都想接触AI方面的知识和培训,但是一直没有找到合适的机会切入这一方面(当然,也是因为自己的拖延)。正好本届智能车和AI结合的颇为紧密,我也就下了决心完成这次训练营。
 此次训练营,要说我个人的最大收获,便是确实的了解和接触了那些神经网络和深度学习,而不是只停留在科普的层面,实践了DNN,CNN,vgg之类的网络结构,虽然作业除了第一天,后面几天的作业完成的都非常勉强。。。也让我再次明白了理论基础的重要性,基础理论不明白,后面实践真的还是挺难的。
 这几天我接触了许多的概念和基础术语,但作为一名完全没有接触过神经网络的外行,却依然有很多听不懂的,在这篇博客也记录一些,以下是我目前查询过的一些基础概念或术语简要概括,如果有兴趣可以自行去查询:

NN:神经网络
DNN:狭义上指全连接神经网络,广义上可以说隐层达到一定个数的都是深度神经网络
CNN:卷积神经网络
RNN:循环神经网络
关于百度飞浆深度学习7日入门-CV疫情特辑的心得体会_第1张图片
前馈神经网络:是一种最简单的神经网络,各神经元分层排列。每个神经元只与前一层的神经元相连。接收前一层的输出,并输出给下一层.各层间没有反馈

过拟合:过拟合是指为了得到一致假设而使假设变得过度严格。避免过拟合是分类器设计中的一个核心任务。通常采用增大数据量和测试样本集的方法对分类器性能进行评价。

全局最优:针对一定条件/环境下的一个问题/目标,若一项决策和所有解决该问题的决策相比是最优的,就可以被称为全局最优。
局部最优:局部最优,是指对于一个问题的解在一定范围或区域内最优,或者说解决问题或达成目标的手段在一定范围或限制内最优。
可以看到,局部最优不一定是全局最优,全局最优一定是局部最优。

学习率(Learning rate):作为监督学习以及深度学习中重要的超参,其决定着目标函数能否收敛到局部最小值以及何时收敛到最小值。合适的学习率能够使目标函数在合适的时间内收敛到局部最小值。

知识蒸馏
先训练一个teacher网络,然后使用这个teacher网络的输出和数据的真实标签去训练student网络。知识蒸馏,可以用来将网络从大网络转化成一个小网络,并保留接近于大网络的性能;也可以将多个网络的学到的知识转移到一个网络中,使得单个网络的性能接近类似的结果。

作者:Ivan Yan 链接:https://zhuanlan.zhihu.com/p/81467832 来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

FLOPs
是floating point of operations的缩写,是浮点运算次数,可以用来衡量算法/模型复杂度。
Pooling:池化,降低维度,类似于等比例缩小图片尺度,减少。

迁移学习(Transfer learning)
是将在某个领域或任务上学习到的知识或模式应用到不同但相关的领域或问题中。

Int8量化
就是将原本大模型的’float32’转化为’int8’,使其模型尺寸更小、推断更快、耗电更低。唯一的缺点,模型精度会下降。

NAS
神经网络架构搜索,一种神经网络算法,
NAS的原理是给定一个称为搜索空间的候选神经网络结构集合,用某种策略从中搜索出最优网络结构。神经网络结构的优劣即性能用某些指标如精度、速度来度量,称为性能评估。这一过程如下图所示。
就是优化参数
关于百度飞浆深度学习7日入门-CV疫情特辑的心得体会_第2张图片

你可能感兴趣的:(AI)