【深度学习】一些面试问题小结

一些面试问题小结

一个神经网络有哪些层:卷积层——池化层——FC(单神经网络层)等

卷积层意义:提取图像的特征(像过滤器一样)

使用0扩充边界:没有缩小高度和宽度;帮助图像在边界保留更多的信息

池化层:缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性

Max Pooling:取最大值

Average Pooling:取平均值 

超参数:隐藏层的大小;学习率;迭代次数;神经网络中的层数 

典型网络模型:

ResNet残差网络:有残差块,跳远连接,指a[L]跳过一层或好多层,使用残差块能够训练更深的神经网络,有助于解决梯度消失和梯度爆炸的问题。

Inception网络:应用各种类型的过滤器,只需要把输出连接起来。

VGG-16:包含了16个卷积层和全连接层

1*1卷积:压缩nc的方法,它给网络添加了一个非线性函数,从而减少或保持输入层的信道数量不变 

你可能感兴趣的:(面经,深度学习,面试,神经网络)