深度学习部分面试题

softmax公式

Softmax loss公式,L1 loss,L2 loss ,smooth L2 loss 公式

Batch norm 更新哪些参数: 减均值,除方差,乘aphpa,加beta

Relu中梯度消失和梯度爆炸,消失就是为0,爆炸就是很大的数
 
深度学习中数据是怎么并行运行的

Resnet为什么vgg深,写出其基本结构

Nms运行过程: 极大值保留,(与极大值重合的)非极大值抑制

检测算法里nms步骤 - 知乎

Kernel计算公式

简述如何downsample,如何upsample

写卷积

caffe卷积原理

写图像预处理

激活函数:
非线性,
感知机:
非线性sigmoid
池化:
降维,平移不变性maxpooling

技巧,说不清就展示

你可能感兴趣的:(深度学习,深度学习,caffe,人工智能)