面经2

 

1、CNN的核心是什么?

        局部感知,权值共享,池化和层次化

2、卷积操作是怎样进行的?

        对于图像的不同局部的矩阵和卷积矩阵的各个位置的元素相乘,然后相加求和。

面经2_第1张图片

 

3、卷积反向传播过程?

\delta ^{i,l} 为梯度;

面经2_第2张图片

 

4、Tensorflow中卷积操作是怎样实现的?

        (w,h,in,ou)四维张量。

5、池化又是怎样操作的,反向传播过程中池化层怎么接受后面传过来的损失的

        接收上一层的梯度,并且按照之前下采样的方式,用上采样将梯度矩阵还原成原来大小的。

6、GDBT介绍一下

       梯度提升树模型。是属于boosting模型范畴,主要思想是,利用损失函数的负梯度作为残差的近似值新的树通过不断地拟合残差得到。(与提升树的区别是,残差的计算不同,提升树使用的是真正的残差,梯度提升树用当前模型的负梯度来拟合残差)

7、逻辑回归中sigmoid函数的好处?以及为什么用极大似然?

      当z趋于正无穷时,g(z)趋于1,当z趋于负无穷时,g(z)趋于0。g(z)求导很容易得到。

      回顾一下线性回归的损失函数,由于线性回归是连续的,所以可以使用模型误差的平方和来定义损失函数,但是逻辑回归不是连续的,自然线性回归损失函数定义的经验就用不上了。不过我们可以用最大似然法来推导我们的损失函数。

面经2_第3张图片

你可能感兴趣的:(个人面经)